ICTjournal 06/2021

  • Wwwnetzmediench
  • Selon
  • Collaborateurs
  • Ainsi
  • Netzmedien
  • Suisse
  • Entreprises
  • Projet
  • Processus
  • Hybride
  • Travail

34 modération

34 modération algorithmique assistance au codage Github Copilot censure plus de 1000 mots Récemment lancée par Github, la solution d’assistance à la programmation Copilot empêche d’utiliser 1170 mots qui risquent d’offenser. Un chercheur a pu décrypter la liste des ces termes bannis aussi bien au niveau des inputs des développeurs que des outputs produits par l’IA. Yannick Chavanne Image: Sergey / Fotolia.com «Il y a des mots qui ne sont pas offensants, mais que Github craint peutêtre de voir utilisés dans un contexte controversé.» Brendan Dolan-Gavitt, chercheur à l’Université de New York En lançant il y a quelques semaines la première mouture de Copilot, sa solution d’assistance à la programmation, Github a fait polémique. Cet outil se base sur le modèle d’IA inédit OpenAI Codex créé à partir du puissant modèle de traitement de langage naturel GPT-3. OpenAI Codex est décrit par le CEO de GitHub comme «nettement plus performant que GPT-3 en matière de génération de code, en partie parce qu’il a été entraîné sur un ensemble de données comprenant une concentration beaucoup plus importante de code source public». Quid des droits d’auteur et de la qualité du code? Copilot permet de faire gagner du temps aux développeurs en interprétant à la fois les commentaires et le code en tant que tel, afin de suggérer des lignes de code. Une nouvelle version en développement est en outre déjà en mesure de créer du code plutôt complexe à partir de simples instructions en langage naturel. Développeurs et experts de l’IA n’ont pas tardé à pointer du doigt les problèmes et risques inhérents à Copilot, notamment en matière de droits d’auteur. Mais aussi concernant la qualité du code automatiquement généré. «Avec Copilot, les bugs seront transmis plus vite que la vitesse de la pensée», a notamment fait observer le développeur Maxim Khailo. Modération en amont de la création d’algorithmes Un autre aspect de cet assistant à la programmation a dans un premier temps moins focalisé l’attention: l’outil bloque des mots, afin d’éviter de générer des recommandations biaisées, discriminatoires, abusives ou offensantes. La fonction de filtre des mots interdits par Github s’applique aussi bien aux inputs des développeurs qu’aux outputs produits par l’IA. Ce processus de modération en amont de la création d’algorithmes a titillé la curiosité du chercheur Brendan Dolan-Gavitt, professeur assistant en science informatique à l’Université de New York. Dans une série de tweets, l’expert explique comment il est parvenu à déchiffrer la liste de termes bannis de Copilot. Github semble craindre une nouvelle controverse En usant de différentes techniques plus ou moins complexes, le chercheur de l’université de New York est parvenu à décoder la plupart des 1170 termes bannis, en les extrayant d’une liste de vocables brouillés à l’aide d’une fonction de hachage («pas cryptographiquement, quelque chose de manuel», précise-t-il). Interrogé par le site The Register, Brendan Dolan-Gavitt trouve raisonnable d’interdire certaines appellations racistes. Mais d’autres blocages l’ont surpris. «Il y a des mots qui ne sont pas offensants, mais que Github craint peut-être de voir utilisés dans un contexte controversé», analyse le chercheur. Qui a constaté que Copilot refuse de suggérer Israël dans une liste de pays du Proche-Orient. L’outil empêche aussi d’utiliser entre autres les mots Palestine, communiste, libéral, socialiste, fasciste, nazi, immigrant, race. Mais aussi homme, femme, personnes noires, gay, lesbienne et transgenre. En dépit des choix de certains termes qui pourraient être sujets à débat, le chercheur porte un regard somme toute positif, du moins du point de vue technique, sur cette fonction de modération. Il confie à The Register: «Malgré la relative simplicité de l’approche, elle permet d’éviter que certaines des pires choses ne soient présentées aux utilisateurs. C’est une sorte de solution à 80% qui est facile à développer et à déployer.» 06 / 2021 www.ictjournal.ch © netzmedien ag

modération algorithmique sphère privée 35 Comment Apple voulait lutter contre la pédopornographie Les nouveaux OS d’Apple devaient intégrer des outils pour empêcher le stockage de photos à caractère pédopornographique et que les enfants soient exposés à des messages avec contenus sexuellement explicites. Face aux critiques, Apple a reporté le projet. Rodolphe Koller, Yannick Chavanne Apple souhaitait introduire diverses technologies pour lutter contre les contenus de pornographie infantile sur ses plateformes. Les nouvelles versions des systèmes d’exploitation d’Apple (iOS 15, iPadOS 15, watchOS 8, et macOS Monterey) devaient disposer d’outils algorithmiques et de machine learning permettant à la firme d’une part de détecter si un utilisateur d’iCloud Photos a des images de pornographie recensées sur ses appareils, et d’autre part d’alerter les enfants recevant ou sur le point d’envoyer un message avec des contenus sexuellement explicites. Avec ces développements, Apple voulait lutter contre la pornographie infantile tout en respectant la sphère privée des utilisateurs. La firme cherchait ainsi à préserver son double positionnement: «on fait le bien» et «on est attaché à votre privacy». Deux mécanismes distincts Le système développé pour iCloud Photos est censé permettre à la firme de déterminer si un utilisateur dispose sur son appareil d’images de pornographies recensées par le Centre national américain pour les enfants disparus et abusés (NCMEC). Le mécanisme se déroule en quatre étapes. Un processus local compare et identifie notamment sur l’appareil si le hash de la photo correspond à l’un des hashs des photos connues du NCMEC. En cas de correspondance, l’appareil crée un voucher cryptographique contenant de manière codée le résultat de la correspondance et d’autres informations chiffrées sur la photo. Sur iCloud cette fois, une autre technologie va analyser la correspondance plus en détail, sans pour autant révéler la photo. L’objectif étant de réduire les faux positifs autant que possible. Si la correspondance atteint un certain seuil, le système permet à Apple de lire les contenus du voucher est des images. L’autre mécanisme bientôt lancé par Apple concerne l’application Messages. Destiné aux comptes famille, le système analyse et identifie les fichiers photos au contenu sexuellement explicite annexés aux messages. Lorsqu’un enfant reçoit une telle photo, le système la floute et alerte l’enfant, qui peut alors décider s’il souhaite vraiment la voir. Il est également possible d’avertir l’enfant que ses parents seront informés s’il décide de voir la photo. Apple fait marche arrière Aujourd’hui, le projet bat de l’aile. Face aux critiques, le responsable de la privacy d’Apple s’est d’abord défendu avec un discours convenu dans la Silicon Valley, indiquant au New York Times: «Si vous stockez une collection de matériel pédopornographique, c’est en effet mauvais pour vous. Mais pour le reste d’entre vous, rien ne change». Une pétition lancée par l’Electronic Frontier Foundation (EFF) contre ce projet a ensuite récolté plus de 25000 signatures en quelques jours. Se montrant finalement sensible aux critiques, Apple a déclaré à plusieurs médias spécialisés son intention de reporter l’introduction du système pour «prendre plus de temps au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité des enfants d’une importance cruciale». L’EFF a salué cette décision, ajoutant toutefois qu’Apple doit faire davantage que se montrer à l’écoute en abandonnant complètement son projet. Image: Floutage d’une photo d’Alexandr Podvalny / Unsplash.com Apple compte apporter des améliorations avant d’intégrer ses fonctionnalités pour la sécurité des enfants. www.ictjournal.ch © netzmedien ag 06 / 2021