Views
1 month ago

ICTjournal octobre 2019

  • Text
  • Azure
  • Netzmedien
  • Travail
  • Octobre
  • Processus
  • Ainsi
  • Collaboration
  • Solutions
  • Entreprises
  • Suisse

34 intelligence

34 intelligence artificielle apprentissage Des IA s’affûtent en jouant à Minecraft et au foot Facebook et Google puisent dans les jeux vidéo pour faire progresser la recherche en intelligence artificielle (IA). Minecraft permet de créer des assistant virtuels plus flexibles, tandis qu’un jeu de foot sert à mettre au point des IA qui s’adaptent mieux aux imprévus. Yannick Chavanne de construire différents éléments dans un monde ouvert. Un agent virtuel a été mis au point pour apprendre des joueurs humains au sein de cet environnement virtuel vaste mais basé sur des règles relativement simples. Le robot en question peut communiquer avec les joueurs humains via tchat. «En combinant le langage, la perception, la mémoire et les actions physiques dans le jeu, ces robots peuvent effectuer des tâches complexes, telles que construire une maison. Le développement de ces compétences pourrait aider les chercheurs à progresser vers un mode de collaboration plus large entre les humains et l’IA», expliquent les chercheurs de Facebook. Facebook met au point un agent virtuel capable de progresser à Minecraft, notamment en communiquant par tchat avec les joueurs humains. Image: Microsoft Facebook et Google ambitionnent chacun de leur côté de franchir la prochaine étape déterminante des progrès de l’intelligence artificielle (IA). Pour ce faire, les géants de la tech misent tous deux sur l’utilisation de jeux vidéo pour répondre à des défis différents auxquels font face les recherches dans le domaine. Minecraft pour créer des assistants virtuels plus flexibles Les chercheurs de Facebook ont décidé de s’attaquer à certaines limites des IA actuelles, incapables d’être réellement performantes au-delà d’un nombre restreint de tâches pour lesquelles elles sont spécifiquement entraînées. Facebook Research s’attèle ainsi à développer un assistant virtuel davantage flexible et en mesure de se rendre utile dans une variété de tâches. Les chercheurs ont dans cette optique trouvé l’environnement adéquat: Minecraft. Ce jeu vidéo de type «bac à sable» permet aux joueurs de se déplacer dans un environnement 3D, d’explorer et Une simulation de foot qui reflète mieux les situations du monde réel Du côté de Deepmind, entraîner des IA à s’adonner à des jeux vidéo n’a rien de neuf. Des joueurs virtuels battant tous les records à Space Invaders ou Starcraft sont ainsi sortis des laboratoires de la division de recherche en intelligence artificielle de Google. Les équipes de Deepmind souhaitent mettre au point des IA capables de s’adapter encore plus efficacement à des situations en constant changement et pleines d’imprévus – comme dans la vraie vie. Or, Space Invaders s’avère trop simple et prévisible pour apprendre à des algorithmes de machine learning à réagir à de nouvelles situations. L’univers de Starcraft est au contraire si complexe qu’il est nécessaire de recourir à d’immenses ressources de calcul, ce qui freine l’entraînement des IA. Mais les chercheurs ont aujourd’hui identifié l’environnement vidéoludique idéal: la simulation de football. Deepmind a créé son propre jeu de foot: «Google Research Football Environment». La simulation met l’accent sur les interactions entre de multiples joueurs humains et agents virtuels, qui peuvent soit rivaliser, soit collaborer. Les algorithmes sont dès lors nourris avec des données qui reflètent mieux les situations du monde réel, selon les chercheurs de Google. A l’instar du framework conçu par Facebook Research pour entraîner une IA en jouant à Minecraft (CraftAssist), le jeu de foot de Deepmind est sous licence open source, permettant à d’autres chercheurs de s’en servir. Octobre 2019 www.ictjournal.ch © netzmedien ag

intelligence artificielle fraude 35 Humains et IA réunis contre les profils et avis frauduleux Linkedin a empêché la création ou bloqué pas moins de 21,6 millions de faux profils au premier semestre 2019. Alors que Tripadvisor a bloqué plus d’un million de faux avis en 2018. Des mesures basées sur des systèmes automatisés aidés, si besoin, par des humains. Yannick Chavanne Linkedin prend la question des faux profils très au sérieux. Propriété de Microsoft, le réseau social pour professionnels a pris des mesures concernant 21,6 millions de profils frauduleux, entre janvier et juin 2019. Le plus souvent, ceux-ci ne s’affichent jamais sur le réseau. Ainsi, 19,5 millions des faux profils créés durant le premier semestre 2019 n’ont jamais été validés, explique dans un billet de blog Paul Rockwell, responsable Trust and Safety chez Linkedin. 2 millions de faux comptes non détectés en amont ont été supprimés avant signalement, tandis que 67 000 ont été signalés par un membre du réseau. Pour détecter et supprimer ces faux profils, Linkedin s’appuie sur une collaboration entre des algorithmes d’intelligence artificielle et une examination par des humains. Les premiers exécutant toutefois le gros du travail: 98% des faux comptes ont été bloqués ou supprimés par les défenses automatisées mises en place par le réseau. Ces systèmes se basent sur des modèles de machine learning qui détectent les groupes de comptes qui ont une apparence ou effectuent des actions comparables, suggérant qu’ils sont créés ou contrôlés par une même personne aux intentions malveillantes. A un premier niveau de défense, chaque tentative d’enregistrement d’un nouvel utilisateur est évaluée à l’aide d’un modèle de machine learning qui donne un score de risque d’abus. Les inscriptions à risque jugé élevé sont ainsi directement bloquées, tandis que celles à risque moyen font l’objet de vérifications supplémentaires, explique Jenelle Bray, l’une des responsables de la sécurité du réseau. Si des faux profils passent ce premier filtre et se retrouvent en ligne, un système permet de détecter des comptes frauduleux en se basant sur des modèles statistiques. En parallèle, Linkedin compte sur une équipe d’enquêteurs qui recherchent des faux comptes qui auraient échappé à tous les niveaux de défense automatisée. vérification additionnelle par des humains. Au total, plus d’un million de fausses critiques ont été bloquées. Le processus automatisé de Tripadvisor analyse des centaines d’éléments d’information. Par exemple, le fait qu’un avis a été soumis par un appareil doté d’un mécanisme qui dissimule sa localisation (les fraudeurs le font souvent). D’autres méthodes de détection sont plus subtiles et consistent à repérer des patterns inhabituels qui pourraient indiquer qu’un avis est biaisé ou faux. Ces patterns inhabituels divergent de ceux employés lors de la saisie de centaines de millions d’avis envoyés au site depuis plus d’une décennie. Tripadvisor souligne utiliser dans cette optique des techniques semblables à celles utilisées par une banque pour détecter les fraudes par carte de crédit: «Nous voyons les évaluations qui arrivent pour une propriété donnée, nous les comparons aux patterns historiques que nous avons observés pour cette propriété et nous identifions toute anomalie dans ces patterns qui semblent suspects». Le portail pour voyageurs se penche aussi sur les patterns de comportements des évaluateurs, afin de déceler des anomalies liées, par exemple, à l’emplacement des lieux examinés ou encore à la fréquence de soumission des avis. Les systèmes de Tripadvisor cherchent à repérer des patterns inhabituels qui indiqueraient qu’un avis est biaisé ou faux. Sur les 66 millions d’avis soumis en 2018 sur Tripadvisor, 2,7 millions ont nécessité une vérification additionnelle par des humains. Image: Tom Magliery / CC BY-NC-SA 2.0 Tripadvisor a bloqué plus d’un million de faux avis A l’instar de l’approche mise en place par Linkedin, le portail d’avis pour voyageurs fait appel à un système d’analyse automatique aidé, si besoin, par des vérificateurs humains. Sur les 66 millions d’évaluations soumises en 2018 sur Tripadvisor, 2,7 millions ont nécessité une www.ictjournal.ch © netzmedien ag Octobre 2019