ICTjournal 05/2021

18 confiance &

18 confiance & numérique Le monde numérique regorge de tels modèles d’affaires astucieux, complexes, indirects, de abillards à trois bandes où le service offert gratuitement aux uns permet d’engranger des revenus des autres. de bœuf à l’entrée dans la blockchain restera du bœuf jusque dans les lasagnes vendues au supermarché. Il faut aussi se fier à ceux qui ont conçu la mécanique, souligne Rachel Botsman 5 dans un livre fouillé sur la confiance à l’ère numérique: «Vu que la plupart des gens n’ont pas les connaissances techniques nécessaires pour comprendre le fonctionnement réel du système, il leur faut faire confiance aux programmeurs, mineurs, entrepreneurs et experts qui établissent et maintiennent les protocoles cryptographiques. Il faut une bonne dose de foi. Mais il est vrai qu’il n’est pas nécessaire de faire confiance à un autre être humain au sens traditionnel du terme». Confiance distribuée: tous évalués Rachel Botsman consacre une large partie de son ouvrage à un domaine où les technologies numériques semblent réussir à produire de la confiance: l’économie du partage. Elle y raconte qu’enfant, s’il est une chose contre laquelle ses parents la mettaient en garde, c’est de monter dans la voiture d’un inconnu. Et de s’interroger comment on en est arrivé à faire exactement cela avec Uber, mais aussi à héberger ou à passer des vacances chez des inconnus avec Airbnb. Pour la spécialiste, ce sont bien les systèmes d’évaluation et de notation couplés à des algorithmes, qui rendent cette confiance à grande échelle possible. Des systèmes de «confiance distribuée» comme elle les désigne, qui sont aujourd’hui omniprésents, permettant d’évaluer et de trouver une baby-sitter, un avocat, un vendeur de drogue sur le dark web… et l’amour sur Tinder. «Autrefois, la confiance était une chose très personnelle: on se fiait aux recommandations de ses amis ou des amis de ses amis. En trouvant les moyens d’étendre ce cercle de confiance de manière exponentielle, la technologie élargit les marchés et les possibilités», analyse l’auteure. Si elle s’enthousiasme pour cette intelligence collective où l’on profite de l’expérience de milliers d’autres, Rachel Botsman en rappelle aussi les risques. A commencer par les commentaires et profils fabriqués, contre lesquels les sociétés luttent à renfort de stratagèmes et d’algorithmes, ainsi que les biais de sélection de ces mêmes algorithmes. L’auteure relève par ailleurs que si les systèmes d’évaluation fonctionnent, c’est parce qu’ils constituent un mécanisme de contrôle social efficace, qui peut nous pousser à faire ce qui est bien, mais aussi devenir dystopique. Rachel Botsman donne l’exemple d’Airbnb: «il m’arrive de laisser tomber des serviettes sur le sol de la salle de bain lorsque je séjourne dans un hôtel. Mais je ne le ferais jamais en tant qu’invitée chez quelqu’un sur Airbnb. Pourquoi? Parce que je sais que l’hôte va me noter, et que cette note aura probablement un impact sur l’acceptation de mes demandes de réservation par d’autres hôtes Airbnb à l’avenir. Cela illustre comment les mécanismes de confiance en ligne auront un impact sur nos comportements dans le monde réel, d’une manière que nous ne pouvons même pas encore imaginer». A cela s’ajoute qu’une évaluation bonne ou mauvaise est susceptible de nous accompagner pendant longtemps, voire d’affecter notre réputation sur d’autres plateformes. Sans oublier que les évaluations en ligne ne reflètent qu’une partie de la réalité. Pour Rachel Botsman notre choix de faire confiance repose sur une combinaison de quatre facteurs, dont le poids varie en fonction du contexte: la compétence, la fiabilité, l’intégrité et la bienveillance. Les systèmes mis en place par les plateformes fonctionnent bien pour évaluer les compétences et la fiabilité des informations (la baby-sitter a la formation qu’elle indique, l’appartement d’Airbnb est conforme aux photos). Ils peinent en revanche à mesurer la personnalité ou l’intégrité. Rachel Botsman explique ainsi que la fondatrice de la plateforme UrbanSitter a recouru à des vidéos de présentation, seules à même de transmettre ces indices cruciaux aux parents pour le choix d’une babysitter. Modèle d’affaires et pratiques Pas de victoire facile en résumé pour qui souhaite renforcer la confiance a l’aide de technologies. Et l’inverse vaut aussi: créer, préserver ou restaurer la confiance dans les technologies est un défi de taille pour les organisations. Pour être dignes de confiance, les outils proposés à leurs employés et clients doivent d’abord être performants, fiables et sûrs. C’est valable pour les applications que l’entreprise développe, mais aussi pour celles qu’elle achète et met entre les mains de ses utilisateurs, ou encore pour les briques de code open source sur lesquelles reposent ces logiciels (voir les articles du dossier sécurité en pages 32 et 38). Cela passe par des moyens techniques, par des tests de performance et d’efficacité, par l’adoption des meilleures pratiques dès la conception. Mais on l’a vu, la confiance dans les outils numériques ne se résume pas aux mesures techniques, elle dépend de la confiance dans l’organisation, dans ses valeurs, dans son intégrité et sa bienveillance. Des valeurs qui se manifestent dans son modèle d’affaires et ses pratiques. «Si je ne comprends pas votre modèle économique, ce que vous me proposez et ce que cela vous rapporte, je ne peux pas vous faire confiance. C’est cette transparence dans la valeur, la relation et les motifs qui est souvent laissée de côté lorsque les gens parlent de confiance dans les systèmes numériques», avance Sandy Pentland 6 , Directeur du laboratoire Human Dynamics au MIT. Le monde numérique regorge de tels modèles d’affaires astucieux, complexes, indirects, de billards à trois bandes où le service offert gratuitement aux uns permet d’engranger des revenus des autres. Les entreprises ne sauraient opter pour de tels modèles sans considérer leur impact sur la confiance des usagers. Il en va de même à l’intérieur de l’organisation, lorsqu’un logiciel censé favoriser la productivité des collaborateurs sert au final à mesurer leur performance. Une communication transpa- 05 / 2021 www.ictjournal.ch © netzmedien ag

confiance & numérique 19 rente affichant ses motivations est souvent le meilleur moyen de gagner la confiance. Cela ne suffit cependant pas toujours: lorsqu’Apple annonce son projet de détecter des contenus pédopornographiques sur les appareils de ses clients, c’est la promesse bafouée d’une privacy absolue martelée à grand renfort publicitaire qui provoque la controverse. Interfaces: confiance vs expérience La confiance est également malmenée avec des pratiques courantes menées à l’insu des utilisateurs, comme l’A/B testing et les plateformes qui personnalisent les contenus ou modifient en douce les prix affichés en fonction du visiteur. Ou avec le nudging, qui consiste à concevoir des interfaces incitant les utilisateurs à privilégier certaines options. Ou encore avec les paramètres par défaut déterminés par les développeurs et impossibles à modifier. Outre leur opacité, le fait que ces mécanismes empêchent les utilisateurs de choisir par eux-mêmes aurait un impact négatif sur la confiance. C’est l’hypothèse avancée par des chercheurs singapouriens 7 pour expliquer la controverse qui est née que dans la cité-Etat autour de l’app de notification des contacts à risque Trace- Together dont l’utilisation était pourtant volontaire, alors que SafeEntry, une autre app les obligeant cette fois à faire des check-in pour se rendre dans certains établissements a été parfaitement acceptée. «La possibilité pour les citoyens de choisir d’activer ou non l’application pour la saisie leur donne un sentiment d’autodétermination, de sorte qu’ils se sentent davantage en phase avec l’objectif de la technologie et des données qu’elle produit, même si, en fait, TraceTogether et SafeEntry renvoient tous deux les données à une installation d’analyse et de stockage centralisée», estiment les chercheurs de la Singapore Management University. Plus de transparence, plus d’information, plus d’autodétermination… de quoi effrayer les spécialistes UX. Lors d’un entretien avec les médias, un responsable du développement de Swisscovid expliquait ainsi avoir renoncé à donner certains choix aux utilisateurs de l’app de crainte que l’interface ne perde grandement en convivialité. Comment lui donner tort? La simplicité et l’attractivité sont des atouts clés pour l’adoption d’un outil. Reste que, vu l’impact que ces choix de design peuvent potentiellement avoir sur la confiance, il importe de les mettre en balance dès la conception. Le défi particulier de la confiance dans l’IA La donne est encore plus complexe et les arbitrages plus nombreux lorsqu’il s’agit de renforcer la confiance accordée à un algorithme basé sur l’intelligence artificielle (voir l’article en page 26). C’est d’ailleurs tout l’objet du projet de réglementation européenne «pour une IA digne de confiance». Parmi ces défis, le fait que, quand bien même l’intelligence artificielle forte n’est pas pour demain, le machine learning permet d’ores et déjà de développer des systèmes extrêmement polyvalents capables d’exécuter une grande quantité de tâches, à l’image de GPT-3. La perception de leur fiabilité – au sens de réaliser la tâche annoncée (et programmée) – s’en trouve challengée. Par ailleurs, les facteurs de confiance que sont la transparence et la sobriété en matière de collecte de données s’opposent à la performance des systèmes IA. Les data scientists voient leurs moyens limités s’ils doivent entraîner leurs modèles avec un volume minimal de données et si leur système doit être en mesure d’expliquer son fonctionnement à l’utilisateur. Il faut donc arbitrer car la performance est elle aussi un facteur de confiance… A cela s’ajoute que les systèmes intelligents s’accommodent mal du biais d’automatisation des utilisateurs: on tend d’une part à faire a priori davantage confiance à une machine qu’à un humain, mais on est en même temps beaucoup plus sévère avec la machine à laquelle on retire sa confiance dès la première erreur. Pour réduire l’excès de confiance accordé en premier lieu, des chercheurs 8 proposent de concevoir une IA à même d’indiquer son degré de certitude dans le résultat qu’elle livre, permettant ainsi à l’utilisateur de calibrer sa confiance de manière adéquate. De tels systèmes pourraient se montrer particulièrement utiles dans des domaines où les décisions ont de grands enjeux, comme la médecine, la loi ou le militaire. D’autres vont plus loin encore et proposent de programmer délibérément des erreurs dans les systèmes intelligents de manière à ce que l’on s’en méfie. Si l’on sait un jour qu’il arrive aux voitures autonomes de se tromper, cela devrait nous pousser à être plus prudent lorsque l’on traverse un passage clouté. A l’inverse, d’autres spécialistes cherchent à diminuer la tolérance zéro des utilisateurs à l’égard d’un algorithme qui se trompe. Leur solution: humaniser l’IA. Il apparaît en effet que l’on est plus enclin à accorder à nouveau sa confiance à un système qui dit «je suis désolé». Cet anthropomorphisme a toutefois le défaut d’inspirer la confiance, sans que le système en soit pour autant digne – précisément le problème que soulève Onora O’Neill. (*) Références 1 «Why remote work has eroded trust among colleagues», BBC Remote Control, 2021 2 «What we don’t understand about trust», Onora O’Neill, conférence TEDx Houses Of Parliament, 2013 3 «Will Security Enhance Trust Online, or Supplant It?», Helen Nissenbaum, 2004 4 «Why the blockchain matters», Wired, 2015 5 «Who Can You Trust?: How Technology Brought Us Together and Why It Might Drive Us Apart», Rachel Botsman, Penguin Books Ltd., 2017 6 «New models for building digital trust», An interview with MIT’s Sandy Pentland, Deloitte, 2021 7 «AI and Data Use: Surveillance Technology and Community Disquiet in the Age of Covid-19», Alicia Wee et Mark Findlay, 2020 8 «Rapid Trust Calibration through Interpretable and Uncertainty-Aware AI», Patterns, 2020 Les facteurs de confiance que sont la transparence et la sobriété en matière de collecte de données s’opposent à la performance des systèmes IA. www.ictjournal.ch © netzmedien ag 05 / 2021