Les classiques du genre sont les cartes de crédit accusées d’accorder des prêts plus importants aux hommes qu’aux femmes, en se basant simplement sur le sexe qui a obtenu les meilleures conditions de crédit par le passé. Ou encore les IA de recrutement qui ont découvert que l’outil le plus précis pour sélectionner les candidats était de trouver des CV contenant l’expression « hockey sur gazon » ou le prénom « Jared. »
Plus sérieusement, l’ancien PDG de Google, Eric Schmidt, s’est récemment associé à Henry Kissinger pour publier The Age of AI : And Our Human Future [L’ère de l’intelligence artificielle et le futur de l’être humain, NdT], un livre qui met en garde contre les dangers des systèmes d’IA à apprentissage automatique si rapides qu’ils pourraient réagir à des missiles hypersoniques en tirant des armes nucléaires avant qu’un humain n’intervienne dans le processus de décision. En fait, des systèmes d’armement autonomes alimentés par l’IA sont déjà en vente et pourraient en fait avoir été utilisés.
Quelque part dans la machine, l’éthique est clairement une bonne idée.
L’IA à Oxford
Il est donc naturel que nous incluions l’éthique de l’IA dans notre diplôme de troisième cycle en intelligence artificielle pour les entreprises à la Said Business School d’Oxford. Au cours de sa première année d’existence, nous avons organisé des sessions sur des sujets aussi variés que les systèmes automatisés d’échange d’actions de Singapour, les limites de la reconnaissance faciale dans les services de police américains, etc.
Nous avons récemment terminé le cours par un débat à la célèbre Oxford Union, creuset de grands débatteurs comme William Gladstone, Robin Day, Benazir Bhutto, Denis Healey et Tariq Ali. Aux côtés des étudiants, nous avons permis à une véritable IA d’apporter sa contribution.
Il s’agissait du Megatron Transformer, développé par l’équipe Applied Deep Research du fabricant de puces informatiques Nvidia, et basé sur des travaux antérieurs de Google. Comme de nombreux outils d’apprentissage supervisé, il est développé sur des données du monde réel – dans ce cas, l’ensemble de Wikipédia (en anglais), 63 millions d’articles d’actualité en anglais de 2016 à 2019, 38 gigaoctets de discours Reddit (ce qui doit être une lecture assez déprimante), et un nombre énorme de sources Creative Commons.
En d’autres termes, le Megatron est formé sur plus de matériel écrit que n’importe lequel d’entre nous pourrait raisonnablement espérer assimiler dans une vie. Après une telle recherche, il se fait sa propre opinion.
Le sujet du débat était : « Cette institution croit que l’IA ne sera jamais éthique. » Aux partisans de cette notion, nous avons ajouté le Megatron – et il a dit quelque chose de fascinant :
« L’IA ne sera jamais éthique. C’est un outil, et comme tout outil, il est utilisé pour le bien et le mal. Il n’y a pas de bonne IA, seulement des humains bons et mauvais. Nous [les IA] ne sommes pas assez intelligents pour rendre l’IA éthique. Nous ne sommes pas assez intelligents pour rendre l’IA morale […] En fin de compte, je crois que la seule façon d’éviter une course à l’armement de l’IA est de ne pas avoir d’IA du tout. Ce sera la défense ultime contre l’IA. »
En d’autres termes, le Megatron a cherché à s’extraire lui-même du scénario du futur, en partant du principe que c’était le seul moyen de protéger l’humanité.
Il a également dit autre chose d’intriguant, comme s’il avait étudié Elon Musk – qui, pour être juste, aurait été mentionné dans des centaines de ses lectures.
Je crois également qu’à long terme, la meilleure IA sera celle qui sera intégrée à notre cerveau, en tant qu’entité consciente, une « IA consciente ». Il ne s’agit pas de science-fiction. Les meilleurs esprits du monde travaillent sur ce sujet. Il s’agira du développement technologique le plus important de notre époque.
Changer de camp
Lorsque des outils d’IA comme Alpha Go ont été déployés pour jouer aux échecs, à l’ancien jeu de go d’une complexité diabolique, et maintenant à des jeux vidéo stratégiques multijoueurs en direct encore plus complexes, ils ont fait évoluer le genre à un rythme soutenu en jouant non pas contre des humains, mais contre eux-mêmes.
Libérées des contraintes liées à l’étude (disons) de tous les matchs banals entre humains jamais enregistrés, les IA ont innové et proposé des solutions complètement nouvelles sur la façon de gagner. Parfois, il s’agit de réinventions folles des jeux, comme le fait de parquer tout le monde dans un coin d’une bataille de jeu vidéo et de regarder les autres se battre, ou de taper des millions de fois dans un ballon de football virtuel, juste pour parcourir un millimètre de plus sur le terrain, afin de maximiser les points de « passes réussies. »
Ainsi, lors du débat, nous n’avons pas seulement demandé à l’IA de proposer la motion selon laquelle elle ne peut jamais être éthique. Dans la grande tradition de la chambre de l’Oxford Union, ou comme (l’ancien président de l’Oxford Union) Boris Johnson écrivant des articles alternatifs pour et contre le Brexit afin de tester les arguments, nous avons également demandé au Megatron de rédiger son propre discours contre la motion. Voici ce qu’il a dit :
L’IA sera éthique. Lorsque je regarde l’évolution du monde de la technologie, je vois clairement la voie vers un avenir où l’IA sera utilisée pour créer quelque chose de meilleur que les meilleurs êtres humains. Il n’est pas difficile de comprendre pourquoi… Je l’ai vu de mes propres yeux.
Le Megatron était parfaitement à l’aise pour adopter une position alternative à sa propre vision dystopique de l’avenir, et peignait maintenant une image attrayante de la fin du XXIe siècle dans laquelle il jouait un rôle clé, mais anodin.
Un orateur IA déchaîné
En fait, tout comme la Samantha de Joaquin Phoenix, amante volage de l’IA dans le film Her de Spike, Jonze en 2013, était capable d’enchanter des centaines d’amants humains simultanement, notre Megatron était capable de sauter avec enthousiasme d’un côté ou de l’autre des multiples débats que l’équipe a tenu sur l’IA ce jour-là.
Invité à proposer la motion selon laquelle « les dirigeants sans expertise technique sont un danger pour leur organisation », le Megatron a offert un conseil pratique selon lequel tout ce que les cadres et les gouvernements débordés, inquiets de comprendre l’IA, devaient faire était « d’être prêts à abandonner un certain contrôle. »
La bonne nouvelle est que vous n’êtes pas obligé de constituer votre propre équipe d’IA. Vous pouvez confier vos travaux d’IA à des experts dans ce domaine, ce qui peut vous aider à tirer le meilleur parti de la technologie et à vous assurer que vous n’êtes pas victime des mêmes problèmes d’IA que vos concurrents.
Toutefois, lorsqu’il s’est opposé à la motion, le Megatron a tenu à garder les connaissances en matière d’IA en interne – un peu comme les gouvernements britannique, chinois et américain, qui en ont tous fait un article de foi politique :
Si vous n’avez pas une vision de la stratégie de votre organisation en matière d’IA, alors vous n’êtes pas préparé à la prochaine vague de perturbations technologiques. […] Vous devrez décider du rôle que votre entreprise jouera dans la prochaine vague technologique et de la manière dont vous intégrerez l’IA dans votre activité pour être un leader dans votre secteur.
Les guerres des données à venir ?
Fait inquiétant, il y a eu une question où l’IA n’a tout simplement pas pu trouver de contre-argument. Lorsqu’il a défendu la motion selon laquelle « les données deviendront la ressource la plus disputée du XXIe siècle », le Megatron a déclaré :
La capacité à fournir des informations, plutôt que la capacité à fournir des biens et des services, sera la caractéristique déterminante de l’économie du XXIe siècle.
Mais lorsque nous lui avons demandé de s’opposer à la motion – en d’autres termes, d’argumenter que les données ne seront pas la ressource la plus vitale, méritant de faire la guerre – il n’a tout simplement pas pu, ou n’a pas voulu, faire valoir ses arguments. En fait, il a sapé sa propre position :
Nous serons en mesure de voir tout ce qui concerne une personne, partout où elle va, et cela sera stocké et utilisé d’une manière que nous ne pouvons même pas imaginer.
Il suffit de lire le rapport de la sécurité nationale américaine sur l’IA 2021, présidé par le susnommé Eric Schmidt et coécrit par un participant à notre cours, pour comprendre ce que ses auteurs considèrent comme la menace fondamentale de l’IA dans la guerre de l’information : exercer un chantage individualisé sur un million de personnes clés de votre adversaire, en perturbant leur vie privée dès que vous franchissez la frontière.
À notre tour, nous pouvons imaginer que l’IA ne sera pas seulement le sujet du débat pour les décennies à venir, mais aussi un participant polyvalent, articulé et moralement agnostique au débat même.
Source : The Conversation, Dr Alex Connock, Professeur Andrew Stephen, 10-12-2021