[An English version of this article is available here.]
Le 22 Mars 2023, Elon Musk, Steve Wozniak et d’autres éminents leaders de la Tech ont cosigné une lettre ouverte appelant à suspendre les efforts de construction d’IA “plus puissantes que GPT-4” afin de mieux se préparer à réglementer leur utilisation.
Cette lettre, qui met en garde contre “la dangereuse course aux modèles ‘boîte noire’ imprévisibles de plus en plus larges et dotés de capacités émergentes”, survient à un moment où l’IA suscite une grande inquiétude.
Au delà du fait que l’intention sous-jacente de cette initiative n’est probablement pas philanthropique, mais plutôt une stratégie visant à rattraper un retard technologique, le contenu de cette lettre fait tout de même écho à de réelles préoccupations du public, qui l’a d’ailleurs massivement partagée.
Pourtant, et si le plus grand danger aujourd’hui n’était pas l’IA, mais la façon dont nous la considérons ?
Un certain nombre de mauvais joueurs
L’intelligence artificielle n’a pas exactement brillé dans l’histoire récente.
Des modèles de génération d’images comme Midjourney et Stable Diffusion sont devenus tristement célèbres pour avoir été entraînés sur des datasets non réglementés d’œuvres collectées sans le consentement de leurs créateurs, dans un monde qui ne valorise déjà pas assez le travail absolument vital des artistes.
Les photographies générées semblent souvent tout droit sorties de la Vallée de l’étrange, les IA de reconnaissance faciale et le data sourcing abusif portent atteinte aux libertés des citoyens… Les exemples ne manquent pas.
Pire, même avant que l’IA ne devienne un sujet d’actualité, elle était déjà représentée comme l’ennemie de l’humanité dans la culture pop.
Prenons Skynet dans Terminator, une conscience artificielle basée sur un réseau de neurones qui sert de cruel antagoniste.
De même, HAL 9000, du film 2001 : l’Odyssée de l’espace, ne jouit pas d’une excellente réputation dans notre psyché collective.
Pour de nombreuses personnes, il s’agit des premiers exemples d’IA auxquels elles ont été confrontées.
Vraiment pas la meilleure des premières impressions…
Aujourd’hui, en parcourant les réseaux sociaux, vous croiserez beaucoup de réactions comme celles-ci :
(Cette histoire est un fake, au fait.)
Comme nous l’avons vu, il existe de nombreuses raisons de considérer cette nouvelle technologie, assez obscure, comme une menace imminente.
Malgré tout ça, aujourd’hui, j‘aimerais que l’on réexamine cette peur, car elle peut avoir des conséquences imprévues.
Nous craignons ce que nous ne comprenons pas
Dans la vie, je construis et je maintiens des modèles d’intelligence artificielle.
J’ai commencé dans la recherche autour de 2019, puis je suis passée à la modélisation, et je me concentre maintenant sur le MLOps.
Comme mes pairs, j’ai été témoin de la découverte du domaine de l’IA par le public, de la fascination, mais aussi de l’effroi qu’elle a suscité.
Je reconnais qu’un nombre alarmant de modèles ont été mal utilisés.
Que leur utilisation, ainsi que les datasets qui les alimentent, doivent être réglementés.
Mais ce que je vois aussi aujourd’hui, c’est que beaucoup de gens ne comprennent pas comment fonctionne un modèle d’apprentissage automatique (Machine Learning), et que nous humains avons tendance à craindre ce que nous ne comprenons pas.
Trop souvent, nous finissons par perdre le contrôle de cette peur, la laissant influencer nos décisions.
Parlons de l’ ”effet Skynet”.
Une bousculade sociale
Savez-vous ce qui provoque les mouvements de foule ?
C’est assez intéressant.
L’être humain possède des réflexes instinctifs face au danger, et l’un d’entre eux est le suivant : “Si tu ne sais pas ce qui se passe, imagine le pire.”
Quelle est la pire chose qui puisse arriver ?
“La mort est imminente. Cours ! ”
Et voilà.
Ironiquement, les bousculades elles-mêmes — et non leur déclencheur — sont parfois la seule raison pour laquelle un rassemblement fait des victimes.
Je pense que l’effet Skynet est une bousculade sociale en préparation.
C’est ce qui se passe lorsque les gens supposent qu’une IA comme ChatGPT peut prendre le contrôle de leur téléphone, et qu’une œuvre d’art IA contenant ce qui ressemble à la signature d’un artiste peut causer une grande détresse.
Il y a une profonde incompréhension du fonctionnement de ces systèmes et, en l’absence d’explication satisfaisante, on suppose le pire.
“Ce truc va prendre le contrôle de mon ordinateur.”
“Cette IA doit avoir volé du contenu pour fonctionner.”
“J’ai pas confiance, il y a forcément quelque chose de mauvais derrière.”
Nous devons nommer les choses pour ce qu’elles sont :
Oui, des IA ont été utilisées à mauvais escient et entrainées à partir de contenus volés, et le milieu doit être réglementé ;
Oui, il faut vulgariser le domaine de l’IA, le rendre compréhensible et accessible à tous, pour que chacun puisse découvrir et comprendre que ces modèles ne sont rien d’autre que des outils, fortement dépendants des humains qui les gèrent, et que comme toujours, le mal vient des humains, pas des machines.
Nous devrions enquêter sur les personnes derrière ces scandales, plutôt que d’interdire la technologie qu’elles ont utilisé.
Et ce changement doit intervenir rapidement, car l’effet Skynet commence déjà à donner des résultats.
Des conséquences bien réelles
Une semaine après la publication de cette fameuse lettre ouverte, ChatGPT a été interdit temporairement en Italie pour des raisons de protection de la vie privée.
Si ces inquiétudes sont justifiées et compréhensibles, l’intensité de la réaction du gouvernement italien pose question.
Pourquoi ne pas appliquer la même sévérité au géant des réseaux sociaux TikTok, qui fait actuellement l’objet d’une enquête dans plusieurs pays, dont l’Italie, pour les mêmes raisons ?
Les enquêtes font partie de ces efforts de régulation, et c’est une très bonne chose.
Mais d’ici là, est-il préférable d’interdire toutes les technologies qui font l’objet d’un examen minutieux ?
Pour être honnête je n’ai pas la réponse, mais quoi qu’il en soit, ces décisions ne devraient pas être prises par peur.
Les practitioners doivent faire leur part
Il y a toujours eu un effort de vulgarisation de la science de la part de ses pratiquant.e.s.
Il devient toutefois essentiel que ceux qui bâtissent la technologie réfléchissent longuement à la manière dont ils l’expliquent au reste de la population, et aux illustrations qu’ils utilisent à cette fin. Par exemple, certains visuels peuvent au mieux paraître amusants, et au pire, rendre le concept même de l’IA terrifiant.
On voit beaucoup de ces monstres abominables dans les illustrations visant à décrire des Large Language Models (LLM).
(Note : l’image de droite provient d’un thread très intéressant).
Étant donné que le climat social actuel ne fait que nourrir l’effet Skynet, les conversations que nous entamons sur l’IA ne doivent pas l’éviter : nous devons répondre à cette peur et rassurer les gens.
Nous ne devons pas seulement donner des conseils pour rendre l’IA plus accessible, nous devons aussi la rendre moins inquiétante pour ceux qui ne la connaissent que par cette mauvaise réputation.
Nous devons aller à la rencontre du public et faire notre part pour aider ce domaine à se faire connaître pour ce qu’il est réellement, plutôt que pour ce que certains craignent qu’il soit.
L’IA devrait nous rassembler, pas nous diviser
Chaque jour, de bonnes choses se produisent grâce à l’IA.
Des cancers sont repérés tôt, des inondations et des incendies de forêt sont détectés avant qu’ils ne se produisent, des outils aident des étudiants à améliorer leurs compétences…
Il s’agit d’une inestimable avancée pour notre civilisation qui, pour fonctionner au mieux, doit être fortement surveillée et réglementée, mais dont le fonctionnement interne doit également être rendu aussi accessible que possible au public.
En tant qu’espèce, nous devons être autant conscients du danger que représentent les avancements technologiques utilisés à mauvais escient, que de cette peur innée de l’inconnu qui peut nous pousser à rejeter et à saboter nos propres progrès.
Si vous n’êtes pas un grand fan du domaine de l’IA, franchement, je comprends.
Malgré tout, j’espère que cet article, écrit en toute sincérité par un practitioner — mais aussi par une simple humaine— vous aura montré un meilleur côté de ce milieu, et peut-être que vous essaierez d’en apprendre davantage sur tout le bien que l’IA peut également produire.
Nous pouvons faire beaucoup lorsque nous nous unissons.
Quelles que soient vos opinions et votre position dans ce débat, vous pouvez contribuer à rendre l’IA meilleure, plus réglementée, plus efficace et plus humaine.
Car c’est pour cela qu’elle a été créée en premier lieu : pour vous.
—
PS : cet article a été entièrement généré par mon propre réseau de neurones— mon cerveau. Ce n’est pas un réseau très avancé, alors soyez indulgents.