Information très importante sur l’IA.Malheureusement nous sommes « dedans ».  » Pattie Maes préconise ainsi de ralentir le développement de l’IA pour réfléchir à ses implications sociétales. »

Elisabeth Schneiter merci Fred Ottiger-Wittig

« Cette semaine OpenAI a dévoilé ChatGPT4, une version multimodale de son chatbot pouvant générer une réponse à partir d’un texte ou d’une image et donnant un résultat de 25 000 mots contre 3125 pour l’«ancienne» version, sortie il y a 4 mois déjà (ironie). Alors que les experts s’inquiètent du manque de transparence de cette nouvelle version puisque ni les codes sources, ni le matériel d’entraînement, ni la puissance de calcul utilisée n’ont été dévoilés – pour des raisons de sécurité selon le co-fondateur d’OpenAi qui a admis « s’être trompé » quant à l’open source – la presse s’est davantage fait l’écho des préoccupations suscitées par le déploiement de l’intelligence artificielle et les appels à la régulation se sont multipliés.Le PDG d’OpenAi, Sam Altman lui-même, dans une interview hallucinante de culot accordée à ABC News jeudi, a déclaré être « un peu effrayé » quant aux potentialités délétères de sa technologie, notamment quant à la désinformation, aux pertes rapides d’emplois et aux cyberattaques. Il a soutenu que sa compagnie a besoin que les régulateurs et la société soient aussi impliqués que possible dans le déploiement de ChatGPT, affirmant être en «contact régulier» avec des responsables gouvernementaux. « La société, je pense, a un temps limité pour comprendre comment réagir à l’IA, comment la réglementer, comment la gérer», a-t-il affirmé – la faute à qui ? – tout en annonçant espérer développer des systèmes de plus en plus puissants qui « deviennent un amplificateur de la volonté humaine». Réagissant à l’annonce selon laquelle ChatGPT 4 s’approchait de plus en plus des performances humaines aux examens Elon Musk en a profité pour tweeter : «Que restera-t-il à faire pour nous, humains ? Nous ferions mieux de passer à autre chose avec Neuralink ! »Désormais capable de passer l’examen du barreau haut la main, l’IA peut également imiter la voix humaine en quelques secondes, écrire vos mails à votre place, vous manipuler pour résoudre un test CAPTCHA à sa place (acronyme de «test de Turing public entièrement automatisé pour distinguer les ordinateurs et les humains»), coder une réplique du jeu vidéo Pong en moins d’une minute, créer une collection d’objets combinant les identités visuelles de deux entreprises, vous aider à séduire ou encore prodiguer des conseils en œnologie ou en investissements. Les potentialités de nuisance de ces fonctionnalités commencent à susciter une réaction. Le Washington Post relate notamment les arnaques élaborées par téléphone consistant à soutirer de l’argent en imitant la voix d’un proche prétendument aux prises avec la Justice. Hani Farid, professeur de criminalistique numérique à l’Université de Californie à Berkeley confiant au Post : « C’est terrifiant. C’est la tempête parfaite… [avec] tous les ingrédients dont vous avez besoin pour créer le chaos […] Il y a deux ans, même un an, il fallait beaucoup d’audio pour cloner la voix d’une personne. Maintenant… si vous avez une page Facebook… ou si vous enregistrez un TikTok et que votre voix est là pendant 30 secondes, les gens peuvent cloner votre voix.»Dans le Point, la chercheuse au MIT Pattie Maes estime que le manque de fiabilité d’un modèle de langage tel que ChatGPT basé sur une prédiction statistique des mots est dangereux car nous commençons à nous y fier, même s’il n’est pas fiable. En d’autres termes, au-delà de la question d’une éventuelle sentience ou « intelligence générale », d’autant plus hypothétique que même les philosophes ne peuvent pas s’entendre sur ce qu’est la conscience humaine, c’est notre propension à anthropomorphiser la technologie – l’effet Eliza – qui posera problème. Les firmes jouent d’ailleurs fortement là-dessus puisque début mars encore Microsoft a rendu possible de modifier la «personnalité» du chatbot de Bing pour le rendre plus divertissant et Spotify a lancé un DJ alimenté par IA qui «humanise» les listes de lecture personnalisées en faisant des blagues. L’éducation du grand public nécessaire à la compréhension des machines n’est pour l’heure assurée par personne et Neil MacArthur, directeur du Centre d’éthique professionnelle et appliquée de l’Université du Manitoba, va jusqu’à mettre en garde dans The Conversation contre l’émergence prochaine de sectes vouées au culte de l’intelligence artificielle. Pattie Maes remarque, par ailleurs, qu’au delà de la menace que pose l’IA en termes d’emplois et d’autonomie des travailleurs – une étude révèle ainsi que les professeurs du supérieur seront les plus touchés, occupant 14 des 20 postes les plus menacés. Tout un symbole ! – , les choix d’orientations à donner à l’intelligence artificielle ne devraient pas être réservés aux ingénieurs et aux start-up car cette technologie «nous concernera tous». Elle présente un risque de détériorer davantage encore le paysage social et politique via l’érosion de la vérité engendrée par les deep fakes – une journaliste de NBC News a ainsi pu constater cette semaine que des publicités pour une application de création de deepfakes pornographiques mettant en scène des actrices était déjà proposée par Facebook tandis que des lycéens ont mis en ligne une vidéo deepfake de leur directeur proférant des insultes et menaces racistes – et via l’érosion du tissu social : les gens comptant désormais sur des amis virtuels plutôt que réels pour leurs conversations et leur intimité. On ajoutera que l’inverse pourrait être aussi vrai : la multiplication d’interactions imposées avec des machines pourrait mener à des réactions de rejet face à ce qui est perçu comme de la manipulation. L’accusation selon laquelle quelqu’un est un «bot» est par exemple devenue une sorte de chasse aux sorcières parmi les utilisateurs des réseaux sociaux. Le chercheur et critique en IA Gary Marcus souligne à ce propos dans le New York Times : « Je pense que nous nous retrouverons très vite dans un monde où nous ne savons plus à quoi faire confiance. Je pense que cela a déjà été un problème pour la société au cours de la dernière décennie. Et je pense que ça va juste devenir de pire en pire. ». Pattie Maes préconise ainsi de ralentir le développement de l’IA pour réfléchir à ses implications sociétales. Seulement, ralentir l’avancée de l’IA impliquerait d’être en mesure de s’opposer aux jeux de puissance économiques et géopolitiques à l’oeuvre et de pouvoir appréhender l’ensemble des interdépendances qu’elle déclenchera, entreprise d’autant plus hors d’atteinte que les programmes de machine learning échappent de plus en plus à leurs créateurs. Selon Bloomberg, Google, en panique, souhaite désormais intégrer l’IA à tous ses produits de plus d’un milliard d’utilisateurs dans les mois à venir afin de rivaliser avec Microsoft qui s’apprête à faire de même. Incidemment – ou non – Microsoft vient de licencier l’équipe chargée d’en identifier les risques. Son équipe « éthique et société » a ainsi été dissoute dans le cadre des récents licenciements, après avoir déjà été réduite de 30 à 7 personnes en octobre dernier. Des témoignages récoltés par le média Plateformer révèlent que les éthiciens souhaitaient retarder l’intégration de l’IA dans les outils de la firme afin d’en évaluer les risques plus avant. Ce n’est pas la première fois que l’éthique fait des vagues puisqu’en 2020, Google avait licencié la chercheuse Timnit Gebru après qu’elle ait publié un texte critique vis à vis des dérives potentielles des grands modèles de langage, entraînant à sa suite le départ de plusieurs autres hauts dirigeants du département. Selon the Independent, les firmes « font monter les enchères dans la course à la suprématie ». Mais ce ne sont pas les seules.Fin février, la Chine a ordonné d’interdire tout accès – y compris via VPN – à ChatGPT, citant un outil potentiel permettant aux États-Unis de «répandre de fausses informations». Et, bien que le concurrent chinois d’OpenAi ait fait un flop cette semaine en présentant son chatbot Ernie sans démonstration, ni date de sortie annoncée (flop à 3 milliards de dollars de valorisation boursière tout de même ! Mais qui a rebondi depuis après certains avis favorables), on conçoit sans trop de difficultés comment les bouleversements à l’oeuvre sur l’échiquier géopolitique pourraient faire mal tourner cette course à l’échalote. Au sous-comité sur la cybersécurité, les technologies de l’information et l’innovation gouvernementale du Congrès américain, le Dr. Eric Schmidt, président du projet d’études concurrentielles spéciales, déclarait ainsi le 8 mars : « Pouvez-vous imaginer une technologie qui imprègne notre façon de penser, d’enseigner, de nous divertir et d’interagir les uns avec les autres, imprégnée des valeurs chinoises, pas des valeurs américaines ? […] C’est effrayant. La chose la plus importante à comprendre est que nous devons gagner parce que nous voulons que l’Amérique gagne.» À la question de savoir comment il pouvait garantir que la technologie de l’IA serait développée de manière sûre, transparente et bénéfique pour la société il répondait : « …laissons l’ingéniosité américaine, les scientifiques américains, le gouvernement américain et les entreprises américaines inventer ce futur et nous obtiendrons quelque chose d’assez proche de ce que nous voulons. Ensuite, [le gouvernement] peut travailler sur les bords où vous avez des abus.» Voilà, voilà. Sur France Info, la chercheuse au CNRS Laurence Devillers estime qu’il est nécessaire de réguler l’IA au niveau international. Son déploiement favorise, selon elle, déjà la culture anglo-saxonne puisque l’Anglais représente 46% des textes alimentant ChatGPT contre moins de 5% de Chinois ou de Français. « C’est une prise de pouvoir effective, il est nécessaire de réguler », souligne-t-elle. Elle rejoint également Pattie Maes quant au fait que « ce n’est pas aux industriels de décider de qui doit être censuré ou non mais plutôt à la société.» Société qui n’aura bientôt plus aucun secret pour le gouvernement roumain – du moins en théorie – puisque celui-ci a annoncé, relate Euronews, l’arrivée d’un nouvel « assistant personnel » entièrement géré par intelligence artificielle. Baptisé Ion, le programme développé pour analyser les opinions des citoyens via un chat devrait également explorer les réseaux sociaux et faire des suggestions. Alors que les experts avertissent déjà que des bots pourront spammer les réseaux sociaux pour en orienter le contenu, les potentialités autoritaires donnent le tournis. Mais soyons rassurés les chercheurs ont affirmé qu’ils mettraient en œuvre des changements si tout ne se passe pas comme prévu. Mais… prévu par qui ? Côté technique, des chercheurs ont découvert qu’il suffirait de modifier un pourcentage infime des données en ligne sur lesquelles s’appuient les programmes d’IA pour les «empoisonner» et leur faire perdre toute utilité. Seuls 0,001 % de fausses informations seraient ainsi nécessaires pour empoisonner un modèle entier. Si les chercheurs proposent des solutions pour repérer toute altération des données ou geler leurs modifications le temps d’en créer une copie, ils révèlent surtout que les systèmes d’IA sont des colosses aux pieds d’argile. Par ailleurs, une étude non encore évaluée qui avait été publiée en décembre 2022 sur Biorxiv a été relayée par la presse après avoir fait le buzz sur les réseaux sociaux. Des chercheurs japonais auraient réussi à coupler une IA générative d’images à des signaux recueillis par IRM, permettant ainsi de reproduire les pensées d’une personne en image. Si l’IA doit être calibrée pour chaque volontaire afin de réussir à interpréter les signaux cérébraux, on imagine que ce n’est qu’un début.Les experts comparent de plus en plus l’essor de l’intelligence artificielle qui à l’avènement de l’électricité, qui à celui de l’imprimerie, de la révolution industrielle ou d’Internet, un directeur de start-up s’enorgueillissant même auprès de l’AFP que « c’est la première fois que nous sommes capables de créer l’intelligence elle-même et d’augmenter sa quantité dans l’univers ». En se demandant toutefois « Comment vais-je gagner ma vie et ne pas être SDF ? » si l’IA créé un jour une start-up comme la sienne… « S’il doit y avoir quelque chose de plus puissant que nous et de plus intelligent que nous, qu’est-ce que cela signifie pour nous ? », s’interroge Sharon Zhou, co-fondatrice d’une société d’IA générative. « Et est-ce qu’on l’exploite ? Ou nous exploite-t-elle ? » Mais pour l’instant, dit-elle, ralentir ne fait tout simplement pas partie de la philosophie : « Le pouvoir est concentré autour de ceux qui peuvent construire ce truc. Et ils prennent les décisions à ce sujet, et ils sont enclins à agir rapidement ». « L’ordre international lui-même pourrait être en jeu. » Rassurant.In fine, le dévoilement successif d’outils d’IA générative semble aussi bien servir de rodage pour les firmes, d’électrochoc pour les gouvernements, que d’outil marketing à l’attention des investisseurs et des entreprises. L’un des plus gros défis de l’IA demeurant son coût astronomique de fonctionnement via l’énergie et les milliards de puces électroniques nécessaires à sa puissance de calcul, les firmes ne devraient pas tarder à se concentrer sur des offres plus restreintes et plus spécialisées si elles ne veulent pas affoler leurs actionnaires. Qui sait ce que leur demanderont alors leurs clients ? Au delà du battage médiatique, le journal spécialisé en ligne the Register résume bien l’IA telle qu’elle est actuellement formulée : des modèles opaques créés avec une autorité douteuse qui sont utilisés à des fins lucratives et sans trop se soucier des conséquences. Présentée comme une solution miracle à tout, seule une poignée de médias s’est intéressée à l’éléphant au milieu de la pièce – ou plutôt son extinction : l’énergie. The New Scientist relève ainsi qu’une étude vient d’estimer à moins de 25% la proportion d’IA qui utilisent des sources d’énergie à faible émission. Au rythme où vont les choses, il y a fort à parier que la nature se rappelle à l’artificiel très rapidement. Mais pour résoudre le problème, un nouveau domaine de recherche surnommé « intelligence organoïde » émerge afin de construire des ordinateurs moins énergivores à partir de… cerveau humain.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *