A l’heure où Sciences Po Paris interdit l’usage de ChatGPT à ses étudiants sous peine d’exclusion, l’arrivée en open source des intelligences artificielles active tous les fantasmes dignes du remake de Terminator.
Nous revenons sur cet incontournable de l’actualité digitale !
IA, sujet technique ou éthique ?
L’intelligence artificielle (IA) est définie par le Parlement européen comme tout outil utilisé par une machine afin de “reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité”. Citant ce texte, la CNIL souligne que cette définition peut être élargie, dans la mesure où les IA actuelles parviennent à surpasser les humains dans certaines tâches.
Alors peur légitime ou crainte irrationnelle de se faire dépasser par un outil dont la puissance nous échappe ? Force est de constater que le sujet est actuellement dans tous les esprits, et agite tant le monde technologique que déontologique !
Des premiers essais à ChatGPT ; une révolution en cours
Si les IA ont connu leurs premiers balbutiements dans les années 50, les réseaux de neurones artificiels existent déjà depuis plusieurs décennies avec par exemple les cartes autoadaptatives de Kohonen utilisées dès les années 80-90.
La médiatisation grand public des IA, elle, s’envole après 2010 ; citons l’IA “Watson” d’IBM championne de Jeopardy en 2011, ou encore “AlphaGO” de Google qui réussit à battre en 2016 le champion du monde de jeu de Go. Un résultat marquant si l’on sait que le jeu de go possède une combinatoire bien plus importante que celle des échecs.
Désormais, il ne s’agit plus de se surprendre de ces résultats, mais bien de se demander jusqu’où nous mènera ce progrès, et s’il faut se réjouir ou s’inquiéter de cette révolution technologique en cours.
La seule chose certaine est que le débat est appelé à prendre de l’ampleur les mois à venir. Car si ChatGPT d’OpenAI est sous l’actuel feu des projecteurs, la concurrence promet d’être rude. La filiale de Google DeepMind et son PDG Demis Hassabis ont ainsi récemment annoncé envisager le lancement prochain de leur concurrent Sparrow, supposé “un agent conversationnel utile et réduisant le risque de réponses toxiques et inappropriées”.
Controverses autour de l’usage des IA
Ces éventuelles réponses toxiques ou inappropriées sont-elles fréquentes et la seule source d’inquiétude en cours ? On peut d’abord s’interroger sur le maintien du pluralisme des idées dans un monde où la réponse/vérité artificielle s’approcherait dangereusement de celle d’une pensée unique façon Orwell. Le Point relève que ChatGPT aurait “le profil d’un Californien libéral mainstream et pragmatique”. Peut-on s’y fier ? Quoi qu’il en soit, n’oublions pas notre lucidité, pour questionner les sources des AI et ce qui gouverne leur “pensée” !
Si la direction de la formation de SciencesPo a proscrit l’usage de GPT, c’est aussi parce qu’ à l’école des penseurs, on s’inquiète d’un outil qui viendrait mettre en péril les capacités de dissertation et d’analyse ou recherche de l’information, au cœur de la formation dispensée. Avec en outre l’ombre planante des triches ou plagiats qui pourraient en résulter.
Pour autant, une utilisation favorable n’est pas écartée, dans la mesure où elle est contrôlée et validée par un minimum de recul sur les processus en cours de développement.
Dans sa prise de parole durant l’émission Question de Société en janvier 2023, le sociologue Jean Viard nous interrogeait à juste titre sur la question qui en découle : “L’humain a-t-il le monopole de l’intelligence?”, cette caractéristique que nous pensions être notre point de distinction vis-à -vis de l’animal. Troublant autant que passionnant !
Vers un apprentissage raisonné et cadré?
Ces controverses en tête, comment la sphère tech doit-elle appréhender la question ? Peut-on continuer à être des individus apprenants, y compris des IA, sans en avoir peur ? Comment en faire une force au service de l’humain et quels sont les points de vigilance sur lesquels il faudra rester en veille ? Une question ancienne, si l’on en juge par Les Trois lois de la robotique, formulées en 1942 par les écrivains de science-fiction Isaac Asimov et John W. Campbell décrivant les règles d’obéissance des robots à l’humain.
Nous en arrivons bien évidemment à la question de la réglementation et de l’encadrement de ces nouveaux outils et pratiques, afin qu’ils soient source d’optimisme et de progrès, et non de crainte ou défiance. Un point fondamental, qui dessinera l’avenir de ce débat !
Car au-delà des visions pessimistes, les IA alimentent également de nombreux espoirs et permettent d’envisager toute une nouvelle sphère des possibles. Que ce soit dans le domaine de la publicité, de la recherche de la cybersécurité et bien d’autres encore, un monde de performance, d’innovation et de rapidité, qui en fait aussi rêver plus d’un…
Les IA vues par l’IA
Et si vous n’arrivez pas à trancher la question, vous pouvez toujours demander à Chat ce qu’elle pense des dangers des AI, ce à quoi elle vous répondra “ Oui, les intelligences artificielles peuvent présenter des dangers potentiels s’ils sont conçus ou utilisés de manière inappropriée. Cependant, la majorité des experts estiment que les bénéfices potentiels des intelligences artificielles sont plus importants que les risques potentiels, à condition que des mesures de sécurité adéquates soient mises en place. Il est important de continuer à surveiller les développements en matière d’IA et d’investir dans la recherche sur les moyens de les rendre plus sûrs.” A vous le tour !
Marie CORNESSE
*Sources :
> https://www.cnil.fr/fr/intelligence-artificielle/intelligence-artificielle-de-quoi-parle-t-on
> https://www.coe.int/fr/web/artificial-intelligence/history-of-ai
> https://www.bfmtv.com/tech/actualites/sciences-po-demande-a-ses-enseignants-d-interdire-l-utilisation-de-chat-gpt_AV-202301250691.html
> Question de société, France info.
> https://www.lepoint.fr/societe/woke-ou-reac-pour-qui-vote-chatgpt-27-01-2023-2506461_23.php
> https://fr.wikipedia.org/wiki/Trois_lois_de_la_robotique
> https://chat.openai.com/chat