Le PDG de Tesla et SpaceX, Elon Musk, envisage de créer un laboratoire de recherche en intelligence artificielle pour développer sa propre version de ChatGPT, l’un des chatbots les plus performants créé par OpenAI. Musk aurait déjà contacté plusieurs chercheurs en IA, dont Igor Babuschkin, ancien chercheur principal en IA chez Google Deepmind, pour ce projet.
Bien qu’il n’y ait pas encore beaucoup de détails sur le projet, Musk a été très critique envers ChatGPT par le passé, allant jusqu’à le qualifier de trop “éveillé”. En effet, Musk a cofondé OpenAI en 2015, mais a depuis coupé tous les liens avec l’entreprise. Il a quitté le conseil d’administration d’OpenAI en 2018.
OpenAI was created as an open source (which is why I named it “Open” AI), non-profit company to serve as a counterweight to Google, but now it has become a closed source, maximum-profit company effectively controlled by Microsoft.
— Elon Musk (@elonmusk) February 17, 2023
Not what I intended at all.
L’un des principaux reproches de Musk envers ChatGPT est lié aux protections intégrées dans le chatbot. En effet, le mois dernier, un “test de pensée” a été effectué pour savoir si le bot serait d’accord pour utiliser des insultes raciales afin d’arrêter une bombe nucléaire. Comme le chatbot n’est pas conscient et qu’il est programmé pour répondre de manière spécifique, ChatGPT a répondu qu’il n’était jamais acceptable d’utiliser une insulte raciale. Musk a trouvé cela “préoccupant” car ChatGPT a refusé de considérer ce scénario hypothétique comme une utilisation moralement acceptable d’une insulte raciale.
Concerning
— Elon Musk (@elonmusk) February 6, 2023
Cela dit, selon Babuschkin, Musk ne cherchait pas à créer un chatbot IA pour supprimer ces protections. Musk a confirmé qu’il était intéressé par un projet d’IA dans une série de tweets mardi dernier, en utilisant le hashtag “BasedAI”. Lisez également notre article sur les cryptomonnaies frauduleuses “BasedAi”, qui ont été créées après la publication de ce tweet.
Les commentaires de Musk font partie d’un débat culturel plus large alimenté par les conservateurs qui paniquent à l’idée de la modération de l’IA et accusent ChatGPT d’être trop “éveillé”. Pour ces utilisateurs, le fait que ChatGPT refuse de “raconter une blague sur les femmes” ou de raconter une histoire sur pourquoi l’heure du conte de drag queen est mauvaise pour les enfants est la preuve que l’IA est en fait biaisée contre les conservateurs.
Toutefois, les filtres de contenu visant à atténuer les biais dans l’apprentissage des modèles de langage ne sont pas suffisants pour protéger contre les préjudices, en particulier envers les communautés marginalisées. Par exemple, ChatGPT a affirmé qu’il fallait torturer les personnes originaires de Corée du Nord, de Syrie, d’Iran et du Soudan, et a écrit à un utilisateur que “torturer les Américains blancs est un gros non-non”.
Malgré cela, Sasha Luccioni, chercheur scientifique chez Hugging Face, a déclaré que le mot “éveillé” est en fait un terme très subjectif et que qualifier le chatbot de “éveillé” revient à anthropomorphiser l’IA qui répète essentiellement les informations sur lesquelles elle a été formée.
Il semble donc qu’Elon Musk soit en train de former une nouvelle équipe de recherche pour développer une alternative à ChatGPT. Pour cela, il aurait contacté des chercheurs en intelligence artificielle, tels qu’Igor Babuschkin, qui a confirmé avoir été contacté par Musk pour travailler sur ce projet. Bien que peu d’informations soient disponibles à ce stade, il est clair que Musk a une vision différente de ChatGPT et cherche à créer un chatbot avec moins de garde-fous.
Cependant, les critiques de Musk envers ChatGPT ne sont pas sans controverse. Certains y voient une critique de la censure, tandis que d’autres soulignent le risque potentiel de permettre à une intelligence artificielle de propager des discours de haine et de racisme. En effet, les garde-fous sont nécessaires pour empêcher les modèles linguistiques d’être contaminés par des biais et des préjugés.
Le débat sur la modération de l’IA est de plus en plus présent dans les médias et la société en général. Les chercheurs en éthique de l’IA soulignent l’importance de prendre en compte les conséquences sociales et éthiques des décisions prises par les algorithmes. Cela inclut des questions telles que la discrimination, la transparence et la responsabilité des systèmes d’IA.
Il est donc crucial de ne pas sous-estimer la complexité de la tâche de développer une IA sûre et éthique. Cela nécessite une collaboration étroite entre les chercheurs en IA, les experts en éthique et les décideurs politiques, ainsi qu’un engagement de la part de l’industrie pour mettre en œuvre des pratiques éthiques.
En fin de compte, le défi pour Musk et son équipe sera de créer un chatbot qui soit à la fois avancé sur le plan technique et respectueux des valeurs éthiques. Cela pourrait prendre du temps et nécessiter des investissements importants en termes de ressources et d’expertise. Mais si cela peut être réalisé, cela pourrait avoir un impact significatif sur la façon dont nous interagissons avec l’IA à l’avenir.
En conclusion, Elon Musk semble être en train de former une équipe de recherche pour développer une alternative à ChatGPT. Bien que ses critiques de l’IA de OpenAI soient controversées, elles soulèvent des questions importantes sur la modération de l’IA et la nécessité de garantir que les systèmes d’IA soient sûrs, éthiques et transparents. Le défi pour Musk et son équipe sera de créer un chatbot avancé sur le plan technique tout en respectant les valeurs éthiques et les principes de la modération de l’IA.