Le milliardaire Elon Musk et des centaines d’experts ont signé ce mercredi (29) un appel à une pause de six mois dans la recherche sur les intelligences artificielles (IA) plus puissantes que GPT-4, le modèle OpenAI lancé ce mois-ci, avertissant des « risques profonds pour humanité ».
Dans la lettre publiée sur le site futureoflife.org, ils déclarent appeler à une pause jusqu’à ce que les modèles de gouvernance soient définis. Cela comprend la mise en place d’organismes de réglementation, la surveillance du système et des outils qui aident à différencier ce qui est créé par l’intelligence artificielle.
Le groupe appelle également à la responsabilisation pour les dommages causés par l’IA et à la création d’institutions capables de faire face aux « perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA causera ».
- Partager sur Whatsapp
- Partager sur Telegram
Outre Musk, la lettre a également été signée par des dirigeants tels que Evan Sharp, co-fondateur de Pinterest, et Jaan Tallinn, co-fondateur de Skype.
« Ces derniers mois, nous avons vu des laboratoires d’IA se lancer dans une course effrénée pour développer et déployer des cerveaux numériques de plus en plus puissants que personne, pas même leurs créateurs, ne peut comprendre, prédire ou contrôler de manière fiable », indique la lettre.
« Des systèmes d’IA puissants ne devraient être développés que si nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables », ajoute-t-il.
Sam Altman, directeur d’OpenAI, développeur de ChatGPT, a reconnu avoir « un peu peur » que sa création soit utilisée pour « une désinformation massive ou pour des cyber-attaques ».
« L’entreprise a besoin de temps pour s’adapter », a-t-il récemment déclaré à ABCNews.
« Maven du bacon indépendant. Étudiant. Fan extrême de la culture pop. Joueur amateur. Organisateur. Praticien de Twitter. »