Alerte lancée : La machine est désormais capable de créer des images photoréalistes, réussir l’examen du barreau américain ou d’accès à la médecine. Face à ces avancées, Elon Musk et des centaines d’experts internationaux ont signé mercredi un appel à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que GPT-4, le modèle d’OpenAI lancé mi-mars, évoquant “des risques majeurs pour l’humanité”.
Dans cette pétition publiée sur le site futureoflife.org, ils demandent un moratoire jusqu’à la mise en place de systèmes de sécurité, notamment de nouvelles autorités réglementaires dédiées, la surveillance des systèmes d’IA, des techniques pour distinguer le réel de l’artificiel et des institutions capables de gérer les “perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA engendrera”.
Potentiel de manipulation
Parmi les signataires figurent des personnalités ayant déjà exprimé publiquement leurs craintes face à des IA incontrôlables surpassant l’être humain, telles qu’Elon Musk, propriétaire de Twitter et fondateur de SpaceX et Tesla, et Yuval Noah Harari, auteur de “Sapiens”.
Yoshua Bengio, pionnier canadien de l’IA et également signataire, a partagé ses inquiétudes lors d’une conférence de presse virtuelle à Montréal : “Je ne pense pas que la société est prête à faire face à cette puissance-là, au potentiel de manipulation par exemple des populations qui pourrait mettre en danger les démocraties”.
Il est donc nécessaire de ralentir cette course commerciale et d’en discuter au niveau mondial, “comme nous l’avons fait pour l’énergie et les armes nucléaires”, a-t-il ajouté.
Opinions divergentes des chercheurs
Les chercheurs sont partagés sur les progrès récents. Certains estiment que GPT-4 montre des prémices de ce qui pourrait conduire à une intelligence artificielle “forte”, capable d’apprendre comme le font les humains. D’autres, tels que le pionnier français Yann Lecun, sont plus prudents.
La société a besoin de temps pour s'adapter
Sam Altman, directeur d’OpenAI, concepteur de ChatGPT, a lui-même admis être “un petit peu effrayé” par sa création si elle était utilisée pour de “la désinformation à grande échelle ou des cyberattaques”. “La société a besoin de temps pour s’adapter”, avait-il déclaré à ABCNews mi-mars. Cependant, il n’a pas signé ce moratoire.
Les signataires estiment que “ces derniers mois, les laboratoires d’IA se sont lancés dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable”.