Ce mercredi 22 octobre, plus de 700 scientifiques, figures politiques, entrepreneurs de la tech et célébrités ont lancé un appel à l’arrêt des recherches visant à créer une intelligence artificielle (IA) qui pourrait surpasser les compétences humaines, en raison des risques que cela pourrait faire peser sur l’humanité.
« Nous appelons à l’arrêt du développement d’une superintelligence, tant qu’il n’y a pas un consensus scientifique que cela peut être construit de façon contrôlée et sécurisée et tant qu’il n’existe pas un soutien de la part de la population », indique cette page qui présente l’initiative initiée par le Future of Life Institute, une organisation américaine à but non lucratif qui tire régulièrement la sonnette d’alarme quant aux dangers de l’intelligence artificielle.
Plusieurs pionniers de l’intelligence artificielle contemporaine ont signé, tels que Geoffrey Hinton, lauréat du prix Nobel de physique 2024, Stuart Russell, enseignant en informatique à l’Université de Californie à Berkeley et Yoshua Bengio, professeur à l’université de Montréal.
La liste inclut également des acteurs majeurs de la technologie tels que Richard Branson, le créateur du groupe Virgin, et Steve Wozniak, le cofondateur d’Apple ; des figures politiques comme Steve Bannon, ancien conseiller du président Trump, et Susan Rice, ancienne conseillère à la sécurité nationale sous Obama ; des leaders religieux tels que Paolo Benanti, conseiller du pape et expert principal du Vatican en matière d’IA ; ainsi que des célébrités comme le musicien américain will.i.am ou encore le prince Harry et Meghan Markle.
La majorité des acteurs majeurs dans le domaine de l’IA visent à créer une intelligence artificielle générale (AGI), moment où l’IA serait à la hauteur de toutes les facultés intellectuelles humaines, et également une superintelligence, qui la propulserait au-delà.
Selon Sam Altman, le directeur d’OpenAI et créateur de ChatGPT, la réalisation de la superintelligence pourrait être possible dans un délai de cinq ans. Il a partagé cette perspective en septembre lors d’une manifestation organisée par le groupe médiatique Axel Springer.
Selon lui, les entreprises ne devraient pas travailler sur ce genre de projets « sans aucun cadre réglementaire ».
« Il est possible d’appuyer le développement d’outils d’intelligence artificielle plus performants, comme pour guérir le cancer, tout en s’opposant à la superintelligence », a-t-il complété.
Ce geste fait écho à une lettre signée par des chercheurs et des cadres de l’industrie de l’IA, publiée il y a un mois lors de l’assemblée générale des Nations unies. Dans cette lettre, ils appelaient à la mise en place d’« accords internationaux sur des lignes rouges pour l’IA » afin d’éviter des conséquences désastreuses pour l’humanité.