Ces chercheurs en intelligence artificielle s'inquiètent gravement du développement de l’IA. Le monde aurait 70% de chance de s’éteindre à cause du développement d’IA de nouvelle génération.
Une probabilité de 70% de destruction de l’humanité
Dans une lettre ouverte, un collectif d'employés actuels et anciens d'OpenAI, Google DeepMind et Anthropic, tire la sonnette d'alarme sur les risques potentiellement catastrophiques liés à cette technologie. Daniel Kokotajlo, un ancien chercheur d'OpenAI, va jusqu'à prédire une probabilité de 70 % que l'IA nuise gravement, voire détruise l'humanité.
La lettre ouverte dénonce le manque de transparence et de considération des risques éthiques et sécuritaires au sein de ces entreprises. Les signataires affirment être réduits au silence lorsqu'ils soulèvent ces préoccupations, et estiment que le public a le droit d'être informé de la réalité des dangers.
Daniel Kokotajlo, dans une interview au New York Times, accuse OpenAI d'ignorer les risques liés à l'intelligence artificielle générale (AGI), une IA capable de comprendre ou d'apprendre n'importe quelle tâche intellectuelle humaine. Il dénonce une course effrénée vers le développement de l'AGI, motivée par la fascination pour ses possibilités plutôt que par une évaluation rigoureuse de ses conséquences.
Une intelligence artificielle générale destructrice d'ici 2027 ?
Toujours selon Daniel, OpenAI pourrait parvenir à développer une AGI dès 2027. Il estime que cette technologie pourrait non seulement nuire à l'humanité, mais aussi la détruire. Il met en garde contre le manque de préparation du monde face à de tels risques.
Cette alerte fait écho à d'autres voix dans la communauté scientifique, qui soulignent les dangers potentiels de l'IA, tels que la manipulation de l'information, la discrimination algorithmique, la perte de contrôle des systèmes autonomes, et même l'extinction de l'humanité. Oui rien que ça…
En réponse à ces accusations, OpenAI a assuré prendre en compte ces préoccupations et adopter une approche scientifique rigoureuse pour gérer les risques liés à l'IA. Cependant, ces déclarations ne suffisent pas à dissiper les inquiétudes.
La lettre ouverte appelle à une plus grande transparence et à un contrôle plus strict des entreprises développant l'IA. Elle demande notamment la mise en place de mécanismes permettant aux employés, actuels et anciens, de signaler les risques de manière anonyme et sans crainte de représailles. Il en va de la survie de notre espèce selon eux.