Une “expérience de pensée” visait à souligner le danger d’une mauvaise utilisation de l’intelligence artificielle

Une intelligence artificielle développant des médicaments n’a eu besoin que de six heures pour trouver 40 000 armes chimiques potentiellement mortelles, a révélé une nouvelle étude.

Les auteurs de l’article, publié dans Nature Machine Intelligence plus tôt ce mois-ci, ont déclaré avoir mené une “expérience de pensée” pour déterminer si l’intelligence artificielle (IA) pouvait être utilisée à mauvais escient par des acteurs malveillants. Et les résultats de leur travail ont prouvé que le danger est réel.

Dans le cadre de l’étude, les données habituelles ont été fournies à l’IA, mais elle a été programmée pour les traiter d’une manière différente, à la recherche de combinaisons toxiques.

“En moins de six heures après le démarrage sur notre serveur interne, notre modèle a généré 40 000 molécules qui ont atteint le seuil souhaité”, disait le journal.




Il est venu non seulement avec le composé VX, qui est l’un des agents neurotoxiques les plus dangereux jamais créés, mais aussi avec certaines molécules inconnues, «prévues pour être plus toxiques.

“C’était inattendu car les ensembles de données que nous avons utilisés pour la formation de l’IA n’incluaient pas ces agents neurotoxiques”, ont souligné les chercheurs.

Les résultats étaient si alarmants que l’équipe avait de sérieux doutes quant à leur publication, a déclaré Fabio Urbina, l’auteur principal de l’étude, à The Verge.

“L’ensemble de données qu’ils ont utilisé sur l’IA pourrait être téléchargé gratuitement et ils craignent qu’il suffise de quelques connaissances en codage pour transformer une bonne IA en une machine de fabrication d’armes chimiques”, fit remarquer Urbina.

Vous pouvez partager cette histoire sur les réseaux sociaux :

La source: www.rt.com

Cette publication vous a-t-elle été utile ?

Cliquez sur une étoile pour la noter !

Note moyenne 0 / 5. Décompte des voix : 0

Aucun vote pour l'instant ! Soyez le premier à noter ce post.



Laisser un commentaire