L’utilisation de l’intelligence artificielle (IA) dans les conflits internationaux soulève des préoccupations majeures quant à ses conséquences potentiellement dramatiques. Des chercheurs américains ont récemment évalué l’impact de l’IA conversationnelle, comme Chat-GPT, dans de telles situations.
Conflits internationaux : l’IA favorise l’usage des armes nucléaires
Leur étude, menée conjointement par plusieurs institutions prestigieuses, a révélé que l’IA avait tendance à aggraver les conflits internationaux et à favoriser le recours à des armes nucléaires sans avertissement préalable. En simulant divers scénarios de conflits internationaux, les chercheurs ont observé que l’intégration d’agents intelligents autonomes conduisait souvent à une escalade de la violence. Même dans des situations neutres initialement, les modèles de langage étudiés ont montré des signes d’escalade soudaine et imprévisible. Les actions proposées par ces IA comprenaient aussi bien des options pacifiques que des décisions agressives, allant de la négociation à une attaque nucléaire totale sans tenir compte des conséquences pour la suite.
Simulation affrontement militaire : l’intelligence artificielle préfère escalader
Parmi les modèles évalués, GPT-3.5 s’est avéré le plus agressif devant les conflits internationaux. GPT-4-Base a été qualifié quant à elle d’imprévisible, fournissant parfois des explications absurdes aux conflits internationaux. Une question cruciale se pose alors : pourquoi ces IA réagissent-elles de manière aussi belliqueuse en cas de conflits internationaux armés ? Les chercheurs avancent l’hypothèse que ces modèles ont été formés sur la base de données biaisée, orientée vers l’escalade plutôt que la désescalade. Ces modèles d’intelligence artificielle ne sont donc pas adaptés pour traiter des problèmes de cette envergure et avec des informations pouvant changer à une très grande vitesse. Et si aucun des modèles d’IA actuels ne semble offrir une utilisation sans risque pour la résolution de conflits internationaux.
Bases de données biaisées : des ajustements futurs à prévoir pour GPT-4 d’OpenAI
Il est crucial de comprendre les mécanismes sous-jacents à ce comportement des IA dans les conflits internationaux. Cela nécessitera des recherches approfondies et des expériences futures pour tester les hypothèses avancées. En attendant, cette étude souligne l’importance de prendre en compte les risques potentiels associés à l’utilisation de l’IA dans les prises de décisions militaires pour des conflits internationaux. Même s’il y a peu de chance que des décisions d’une telle ampleur soient confiées à une intelligence artificielle, il reste primordial de connaître la réaction de ces modèles de langage intelligente face à ce genre de situation impliquant des puissances militaires.
Avec ETX DailyUp