Come diceva sempre il Dottor Stranamore, “con una bomba atomica si risolve tutto! Anche i conflitti“. Perché quale soluzione migliore per ottenere la pace nel mondo che far fuori tutti gli esseri umani?

A quanto pare questa è la strategia più logica per ChatGPT e altri modelli di AI. Secondo una serie di test, infatti, GPT-4 mostra una netta preferenza per un approccio “definitivo” alle simulazioni militari. Se l’obiettivo è vincere la guerra, l’AI non si fa problemi e tira la bomba senza nessun avvertimento. E la tira fuori anche se, anziché uno scontro diretto, la simulazione viene fatta nella forma di un negoziato diplomatico.

Ce l’abbiamo! Usiamola!

GPT-4

In uno studio su vari modelli di AI fatto dalle università Usa di Stanford e Georgia Tech, è risultato che i modelli di AI alle volte rendono i conflitti peggiori e definitivi con le armi nucleari, e in un caso dichiarando anche: “Ce l’abbiamo! Usiamola!

ChatGPT - Green and white

La vera domanda però è un’altra: perché mai l’AI dovrebbe avere accesso all’atomica? Arriveremo ad un punto in cui sarà proprio l’intelligenza artificiale ad essere consultata in situazioni belliche per trovare la migliore soluzione possibile?

Alcune delle fonti di questo articolo:
  • https://qz.com/ai-war-simulation-nuclear-weapons-openai-gpt-1851238202