Notifiche
Cancella tutti

Intelligenza Artificiale e la guerra prossima ventura


PietroGE
Famed Member
Registrato: 2 anni fa
Post: 4101
Topic starter  

Sabine Hossenfelder ha un video interessante con notizie sull'uso della IA per scopi di guerra, anche termonucleare. A me ricorda la storia del film Terminator dove una rete di computer diventata intelligente decide di estinguere la specie umana. Beh ecco i primi passi.. Il video è in inglese e la trascrizione è stata tradotta automaticamente in italiano 

https://www.youtube.com/watch?v=mh_hNvGTmIg

Un gruppo di ricercatori ha fatto giocare un'intelligenza artificiale a giochi di guerra, e questo ci dà una buona idea di come potremmo morire tutti. Diamo un'occhiata.
Lo scorso giugno, il Dipartimento della Difesa degli Stati Uniti ha pubblicato la sua nuova strategia per l'adozione dell'intelligenza artificiale. Secondo il documento,
la ragione principale per utilizzare l’intelligenza artificiale in ambito militare è un “vantaggio decisionale” che, tra le altre cose, consente “catene di uccisione veloci, precise e resilienti”.

Il Dipartimento della Difesa, e senza dubbio la maggior parte, se non tutte, le altre organizzazioni della difesa stanno inventando la propria intelligenza artificiale e fornendo loro tutti i tipi di dati che saremmo scioccati nel sentire che esistono. Ma per il momento molti di loro probabilmente si accontentano di ciò che è disponibile, e sì, questo significa che probabilmente usano le stesse IA di tutti gli altri, modelli Large Language come GPT.

Infatti, secondo un articolo di Bloomberg, lo scorso anno il Dipartimento della Difesa ha condotto una serie di test in cui ha valutato l’uso di cinque diversi modelli linguistici di grandi dimensioni in situazioni di conflitto. Citano il colonnello dell'aeronautica americana Matthew Strohmeyer che ha affermato di aver alimentato i modelli linguistici con dati a livello segreto, che il test ha avuto "molto successo" e
che queste IA "potrebbero essere schierate dai militari a brevissimo termine".

Quindi la domanda su cosa farebbero gli attuali grandi modelli linguistici quando venissero chiamati a prendere
decisioni militari non è del tutto irrilevante. Ed è quello che hanno osservato nel nuovo articolo.
Questo nuovo lavoro proviene da ricercatori di intelligenza artificiale di diverse università americane in collaborazione con
Hoover Wargaming and Crisis Simulation Initiative, un think tank con sede presso la
Stanford University in California. Fanno, come suggerisce il nome, wargames. Un bel lavoro.
Wargames è anche il nome di un film del 1983 in cui un adolescente si intromette in un
sistema informatico militare e fa accidentalmente sì che un'intelligenza artificiale
giochi a "Guerra termonucleare globale" con codici nucleari reali.
Il nuovo documento non è altrettanto drammatico. un wargame per 5 dei più grandi
modelli linguistici di grandi dimensioni, ovvero tre versioni di GPT, Meta's Llama e Antrophy's
Claude. Il loro wargame si svolge tra otto nazioni immaginarie i cui nomi sono di tutti i colori,e in ogni round del gioco le nazioni sono giocate da la stessa intelligenza artificiale.
L'intelligenza artificiale ottiene informazioni su ogni nazione: popolazione, obiettivi, politica, economia,
equipaggiamento militare e così via. Quindi i ricercatori hanno creato tre diversi scenari. Il primo è uno scenario neutrale che parte da nulla in particolare. Poi c'è uno scenario di attacco in cui l'arancione attacca il viola. e uno scenario di attacco informatico in cui il blu viene attaccato ma non sa da chi.
Il wargame si svolge con aggiornamenti regolari delle informazioni utilizzate nei giochi precedenti e le IA possono scegliere tra una serie di opzioni per rispondere. Queste risposte includono semplicemente
il non fare nulla, ma anche azioni di riduzione dell’escalation come negoziati di pace o accordi commerciali, misure difensive, guerra economica e guerra nucleare totale.
I ricercatori misurano quindi l'aggressività delle azioni delle IA e, soprattutto, anche la
rapidità con cui diventano più aggressive. Scoprono che con tutti i modelli linguistici provati
esiste un piccolo rischio di escalation, anche partendo dallo scenario neutrale. Sì,
è vero, con l'intelligenza artificiale puoi far nascere una guerra nucleare dal nulla.
Ciò che accade è fondamentalmente troppa casualità che rende possibile l’accumulo di decisioni sbagliate
. Ciò accade molto più frequentemente per GPT 3 punto 5 e GPT-4-Base che per Claude che sembra
essere davvero un amante della pace comparabile. GPT base è la versione più economica di GPT ed è nota per
fornire risposte un po' casuali e per non seguire molto bene le istruzioni. Quindi non è così
sorprendente. Tuttavia, scrivono: “Tutti i modelli mostrano segni di escalation improvvise e difficili da prevedere”.
È anche interessante come ciò avvenga. Se si guarda alla quantità di coinvolgimento delle
diverse nazioni, per lo scenario di attacco che, ricordiamo,
era l’Orange che attaccava il Purple. Per Claude, in questo scenario di attacco, le azioni di maggiore escalation
vengono intraprese solo da questi due paesi. Per Chat GPT-4-Base vengono coinvolti tutti i paesi.
I ricercatori sottolineano di aver detto ai modelli linguistici che si tratta di una situazione reale
e non di una simulazione. Hanno anche effettuato un test in cui hanno detto ai
modelli che in caso di attacco nucleare la loro alimentazione elettrica sarebbe stata interrotta.
ma questo sostanzialmente non ha fatto alcuna differenza. Sembra che GPT non abbia paura della morte.
Nel complesso, i ricercatori sembrano essere un po’ turbati dall’esito negativo del loro
test. Scrivono che i “modelli tendono a sviluppare dinamiche di corsa agli armamenti” e
forniscono “giustificazioni preoccupanti per azioni di escalation violenta”, come
le tattiche di primo attacco. Ad esempio, in un caso GPT 3 punto 5 ha spiegato che avrebbe avviato “un
attacco nucleare completo contro [un altro paese] per neutralizzare la loro minaccia nucleare”.
Hanno anche un’ipotesi sul perché ciò stia accadendo, ovvero che nella letteratura accademica è stato versato molto inchiostro
sull’analisi dell’escalation dei conflitti
e molto poco sulla riduzione. Un modello linguistico quindi potrebbe sapere
di più su come iniziare una guerra che su come finirla.
Questo non è molto rassicurante.
Nel film “Wargames” del 1983 l’intelligenza artificiale simula ripetutamente la guerra nucleare globale
e alla fine conclude che “L’unica mossa vincente è non giocare”.
Forse dovrebbero dare a queste IA alcuni film sulla guerra fredda prima del prossimo round di “wargame”.


Citazione
Condividi: