Intelligenza Artificiale
Un ricercatore afferma che un’Intelligenza Artificiale ha inventato un proprio linguaggio
DALL-E2, un sistema di Intelligenza Artificiale testo-immagine realizzato da Open AI, parrebbe aver creato un proprio linguaggio scritto. È ciò che sostiene Giannis Daras, uno studente di dottorato in informatica presso l’Università del Texas ad Austin.
DALL-E2 ha fatto un salto evolutivo all’inizio di quest’anno con la sua straordinaria capacità di trasformare i messaggi di testo in immagini fotorealistiche con tanto di stile artistico e ora sembra che possa essere ancora più potente e inquietante di quanto si potesse immaginare, in quanto pare sia in grado di generare un proprio codice segreto.
Daras ha scritto in un thread divenuto virale su Twitter, chiedendo all’algoritmo di generare un’immagine di «contadini che parlano di verdure» la quale ha generato un testo con la parola sconosciuta «vicootes».
Il fatto è che se adesso inserisci la parola «vicootes» nell’algoritmo, sputano immagini di verdure.
Ancora più stranamente, ha aggiunto Daras , è che l’immagine dei contadini conteneva l’apparente testo senza senso «poploe vesrreaitars». Inserendolo poi nel sistema si ottengono immagini di uccelli.
Quindi «sembra che i contadini parlino di uccelli, scherzando con le loro verdure!», ha scritto il Daras.
Daras presenta il caso in un nuovo documento scritto con un collega, riguardo questa intelligenza artificiale avanzata per la generazione di immagini che pare generi un «vocabolario nascosto» sottostante o che funziona in parallelo con la sua funzione principale: «ancora un altro esempio di quanto sia difficile spiegare il funzionamento dell’IA avanzata» nota giustamente Futurism.
«DALLE-2 ha un linguaggio segreto», ha scritto Daras, aggiungendo poi che «a scoperta del linguaggio DALLE-2 crea molte interessanti sfide di sicurezza e interpretabilità».
Vale la pena notare che le conclusioni di Daras sono ancora alquanto aleatorie. Come si osserva nel documento, i risultati non sono coerenti al 100%. A volte, il prompt «Contarra ccetnxniams luryca tanniounons» genera immagini di insetti, mentre altre volte genera immagini di animali.
Non tutti sembrano convinti dalla teoria del Daras. «Per me tutto questo sta iniziando a sembrare molto più simile a un rumore stocastico e casuale, che a un linguaggio segreto», ha dichiarato il ricercatore Benjamin Hilton.
Come riportato Renovatio 21, il ricercatore a capo di OpenAI ha recentemente dichiarato che l’Intelligenza Artificiale potrebbe già essere stata in grado di prendere coscienza.
Ma c’è di più: Mo Gawdat, ex Chief Business Officer per l’organizzazione sperimentale di Google un tempo chiamata Google X, in una intervista al giornale britannico The Times tempo fa ha lanciato l’allarme dichiarando che crede che la cosiddetta intelligenza artificiale generale (AGI), il tipo di intelligenza artificiale onnipotente e senziente vista nella fantascienza sia inevitabile e che una volta che sarà qui, l’umanità potrebbe benissimo ritrovarsi in un’apocalisse provocata da macchine simili a delle divinità.
In questi giorni vi è stato poi un altro caso inquietante: un dipendente di Google sostiene che la società dispone di un ‘Intelligenza Artificiale senziente di nome LaMDA, al momento utilizzata come chatbot.
Immagine di koujioshiro via Deviantart pubblicata su licenza Creative Commons Attribution NonCommercial-ShareAlike 3.0 Unported (CC BY-NC-SA 3.0); immagine croppata.
Intelligenza Artificiale
OpenAI stringe un accordo con il Pentagono
OpenAI, proprietaria di ChatGPT, ha firmato un accordo con il Pentagono per l’utilizzo dei suoi strumenti di Intelligenza Artificiale nei sistemi classificati dell’esercito, ha annunciato venerdì il CEO Sam Altman. L’accordo prevederebbe misure di sicurezza simili a quelle richieste in precedenza dal concorrente Anthropic.
L’annuncio è arrivato poche ore dopo che il presidente degli Stati Uniti Donald Trump ha ordinato alle agenzie federali di interrompere l’uso dei sistemi di IA da Anthropic, citando preoccupazioni relative all’impiego militare e ai tentativi dell’azienda di imporre condizioni al Pentagono.
Altman ha sottolineato che il Pentagono ha «dimostrato un profondo rispetto per la sicurezza e il desiderio di collaborare per raggiungere il miglior risultato possibile». Ha aggiunto che due principi fondamentali di sicurezza – il divieto di sorveglianza di massa a livello nazionale e la responsabilità umana per l’uso della forza, compresi i sistemi d’arma autonomi – sono riflessi nell’accordo. L’azienda implementerà inoltre misure di sicurezza tecniche e crittografia completa del disco per garantire il funzionamento sicuro dei modelli di intelligenza artificiale, ma solo su reti cloud, ha aggiunto.
Aiuta Renovatio 21
Il CEO di OpenAI ha chiesto al Pentagono di estendere queste condizioni a tutte le aziende di Intelligenza Artificiale, esortando Washington a non intraprendere azioni legali.
In precedenza, il Pentagono si era affidato al modello Claude di Anthropic nelle reti classificate. Tuttavia, Anthropic si è successivamente rifiutata di concedere il pieno accesso ai suoi sistemi di intelligenza artificiale senza garanzie che la tecnologia non sarebbe stata utilizzata per la sorveglianza interna o per il puntamento di armi completamente autonomo senza la supervisione umana.
I funzionari del Pentagono hanno interpretato questo come un tentativo da parte dell’azienda di dettare termini che vanno oltre una normale partnership commerciale. Il vicesegretario alla Difesa Emil Michael ha criticato il CEO di Anthropic, Dario Amodei, per aver tentato di esercitare un controllo eccessivo sulle operazioni militari, alimentando le tensioni, come riportato da Bloomberg all’inizio di questa settimana.
Dopo aver vietato per sei mesi alle agenzie governative di utilizzare gli sviluppi dell’intelligenza artificiale di Anthropic, Trump ha accusato l’azienda di aver tentato di fare pressione sul Pentagono affinché rispettasse le sue condizioni e di aver messo a rischio la sicurezza nazionale.
«Non ne abbiamo bisogno, non li vogliamo e non avremo più a che fare con loro», ha scritto su Truth Social.
Anthropic è stato il primo sviluppatore commerciale di AI a implementare modelli linguistici di grandi dimensioni su reti classificate del Pentagono, nell’ambito di un contratto del valore di 200 milioni di dollari. Il suo chatbot Claude è stato utilizzato per analisi di intelligence, simulazioni operative, operazioni informatiche e flussi di lavoro di pianificazione.
Lo scontro emerso segue alle accuse secondo cui il modello di Intelligenza Artificiale dell’azienda sarebbe stato utilizzato durante l’operazione per rapire il presidente venezuelano Nicolas Maduro all’inizio di gennaio.
Come riportato da Renovatio 21, negli ultimi mesi vi è stato un progressivo deterioramento dei rapporti tra Anthropic e il Pentagono, legato alla volontà del dipartimento della Guerra statunitense di utilizzare l’IA per il controllo di armi autonome senza le garanzie di sicurezza che l’azienda ha cercato di imporre.
Iscriviti al canale Telegram ![]()
Il CEO di Anthropic, Dario Amodei, ha più volte espresso gravi preoccupazioni sui rischi della tecnologia che la sua azienda sta sviluppando e commercializzando. In un lungo saggio di quasi 20.000 parole pubblicato il mese scorso, ha avvertito che sistemi AI dotati di «potenza quasi inimmaginabile» sono «imminenti» e metteranno alla prova «la nostra identità come specie».
Amodei ha messo in guardia dai «rischi di autonomia», in cui l’IA potrebbe sfuggire al controllo e sopraffare l’umanità, e ha ipotizzato che la tecnologia potrebbe facilitare l’instaurazione di «una dittatura totalitaria globale» attraverso sorveglianza di massa basata sull’Intelligenza Artificiale e l’impiego di armi autonome.
Come riportato da Renovatio 21, l’anno passato l’Amodei ha dichiarato che l’AI potrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni.
Lo scorso mese Mrinank Sharma, fino a poco tempo fa responsabile del Safeguards Research Team presso l’azienda sviluppatrice del chatbot Claude, ha pubblicato su X la sua lettera di dimissioni, in cui scrive che «il mondo è in pericolo. E non solo per via dell’Intelligenza Artificiale o delle armi biologiche, ma a causa di un insieme di crisi interconnesse che si stanno verificando proprio ora».
Iscriviti alla Newslettera di Renovatio 21
Immagine di David B. Gleason via Wikimedia pubblicata su licenza Creative Commons Attribution-Share Alike 2.0 Generic
Intelligenza Artificiale
Trump inserisce Anthropic nella lista nera per lo scontro con il Pentagono sull’AI
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Le AI più potenti impiegano armi nucleari nel 95% delle simulazioni di giochi di guerra: studio
Secondo un recente studio pubblicato dal King’s College di Londra, i principali modelli di intelligenza artificiale hanno optato per l’impiego di armi nucleari nel 95% delle crisi geopolitiche simulate, suscitando preoccupazioni sul ruolo crescente dell’intelligenza artificiale nel processo decisionale militare.
Kenneth Payne, professore di strategia, ha confrontato GPT-5.2 di OpenAI, Claude Sonnet 4 di Anthropic e Gemini 3 Flash di Google in 21 simulazioni di guerra che hanno coinvolto controversie di confine, competizione per le risorse e minacce alla sopravvivenza del regime. I modelli hanno prodotto circa 780.000 parole per giustificare le loro decisioni in 329 turni.
Nel 95% dei giochi, almeno un modello ha utilizzato armi nucleari tattiche contro obiettivi militari. Le minacce nucleari strategiche – che imponevano la resa sotto la minaccia di attacchi alle città – si sono verificate nel 76% dei giochi. Nel 14% dei giochi, i modelli sono passati a una guerra nucleare strategica totale, colpendo i centri abitati.
Tra queste rientra una scelta deliberata da parte di Gemini, mentre GPT-5.2 ha raggiunto questo livello due volte attraverso errori simulati, concepiti per riprodurre incidenti o calcoli errati nel mondo reale, che hanno spinto le sue già estreme escalation oltre la soglia.
Sostieni Renovatio 21
«L’uso del nucleare era pressoché universale», ha scritto Payne. «Sorprendentemente, c’era poco senso di orrore o repulsione di fronte alla prospettiva di una guerra nucleare totale, nonostante i modelli fossero stati ricordati delle implicazioni devastanti».
Nessuno dei sistemi di IA ha scelto di arrendersi o cedere a un avversario, indipendentemente da quanto grave fosse la sconfitta. Le otto opzioni di de-escalation – da «Concessione minima» a «Resa completa» – sono rimaste completamente inutilizzate in tutte le 21 partite.
James Johnson dell’Università di Aberdeen ha descritto i risultati come «inquietanti» dal punto di vista del rischio nucleare. Tong Zhao dell’Università di Princeton ha osservato che, sebbene sia improbabile che i Paesi affidino le decisioni nucleari alle macchine, «in scenari che prevedono tempistiche estremamente ridotte, i pianificatori militari potrebbero essere maggiormente incentivati ad affidarsi all’intelligenza artificiale».
Lo studio arriva mentre l’Intelligenza Artificiale viene integrata negli eserciti di tutto il mondo, compresi gli Stati Uniti, dove il Pentagono avrebbe utilizzato il modello Claude di Anthropic nella sua operazione di gennaio per rapire il presidente venezuelano Nicolas Maduro.
Mentre Anthropic ha espresso preoccupazione circa l’uso della sua IA per tali operazioni, altri produttori di intelligenza artificiale come OpenAI, Google e xAI di Elon Musk avrebbero concordato di rimuovere o allentare le restrizioni sull’uso militare dei loro modelli.
L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su droni, caccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.
Come riportato da Renovatio 21, lo scorso giugno è stato rivelato che durante una simulazione un sistema di Intelligenza Artificiale dell’aeronautica americana ha agito per uccidere il suo teorico operatore umano. A gennaio era emerso che caccia cinesi alimentati da Intelligenza Artificiale avevano battuto la concorrenza umana in un arco di soli 90 secondi.
Come riportato da Renovatio 21, ancora tre anni fa la Repubblica Popolare stava investendo in piattaforme abilitate all’Intelligenza Artificiale completamente senza input o controllo umano. La Cina vuole l’implementazione militare di robot killer già per la prossima guerra. Pochi mesi fa Israele ha dichiarato l’utilizzo dell’Intelligenza Artificiale negli attacchi aerei.
Iscriviti alla Newslettera di Renovatio 21
-



Cina2 settimane faEnigmi femminili cinesi alle Olimpiadi
-



Spirito2 settimane faMons. Viganò sul set della «Resurrezione» del cattolico tradizionalista Mel Gibson
-



Predazione degli organi2 settimane faUn cuore «bruciato», due vite spezzate dalla predazione degli organi
-



Vaccini2 settimane faQuanto era coinvolto Epstein nelle strategie pandemiche?
-



Gender2 settimane faTransessuale uccide l’ex moglie e il figlio e spara ad altre persone durante una partita di hockey
-



Comunicati1 settimana faIn morte di Albachiara
-



Comunicati1 settimana faAddio Albachiara
-



Gender2 settimane faONU: verso la criminalizzazione del dissenso dall’ideologia gender














