Intelligenza Artificiale
L’uso dell’Intelligenza Artificiale abbinato alle armi nucleari può portare alla catastrofe: parla l’alto ufficiale ONU
Le capacità di ricognizione di sorveglianza dell’Intelligence abilitate dall’Intelligenza Artificiale potrebbero essere una fonte di escalation ed essere utilizzate per scopi di targeting e attacco in tempi di conflitto. È il timore un alto rappresentante delle Nazioni Unite per gli affari del disarmo Izumi Nakamitsu.
L’uso dell’intelligenza artificiale (AI) nelle armi nucleari è estremamente pericoloso e può portare a conseguenze umanitarie catastrofiche, ha affermato Nakamitsu.
«L’Intelligenza Artificiale nelle funzioni relative alle armi, come la pre-delega per il lancio di armi che è l’uso di decisioni di forza, in particolare i sistemi di armi nucleari, è un concetto estremamente pericoloso che potrebbe portare a conseguenze umanitarie potenzialmente catastrofiche», ha detto Nakamitsu durante un incontro dell’Istituto delle Nazioni Unite per il Disarmo,
Nakamitsu ha messo in guardia dal seguire ciecamente la tecnologia e ha sottolineato che gli esseri umani dovrebbero rimanere quelli che determinano quando e come utilizzare l’intelligenza artificiale e l’apprendimento automatico e non viceversa.
I principali leader del settore informatico sembrano condividere le preoccupazioni sull’intelligenza artificiale (AI) che sono state espresse da guru della tecnologia e studiosi.
Il 42% dei CEO intervistati al recente CEO Summit di Yale è convinto che l’intelligenza artificiale (AI) potrebbe potenzialmente distruggere l’umanità tra cinque o dieci anni. Durante l’evento semestrale tenuto dal Chief Executive Leadership Institute di Sonnenfeld è stato condotto un sondaggio per imprenditori, leader politici e studiosi. I risultati, condivisi da un rapporto dei media statunitensi dopo la conclusione dell’incontro virtuale, sono stati descritti come «piuttosto oscuri e allarmanti» dal professore di Yale Jeffrey Sonnenfeld.
Ben 119 amministratori delegati hanno risposto al sondaggio, tra cui il CEO di Coca-Cola James Quincy, il CEO di Walmart Doug McMillion, amministratori delegati dei media, leader di aziende IT come Zoom e Xerox, insieme ad altri capi di aziende farmaceutiche e manifatturiere.
Degli intervistati, il 34% ritiene che gli enormi progressi che la tecnologia dell’intelligenza artificiale sta compiendo potrebbero comportare la potenziale distruzione dell’umanità in dieci anni. Un numero minore di intervistati – l’8% – era dell’opinione che l’umanità potrebbe affrontare una tale minaccia esistenziale e uscirne perdente nei prossimi cinque anni.
Nonostante le centinaia di ricercatori di intelligenza artificiale e dirigenti tecnologici che hanno recentemente firmato un severo avvertimento che l’Intelligenza Artificiale era irta del rischio di estinzione dell’umanità, il 58% non sarebbe «preoccupato», poiché ciò potrebbe «non accadere mai».
In una domanda a parte, il 58% degli amministratori delegati intervistati ha insistito sul fatto che le preoccupazioni riguardanti l’IA non erano sopravvalutate, mentre il 42% era incline a respingere i tanto pubblicizzati avvertimenti di una potenziale catastrofe legata all’avanzata dell’IA sopravvalutata.
In precedenza, i leader e gli studiosi del settore dell’Intelligenza Artificiale hanno firmato una lettera aperta sollecitando rapidi passi per mitigare i rischi apparentemente collegati ad esso.
La lettera è stata firmata da alcuni dei più grandi attori del settore, con firmatari tra cui il CEO di OpenAI (azienda creatrice di ChatGPT) Sam Altman, Geoffrey Hinton, il «padrino dell’IA», Dan Hendrycks, direttore del Center for AI Safety, alti dirigenti di Microsoft e Google e Microsoft.
«Mitigare il rischio di estinzione dell’IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare», afferma la dichiarazione pubblicata il 30 maggio.
Dan Hendrycks ha postato un tweet dichiarando che la situazione «ricorda gli scienziati atomici che lanciano avvertimenti sulle stesse tecnologie che hanno creato».
L’attuale lettera aperta è stata preceduta da un messaggio di aprile, firmato dal CEO di Tesla Elon Musk e da una manciata di altre figure di spicco del settore, che chiedevano una pausa nella ricerca sull’IA.
Come riportato da Renovatio 21, a chiedere di fermare l’Intelligenza Artificiale è stato anche un gruppo di medici che hanno firmato un appello sulla prestigiosa rivista scientifica BMJ Global Health.
Un recente rapporto della banca d’affari Goldman Sachs calcola che l’IA potrebbe portare a breve a 300 milioni di disoccupati nel mondo.
Il Musk aveva dichiarato durante la sua recente intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Quando Musk ha ribattuto ad un entusiasta fondatore di Google Larry Page specificando i rischi dell’AI, il Page gli ha dato dello «specista», termine del gergo animalista che indica una persona che mette la specie umana sopra le altre.
L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». L’anno scorso, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Eliezer Yudkowsky, specialista nel tema dei pericoli delle IA, ha dichiarato che l’unica possibilità è una moratoria che preveda il bombardamento delle server farm dei Paesi che stanno sviluppando l’AGI, poiché se non si fermano le macchine «tutti sulla terra moriranno».
Intelligenza Artificiale
Trump inserisce Anthropic nella lista nera per lo scontro con il Pentagono sull’AI
Il presidente degli Stati Uniti Donald Trump ha ordinato alle agenzie federali di interrompere l’uso dei sistemi di intelligenza artificiale sviluppati da Anthropic, intensificando uno scontro senza precedenti tra il governo degli Stati Uniti e una delle aziende di intelligenza artificiale più influenti della Silicon Valley sull’uso militare di algoritmi avanzati.
In un post pubblicato venerdì su Truth Social, Trump ha accusato l’azienda di aver tentato di «dettare il modo in cui il nostro grande esercito combatte e vince le guerre», annunciando un’immediata lista nera a livello governativo insieme a un periodo di eliminazione graduale di sei mesi per le agenzie che attualmente fanno affidamento sulla sua tecnologia.
«Dico a TUTTE le agenzie federali del governo degli Stati Uniti di CESSARE IMMEDIATAMENTE ogni utilizzo della tecnologia di Anthropic. Non ne abbiamo bisogno, non la vogliamo e non faremo più affari con loro!», ha scritto Trump, circa un’ora prima della scadenza del termine stabilito dal Pentagono per l’accettazione da parte dell’azienda delle richieste di revoca delle principali misure di sicurezza, pena il rischio di essere inserita nella lista nera come «rischio per la catena di approvvigionamento».
Il presidente degli Stati Uniti ha inoltre intimato all’azienda di collaborare durante il periodo di eliminazione graduale, altrimenti andrà incontro a gravi conseguenze legali.
«Anthropic farebbe meglio a darsi una mossa e a rendersi utile durante questo periodo di eliminazione graduale, altrimenti userò tutti i poteri della Presidenza per costringerli a conformarsi, con gravi conseguenze civili e penali», ha scritto Trump.
La direttiva fa seguito a settimane di crescenti tensioni tra Anthropic e il Dipartimento della Guerra degli Stati Uniti in merito alle restrizioni integrate nel sistema di intelligenza artificiale di punta dell’azienda, Claude.
Aiuta Renovatio 21
Al centro della controversia ci sono le garanzie contrattuali che impediscono l’utilizzo dei modelli Anthropic per la sorveglianza interna di massa o per sistemi d’arma completamente autonomi. I funzionari del Pentagono hanno chiesto la rimozione di tali limiti, sostenendo che i comandanti militari non possono operare sotto i vincoli imposti da appaltatori privati in tempo di guerra o in situazioni di crisi.
Il CEO di Anthropic, Dario Amodei, ha respinto la richiesta, affermando che l’azienda non avrebbe supportato utilizzi che riteneva fossero in conflitto con le norme democratiche o comportassero rischi inaccettabili.
Trump ha accusato l’azienda di essere gestita da «pazzi di sinistra» che, a suo dire, antepongono le preoccupazioni etiche e i termini del loro servizio alla Costituzione americana. «Il loro egoismo sta mettendo a rischio le VITE DEGLI AMERICANI, le nostre truppe in pericolo e la nostra sicurezza nazionale in PERICOLO», ha dichiarato il presidente degli Stati Uniti.
L’ordine di Trump formalizza di fatto una minaccia precedentemente sollevata dal Segretario alla Guerra degli Stati Uniti Pete Hegseth, il quale aveva avvertito che l’azienda avrebbe potuto essere definita un «rischio per la catena di approvvigionamento», una classificazione solitamente riservata alle aziende legate ad avversari stranieri.
Anthropic è stato il primo sviluppatore commerciale di AI a implementare modelli linguistici di grandi dimensioni su reti classificate del Pentagono, nell’ambito di un contratto del valore di 200 milioni di dollari. Il suo chatbot Claude è stato utilizzato per analisi di intelligence, simulazioni operative, operazioni informatiche e flussi di lavoro di pianificazione.
Lo scontro emerso segue alle accuse secondo cui il modello di Intelligenza Artificiale dell’azienda sarebbe stato utilizzato durante l’operazione per rapire il presidente venezuelano Nicolas Maduro all’inizio di gennaio.
Come riportato da Renovatio 21, negli ultimi mesi vi è stato un progressivo deterioramento dei rapporti tra Anthropic e il Pentagono, legato alla volontà del dipartimento della Guerra statunitense di utilizzare l’IA per il controllo di armi autonome senza le garanzie di sicurezza che l’azienda ha cercato di imporre.
Il CEO di Anthropic, Dario Amodei, ha più volte espresso gravi preoccupazioni sui rischi della tecnologia che la sua azienda sta sviluppando e commercializzando. In un lungo saggio di quasi 20.000 parole pubblicato il mese scorso, ha avvertito che sistemi AI dotati di «potenza quasi inimmaginabile» sono «imminenti» e metteranno alla prova «la nostra identità come specie».
Amodei ha messo in guardia dai «rischi di autonomia», in cui l’IA potrebbe sfuggire al controllo e sopraffare l’umanità, e ha ipotizzato che la tecnologia potrebbe facilitare l’instaurazione di «una dittatura totalitaria globale» attraverso sorveglianza di massa basata sull’Intelligenza Artificiale e l’impiego di armi autonome.
Come riportato da Renovatio 21, l’anno passato l’Amodei ha dichiarato che l’AI potrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni.
Lo scorso mese Mrinank Sharma, fino a poco tempo fa responsabile del Safeguards Research Team presso l’azienda sviluppatrice del chatbot Claude, ha pubblicato su X la sua lettera di dimissioni, in cui scrive che «il mondo è in pericolo. E non solo per via dell’Intelligenza Artificiale o delle armi biologiche, ma a causa di un insieme di crisi interconnesse che si stanno verificando proprio ora».
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Le AI più potenti impiegano armi nucleari nel 95% delle simulazioni di giochi di guerra: studio
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Il Canada contro ChatGPT dopo il massacro scolastico operato dal transessuale
Funzionari canadesi hanno convocato alti rappresentanti di OpenAI a Ottawa per rispondere a domande sui protocolli di sicurezza dell’azienda tecnologica, dopo che quest’ultima ha confermato di non aver avvisato la polizia di un account collegato all’autore della strage Jesse Van Rutselaar.
Il ministro per l’Intelligenza Artificiale, Evan Solomon, ha dichiarato lunedì che gli alti funzionari per la sicurezza di OpenAI si recheranno a Ottawa per illustrare le modalità con cui l’azienda decide quando avvisare le forze dell’ordine.
Il Van Rutselaar, diciottenne transgender, ha ucciso nove persone in una piccola città della Columbia Britannica all’inizio di questo mese prima di suicidarsi.
OpenAI ha confermato l’incontro, affermando che i dirigenti discuteranno «del nostro approccio generale alla sicurezza, delle misure di sicurezza in atto e di come queste vengano costantemente rafforzate». L’incontro fa seguito alla dichiarazione dell’azienda di aver bloccato l’account di Van Rutselaar nel giugno 2025 per «favoreggiamento di attività violente», senza tuttavia informare le autorità canadesi.
Sostieni Renovatio 21
Solomon si è detto «profondamente turbato» dalle notizie secondo cui l’azienda avrebbe sospeso l’account senza contattare la polizia.
Secondo il Wall Street Journal, Van Rutselaar ha condiviso con ChatGPT scenari di violenza legati alle armi per diversi giorni. OpenAI ha affermato che i suoi sistemi automatizzati hanno segnalato gli scambi ma non hanno trovato prove di «pianificazione credibile o imminente», il che ha portato a un divieto piuttosto che a un deferimento alle forze dell’ordine.
Come riportato da Renovatio 21, lo stragista transessuale aveva pure creato un «simulatore di strage» in un centro commerciale utilizzando il popolare gioco Roblox.
L’emittente ha riferito che il personale aveva discusso internamente se contattare la Royal Canadian Mounted Police (RCMP) e che OpenAI ha affermato di aver fornito informazioni alla RCMP solo dopo l’attacco.
Van Rutselaar, che aveva una storia di problemi di salute mentale, avrebbe anche utilizzato la piattaforma online Roblox per creare un centro commerciale virtuale rifornito di armi dove gli utenti potevano simulare sparatorie prima dell’attacco.
Il caso arriva mentre Ottawa valuta come regolamentare i chatbot di intelligenza artificiale ampiamente utilizzati, inclusi potenziali limiti all’accesso per i minori.
L’anno scorso, OpenAI ha aggiornato ChatGPT dopo che una revisione interna ha rilevato che oltre un milione di utenti avevano rivelato pensieri suicidi al chatbot. Gli psichiatri hanno sollevato preoccupazioni circa il fatto che le interazioni prolungate con l’intelligenza artificiale contribuiscano a deliri e paranoia, un fenomeno a volte chiamato «psicosi da Intelligenza Artificiale».
I casi di violenza da chatbot intanto aumentano.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Aiuta Renovatio 21
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio. Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
Mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.
Iscriviti alla Newslettera di Renovatio 21
-



Oligarcato2 settimane faEpstein aveva proposto a JPMorgan un piano per ottenere «più soldi per i vaccini» da Bill Gates
-



Cina7 giorni faEnigmi femminili cinesi alle Olimpiadi
-



Vaccini2 settimane faVaccini e COVID, l’architetto chiave della lista contro la «disinformazione» si dimette dopo l’uscita dei documenti Epstein
-



Spirito1 settimana faMons. Viganò sul set della «Resurrezione» del cattolico tradizionalista Mel Gibson
-



Spirito2 settimane faL’élite ostracizza chi si non si converte all’ideologia infernale del globalismo: omelia di mons. Viganò nel Mercoledì delle Ceneri
-



Predazione degli organi1 settimana faUn cuore «bruciato», due vite spezzate dalla predazione degli organi
-



Oligarcato2 settimane faEpstein e Gates hanno finanziato un portale di ricerca per controllare il dibattito scientifico
-



Occulto2 settimane faMarina Abramovic si lamenta di aver bisogno dei bodyguard














