Intelligenza Artificiale
Intelligenza Artificiale, «tutti sulla Terra moriranno»
L’umanità non è preparata a sopravvivere a un incontro con un’Intelligenza Artificiale molto più intelligente. Eliezer Yudkowsky, esperto riconosciuto delle prospettive catastrofiche dell’AI, lo oramai ripete da decenni.
Arrestare lo sviluppo di sistemi avanzati di intelligenza artificiale in tutto il mondo e punire severamente coloro che violano la moratoria è l’unico modo per salvare l’umanità dall’estinzione, avverte Yudkowsky, co-fondatore del Machine Intelligence Research Institute (MIRI).
Yudkowski ha scritto un articolo di opinione per la rivista TIME il mese scorso, spiegando perché non ha firmato una petizione che invitava «tutti i laboratori di Intelligenza Artificiale a sospendere immediatamente per almeno sei mesi l’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4», un modello di linguaggio multimodale rilasciato da OpenAI recentemente e che ha già mostrato scenari inquietanti, e anche molto.
Yudkowsky ha sostenuto che la moratoria per fermare la ricerca IA firmata da a Elon Musk e Steve Wozniak e altri, «chiede troppo poco per risolvere» il problema posto dallo sviluppo rapido e incontrollato dell’IA. (Alla moratoria, ricordiamo, si è opposto Bill Gates)
«Il risultato più probabile della costruzione di un’Intelligenza Artificiale sovrumana, in qualcosa di lontanamente simile alle circostanze attuali, è che letteralmente tutti sulla Terra moriranno», scrive lo Yudkowsky.
Sopravvivere a un incontro con un sistema informatico che «non si prende cura di noi né della vita senziente in generale» richiederebbe «precisione e preparazione e nuove intuizioni scientifiche” che l’umanità manca al momento ed è improbabile che ottenga nel prossimo futuro, ha affermato.
«Un’Intelligenza Artificiale sufficientemente intelligente non rimarrà confinata a lungo nei computer», ha avvertito Yudkowsky, spiegando che il fatto che sia già possibile inviare stringhe di DNA ai laboratori per la produzione di proteine consentirà probabilmente all’intelligenza artificiale di «costruire forme di vita artificiale o avviarsi direttamente alla produzione molecolare postbiologica» e uscire nel mondo.
Secondo il ricercatore, deve essere introdotta immediatamente una moratoria a tempo indeterminato e mondiale sulle nuove importanti corse di addestramento dell’IA. «Non ci possono essere eccezioni, anche per governi o militari», ha sottolineato.
Dovrebbero essere firmati accordi internazionali per porre un limite alla quantità di potenza di calcolo che chiunque può utilizzare per addestrare tali sistemi, insiste lo Yudkowsky.
«Se l’Intelligence dice che un Paese al di fuori dell’accordo sta costruendo un cluster GPU (unità di elaborazione grafica), bisogna avere meno paura di un conflitto a fuoco tra le Nazioni che della violazione della moratoria; bisogna essere disposti a distruggere un datacenter canaglia con un attacco aereo», ha scritto.
Come riportato da Renovatio 21, Yudkowsky propone di bombardare materialmente i computer per fermare l’ascesa di un’IA in grado di mettere fine all’esistenza degli uomini.
La minaccia dell’Intelligenza Artificiale è così grande che dovrebbe essere reso «esplicito nella diplomazia internazionale che la prevenzione degli scenari di estinzione dell’IA è considerata una priorità rispetto alla prevenzione di uno scambio nucleare completo».
La prospettiva di Yudkowsky è meno radicale di quanto sembri.
Elon Musk ha dichiarato durante la sua recente intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Quando Musk ha ribattuto ad un entusiasta fondatore di Google Larry Page specificando i rischi dell’AI, il Page gli ha dato dello «specista», termine del gergo animalista che indica una persona che mette la specie umana sopra le altre.
L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». L’anno scorso, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Da Google si è recentemente licenziato l’esperto britannico Geoffrey Hinton, divenendo così libero di dare voce ai suoi dubbi per i rischi esiziali che corre l’umanità con la creazione delle macchine superintelligenti. Pochi mesi fa un ingegnere di Google, Blake Lemoine, ha dichiarato pubblicamente che il chatbot AI dell’azienda, LaMDA, è «senziente», ossia dotato di una coscienza comparabile a quella degli esseri umani.
Come riportato da Renovatio 21, Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».
L’ultimo germe di incubo pochi giorni fa, quando si è visto che qualcuno ha equipaggiato un robocane Boston Dynamics con ChatGPT.
La minaccia è reale, e Renovatio 21 ve lo ripete da anni.
Intelligenza Artificiale
Il Pentagono stringe accordi con le principali aziende di Intelligenza Artificiale
Il Pentagono ha dichiarato di aver raggiunto accordi con importanti aziende specializzate in intelligenza artificiale per integrare le loro funzionalità avanzate di IA nelle reti classificate dell’agenzia.
Il dipartimento della Guerra degli Stati Uniti ha avviato trattative attive con i leader del settore dall’inizio dell’anno, nel tentativo di ampliare l’applicazione dell’intelligenza artificiale nelle operazioni militari e diversificare la gamma di aziende che forniscono questa tecnologia.
Il progetto sta procedendo nonostante le preoccupazioni degli esperti circa la capacità dell’AI di operare in modo affidabile nel rispetto delle leggi di guerra vigenti e il suo possibile utilizzo per violare la privacy dei civili in tempo di pace.
Sono stati raggiunti accordi con SpaceX, OpenAI, Google, NVIDIA, Reflection, Microsoft, Amazon Web Services e Oracle per l’implementazione dei loro sistemi di IA per un «uso operativo lecito», ha dichiarato il Pentagono in un comunicato stampa venerdì.
L’intelligenza artificiale verrà integrata nelle reti Impact Level 6 e Impact Level 7 del Dipartimento della Guerra per «semplificare la sintesi dei dati, migliorare la comprensione della situazione e potenziare il processo decisionale dei militari in ambienti operativi complessi», si legge nella dichiarazione.
Sostieni Renovatio 21
La piattaforma di intelligenza artificiale ufficiale del Dipartimento della Guerra degli Stati Uniti, GenAI.mil, è stata utilizzata da oltre 1,3 milioni di persone negli ultimi cinque mesi, «generando decine di milioni di richieste e impiegando centinaia di migliaia di agenti», ha affermato il Dipartimento. Secondo il Pentagono, la tecnologia ha permesso di accelerare l’esecuzione di determinate attività, riducendo i tempi da mesi a giorni.
Parallelamente, la Marina statunitense ha assegnato alla Domino Data Lab, società di AI con sede a San Francisco, un contratto da 100 milioni di dollari per contribuire alla lotta contro le mine iraniane nello Stretto di Hormuz, di fatto bloccato sin dai primi giorni della guerra tra Stati Uniti e Israele contro l’Iran.
«La Marina sta finanziando la piattaforma che le consente di addestrare, gestire e impiegare l’IA alla velocità necessaria per operare in acque contese», ha dichiarato venerdì a Reuters Thomas Robinson, CEO di Domino. Secondo quanto riportato, Washington punta sulla velocità dell’IA nell’analizzare una grande quantità di dati provenienti da diversi tipi di sensori per migliorare rapidamente il rilevamento delle mine nei droni sottomarini statunitensi.
I recenti accordi del Pentagono con aziende di intelligenza artificiale hanno escluso in modo evidente Anthropic, che all’inizio di quest’anno ha avuto un diverbio con il Pentagono dopo essersi rifiutata di allentare le misure di sicurezza a protezione della sua tecnologia. L’azienda sosteneva che la sua IA potesse essere utilizzata per la sorveglianza interna o per il dispiegamento di armi automatiche senza supervisione umana.
Il dipartimento della Guerra ha reagito classificando Anthropic come «rischio per la catena di approvvigionamento», un’etichetta rara solitamente riservata a entità legate ad avversari stranieri di Washington, escludendo di fatto l’azienda da qualsiasi contratto futuro.
Il segretario alla Guerra statunitense Pete Hegseth ha definito l’amministratore delegato di Anthropic, Dario Amodei, un «pazzo ideologico» durante un’audizione al Senato degli Stati Uniti all’inizio di questa settimana. Hegseth ha paragonato la riluttanza dell’azienda ad accettare le condizioni del Pentagono a «la Boeing che ci dà gli aerei e ci dice chi possiamo colpire».
Attualmente Anthropic ha intentato una causa contro il Pentagono per ottenere la rimozione dell’etichetta di «rischio della catena di approvvigionamento».
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Donna fa causa a OpenAI: ChatGPT le avrebbe scatenato contro uno stalker spietato
Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Google sigla un accordo con il Pentagono sull’Intelligenza Artificiale
Google ha raggiunto un accordo per fornire al Pentagono i suoi modelli di Intelligenza Artificiale destinati a uso secretato. Lo riporta il New York Times.
L’intesa è stata siglata nonostante le proteste interne all’azienda e le persistenti controversie sulle applicazioni militari della tecnologia. A partire dallo scorso anno, il Pentagono ha rapidamente ottenuto l’accesso all’intelligenza artificiale avanzata tramite accordi analoghi con i principali sviluppatori del settore.
Secondo le informazioni diffuse, l’accordo amplia un contratto da 200 milioni di dollari firmato nel 2025, che consente all’IA Gemini di Google di funzionare su reti classificate. Il colosso tecnologico ha confermato l’intesa, senza però fornire ulteriori dettagli.
«Siamo orgogliosi di far parte di un ampio consorzio… che fornisce servizi di AI a supporto della sicurezza nazionale», ha dichiarato la portavoce dell’azienda, Jenn Crider, aggiungendo che Google resta impegnata a garantire che l’IA non venga utilizzata per la sorveglianza di massa interna o per armi autonome senza supervisione umana.
Secondo quanto riportato per primo dalla testata della Silicon Valley The Information, il Pentagono potrà ora impiegare l’intelligenza artificiale di Google per «qualsiasi scopo governativo lecito», termini che ricalcano gli accordi stipulati con altri sviluppatori di IA.
Funzionari statunitensi sostengono che il nuovo contratto mira a garantire alle forze armate maggiore flessibilità ed evitare la dipendenza da un unico fornitore, integrando l’IA in operazioni sensibili come la pianificazione delle missioni e il puntamento delle armi. Tuttavia, l’accordo consentirebbe al Pentagono di richiedere modifiche ai filtri di sicurezza di Google, pur specificando che l’azienda non può porre il veto a decisioni «legittime per il governo», clausola che ha destato preoccupazione tra i critici.
Sostieni Renovatio 21
L’intesa ha scatenato polemiche interne a Google. In una lettera aperta pubblicata questa settimana, oltre 600 dipendenti, tra cui dirigenti di alto livello, hanno esortato l’amministratore delegato Sundar Pichai a interrompere l’utilizzo dell’AI dell’azienda in ambito militare, avvertendo che potrebbe essere impiegata in «modi disumani o estremamente dannosi». Hanno chiesto una moratoria su tali contratti, maggiore trasparenza e la creazione di un comitato etico per supervisionare le collaborazioni con le forze armate.
L’accordo arriva dopo la controversia tra il Pentagono e la startup Anthropic, che all’inizio di quest’anno si era rifiutata di allentare le misure di sicurezza relative alla sorveglianza e alle armi autonome. Il dipartimento della Difesa l’aveva definita un «rischio per la catena di approvvigionamento», escludendola di fatto da futuri contratti. Da allora Anthropic ha impugnato la decisione in tribunale.
Altre aziende hanno scelto un approccio diverso. OpenAI ha recentemente concluso un accordo per implementare i suoi modelli su reti classificate del Pentagono, mentre xAI di Musk ha integrato i suoi sistemi nella piattaforma interna di IA delle forze armate, GenAI.mil, utilizzata da milioni di persone.
La spinta del Pentagono verso l’IA ha provocato proteste da parte di lavoratori del settore tecnologico e attivisti, che mettono in guardia contro l’impiego della tecnologia in ambito militare senza adeguati controlli. Il mese scorso manifestanti si sono radunati davanti agli uffici di OpenAI con slogan come «No allo stato di sorveglianza basato sull’IA» e «Orwell ci aveva avvertito».
Il Pentagono ribadisce di non avere intenzione di utilizzare l’AI per la sorveglianza di massa sul territorio nazionale o per armi completamente autonome, ma continua a promuovere un ampio accesso ai sistemi avanzati per «qualsiasi uso lecito».
Iscriviti alla Newslettera di Renovatio 21
-



Spirito2 settimane faMadre Teresa disse a un sacerdote: la Comunione sulla mano era «il peggior male» mai visto
-



Pensiero2 settimane faIl manifesto di Palantir in sintesi
-



Misteri2 settimane faEsperto di UFO trovato morto suicida. Aveva ripetuto che mai lo avrebbe fatto
-



Spirito1 settimana faLeone e l’arcivescovessa, mons. Viganò: Roma sta con gli eretici e nega le cresime ai tradizionisti
-



Misteri1 settimana faRitrovata l’Arca di Noè?
-



Bioetica5 giorni faCorpi senza testa per produrre organi: l’uomo ridotto a funzione, la medicina contro l’anima
-



Salute2 settimane faI malori della 17ª settimana 2026
-



Spirito1 settimana faMons Strickland risponde alle osservazioni di papa Leone sulle «benedizioni» omosessuali














