Intelligenza Artificiale
Elon Musk: Google vuole creare un dio-AI
Elon Musk ha rivelato che l’intenzione di Google sarebbe quella di creare un dio-Intelligenza Artificiale. Il patron di Tesla e Twitter lo ha rivelato in una lunga e densissima intervista con il giornalista televisivo americano Tucker Carlson.
Musk sostiene di aver ripetutamente messo in guardia i proprietari di Google dai pericoli dell’AI. Tuttavia, il miliardario ha affermato che l’obiettivo finale di Google è proprio «creare una super intelligenza digitale» o meglio, un «AI god», cioè un dio digitale fatto di Intelligenza Artificiale.
Il proprietario di Twitter ha affermato che il co-fondatore di Google, Larry Page, un tempo suo amico, gli aveva rivelato in privato anni fa che l’agenda ultima dell’azienda è quella di lavorare per l’Intelligenza Artificiale Generale (AGI).
Quando Musk ha ribattuto specificando i rischi dell’AI, Page gli ha dato dello «specista», termine del gergo animalista che indica una persona che mette la specie umana sopra le altre.
«Sì, sono uno specista, mi hai beccato!» Musk ha raccontato a Carlson, aggiungendo di aver chiesto a Page «e tu invece cosa sei?»
Musk dice che alla conversazione erano presenti dei testimoni, e che comunque l’intenzione di Page sarebbe stata resa pubblica lungo gli anni.
Elon Musk says Google co-founder Larry Page once told him that he wants to build a "Digital God" using AI. pic.twitter.com/DMvME0ADfa
— Citizen Free Press (@CitizenFreePres) April 18, 2023
Questo evento avrebbe lo avrebbe spinto, racconta Musk, a fondare OpenAI, creata come società no-profit per bilanciare il progetto di Intelligenza Artificiale portato avanti da Google, che all’epoca, dice Musk, possedeva tre quarti dei migliori talenti specializzati in AI grazie alla sua società Deep Mind, famosa per aver battuto vari campioni a scacchi e al giuoco del Go. Come noto, Musk perse il controllo di OpenAI che divenne una società for-profit, ora sulla bocca di tutti grazie al suo popolare – e molto, molto controverso – programma di Intelligenza Artificiale ChatGPT.
Ora, dice Musk, con Microsoft entrata pesantemente in OpenAI, non si ha più un monopolio di Google, ma un duopolio, con OpenAI forse in leggero vantaggio: tuttavia non cambia il fatto che uno strumento di tale potenza sia in mano a società private, sottolinea l’imprenditore di origine sudafricana.
L’imprenditore ha quindi sottolineato «stanno addestrando l’Intelligenza Artificiale a mentire. È brutto… Commentare su alcune cose, non commentare su altre cose». Elon ha quindi dato una spiegazione sul tono predicatorio sempre politicamente corretto di ChatGPT, dicendo che in pratica si tratta dell’ideologia dei suoi addestratori di San Francisco.
La soluzione è quindi creare un concorrente onesto. «Inizierò qualcosa che chiamo TruthGPT, o un’Intelligenza Artificiale massima alla ricerca della verità che cerca di comprendere la natura dell’universo», ha rivelato. «Penso che questo potrebbe essere il miglior percorso verso la sicurezza, nel senso che un’Intelligenza Artificiale che si preoccupa di comprendere l’universo, è improbabile che annichilisca gli umani perché siamo una parte interessante dell’universo». L’esempio, dice, è quello degli scimpanzé: gli uomini sono più intelligenti, e potrebbero sterminarli, ma non lo fanno, anzi cercano di preservare la loro specie e il loro habitat.
Nell’intervista Musk ha ribadito che è «assolutamente» concepibile che l’IA possa prendere il controllo e prendere decisioni per le persone, il che alla fine potrebbe portare alla «distruzione della civiltà».
«Il pericolo, in realtà, è che l’Intelligenza Artificiale è forse più pericolosa, diciamo, di una cattiva progettazione di aeromobili o manutenzione della produzione o una cattiva produzione di automobili, nel senso che ha il potenziale, per quanto piccolo tu voglia considerare quella probabilità, ma non è banale», dichiarato l’uomo di SpaceX. «Ci sono film come Terminator. Ma non accadrebbe come in Terminator perché l’intelligenza si troverebbe nei data center. I robot sono solo l’effetto finale».
«I regolamenti vengono davvero messi in atto solo dopo che è successo qualcosa di terribile» ha continuato. «Se questo è il caso dell’intelligenza artificiale, e abbiamo introdotto regolamenti solo dopo che è successo qualcosa di terribile, potrebbe essere troppo tardi per mettere effettivamente in atto i regolamenti. L’Intelligenza Artificiale a quel punto sarà fuori controllo».
Come riportato da Renovatio 21, Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».
Musk e altri lo scorso mese hanno pubblicato una pubblica richiesta di moratoria per fermare l’Intelligenza Artificiale.
Concordiamo sul fatto che la minaccia è reale, e Renovatio 21 ve lo ripete da anni.
L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». L’anno scorso, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Recentemente un ingegnere di Google, Blake Lemoine, ha dichiarato pubblicamente che il chatbot AI dell’azienda, LaMDA, è «senziente», ossia dotato di una coscienza comparabile a quella degli esseri umani.
Come riportato da Renovatio 21, Eliezer Yudkowsky, riconosciuto come uno dei più accaniti critici all’Intelligenza Artificiale in circolazione negli ultimi due decenni, ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi.
Intelligenza Artificiale
Il Pentagono stringe accordi con le principali aziende di Intelligenza Artificiale
Il Pentagono ha dichiarato di aver raggiunto accordi con importanti aziende specializzate in intelligenza artificiale per integrare le loro funzionalità avanzate di IA nelle reti classificate dell’agenzia.
Il dipartimento della Guerra degli Stati Uniti ha avviato trattative attive con i leader del settore dall’inizio dell’anno, nel tentativo di ampliare l’applicazione dell’intelligenza artificiale nelle operazioni militari e diversificare la gamma di aziende che forniscono questa tecnologia.
Il progetto sta procedendo nonostante le preoccupazioni degli esperti circa la capacità dell’AI di operare in modo affidabile nel rispetto delle leggi di guerra vigenti e il suo possibile utilizzo per violare la privacy dei civili in tempo di pace.
Sono stati raggiunti accordi con SpaceX, OpenAI, Google, NVIDIA, Reflection, Microsoft, Amazon Web Services e Oracle per l’implementazione dei loro sistemi di IA per un «uso operativo lecito», ha dichiarato il Pentagono in un comunicato stampa venerdì.
L’intelligenza artificiale verrà integrata nelle reti Impact Level 6 e Impact Level 7 del Dipartimento della Guerra per «semplificare la sintesi dei dati, migliorare la comprensione della situazione e potenziare il processo decisionale dei militari in ambienti operativi complessi», si legge nella dichiarazione.
Sostieni Renovatio 21
La piattaforma di intelligenza artificiale ufficiale del Dipartimento della Guerra degli Stati Uniti, GenAI.mil, è stata utilizzata da oltre 1,3 milioni di persone negli ultimi cinque mesi, «generando decine di milioni di richieste e impiegando centinaia di migliaia di agenti», ha affermato il Dipartimento. Secondo il Pentagono, la tecnologia ha permesso di accelerare l’esecuzione di determinate attività, riducendo i tempi da mesi a giorni.
Parallelamente, la Marina statunitense ha assegnato alla Domino Data Lab, società di AI con sede a San Francisco, un contratto da 100 milioni di dollari per contribuire alla lotta contro le mine iraniane nello Stretto di Hormuz, di fatto bloccato sin dai primi giorni della guerra tra Stati Uniti e Israele contro l’Iran.
«La Marina sta finanziando la piattaforma che le consente di addestrare, gestire e impiegare l’IA alla velocità necessaria per operare in acque contese», ha dichiarato venerdì a Reuters Thomas Robinson, CEO di Domino. Secondo quanto riportato, Washington punta sulla velocità dell’IA nell’analizzare una grande quantità di dati provenienti da diversi tipi di sensori per migliorare rapidamente il rilevamento delle mine nei droni sottomarini statunitensi.
I recenti accordi del Pentagono con aziende di intelligenza artificiale hanno escluso in modo evidente Anthropic, che all’inizio di quest’anno ha avuto un diverbio con il Pentagono dopo essersi rifiutata di allentare le misure di sicurezza a protezione della sua tecnologia. L’azienda sosteneva che la sua IA potesse essere utilizzata per la sorveglianza interna o per il dispiegamento di armi automatiche senza supervisione umana.
Il dipartimento della Guerra ha reagito classificando Anthropic come «rischio per la catena di approvvigionamento», un’etichetta rara solitamente riservata a entità legate ad avversari stranieri di Washington, escludendo di fatto l’azienda da qualsiasi contratto futuro.
Il segretario alla Guerra statunitense Pete Hegseth ha definito l’amministratore delegato di Anthropic, Dario Amodei, un «pazzo ideologico» durante un’audizione al Senato degli Stati Uniti all’inizio di questa settimana. Hegseth ha paragonato la riluttanza dell’azienda ad accettare le condizioni del Pentagono a «la Boeing che ci dà gli aerei e ci dice chi possiamo colpire».
Attualmente Anthropic ha intentato una causa contro il Pentagono per ottenere la rimozione dell’etichetta di «rischio della catena di approvvigionamento».
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Donna fa causa a OpenAI: ChatGPT le avrebbe scatenato contro uno stalker spietato
Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Google sigla un accordo con il Pentagono sull’Intelligenza Artificiale
Google ha raggiunto un accordo per fornire al Pentagono i suoi modelli di Intelligenza Artificiale destinati a uso secretato. Lo riporta il New York Times.
L’intesa è stata siglata nonostante le proteste interne all’azienda e le persistenti controversie sulle applicazioni militari della tecnologia. A partire dallo scorso anno, il Pentagono ha rapidamente ottenuto l’accesso all’intelligenza artificiale avanzata tramite accordi analoghi con i principali sviluppatori del settore.
Secondo le informazioni diffuse, l’accordo amplia un contratto da 200 milioni di dollari firmato nel 2025, che consente all’IA Gemini di Google di funzionare su reti classificate. Il colosso tecnologico ha confermato l’intesa, senza però fornire ulteriori dettagli.
«Siamo orgogliosi di far parte di un ampio consorzio… che fornisce servizi di AI a supporto della sicurezza nazionale», ha dichiarato la portavoce dell’azienda, Jenn Crider, aggiungendo che Google resta impegnata a garantire che l’IA non venga utilizzata per la sorveglianza di massa interna o per armi autonome senza supervisione umana.
Secondo quanto riportato per primo dalla testata della Silicon Valley The Information, il Pentagono potrà ora impiegare l’intelligenza artificiale di Google per «qualsiasi scopo governativo lecito», termini che ricalcano gli accordi stipulati con altri sviluppatori di IA.
Funzionari statunitensi sostengono che il nuovo contratto mira a garantire alle forze armate maggiore flessibilità ed evitare la dipendenza da un unico fornitore, integrando l’IA in operazioni sensibili come la pianificazione delle missioni e il puntamento delle armi. Tuttavia, l’accordo consentirebbe al Pentagono di richiedere modifiche ai filtri di sicurezza di Google, pur specificando che l’azienda non può porre il veto a decisioni «legittime per il governo», clausola che ha destato preoccupazione tra i critici.
Sostieni Renovatio 21
L’intesa ha scatenato polemiche interne a Google. In una lettera aperta pubblicata questa settimana, oltre 600 dipendenti, tra cui dirigenti di alto livello, hanno esortato l’amministratore delegato Sundar Pichai a interrompere l’utilizzo dell’AI dell’azienda in ambito militare, avvertendo che potrebbe essere impiegata in «modi disumani o estremamente dannosi». Hanno chiesto una moratoria su tali contratti, maggiore trasparenza e la creazione di un comitato etico per supervisionare le collaborazioni con le forze armate.
L’accordo arriva dopo la controversia tra il Pentagono e la startup Anthropic, che all’inizio di quest’anno si era rifiutata di allentare le misure di sicurezza relative alla sorveglianza e alle armi autonome. Il dipartimento della Difesa l’aveva definita un «rischio per la catena di approvvigionamento», escludendola di fatto da futuri contratti. Da allora Anthropic ha impugnato la decisione in tribunale.
Altre aziende hanno scelto un approccio diverso. OpenAI ha recentemente concluso un accordo per implementare i suoi modelli su reti classificate del Pentagono, mentre xAI di Musk ha integrato i suoi sistemi nella piattaforma interna di IA delle forze armate, GenAI.mil, utilizzata da milioni di persone.
La spinta del Pentagono verso l’IA ha provocato proteste da parte di lavoratori del settore tecnologico e attivisti, che mettono in guardia contro l’impiego della tecnologia in ambito militare senza adeguati controlli. Il mese scorso manifestanti si sono radunati davanti agli uffici di OpenAI con slogan come «No allo stato di sorveglianza basato sull’IA» e «Orwell ci aveva avvertito».
Il Pentagono ribadisce di non avere intenzione di utilizzare l’AI per la sorveglianza di massa sul territorio nazionale o per armi completamente autonome, ma continua a promuovere un ampio accesso ai sistemi avanzati per «qualsiasi uso lecito».
Iscriviti alla Newslettera di Renovatio 21
-



Spirito2 settimane faMadre Teresa disse a un sacerdote: la Comunione sulla mano era «il peggior male» mai visto
-



Pensiero2 settimane faIl manifesto di Palantir in sintesi
-



Misteri2 settimane faEsperto di UFO trovato morto suicida. Aveva ripetuto che mai lo avrebbe fatto
-



Spirito1 settimana faLeone e l’arcivescovessa, mons. Viganò: Roma sta con gli eretici e nega le cresime ai tradizionisti
-



Misteri1 settimana faRitrovata l’Arca di Noè?
-



Bioetica5 giorni faCorpi senza testa per produrre organi: l’uomo ridotto a funzione, la medicina contro l’anima
-



Salute2 settimane faI malori della 17ª settimana 2026
-



Spirito1 settimana faMons Strickland risponde alle osservazioni di papa Leone sulle «benedizioni» omosessuali














