Intelligenza Artificiale
La madre della gola profonda di OpenAI trovato morto: «è stato ucciso»
La madre del defunto ingegnere informatico divenuto «gola profonda» di OpenAI, Suchir Balaji, ha messo in dubbio la sentenza ufficiale sulla morte del figlio e ha chiesto un’indagine completa sul caso durante una lunga e drammatica intervista con il giornalista americano Tucker Carlson.
Poornima Ramarao, cittadina americana immigrata dall’India, ha sostenuto che prove cruciali contraddicono la decisione di suicidio e ha affermato che suo figlio era turbato dalle presunte pratiche non etiche di OpenAI prima della sua morte.
Ramarao ha dichiarato che suo figlio era in possesso di documenti che avrebbero potuto danneggiare l’azienda. «Aveva i documenti contro OpenAI», ha affermato, aggiungendo che i file contengono informazioni critiche e che ora si stanno facendo degli sforzi per recuperarli.
Balaji, un ricercatore di intelligenza artificiale di 26 anni, è stato trovato morto nel suo appartamento di San Francisco il 26 novembre 2024. Le autorità hanno stabilito che la sua morte è stata un suicidio, ma la sua famiglia ha contestato la conclusione, citando incongruenze nell’indagine ufficiale. In risposta all’esame pubblico, il dipartimento di polizia di San Francisco ha successivamente aggiornato lo stato del caso di Balaji da «Chiuso – Suicidio» a «Indagine aperta e attiva».
Balaji, che è stato un bambino prodigio con paper di scienza informatica scritti a 14 anni, si era dimesso da OpenAI nell’agosto 2024, esprimendo preoccupazioni per il presunto uso improprio da parte dell’azienda di materiale protetto da copyright per la formazione sull’intelligenza artificiale. In un’intervista-scoop con il New York Times (giornale che ha portato in tribunale OpenAI per violazione di diritto d’autore) qualche settimana prima della sua morte, Balaji aveva dichiarato che le pratiche sui dati di OpenAI avrebbero potuto violare le leggi sul copyright.
Durante la sua intervista con Carlson, la Ramarao ha affermato che le prove forensi contraddicevano la versione ufficiale. In particolare, ha fatto riferimento all’autopsia, che ha determinato che l’angolazione del proiettile era di 30-45 gradi, il che, secondo lei, sarebbe incoerente con una ferita da arma da fuoco autoinflitta. Ha inoltre affermato che l’autopsia privata aveva anche rivelato ulteriori lesioni alla testa, suggerendo segni di una colluttazione. «C’è una lesione alla testa sul lato sinistro della testa», ha affermato, aggiungendo di aver trovato una parrucca insanguinata nell’appartamento, con capelli che non sono quelli del figlio.
Ramarao ha descritto gli ultimi giorni del figlio, ricordando che era appena tornato da un viaggio con gli amici di ottimo umore e aveva fatto progetti di carriera. «Aveva in mente un’organizzazione non-profit. Non voleva prendere uno stipendio per il suo lavoro. Ha detto, “Mamma, ho abbastanza risorse. Voglio servire l’umanità”», ha ricordato. Si è chiesta come qualcuno così concentrato sul futuro potesse togliersi la vita.
La donna anche accusato OpenAI di non aver riconosciuto i contributi di Balaji all’azienda. «Era fondamentale nel team di ChatGPT… ma l’ironia è che non è mai stato riconosciuto da OpenAI», ha affermato. Secondo Ramarao, OpenAI ha contattato la famiglia solo in merito alle stock option di Balaji, non per offrire condoglianze o supporto.
La famiglia ha continuato a chiedere un’indagine indipendente sulla morte di Balaji. «Vogliamo giustizia. Vogliamo la condanna a morte per chi ha ucciso mio figlio, così come la reclusione per le persone che ci sono dietro», ha detto Ramarao a Carlson.
La signora ha altresì ipotizzato che dietro alla morte potrebbe esserci non solo la questione della violazione del copyright, ma il fatto che il figlio fosse a conoscenza di crimini o rischi decisamente più grandi.
La madre, che ha definito il figlio «un martire», ha dichiarato di non sentirsi più in alcun modo sicura, né per sé né per i parenti, e di aver perso ogni senso di sicurezza in America, dipingendo un panorama in cui tante autorità con cui ha avuto a che fare si sono dimostrate «comprate» e «corrotte», citando nomi e cognomi di ufficiali che hanno negato loro appuntamenti. Parimenti, ha lamentato il disinteresse dei giornali – gli stessi che prima della morte cercavano Balaji per lo scoop su OpenAI.
Durante l’intervista è stata discussa la figura di Sam Altman, il bizzarro giovane CEO di OpenAI, contro il cui licenziamento Balaji si era schierato, per poi opporsi frontalmente alla decisione di Altman di trasformare OpenAI da società no-profit (forma in cui era stata originariamente avviata da Elon Musk) ad azienda for-profit.
Altman era stato licenziato e poi reintegrato. Ora è stato accusato dalla sorella di molestie sessuali: la stessa sorella avrebbe un’organizzazione no-profit con la quale, dice la madre, Balaji voleva lavorare. La famiglia ha rifiutato di parlare con Sam Altman dopo la morte del ragazzo.
Un altro personaggio che viene citato è Ilya Sutskever, scienziato principale dell’IA della società. «A essere onesti, due giorni dopo che la morte di mio figlio fu annunciata il 15 dicembre, Ilya è stato visto ad una presentazione con due guardie di sicurezza armate attorno a lui… era impaurito… Onestamente, stiamo vedendo una mafia intorno a questa cosa».
Carlson ha chiesto ad un certo punto alla signora se sapesse se dentro alla società vi fossero persone che adorano l’IA come fosse un dio, senza ottenere risposta affermativa.
Sutskever anni fa era tra quelli che portavano avanti l’idea che l’AI diventerà una sorta di dio, chiedendo ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». Nel 2022, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Durante l’intervista Tucker ripete che nessuno davanti ai documenti prodotti dal medico legale assoldato dalla famiglia Suchir può sostenere che si tratti di un suicidio, lasciando intendere che forze immense potrebbero essere qui in gioco.
Iscriviti alla Newslettera di Renovatio 21
Immagine screenshot da YouTube
Intelligenza Artificiale
OpenAI stringe un accordo con il Pentagono
Aiuta Renovatio 21
Iscriviti al canale Telegram ![]()
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Trump inserisce Anthropic nella lista nera per lo scontro con il Pentagono sull’AI
Il presidente degli Stati Uniti Donald Trump ha ordinato alle agenzie federali di interrompere l’uso dei sistemi di intelligenza artificiale sviluppati da Anthropic, intensificando uno scontro senza precedenti tra il governo degli Stati Uniti e una delle aziende di intelligenza artificiale più influenti della Silicon Valley sull’uso militare di algoritmi avanzati.
In un post pubblicato venerdì su Truth Social, Trump ha accusato l’azienda di aver tentato di «dettare il modo in cui il nostro grande esercito combatte e vince le guerre», annunciando un’immediata lista nera a livello governativo insieme a un periodo di eliminazione graduale di sei mesi per le agenzie che attualmente fanno affidamento sulla sua tecnologia.
«Dico a TUTTE le agenzie federali del governo degli Stati Uniti di CESSARE IMMEDIATAMENTE ogni utilizzo della tecnologia di Anthropic. Non ne abbiamo bisogno, non la vogliamo e non faremo più affari con loro!», ha scritto Trump, circa un’ora prima della scadenza del termine stabilito dal Pentagono per l’accettazione da parte dell’azienda delle richieste di revoca delle principali misure di sicurezza, pena il rischio di essere inserita nella lista nera come «rischio per la catena di approvvigionamento».
Il presidente degli Stati Uniti ha inoltre intimato all’azienda di collaborare durante il periodo di eliminazione graduale, altrimenti andrà incontro a gravi conseguenze legali.
«Anthropic farebbe meglio a darsi una mossa e a rendersi utile durante questo periodo di eliminazione graduale, altrimenti userò tutti i poteri della Presidenza per costringerli a conformarsi, con gravi conseguenze civili e penali», ha scritto Trump.
La direttiva fa seguito a settimane di crescenti tensioni tra Anthropic e il Dipartimento della Guerra degli Stati Uniti in merito alle restrizioni integrate nel sistema di intelligenza artificiale di punta dell’azienda, Claude.
Aiuta Renovatio 21
Al centro della controversia ci sono le garanzie contrattuali che impediscono l’utilizzo dei modelli Anthropic per la sorveglianza interna di massa o per sistemi d’arma completamente autonomi. I funzionari del Pentagono hanno chiesto la rimozione di tali limiti, sostenendo che i comandanti militari non possono operare sotto i vincoli imposti da appaltatori privati in tempo di guerra o in situazioni di crisi.
Il CEO di Anthropic, Dario Amodei, ha respinto la richiesta, affermando che l’azienda non avrebbe supportato utilizzi che riteneva fossero in conflitto con le norme democratiche o comportassero rischi inaccettabili.
Trump ha accusato l’azienda di essere gestita da «pazzi di sinistra» che, a suo dire, antepongono le preoccupazioni etiche e i termini del loro servizio alla Costituzione americana. «Il loro egoismo sta mettendo a rischio le VITE DEGLI AMERICANI, le nostre truppe in pericolo e la nostra sicurezza nazionale in PERICOLO», ha dichiarato il presidente degli Stati Uniti.
L’ordine di Trump formalizza di fatto una minaccia precedentemente sollevata dal Segretario alla Guerra degli Stati Uniti Pete Hegseth, il quale aveva avvertito che l’azienda avrebbe potuto essere definita un «rischio per la catena di approvvigionamento», una classificazione solitamente riservata alle aziende legate ad avversari stranieri.
Anthropic è stato il primo sviluppatore commerciale di AI a implementare modelli linguistici di grandi dimensioni su reti classificate del Pentagono, nell’ambito di un contratto del valore di 200 milioni di dollari. Il suo chatbot Claude è stato utilizzato per analisi di intelligence, simulazioni operative, operazioni informatiche e flussi di lavoro di pianificazione.
Lo scontro emerso segue alle accuse secondo cui il modello di Intelligenza Artificiale dell’azienda sarebbe stato utilizzato durante l’operazione per rapire il presidente venezuelano Nicolas Maduro all’inizio di gennaio.
Come riportato da Renovatio 21, negli ultimi mesi vi è stato un progressivo deterioramento dei rapporti tra Anthropic e il Pentagono, legato alla volontà del dipartimento della Guerra statunitense di utilizzare l’IA per il controllo di armi autonome senza le garanzie di sicurezza che l’azienda ha cercato di imporre.
Il CEO di Anthropic, Dario Amodei, ha più volte espresso gravi preoccupazioni sui rischi della tecnologia che la sua azienda sta sviluppando e commercializzando. In un lungo saggio di quasi 20.000 parole pubblicato il mese scorso, ha avvertito che sistemi AI dotati di «potenza quasi inimmaginabile» sono «imminenti» e metteranno alla prova «la nostra identità come specie».
Amodei ha messo in guardia dai «rischi di autonomia», in cui l’IA potrebbe sfuggire al controllo e sopraffare l’umanità, e ha ipotizzato che la tecnologia potrebbe facilitare l’instaurazione di «una dittatura totalitaria globale» attraverso sorveglianza di massa basata sull’Intelligenza Artificiale e l’impiego di armi autonome.
Come riportato da Renovatio 21, l’anno passato l’Amodei ha dichiarato che l’AI potrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni.
Lo scorso mese Mrinank Sharma, fino a poco tempo fa responsabile del Safeguards Research Team presso l’azienda sviluppatrice del chatbot Claude, ha pubblicato su X la sua lettera di dimissioni, in cui scrive che «il mondo è in pericolo. E non solo per via dell’Intelligenza Artificiale o delle armi biologiche, ma a causa di un insieme di crisi interconnesse che si stanno verificando proprio ora».
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Le AI più potenti impiegano armi nucleari nel 95% delle simulazioni di giochi di guerra: studio
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Cina1 settimana faEnigmi femminili cinesi alle Olimpiadi
-



Vaccini2 settimane faVaccini e COVID, l’architetto chiave della lista contro la «disinformazione» si dimette dopo l’uscita dei documenti Epstein
-



Spirito2 settimane faMons. Viganò sul set della «Resurrezione» del cattolico tradizionalista Mel Gibson
-



Spirito2 settimane faL’élite ostracizza chi si non si converte all’ideologia infernale del globalismo: omelia di mons. Viganò nel Mercoledì delle Ceneri
-



Predazione degli organi1 settimana faUn cuore «bruciato», due vite spezzate dalla predazione degli organi
-



Oligarcato2 settimane faEpstein e Gates hanno finanziato un portale di ricerca per controllare il dibattito scientifico
-



Occulto2 settimane faMarina Abramovic si lamenta di aver bisogno dei bodyguard
-



Vaccini1 settimana faQuanto era coinvolto Epstein nelle strategie pandemiche?














