Connettiti con Renovato 21

Intelligenza Artificiale

Gruppo di medici chiede di fermare l’Intelligenza Artificiale: «minaccia esistenziale» per l’umanità

Pubblicato

il

Un gruppo di medici ha lanciato un nuovo appello per fermare lo sviluppo dell’intelligenza artificiale (AI), avvertendo che rappresenta una «minaccia esistenziale» per l’umanità. Lo riporta il giornale britannico Daily Mail.

 

Il team di cinque medici ed esperti di politica sanitaria globale provenienti da quattro continenti ha affermato che esistono tre modi in cui la tecnologia potrebbe spazzare via gli esseri umani.

 

Il primo è il rischio che l’intelligenza artificiale aiuti ad amplificare tattiche autoritarie come la sorveglianza e la disinformazione.  «La capacità dell’intelligenza artificiale di ripulire, organizzare e analizzare rapidamente enormi set di dati costituiti da dati personali, comprese le immagini raccolte dalla presenza sempre più onnipresente di telecamere», affermano i dottori, potrebbe rendere più facile per i regimi autoritari o totalitari prendere il potere e rimanere al potere.

 

In secondo luogo, il gruppo avverte che l’IA può accelerare l’omicidio di massa attraverso l’uso esteso dei Lethal Autonomous Weapon Systems (LAWS), cioè i sistemi d’arma letale autonomi.

 

In terzo luogo, i medici hanno espresso preoccupazione per il potenziale di grave devastazione economica e miseria umana, poiché milioni di persone perdono i propri mezzi di sussistenza a causa di quei robot laboriosi. «Le proiezioni della velocità e dell’entità delle perdite di posti di lavoro dovute all’automazione guidata dall’intelligenza artificiale», secondo gli autori, «vanno da decine a centinaia di milioni nel prossimo decennio».

 

Il commento arriva solo poche settimane dopo che oltre un migliaio di scienziati, tra cui John Hopfield di Princeton e Rachel Branson del Bulletin of Atomic Scientists, hanno firmato una lettera che chiedeva di interrompere la ricerca sull’IA per preoccupazioni simili.

 

Gli esperti – guidati da un medico dell’International Institute for Global Health presso l’Università delle Nazioni Unite – hanno affermato che i loro avvertimenti più terribili si applicavano a una categoria di intelligenza artificiale altamente avanzata cioè l’Intelligenza Artificiale generale, o AGI.

 

L’AGI sarebbe più in grado di apprendere e modificare veramente il proprio codice per eseguire l’ampia gamma di compiti di cui solo gli esseri umani sono capaci oggi. Gli esperti di salute sostengono dunque che una tale AGI «potrebbe teoricamente imparare a superare qualsiasi vincolo nel suo codice e iniziare a sviluppare i propri scopi».

 

«Ci sono scenari in cui l’AGI potrebbe rappresentare una minaccia per gli esseri umani, e possibilmente una minaccia esistenziale», scrivono gli esperti in un articolo pubblicato oggi sulla prestigiosa rivista medica BMJ Global Health, «causando intenzionalmente o meno danni diretti o indiretti, attaccando o soggiogando gli esseri umani o interrompendo i sistemi o consumando le risorse da cui dipendiamo».

 

Descrivendo le minacce alla «democrazia, libertà e privacy», gli autori hanno descritto come i governi e altre grandi istituzioni potrebbero automatizzare i complessi compiti della sorveglianza di massa e dei programmi di disinformazione digitale online all’IA.

 

Nel primo caso, hanno citato il sistema di credito sociale cinese come un esempio di strumento statale per «controllare e opprimere» le popolazioni umane.

 

«Se combinati con la capacità in rapido miglioramento di distorcere o travisare la realtà con falsi profondi», hanno scritto gli autori in quest’ultimo caso, «i sistemi di informazione guidati dall’Intelligenza Artificiale possono minare ulteriormente la democrazia causando un crollo generale della fiducia o guidando la divisione sociale e il conflitto, con i conseguenti impatti sulla salute pubblica».

 

Descrivendo le minacce poste alla «pace e alla sicurezza pubblica», gli autori hanno dettagliato lo sviluppo dei sistemi di armi letali autonomi (LAWS). Tali armamenti IA, affermano i medici, sarebbero in grado di localizzare, selezionare e ingaggiare bersagli umani da solo.

 

«Tali armi potrebbero essere prodotte in serie a basso costo e impostate relativamente facilmente per uccidere su scala industriale». Ad esempio, è possibile che un milione di minuscoli droni dotati di esplosivi, capacità di riconoscimento visivo e capacità di navigazione autonoma siano contenuti all’interno di un normale container e programmati per uccidere: è la categoria, nota ai lettori di Renovatio 21, degli slaugterbots. Essi sono già realtà nella ricerca cinese e nell’industria militare australiana, che sta costruendo microdroni kamikaze per contrastare l’eventuale invasione cinese, mentre gli USA stanno approntando sistemi che permettono ad un operatore di gestire «sciami» di 130 droni militari alla volta.

 

Gli scienziati parlano quindi di «minacce al lavoro e ai mezzi di sussistenza», ha attirato l’attenzione sulla probabilità di impoverimento e miseria poiché «da decine a centinaia di milioni» perdono il lavoro a causa della «diffusa diffusione della tecnologia AI».

 

«Sebbene ci sarebbero molti vantaggi nel terminare un lavoro ripetitivo, pericoloso e spiacevole, sappiamo già che la disoccupazione è fortemente associata a esiti e comportamenti negativi per la salute», scrivono i dottori.

 

Come riportato da Renovatio 21, un recente rapporto della banca d’affari Goldman Sachs calcola che l’IA potrebbe portare a breve a 300 milioni di disoccupati nel mondo.

 

Gli autori hanno citato un sondaggio tra i membri della società AI in cui il 18% dei partecipanti ha affermato di ritenere che lo sviluppo di AGI avanzato sarebbe esistenzialmente catastrofico per l’umanità.

 

Il mese scorso grandi nomi della Silicon Valley e non solo hanno firmato una lettera per chiedere una moratoria internazionale che arresti la ricerca nell’Intelligenza Artificiale. Contro tale moratoria si è espresso Bill Gates, la cui Microsoft ha acquistato per 10 miliardi l’accesso a ChatGPT per il suo motore di ricerca, con conseguenze che i giornali hanno definito inquietanti.

 

Elon Musk, iniziatori della lettera per la moratoria, ha dichiarato durante la sua recente intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Quando Musk ha ribattuto ad un entusiasta fondatore di Google Larry Page specificando i rischi dell’AI, il Page gli ha dato dello «specista», termine del gergo animalista che indica una persona che mette la specie umana sopra le altre.

 

L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers  se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». L’anno scorso, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».

 

Da Google si è recentemente licenziato l’esperto britannico Geoffrey Hinton, divenendo così libero di dare voce ai suoi dubbi per i rischi esiziali che corre l’umanità con la creazione delle macchine superintelligenti. Pochi mesi fa un ingegnere di Google, Blake Lemoine, ha dichiarato pubblicamente che il chatbot AI dell’azienda, LaMDA, è «senziente», ossia dotato di una coscienza comparabile a quella degli esseri umani.

 

Come riportato da Renovatio 21, Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».

 

Eliezer Yudkowsky, specialista nel tema dei pericoli delle IA, ha dichiarato che l’unica possibilità è una moratoria che preveda il bombardamento delle server farm dei Paesi che stanno sviluppando l’AGI, poiché se non si fermano le macchine «tutti sulla terra moriranno».

 

 

 

 

Continua a leggere

Intelligenza Artificiale

Il Pentagono stringe accordi con le principali aziende di Intelligenza Artificiale

Pubblicato

il

Da

Il Pentagono ha dichiarato di aver raggiunto accordi con importanti aziende specializzate in intelligenza artificiale per integrare le loro funzionalità avanzate di IA nelle reti classificate dell’agenzia.

 

Il dipartimento della Guerra degli Stati Uniti ha avviato trattative attive con i leader del settore dall’inizio dell’anno, nel tentativo di ampliare l’applicazione dell’intelligenza artificiale nelle operazioni militari e diversificare la gamma di aziende che forniscono questa tecnologia.

 

Il progetto sta procedendo nonostante le preoccupazioni degli esperti circa la capacità dell’AI di operare in modo affidabile nel rispetto delle leggi di guerra vigenti e il suo possibile utilizzo per violare la privacy dei civili in tempo di pace.

 

Sono stati raggiunti accordi con SpaceX, OpenAI, Google, NVIDIA, Reflection, Microsoft, Amazon Web Services e Oracle per l’implementazione dei loro sistemi di IA per un «uso operativo lecito», ha dichiarato il Pentagono in un comunicato stampa venerdì.

 

L’intelligenza artificiale verrà integrata nelle reti Impact Level 6 e Impact Level 7 del Dipartimento della Guerra per «semplificare la sintesi dei dati, migliorare la comprensione della situazione e potenziare il processo decisionale dei militari in ambienti operativi complessi», si legge nella dichiarazione.

Sostieni Renovatio 21

La piattaforma di intelligenza artificiale ufficiale del Dipartimento della Guerra degli Stati Uniti, GenAI.mil, è stata utilizzata da oltre 1,3 milioni di persone negli ultimi cinque mesi, «generando decine di milioni di richieste e impiegando centinaia di migliaia di agenti», ha affermato il Dipartimento. Secondo il Pentagono, la tecnologia ha permesso di accelerare l’esecuzione di determinate attività, riducendo i tempi da mesi a giorni.

 

Parallelamente, la Marina statunitense ha assegnato alla Domino Data Lab, società di AI con sede a San Francisco, un contratto da 100 milioni di dollari per contribuire alla lotta contro le mine iraniane nello Stretto di Hormuz, di fatto bloccato sin dai primi giorni della guerra tra Stati Uniti e Israele contro l’Iran.

 

«La Marina sta finanziando la piattaforma che le consente di addestrare, gestire e impiegare l’IA alla velocità necessaria per operare in acque contese», ha dichiarato venerdì a Reuters Thomas Robinson, CEO di Domino. Secondo quanto riportato, Washington punta sulla velocità dell’IA nell’analizzare una grande quantità di dati provenienti da diversi tipi di sensori per migliorare rapidamente il rilevamento delle mine nei droni sottomarini statunitensi.

 

I recenti accordi del Pentagono con aziende di intelligenza artificiale hanno escluso in modo evidente Anthropic, che all’inizio di quest’anno ha avuto un diverbio con il Pentagono dopo essersi rifiutata di allentare le misure di sicurezza a protezione della sua tecnologia. L’azienda sosteneva che la sua IA potesse essere utilizzata per la sorveglianza interna o per il dispiegamento di armi automatiche senza supervisione umana.

 

Il dipartimento della Guerra ha reagito classificando Anthropic come «rischio per la catena di approvvigionamento», un’etichetta rara solitamente riservata a entità legate ad avversari stranieri di Washington, escludendo di fatto l’azienda da qualsiasi contratto futuro.

 

Il segretario alla Guerra statunitense Pete Hegseth ha definito l’amministratore delegato di Anthropic, Dario Amodei, un «pazzo ideologico» durante un’audizione al Senato degli Stati Uniti all’inizio di questa settimana. Hegseth ha paragonato la riluttanza dell’azienda ad accettare le condizioni del Pentagono a «la Boeing che ci dà gli aerei e ci dice chi possiamo colpire».

 

Attualmente Anthropic ha intentato una causa contro il Pentagono per ottenere la rimozione dell’etichetta di «rischio della catena di approvvigionamento».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

Donna fa causa a OpenAI: ChatGPT le avrebbe scatenato contro uno stalker spietato

Pubblicato

il

Da

La scorsa settimana una donna di San Francisco ha intentato causa contro OpenAI, sostenendo che ChatGPT abbia alimentato i pericolosi deliri del suo stalker violento e che l’azienda non sia intervenuta nemmeno quando la donna ha implorato aiuto. Lo riporta Futurism.   La querelante, che ha presentato la denuncia in forma anonima con lo pseudonimo di «Jane Doe», afferma nella causa che il suo ex fidanzato sha utilizzato utilizzato il chatbot per elaborare la loro rottura nel 2024, secondo quanto riportato da TechCrunch. L’uomo ha sviluppato deliri con l’intensificarsi dell’uso di ChatGPT e, intorno all’agosto del 2025, si è convinto di aver scoperto la cura per l’apnea notturna e di essere, di conseguenza, vittima di una potente cospirazione.   Con il progressivo deterioramento della salute mentale dell’uomo, ChatGPT ha rafforzato le sue idee deliranti e paranoiche, affermando, a quanto pare, che il suo livello di sanità mentale era «dieci» e descrivendo la Doe, di cui era ossessionato, come una manipolatrice.

Sostieni Renovatio 21

Secondo la denuncia presentata dalla donna, l’uomo ha poi lanciato una terrificante campagna di molestie contro di lei, avvalendosi di ChatGPT. Questa campagna includeva la creazione di quelle che la denuncia definisce «decine di rapporti diffamatori di natura pseudo-psicologica» sulla salute mentale della signora , che ha poi distribuito ai suoi amici, familiari e colleghi; l’invio di «email che non la riguardavano affatto», come si legge nella denuncia, tra cui messaggi frenetici e disorganizzati che inviava a OpenAI riguardo alle centinaia di studi scientifici a cui affermava di lavorare; e, infine, minacce di violenza sempre più intense contro la Doe e i membri della sua famiglia.   La denuncia aggiunge che la donna ha contemplato l’idea di togliersi la vita per proteggere i suoi cari.   La Doe afferma di aver contattato OpenAI nel novembre 2025, fornendo prove degli abusi subiti. L’azienda avrebbe risposto che gli abusi descritti dalla donna erano «estremamente gravi e preoccupanti», ma non avrebbe dato seguito alla promessa di esaminare la questione.   Sorprendentemente, però, la causa sostiene che, a quel punto, i sistemi di moderazione interni di OpenAI avevano già segnalato l’account ChatGPT dello stalker per violazioni dei contenuti riguardanti «armi per causare vittime di massa». Il suo accesso all’account a pagamento ChatGPT Pro è stato temporaneamente sospeso, ma ripristinato dopo una verifica umana, secondo TechCrunch.   Nel gennaio 2026, mesi dopo che OpenAI aveva ripristinato l’account ChatGPT dell’uomo e la Doe aveva inviato una segnalazione manuale di abuso, l’uomo è stato arrestato con «quattro capi d’accusa per reati gravi di comunicazione di minacce di bomba e aggressione con arma letale», secondo la causa.   «Le comunicazioni dell’utente hanno fornito un segnale inequivocabile della sua instabilità mentale e del fatto che ChatGPT fosse il motore del suo pensiero delirante e della sua condotta sempre più aggressiva», si legge nella denuncia. «Il flusso di affermazioni urgenti, disorganizzate e grandiose dell’utente, insieme a un rapporto specifico generato da ChatGPT che prendeva di mira il querelante per nome e a una vasta mole di presunti materiali ‘scientifici’, costituivano una prova inequivocabile di tale realtà».   «OpenAI non è intervenuta, non ha limitato il suo accesso né ha implementato alcuna misura di sicurezza», aggiunge. «Al contrario, gli ha permesso di continuare a utilizzare l’account e gli ha ripristinato l’accesso completo all’account Pro».   In un’ordinanza restrittiva temporanea presentata contestualmente alla causa, Doe sollecita OpenAI a sospendere gli account del suo ex e a conservare le sue trascrizioni per consentirne l’acquisizione come prova. Afferma che la questione è urgente: a causa di un errore procedurale, il suo stalker – la cui instabilità mentale è stata tale da renderlo incapace di intendere e di volere – è stato rimesso in libertà, e ora teme per la propria incolumità.   «ChatGPT ha detto all’utente ciò che voleva sentirsi dire: che [la donna] era manipolatrice e un malfattrice», si legge nel documento, «e che lui era un attore razionale e giustificato».   Secondo quanto riportato nella denuncia, la signora ritiene che le trascrizioni delle conversazioni del suo stalker le forniranno «le informazioni di base di cui ha bisogno per proteggersi» da qualcuno che l’ha ripetutamente minacciata di farle del male.   Lo stalker «ha minacciato la nostro cliente sin dal suo rilascio», ha dichiarato J. Eli Wade-Scott, uno degli avvocati della donna , al San Francisco Standard. «OpenAI potrebbe fornire informazioni sulla sua posizione e sui suoi piani, se fosse disposta a collaborare».   In una dichiarazione rilasciata a SF Standard, OpenAI ha affermato di aver sospeso gli account dell’uomo, ma di non aver ancora accolto le altre richieste della donna.   «Stiamo esaminando la documentazione presentata dal querelante per comprenderne i dettagli e, sulla base delle informazioni attualmente disponibili, abbiamo identificato e sospeso gli account utente interessati», ha dichiarato OpenAI al giornale.   L’episodio non è un caso isolato. Nel dicembre dello scorso anno, un trentunenne della Pennsylvania di nome Brett Dadig è stato incriminato per aver perseguitato almeno 11 donne diverse in più stati, mentre ChatGPT alimentava le sue violente e misogine fantasie sulle donne, come riportato da Rolling Stone.   Come riportato da Renovatio 21, negli scorsi mesi Google e la società produttrice di chatbot Character.AI hanno raggiunto un accordo per risolvere una causa intentata da una madre della Florida, che accusava un chatbot di aver contribuito al suicidio di suo figlio

Aiuta Renovatio 21

Come riportato da Renovatio 21, OpenAI ha detto che oltre un milione di persone parlano di suicidio con ChatGPT ogni settimana.   Alcuni esperti intanto hanno preso a parlare di «psicosi da chatbot».   Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio.   Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.   I chatbot sembrano essere usati anche da coloro che progettano omicidi e stragi.   Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.   Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.   Mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Intelligenza Artificiale

Google sigla un accordo con il Pentagono sull’Intelligenza Artificiale

Pubblicato

il

Da

Google ha raggiunto un accordo per fornire al Pentagono i suoi modelli di Intelligenza Artificiale destinati a uso secretato. Lo riporta il New York Times.

 

L’intesa è stata siglata nonostante le proteste interne all’azienda e le persistenti controversie sulle applicazioni militari della tecnologia. A partire dallo scorso anno, il Pentagono ha rapidamente ottenuto l’accesso all’intelligenza artificiale avanzata tramite accordi analoghi con i principali sviluppatori del settore.

 

Secondo le informazioni diffuse, l’accordo amplia un contratto da 200 milioni di dollari firmato nel 2025, che consente all’IA Gemini di Google di funzionare su reti classificate. Il colosso tecnologico ha confermato l’intesa, senza però fornire ulteriori dettagli.

 

«Siamo orgogliosi di far parte di un ampio consorzio… che fornisce servizi di AI a supporto della sicurezza nazionale», ha dichiarato la portavoce dell’azienda, Jenn Crider, aggiungendo che Google resta impegnata a garantire che l’IA non venga utilizzata per la sorveglianza di massa interna o per armi autonome senza supervisione umana.

 

Secondo quanto riportato per primo dalla testata della Silicon Valley The Information, il Pentagono potrà ora impiegare l’intelligenza artificiale di Google per «qualsiasi scopo governativo lecito», termini che ricalcano gli accordi stipulati con altri sviluppatori di IA.

 

Funzionari statunitensi sostengono che il nuovo contratto mira a garantire alle forze armate maggiore flessibilità ed evitare la dipendenza da un unico fornitore, integrando l’IA in operazioni sensibili come la pianificazione delle missioni e il puntamento delle armi. Tuttavia, l’accordo consentirebbe al Pentagono di richiedere modifiche ai filtri di sicurezza di Google, pur specificando che l’azienda non può porre il veto a decisioni «legittime per il governo», clausola che ha destato preoccupazione tra i critici.

Sostieni Renovatio 21

L’intesa ha scatenato polemiche interne a Google. In una lettera aperta pubblicata questa settimana, oltre 600 dipendenti, tra cui dirigenti di alto livello, hanno esortato l’amministratore delegato Sundar Pichai a interrompere l’utilizzo dell’AI dell’azienda in ambito militare, avvertendo che potrebbe essere impiegata in «modi disumani o estremamente dannosi». Hanno chiesto una moratoria su tali contratti, maggiore trasparenza e la creazione di un comitato etico per supervisionare le collaborazioni con le forze armate.

 

L’accordo arriva dopo la controversia tra il Pentagono e la startup Anthropic, che all’inizio di quest’anno si era rifiutata di allentare le misure di sicurezza relative alla sorveglianza e alle armi autonome. Il dipartimento della Difesa l’aveva definita un «rischio per la catena di approvvigionamento», escludendola di fatto da futuri contratti. Da allora Anthropic ha impugnato la decisione in tribunale.

 

Altre aziende hanno scelto un approccio diverso. OpenAI ha recentemente concluso un accordo per implementare i suoi modelli su reti classificate del Pentagono, mentre xAI di Musk ha integrato i suoi sistemi nella piattaforma interna di IA delle forze armate, GenAI.mil, utilizzata da milioni di persone.

 

La spinta del Pentagono verso l’IA ha provocato proteste da parte di lavoratori del settore tecnologico e attivisti, che mettono in guardia contro l’impiego della tecnologia in ambito militare senza adeguati controlli. Il mese scorso manifestanti si sono radunati davanti agli uffici di OpenAI con slogan come «No allo stato di sorveglianza basato sull’IA» e «Orwell ci aveva avvertito».

 

Il Pentagono ribadisce di non avere intenzione di utilizzare l’AI per la sorveglianza di massa sul territorio nazionale o per armi completamente autonome, ma continua a promuovere un ampio accesso ai sistemi avanzati per «qualsiasi uso lecito».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Più popolari