Intelligenza Artificiale
ChatGPT molla l’Italia. Non il contrario
Alcuni giornali, anche all’estero sono andati in bodo di giuggiole: il governo italiano avrebbe bannato ChatGPT, l’intelligenza artificiale testuale delle cui capacità straordinarie (comporre testi, anche complessi) in pochi secondi, tutti stanno parlando.
Non è andata così: possiamo dire, anzi, che è più ChatGPT che ha mollato l’Italia.
Da ieri infatti chi tenta di accedere al sito da un IP italiano viene informato che che ChatGPT non è operabile da utenti italiani su richiesta del garante della Privacy.
«Gentile cliente ChatGPT, Siamo spiacenti di informarti che abbiamo disabilitato ChatGPT per gli utenti in Italia su richiesta del Garante italiano» scrive il sito. «Stiamo emettendo rimborsi a tutti gli utenti in Italia che hanno acquistato un abbonamento ChatGPT Plus a marzo. Stiamo anche sospendendo temporaneamente i rinnovi degli abbonamenti in Italia in modo che gli utenti non vengano addebitati mentre ChatGPT è sospeso».
«Ci impegniamo a proteggere la privacy delle persone e crediamo di offrire ChatGPT in conformità con GDPR e altre leggi sulla privacy. Ci metteremo in contatto con il Garante con l’obiettivo di ripristinare il tuo accesso il prima possibile. Molti di voi ci hanno detto che trovate ChatGPT utile per le attività quotidiane e non vediamo l’ora di renderlo nuovamente disponibile al più presto».
In pratica, è la stessa società OpenAI, creatrice di ChatGPT, a dire di aver chiuso con l’Italia. Il Garante per la privacy aveva rilevato problemi legati al trattamento dei dati personali e alla tutela dei minori – cioè la mancanza di un filtro che comprovasse per la maggiore età dell’utente.
Nel provvedimento 112 che il Garante aveva emanato il 30 marzo, si invitava OpenAI «entro 20 giorni a comunicare quali iniziative sono state intraprese al fine di fare attuazione a quanto prescritto e di fornire ogni elemento ritenuto utile a giustificare le violazioni sopra evidenziate». La sanzione, ricorda il documento, poteva arrivare fino a 20 milioni di euro o il 4% del fatturato globale annuo. Il problema, dicono, è che OpenAI avrebbe violato il famoso GDPR, il regolamento europeo sulla protezione dei dati e della privacy, che è l’eurolegge per cui tutti i siti che visitate, compreso Renovatio 21, si riempiono di finestre di fastidiose richieste di consenso appena vi atterrate.
Quindi, pur avendo quasi tre settimane per rispondere a quanto rilevato dal Garante, ChatGPT ha preferito chiudere l’Italia, di punto in bianco. Invece di argomentare, o cambiare attivamente i punti contestati, ha semplicemente mollato l’intera popolazione degli utenti italiani, in balia delle decisioni della loro autorità.
Curioso che in Europa, sul cui intero territorio dovrebbe vigere il GDPR, nessun altro Paese si sia mosso. E nemmeno i vertici di Bruxelles, di solito così attenti a queste cose, al punto da aver visto oscuri sotto-membri della Commissione minacciare il Twitter di Elon Musk in caso sulla piattaforma vi sarà troppa libertà di parola.
Le voci giovani e fighette della stampa italiane si sono fatte sentire subito: Italia-medio evo, vergogna, etc. A quanto ci sembra di capire finora, si tratta di un atto per cui si è spesa la burocrazia italiana, non il governo.
Nessun premier, presidente, ministro, sottosegretario, deputato, portaborse pare averci messo la faccia. È andata avanti la macchina amministrativa – il mitico Garante della Privacy, che presso una larga fetta della popolazione gode di una certa reputazione: dopo il green pass, la parola «privacy» e qualsiasi «garanzia» lo Stato possa mettere su di essa fanno un po’ ridere.
Il problema, riteniamo, sia proprio questo: la reazione a questa tecnologia totalmente trasformativa (quanti giornalisti perderanno il lavoro con ChatGPT? Quanti settori dell’economia verranno radicalmente riformati dalla robotizzazione della scrittura e della creazione di contenuti e codici?) è lasciata non alla politica, ma alla macchina dello Stato.
La Meloni parla di PNRR e pensa alle poltrone da distribuire, senza rendersi conto che l’avvento dell’Intelligenza Artificiale potrebbe capovolgere il Paese e pure, dice qualcuno, metterne in pericolo la popolazione che la politica, in teoria, dovrebbe difendere.
Ecco quindi che abbiamo questo bando-margarina, in nome dell’elefantiasi europea del GDPR. Come arrestare Matteo Messina Denaro per eccesso di velocità.
La beffa del divorzio inflitto istantaneamente a senso unico, nello scorno più amaro degli utenti, serve a specificare: i padroni dell’AI stanno dicendo al primo governo che possono fare a meno, grazie. I primi dieci miliardi di dollari – entrati da Microsoft per avere accesso ai software, cioè il livello di costo di manovre economiche, aiutano ad essere spavaldi.
Non abbiamo nessuno che abbia capito nemmeno questo. Non solo i robot sono un pericolo per la società (lo abbiamo visto: sono bugiardi, manipolatori, e albergano pensieri violenti) e per l’umanità (come sostiene Elon Musk e una ridda di altri esperti del settore). Ma i loro padroni già ci dicono che possono fare a meno di noi.
Stiamo per essere invasi da un’intelligenza aliena. E non abbiamo nessuno che sappia pensarci.
Con questa classe politica, siamo completamente indifesi. Se l’Intelligenza Artificiale è davvero intelligente, potrebbe aver capito che questo è esattamente il momento giusto per attaccarci.
Intelligenza Artificiale
Trump firma l’ordine di deregolamentazione dell’Intelligenza Artificiale
Il presidente degli Stati Uniti Donald Trump ha emanato giovedì un ordine esecutivo volto a restringere la regolamentazione dell’intelligenza artificiale a livello statale, in attesa dell’elaborazione di una strategia nazionale. Secondo il governo federale, un quadro normativo frammentato rischierebbe di compromettere la superiorità competitiva dell’America nel campo dell’IA rispetto alla Cina.
L’amministrazione mira a scongiurare una situazione in cui un «mosaico di 50 regimi normativi distinti» domini un comparto ritenuto per sua natura interstatali, come ha spiegato su X David Sacks, consigliere di Trump per le questioni di IA. Un sistema di intelligenza artificiale potrebbe essere sviluppato in uno stato, allenato in un altro e commercializzato su scala nazionale, ha precisato.
Il Sacks ha rilevato che già oggi vigono oltre 100 normative statali sull’IA, con più di 1.000 proposte in discussione. «Nella peggiore delle ipotesi, ci troveremmo con 50 modelli di IA differenti per 50 Stati diversi: un pantano regolatorio persino peggiore di quello europeo», ha commentato.
ONE RULEBOOK FOR AI
I wanted to share a few thoughts on AI preemption and address some of the concerns.
First, this is not an “AI amnesty” or “AI moratorium.” It is an attempt to settle a question of jurisdiction.
When an AI model is developed in state A, trained in state B,… pic.twitter.com/tO3yyc0A8M
— David Sacks (@DavidSacks) December 8, 2025
Iscriviti alla Newslettera di Renovatio 21
Trump ha incaricato il Dipartimento di Giustizia di impugnare in sede giudiziaria le leggi statali giudicate «eccessivamente gravose». Washington ricorrerà inoltre a finanziamenti federali e appalti pubblici per incentivare gli stati ad adeguarsi alla linea federale. Tali iniziative sono presentate come provvisorie, in vista dell’approvazione congressuale di uno «standard nazionale con minimo onere regolatorio» per l’IA.
La Casa Bianca ha pure espresso timori di natura ideologica, accusando gli stati guidati da democratici di imporre agli sviluppatori di IA restrizioni «woke», quali obblighi per evitare la «discriminazione algoritmica» verso categorie protette.
«Proprio per questo genere di interferenze ideologiche siamo arrivati al “George Washington nero”», ha ironizzato Sacks, alludendo a un caso di grande risonanza dell’anno scorso, in cui il tool di generazione immagini Gemini di Google produceva raffigurazioni storiche con diversità razziale forzata e discutibile.
L’amministrazione Trump e le imprese tech americane stanno scommettendo forte sull’IA come leva per la crescita economica, sebbene i detrattori mettano in guardia sui rischi di ingenti investimenti fondati su stime di guadagno incerte, potenzialmente forieri di una bolla speculativa.
Non mancano allarmi per possibili reazioni avverse dell’opinione pubblica, dato che l’espansione accelerata dei data center energivori indispensabili per l’IA ha provocato rincari nelle bollette elettriche in talune zone. Sacks ha tenuto a precisare che la nuova direttiva «non imporrebbe alle comunità di accogliere data center indesiderati».
Iscriviti alla Newslettera di Renovatio 21
Immagine di pubblico dominio CC0 via Flickr
Intelligenza Artificiale
Notizie false nel podcast di lancio dell’intelligenza artificiale del WaPo
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
L’ascesa dell’AI avanzata potrebbe avere conseguenze catastrofiche: parla il CEO di Google DeepMind
Demis Hassabis, amministratore delegato di Google DeepMind, ha lanciato un monito sul cammino verso l’intelligenza artificiale generale (AGI), che potrebbe sfociare in «esiti catastrofici» quali cyberattacchi alle reti energetiche o idriche. Secondo lo Hassabis, l’AGI potrebbe concretizzarsi entro i prossimi dieci anni.
Durante il suo intervento all’Axios AI+ Summit della scorsa settimana a San Francisco, Hassabis ha delineato l’AGI come un sistema capace di manifestare «tutte le capacità cognitive» proprie dell’umanità, inclusa la propensione all’invenzione e alla creatività.
Egli ha rilevato che i modelli linguistici di grandi dimensioni odierni continuano a essere «intelligenze frastagliate», afflitte da deficit nel ragionamento, nella programmazione a lungo raggio e nell’apprendimento persistente. Nondimeno, ha ipotizzato che un’IA autenticamente intelligente possa emergere a breve, grazie a un potenziamento costante e «un paio di grandi innovazioni in più».
Al contempo, Hassabis ha ammesso che la fase propedeutica all’AGI sarà verosimilmente costellata da pericoli concreti e «risultati catastrofici», tra cui cyberattacchi alle infrastrutture energetiche o idriche.
«Probabilmente sta già quasi accadendo ora… forse non ancora con un’intelligenza artificiale molto sofisticata», ha osservato, indicandolo come «il vettore vulnerabile più ovvio». Ha proseguito evidenziando che attori malevoli, agenti autonomi e meccanismi che «deviano» dalle direttive iniziali esigono contromisure robuste. «È un rischio non nullo», ha concluso, in riferimento alla eventualità che apparati evoluti «scavalchino il guardrail».
Google Deepmind co-founder @demishassabis to @mikeallen on what about AI he fears most: “Bad actors using AI for harmful ends, or the AI itself as it gets closer to AGI … goes off the rails in some way that harms humanity.” #AxiosAISummit pic.twitter.com/bVmx4SNKIv
— Axios (@axios) December 5, 2025
Iscriviti al canale Telegram ![]()
Le apprensioni di Hassabis riecheggiano allarmi più estesi diffusi nel panorama tecnologico mondiale.
Come riportato da Renovatio 21, missiva aperta diramata a ottobre, sottoscritta da luminari del settore e figure di spicco, ha sostenuto che entità «superintelligenti» potrebbero mettere a repentaglio la libertà umana o la stessa esistenza, proponendo una moratoria globale sullo sviluppo dell’IA sin quando non se ne assicuri la saldezza. Tra i sottoscrittori, il co-fondatore di Apple Steve Wozniak, i pionieri dell’IA Geoffrey Hinton e Yoshua Bengio, il magnate Richard Branson del gruppo Virgin, oltre a personalità di rilievo politico e culturale.
Un ulteriore appello a mettere in pausa lo sviluppo dell’Intelligenza Artificiale è stato firmato da un gruppo internazionale di medici e pubblicato dalla prestigiosa rivista medica BMJ Global Health. «Ci sono scenari in cui l’AGI [Intelligenza Artificiale Generale, ndr] potrebbe rappresentare una minaccia per gli esseri umani, e possibilmente una minaccia esistenziale» scrivono nell’appello i dottori di varie parti del mondo.
Più pessimista è l’esperto dei pericoli dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».
Altre voci, tuttavia, propendono per un’interpretazione più rosea.
Elone Musk, che pure fa parte degli apocalittici riguardo i rischi delle macchine pensanti, ha dichiarato il mese scorso che gli avanzamenti dell’IA e della robotica potrebbero rendere il lavoro «facoltativo» tra 10-20 anni e che la moneta potrebbe rivelarsi «irrilevante» in un’economia IA-centrica, pur rammentando che occorrono ancora salti tecnologici sostanziali affinché tale orizzonte si materializzi.
Iscriviti alla Newslettera di Renovatio 21
-



Politica2 settimane faIl «Nuovo Movimento Repubblicano» minaccia i politici irlandesi per l’immigrazione e la sessualizzazione dei bambini
-



Persecuzioni2 settimane faFamosa suora croata accoltellata: possibile attacco a sfondo religioso
-



Vaccini2 settimane faIl vaccino antinfluenzale a mRNA di Pfizer associato a gravi effetti collaterali, soprattutto negli anziani
-



Pensiero7 giorni faDi tabarri e boomerri. Pochissimi i tabarri
-



Senza categoria2 settimane faI malori della 49ª settimana 2025
-



Spirito1 settimana faNotre-Dame brucia e la Madonna viene privata del suo titolo
-



Spirito6 giorni faScoperti nuovi testi «pornografici» del cardinale Fernandez
-



Intelligenza Artificiale2 settimane faL’AI renderà il lavoro «facoltativo» e il denaro «irrilevante»: Musk come Marx e i sovietici














