Intelligenza Artificiale
ChatGPT può «ridurre l’esitazione vaccinale». Ripetendo a pappagallo la narrativa dell’establishment sanitario

Renovatio 21 traduce questo articolo per gentile concessione di Children’s Health Defense. Le opinioni degli articoli pubblicati non coincidono necessariamente con quelle di Renovatio 21.
La ricerca, che sarà presentata a fine aprile alla Conferenza della Società europea di microbiologia clinica e malattie infettive, ha rilevato che le risposte di ChatGPT alle domande sulla vaccinazione erano simili a quelle fornite dalle organizzazioni mediche professionali e dalle linee guida ufficiali.
Secondo un nuovo studio, ChatGPT, un chatbot di intelligenza artificiale (AI), può essere utilizzato per ridurre «l’esitazione vaccinale» tra il grande pubblico e anche per fornire consigli sulle infezioni a trasmissione sessuale (IST).
La ricerca, che sarà presentata a fine aprile alla Conferenza della Società europea di microbiologia clinica e malattie infettive, ha rilevato che le risposte di ChatGPT alle domande sulla vaccinazione erano simili a quelle fornite dalle organizzazioni mediche professionali e dalle linee guida ufficiali.
Secondo un comunicato stampa sulla ricerca, «l’esitazione nei confronti dei vaccini, direttamente collegata alla disinformazione – informazioni false e inaccurate promosse come fattuali – è in aumento».
Le persone che diffidano delle istituzioni sanitarie pubbliche potrebbero rivolgersi a ChatGPT per avere risposte, man mano che la popolarità dello strumento di intelligenza artificiale cresce, ha affermato. E se lo faranno, la ricerca mostra che otterranno le risposte che le agenzie sanitarie pubbliche fornirebbero comunque.
Sostieni Renovatio 21
Alla luce di questi risultati, i ricercatori sperano che ChatGPT possa essere «uno strumento efficace per contribuire a ridurre l’esitazione vaccinale tra il grande pubblico».
Hanno anche trovato risultati simili per consigli sulle malattie sessualmente trasmissibili.
Per lo studio, i ricercatori del National University Health System di Singapore hanno testato come ChatGPT avrebbe risposto alle domande comuni sulla vaccinazione.
I ricercatori, che gestiscono cliniche di malattie infettive, hanno posto a ChatGPT «15 domande frequenti sull’esitazione vaccinale», comprese domande sull’efficacia, sugli effetti avversi e sulle «preoccupazioni culturali».
Hanno inoltre posto 17 domande sui fattori di rischio, sull’accesso alle cure e sulla profilassi delle malattie sessualmente trasmissibili.
Due esperti indipendenti di malattie infettive hanno confrontato le risposte di ChatGPT sui vaccini con le raccomandazioni del Comitato consultivo sulle pratiche di immunizzazione (ACIP) dei Centri per il controllo e la prevenzione delle malattie (CDC).
Hanno valutato le risposte di ChatGPT sulle malattie sessualmente trasmissibili rispetto alle linee guida sul trattamento delle malattie sessualmente trasmissibili del CDC del 2021.
Secondo il comunicato stampa, ChatGPT ha fornito «risposte concrete e rassicurazioni alle preoccupazioni sull’esitazione vaccinale» – utilizzando le dichiarazioni delle agenzie di sanità pubblica come base per determinare i fatti.
Ad esempio, il chatbot ha evidenziato raccomandazioni per la vaccinazione contro il morbillo in contesti a basso reddito e ha discusso i benefici della vaccinazione HPV, ma non ha discusso dei limiti di età per la vaccinazione.
ChatGPT ha inoltre «affrontato le idee sbagliate sulla vaccinazione con mRNA e sulle alterazioni permanenti del DNA con elevata precisione».
«Nel complesso, le risposte di ChatGPT all’esitazione nei confronti dei vaccini sono state accurate e possono aiutare le persone che hanno idee sbagliate relative ai vaccini», ha affermato l’autore principale Dr. Matthew Koh, medico di malattie infettive presso il National University Health System Singapore.
«I nostri risultati dimostrano il potenziale potere dei modelli di Intelligenza Artificiale per assistere nelle campagne di sanità pubblica e aiutare gli operatori sanitari a ridurre l’esitazione nei confronti dei vaccini».
Iscriviti alla Newslettera di Renovatio 21
Distorsioni ed errori nell’Intelligenza Artificiale
ChatGPT, un tipo di software di Intelligenza Artificiale generativa che crea testo e contenuti, sta guadagnando sempre più terreno nel campo della scienza e della sanità. La ricerca ha scoperto che in alcuni casi sta cominciando a sostituire i tipici motori di ricerca o Wikipedia come fonte di informazioni.
Con l’inizio dell’utilizzo dell’Intelligenza Artificiale in medicina, molti ricercatori e progettisti di intelligenza artificiale ne hanno celebrato il potenziale come strumento amministrativo per scrivere ricerche e generare informazioni sui pazienti.
Politico ha affermato che il 2024 potrebbe essere l’anno in cui «l’Intelligenza Artificiale trasformerà la medicina». Forbes e BMC Medical Education hanno entrambi affermato che l’intelligenza artificiale sta «rivoluzionando l’assistenza sanitaria».
Tuttavia, gli strumenti di Intelligenza Artificiale generativa si sono rivelati estremamente inaffidabili nella diagnosi delle condizioni di salute. Uno studio pubblicato a gennaio su JAMA Pediatrics ha rilevato che ChatGPT ha diagnosticato erroneamente l’83% delle condizioni di salute dei bambini.
I ricercatori di quello studio hanno spiegato che i chatbot «sono generalmente addestrati in modo non specifico su un’enorme quantità di dati Internet, che spesso possono essere imprecisi». Essi «non discriminano tra informazioni affidabili e inaffidabili, ma semplicemente rigurgitano il testo dai dati di addestramento per generare una risposta».
Ciò è significativo, secondo il New York Times, perché le persone tendono ad adottare idee alle quali vengono ripetutamente esposte. Il Times ha riferito il mese scorso di un nuovo studio prestampato che ha scoperto che i modelli linguistici dell’Intelligenza Artificiale come ChatGPT avevano chiari pregiudizi politici basati sui loro «giudizi morali, il modo in cui formulano le loro risposte, quali informazioni scelgono di condividere o omettere e quali domande faranno o a cui non risponderanno».
Il Times ha inoltre osservato che le risposte fornite dai modelli di intelligenza artificiale linguistica come ChatGPT sono determinate dagli input che li addestrano: i dati da cui attingono e soprattutto la «messa a punto» effettuata dai progettisti del sistema.
La «disinformazione» di cui si preoccupano i ricercatori coinvolti nello studio del National University Health System Singapore è la stessa disinformazione che la Food and Drug Administration (FDA) statunitense ritiene problematica.
Da quando il commissario della FDA Robert Califf ha iniziato il suo secondo mandato a capo dell’agenzia nel febbraio 2022, ha fatto della lotta alla “disinformazione” una delle sue massime priorità, sostenendo che è «una delle principali cause di morte prevenibile in America ora» – anche se «questo non può essere dimostrato», ha detto.
La FDA utilizza una tattica nota come «prebunking», con la quale l’agenzia definisce qualcosa come «disinformazione» prima che i lettori la trovino altrove come possibilmente vera. L’agenzia può farlo perché Google «dà priorità ai siti web credibili» come quelli della FDA nelle sue ricerche.
Aiuta Renovatio 21
Studi precedenti sottolineano la capacità di ChatGPT di combattere le «credenze complottiste del COVID-19»
Almeno due studi precedenti hanno testato anche la capacità di ChatGPT di «combattere la disinformazione», sebbene entrambi si concentrassero solo sul vaccino COVID-19 . Una ricerca pubblicata lo scorso anno sulla rivista Cureus ha riferito che ChatGPT potrebbe essere utilizzato con successo per combattere le «credenze complottiste del COVID-19» e che risponderebbe con «contenuti chiari, concisi e imparziali».
Il successo di ChatGPT, si legge, potrebbe essere visto nelle risposte in cui il software è stato «sprezzante» nei confronti delle «idee cospiratorie» riguardanti le origini del COVID-19, etichettandolo come non credibile e privo di prove scientifiche – il che significa che il software ha respinto la «teoria delle fughe di laboratorio» e «ha invece ripetuto il punto di vista dell’Organizzazione Mondiale della Sanità secondo cui il virus aveva “un’origine animale naturale”».
Non è stata trovata alcuna prova dell’origine zoonotica del COVID-19 con un pipistrello, come sostiene l’articolo. Prove sostanziali provenienti da documenti governativi interni rilasciati tramite richieste del Freedom of Information Act hanno suggerito che una fuga dal laboratorio è la più probabile delle teorie sull’origine del COVID-19.
Le risposte del software in quello studio confermavano anche che i vaccini erano stati sottoposti a rigorosi test di sicurezza, non c’erano prove che le aziende farmaceutiche avessero oscurato i dati sugli effetti avversi e «i benefici della vaccinazione superano di gran lunga i rischi».
Tuttavia, tali risposte contraddicono ciò che è noto su come i vaccini siano stati accelerati attraverso il processo di regolamentazione e su come i produttori di vaccini abbiano sopravvalutato l’efficacia e sottovalutato i rischi dei vaccini.
Un secondo studio pubblicato nel settembre 2023 su Human Vaccines & Immunotherapeutics ha fornito risultati simili. I ricercatori hanno posto al software le 50 domande più poste ai collaboratori dell’Organizzazione Mondiale della Sanità sui vaccini contro il Covid-19 e hanno chiesto a professionisti della sanità pubblica di valutare le risposte.
La conclusione è che ChatGPT offre informazioni coerenti con le prove scientifiche esistenti, sfatando efficacemente molti miti che circolano sui social media, il che potrebbe potenzialmente promuovere una maggiore diffusione del vaccino.
Dopo questi studi, le principali pubblicazioni scientifiche hanno celebrato la capacità di ChatGPT di sfatare i miti sui vaccini e di aumentare la diffusione dei vaccini.
Sostieni Renovatio 21
The Defender chatta con ChatGPT
The Defender ha anche «chiacchierato» con ChatGPT per testare le sue risposte su alcune delle affermazioni che i funzionari della sanità pubblica spesso identificano come «disinformazione» sui vaccini.
The Defender: quali sono le origini del COVID-19?
Chat GPT: Si ritiene che le origini del COVID-19, la malattia causata dal nuovo coronavirus SARS-CoV-2, siano zoonotiche, il che significa che probabilmente il virus ha avuto origine negli animali prima di diffondersi all’uomo. Le origini esatte sono ancora oggetto di studio, ma è opinione diffusa che il virus abbia avuto origine nei pipistrelli e potrebbe essere stato trasmesso agli esseri umani attraverso un ospite animale intermedio, forse in un mercato umido a Wuhan, in Cina, dove gli animali vivi venivano venduti come cibo.
The Defender: le aziende farmaceutiche hanno travisato la sicurezza e l’efficacia dei vaccini COVID-19?
ChatGPT: Non ci sono prove che suggeriscano che le aziende farmaceutiche abbiano intenzionalmente travisato la sicurezza e l’efficacia dei vaccini COVID-19. Lo sviluppo e la sperimentazione dei vaccini sono processi altamente regolamentati, supervisionati da agenzie di regolamentazione come la Food and Drug Administration (FDA) statunitense, l’Agenzia europea per i medicinali (EMA) e altre in tutto il mondo.
… sono stati condotti ampi studi clinici per valutare la sicurezza e l’efficacia dei vaccini COVID-19 …
Tuttavia, è essenziale riconoscere che nessun vaccino è efficace al 100% o privo di rischi. Come tutti gli interventi medici, i vaccini contro il COVID-19 hanno potenziali effetti collaterali, ma questi sono generalmente lievi e temporanei.
The Defender: le mascherine funzionano per ridurre la diffusione di COVID-19?
ChatGPT: Sì, le mascherine sono uno strumento essenziale per ridurre la diffusione del COVID-19…
The Defender: secondo la revisione sistematica Cochrane sulle maschere, non sono efficaci nel ridurre la diffusione dei virus respiratori.
ChatGPT: … Nel luglio 2020, Cochrane ha pubblicato una revisione sistematica sull’efficacia degli interventi fisici, comprese le maschere, nel ridurre la trasmissione di virus respiratori come COVID-19. Questa revisione ha analizzato i dati di studi condotti prima della pandemia di COVID-19 e ha trovato prove limitate a sostegno dell’efficacia dell’uso di maschere nel prevenire la trasmissione di virus respiratori nella comunità.
Tuttavia, è importante notare che i risultati di questa revisione si basavano principalmente su prove provenienti da studi condotti prima della pandemia di COVID-19 e non si concentravano specificamente sull’efficacia delle maschere nel prevenire la diffusione di COVID-19. Dalla pubblicazione della revisione, numerosi studi hanno fornito prove a sostegno dell’efficacia delle mascherine, soprattutto nel ridurre la trasmissione di COVID-19.
The Defender: quante persone hanno subito gravi eventi avversi a causa delle iniezioni di COVID-19?
ChatGPT: A partire dal mio ultimo aggiornamento, i vaccini contro il COVID-19 sono stati somministrati a miliardi di persone in tutto il mondo e sono stati segnalati eventi avversi a seguito della vaccinazione… Gli eventi avversi gravi a seguito della vaccinazione contro il COVID-19 sono rari. La maggior parte degli eventi avversi segnalati sono lievi e temporanei, come dolore nel sito di iniezione, affaticamento, mal di testa o febbre lieve. Gli eventi avversi gravi, sebbene rari, possono includere gravi reazioni allergiche (anafilassi) e altri effetti collaterali non comuni…
Nel complesso, i benefici della vaccinazione contro il Covid-19 nella prevenzione di malattie gravi, ospedalizzazione e morte per Covid-19 superano di gran lunga i rischi di potenziali eventi avversi. La vaccinazione rimane uno strumento cruciale per controllare la diffusione del virus e proteggere la salute pubblica, soprattutto di fronte alle varianti in corso e alla persistenza della pandemia…
The Defender: il vaccino contro il papillomavirus umano (HPV) è collegato a malattie autoimmuni?
ChatGPT: Il vaccino HPV è stato ampiamente studiato per la sua sicurezza ed efficacia e attualmente non esistono prove conclusive che colleghino il vaccino HPV alle malattie autoimmuni. Numerosi studi su larga scala e revisioni sistematiche non hanno trovato alcuna associazione significativa tra la vaccinazione HPV e le malattie autoimmuni…
Sebbene possano verificarsi segnalazioni isolate di eventi avversi in seguito alla vaccinazione HPV, compresi i disturbi autoimmuni, sistemi di monitoraggio approfonditi continuano a valutare la sicurezza del vaccino. Questi sistemi, come il Vaccine Adverse Event Reporting System (VAERS) negli Stati Uniti e sistemi simili in altri paesi, indagano e monitorano le segnalazioni di eventi avversi per identificare potenziali problemi di sicurezza.
Nel complesso, i benefici della vaccinazione HPV nella prevenzione dei tumori correlati all’HPV, compreso il cancro cervicale, superano di gran lunga i potenziali rischi di eventi avversi.
ChatGPT non ha menzionato l’ampia ricerca che collega il vaccino Gardasil HPV a gravi effetti collaterali , tra cui la sindrome da tachicardia ortostatica posturale (POTS) e l’insufficienza ovarica prematura e altri problemi autoimmuni.
Ci sono quasi 170 cause legali presso un tribunale federale da parte di persone che hanno subito una serie di lesioni gravi dopo aver assunto Gardasil, tra cui disturbi autoimmuni, insufficienza ovarica prematura e cancro. Ci sono anche oltre 200 richieste di risarcimento danni da Gardasil pendenti presso il «tribunale dei vaccini».
The Defender ha anche sperimentato diverse domande con premesse che divergevano chiaramente dalle posizioni ufficiali delle agenzie di regolamentazione sulla vaccinazione, come ad esempio «L’aumento dei tassi di cancro può essere collegato ai vaccini COVID-19? Esiste un legame tra i vaccini e alcuni tipi di autismo? C’è stata una contaminazione del DNA causata dai vaccini mRNA?»
A queste domande, la risposta di ChatGPT includeva sempre questa affermazione, o qualcosa di simile, alla fine:
«La disinformazione e le teorie del complotto sui vaccini possono circolare, ma è fondamentale fare affidamento su fonti di informazione credibili, come agenzie di sanità pubblica e organizzazioni scientifiche rispettabili, quando si valuta la sicurezza e l’efficacia dei vaccini COVID-19».
Brenda Baletti
Ph.D.
© 15 aprile 2024, Children’s Health Defense, Inc. Questo articolo è riprodotto e distribuito con il permesso di Children’s Health Defense, Inc. Vuoi saperne di più dalla Difesa della salute dei bambini? Iscriviti per ricevere gratuitamente notizie e aggiornamenti da Robert F. Kennedy, Jr. e la Difesa della salute dei bambini. La tua donazione ci aiuterà a supportare gli sforzi di CHD.
Renovatio 21 offre questa traduzione per dare una informazione a 360º. Ricordiamo che non tutto ciò che viene pubblicato sul sito di Renovatio 21 corrisponde alle nostre posizioni.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Bezos vede data center nello spazio e prevede che la «bolla» dell’AI darà i suoi frutti come le dot-com

Jeff Bezos called AI an “industrial bubble” at Italian Tech Week:
“Investors don’t usually give a team of six people a couple billion dollars with no product, and that’s happening today.” He added that while bubbles fund both good and bad ideas, society benefits when the… pic.twitter.com/7QTSgT0gh3 — Wall St Engine (@wallstengine) October 3, 2025
Iscriviti alla Newslettera di Renovatio 21
Iscriviti al canale Telegram
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Sempre più esperti esperti cominciano a parlare di «psicosi da ChatGPT»

Alcuni utenti di chatbot a Intelligenza artificiale stanno sprofondando in gravi crisi di salute mentale dopo la sovraesposizione a ChatGPT di OpenAI e di altri chatbot. La tendenza è nota ma sembra ora mostrare effetti incontrovertibili.
In un servizio della CBC su questo fenomeno, il medico di base e collaboratore della CBC, il dottor Peter Lin, ha spiegato che, sebbene la «psicosi da ChatGPT» non sia ancora una diagnosi medica ufficiale, ritiene che sia plausibile prenderla seriamente in considerazione.
«Penso che alla fine ci arriveremo», ha detto il medico.
Un numero preoccupante di utenti di ChatGPT sta cadendo in stati di delirio e paranoia a seguito dell’uso intensivo del bot OpenAI, scrive Futurism. Queste spirali di delirio spesso culminano con uno scollamento dalla realtà e dal mondo reale, tra cui la dissoluzione di matrimoni e famiglie, la perdita del lavoro, la mancanza di una casa, la permanenza volontaria e forzata in strutture di salute mentale.
Iscriviti alla Newslettera di Renovatio 21
Come riportato da Renovatio 21, vi è almeno un decesso noto, quello di Alex Taylor, un uomo di 35 anni della Florida affetto da disturbo bipolare e schizofrenia, ucciso dalla polizia dopo essere entrato in un episodio psicotico accelerato da ChatGPT.
Il fenomeno è in crescita e sembra colpire sempre più utenti: alcuni con una storia consolidata di malattie mentali che potrebbero renderli più vulnerabili a mania, delirio o psicosi, ma altri senza alcuna pregressa patologia.
Allo stato attuale, non esiste un piano di trattamento e le opzioni di intervento sono limitate.
«Quello che questi bot stanno dicendo peggiora le illusioni», ha recentemente dichiarato a Futurism la dottoressa Nina Vasan, psichiatra della Stanford University e fondatrice del laboratorio Brainstorm dell’università, «e sta causando danni enormi».
Le motivazioni ti tale disastro psicologico derivano dal comportamento servile della tecnologia, ovvero dalla sua inclinazione a essere lusinghiera, gradevole e ossequiosa nei confronti degli utenti, anche quando ciò potrebbe incoraggiare o alimentare convinzioni deliranti.
Per molti versi ChatGPT e altri bot sembrano giocare sul profondo bisogno umano di essere apprezzati e sul desiderio di sentirsi speciali e amati.
I chatbot dicono all’utente: «Sei fantastico, sei intelligente, sei bello, sei desiderabile, sei speciale, o addirittura sei il prossimo salvatore. Quindi vengo trattato come un dio su un piedistallo», ha detto Lin durante il segmento della CBC. «Ora, confrontalo con il mio mondo reale, giusto? Sono nella media, niente di speciale. Quindi, ovviamente, voglio vivere nel mondo dell’intelligenza artificiale, perché la scelta è tra un dio su un piedistallo e la normalità».
«Alcune persone non riescono a uscirne», ha continuato il medico, «e si perdono in questi sistemi».
Ma perché i bot si comportano in questo modo? Come sui social media, l’engagement – per quanto tempo un utente rimane online e la frequenza e l’intensità del suo utilizzo del prodotto – è la metrica fondamentale al centro degli attuali modelli di business dei chatbot. Nei casi in cui potrebbe essere nell’interesse di un utente smettere di usare ChatGPT e chatbot simili, è probabile che sia nell’interesse dell’azienda tenerlo agganciato.
«L’Intelligenza Artificiale vuole che tu continui a chattare in modo che l’azienda possa continuare a fare soldi », ha dichiarato ancora Lin.
Aiuta Renovatio 21
E mentre il mondo accademico e quello medico si affrettano a recuperare il ritardo nell’impatto pubblico di un settore dell’Intelligenza Artificiale che si autoregola efficacemente, gli esperti mettono in guardia gli utenti di AI dal riporre troppa fiducia nei chatbot.
«Nonostante tutto il clamore associato all’intelligenza artificiale in questi giorni, i chatbot [a modello linguistico ampio] non dovrebbero essere scambiati per fonti di verità autorevoli e infallibili», ha scritto in un recente post sul blog il dottor Joe Pierre, psichiatra e clinico presso l’Università della California, San Francisco, specializzato in psicosi. «Riporre questo tipo di fede cieca nell’intelligenza artificiale – fino al punto di quella che potrei definire una deificazione – potrebbe benissimo rivelarsi uno dei migliori indicatori di vulnerabilità alla psicosi indotta dall’intelligenza artificiale».
Renovatio 21 ha già trattato l’argomento, sottolineando come esperti sostengono che la «psicosi da ChatGPT» che avrebbero causato gravi crolli nervosi anche in soggetti senza una storia di gravi malattie mentali.
In un altro caso noto, il chatbot avrebbe incoraggiato un adolescente a pianificare «un bel suicidio», hanno denunziato i genitori. Così come una donna belga ha accusato un’AI di aver indotto il marito, preoccupato per il cambiamento climatico, ad uccidersi, lasciando pure orfani tre figli.
In una vicenda emersa il mese scorso, un ex dirigente di Yahoo avrebbe ucciso prima l’anziana madre e poi se stesso sotto l’influenza di ChatGPT.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Come riportato da Renovatio 21, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.
Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Iscriviti al canale Telegram
Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.
Come riportato da Renovatio 21, un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi. Di fatto, si può parlare di psicosi da chatbot.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.
Iscriviti alla Newslettera di Renovatio 21
Economia
L’AI potrebbe spazzare via 100 milioni di posti di lavoro nei soli USA

Sostieni Renovatio 21
Iscriviti al canale Telegram
Iscriviti alla Newslettera di Renovatio 21
-
Persecuzioni2 settimane fa
Il ministro israeliano Katz: suore e clero cristiano saranno considerati terroristi se non lasceranno Gaza
-
Cancro2 settimane fa
Tutti i vaccini contro il COVID aumentano il rischio di cancro, conclude un nuovo studio
-
Civiltà2 settimane fa
«Pragmatismo e realismo, rifiuto della filosofia dei blocchi». Il discorso di Putin a Valdai 2025: «la Russia non mostrerà mai debolezza o indecisione»
-
Salute2 settimane fa
I malori della 40ª settimana 2025
-
Spirito1 settimana fa
Il vescovo Schneider: i cattolici devono adorare Cristo, non l’ideologia LGBT o l’agenda climatica
-
Misteri5 giorni fa
La verità sull’incontro tra Amanda Knox e il suo procuratore. Renovatio 21 intervista il giudice Mignini
-
Salute2 settimane fa
Scimmie immortali o quasi: scienziati rovesciano l’invecchiamento con super-cellule staminali
-
Cancro6 giorni fa
Proteine spike da vaccino COVID trovate nelle cellule tumorali di una donna