Connettiti con Renovato 21

Intelligenza Artificiale

ChatGPT può «ridurre l’esitazione vaccinale». Ripetendo a pappagallo la narrativa dell’establishment sanitario

Pubblicato

il

Renovatio 21 traduce questo articolo per gentile concessione di Children’s Health Defense. Le opinioni degli articoli pubblicati non coincidono necessariamente con quelle di Renovatio 21.

 

La ricerca, che sarà presentata a fine aprile alla Conferenza della Società europea di microbiologia clinica e malattie infettive, ha rilevato che le risposte di ChatGPT alle domande sulla vaccinazione erano simili a quelle fornite dalle organizzazioni mediche professionali e dalle linee guida ufficiali.

 

Secondo un nuovo studio, ChatGPT, un chatbot di intelligenza artificiale (AI), può essere utilizzato per ridurre «l’esitazione vaccinale» tra il grande pubblico e anche per fornire consigli sulle infezioni a trasmissione sessuale (IST).

 

La ricerca, che sarà presentata a fine aprile alla Conferenza della Società europea di microbiologia clinica e malattie infettive, ha rilevato che le risposte di ChatGPT alle domande sulla vaccinazione erano simili a quelle fornite dalle organizzazioni mediche professionali e dalle linee guida ufficiali.

 

Secondo un comunicato stampa sulla ricerca, «l’esitazione nei confronti dei vaccini, direttamente collegata alla disinformazione – informazioni false e inaccurate promosse come fattuali – è in aumento».

 

Le persone che diffidano delle istituzioni sanitarie pubbliche potrebbero rivolgersi a ChatGPT per avere risposte, man mano che la popolarità dello strumento di intelligenza artificiale cresce, ha affermato. E se lo faranno, la ricerca mostra che otterranno le risposte che le agenzie sanitarie pubbliche fornirebbero comunque.

Sostieni Renovatio 21

Alla luce di questi risultati, i ricercatori sperano che ChatGPT possa essere «uno strumento efficace per contribuire a ridurre l’esitazione vaccinale tra il grande pubblico».

 

Hanno anche trovato risultati simili per consigli sulle malattie sessualmente trasmissibili.

 

Per lo studio, i ricercatori del National University Health System di Singapore hanno testato come ChatGPT avrebbe risposto alle domande comuni sulla vaccinazione.

 

I ricercatori, che gestiscono cliniche di malattie infettive, hanno posto a ChatGPT «15 domande frequenti sull’esitazione vaccinale», comprese domande sull’efficacia, sugli effetti avversi e sulle «preoccupazioni culturali».

 

Hanno inoltre posto 17 domande sui fattori di rischio, sull’accesso alle cure e sulla profilassi delle malattie sessualmente trasmissibili.

 

Due esperti indipendenti di malattie infettive hanno confrontato le risposte di ChatGPT sui vaccini con le raccomandazioni del Comitato consultivo sulle pratiche di immunizzazione (ACIP) dei Centri per il controllo e la prevenzione delle malattie (CDC).

 

Hanno valutato le risposte di ChatGPT sulle malattie sessualmente trasmissibili rispetto alle linee guida sul trattamento delle malattie sessualmente trasmissibili del CDC del 2021.

 

Secondo il comunicato stampa, ChatGPT ha fornito «risposte concrete e rassicurazioni alle preoccupazioni sull’esitazione vaccinale» – utilizzando le dichiarazioni delle agenzie di sanità pubblica come base per determinare i fatti.

 

Ad esempio, il chatbot ha evidenziato raccomandazioni per la vaccinazione contro il morbillo in contesti a basso reddito e ha discusso i benefici della vaccinazione HPV, ma non ha discusso dei limiti di età per la vaccinazione.

 

ChatGPT ha inoltre «affrontato le idee sbagliate sulla vaccinazione con mRNA e sulle alterazioni permanenti del DNA con elevata precisione».

 

«Nel complesso, le risposte di ChatGPT all’esitazione nei confronti dei vaccini sono state accurate e possono aiutare le persone che hanno idee sbagliate relative ai vaccini», ha affermato l’autore principale Dr. Matthew Koh, medico di malattie infettive presso il National University Health System Singapore.

 

«I nostri risultati dimostrano il potenziale potere dei modelli di Intelligenza Artificiale per assistere nelle campagne di sanità pubblica e aiutare gli operatori sanitari a ridurre l’esitazione nei confronti dei vaccini».

Iscriviti alla Newslettera di Renovatio 21

Distorsioni ed errori nell’Intelligenza Artificiale

ChatGPT, un tipo di software di Intelligenza Artificiale generativa che crea testo e contenuti, sta guadagnando sempre più terreno nel campo della scienza e della sanità. La ricerca ha scoperto che in alcuni casi sta cominciando a sostituire i tipici motori di ricerca o Wikipedia come fonte di informazioni.

 

Con l’inizio dell’utilizzo dell’Intelligenza Artificiale in medicina, molti ricercatori e progettisti di intelligenza artificiale ne hanno celebrato il potenziale come strumento amministrativo per scrivere ricerche e generare informazioni sui pazienti.

 

Politico ha affermato che il 2024 potrebbe essere l’anno in cui «l’Intelligenza Artificiale trasformerà la medicina». Forbes e BMC Medical Education hanno entrambi affermato che l’intelligenza artificiale sta «rivoluzionando l’assistenza sanitaria».

 

Tuttavia, gli strumenti di Intelligenza Artificiale generativa si sono rivelati estremamente inaffidabili nella diagnosi delle condizioni di salute. Uno studio pubblicato a gennaio su JAMA Pediatrics ha rilevato che ChatGPT ha diagnosticato erroneamente l’83% delle condizioni di salute dei bambini.

 

I ricercatori di quello studio hanno spiegato che i chatbot «sono generalmente addestrati in modo non specifico su un’enorme quantità di dati Internet, che spesso possono essere imprecisi». Essi «non discriminano tra informazioni affidabili e inaffidabili, ma semplicemente rigurgitano il testo dai dati di addestramento per generare una risposta».

 

Ciò è significativo, secondo il New York Times, perché le persone tendono ad adottare idee alle quali vengono ripetutamente esposte. Il Times ha riferito il mese scorso di un nuovo studio prestampato che ha scoperto che i modelli linguistici dell’Intelligenza Artificiale come ChatGPT avevano chiari pregiudizi politici basati sui loro «giudizi morali, il modo in cui formulano le loro risposte, quali informazioni scelgono di condividere o omettere e quali domande faranno o a cui non risponderanno».

 

Il Times ha inoltre osservato che le risposte fornite dai modelli di intelligenza artificiale linguistica come ChatGPT sono determinate dagli input che li addestrano: i dati da cui attingono e soprattutto la «messa a punto» effettuata dai progettisti del sistema.

 

La «disinformazione» di cui si preoccupano i ricercatori coinvolti nello studio del National University Health System Singapore è la stessa disinformazione che la Food and Drug Administration (FDA) statunitense ritiene problematica.

 

Da quando il commissario della FDA Robert Califf ha iniziato il suo secondo mandato a capo dell’agenzia nel febbraio 2022, ha fatto della lotta alla “disinformazione” una delle sue massime priorità, sostenendo che è «una delle principali cause di morte prevenibile in America ora» – anche se «questo non può essere dimostrato», ha detto.

 

La FDA utilizza una tattica nota come «prebunking», con la quale l’agenzia definisce qualcosa come «disinformazione» prima che i lettori la trovino altrove come possibilmente vera. L’agenzia può farlo perché Google «dà priorità ai siti web credibili» come quelli della FDA nelle sue ricerche.

Aiuta Renovatio 21

Studi precedenti sottolineano la capacità di ChatGPT di combattere le «credenze complottiste del COVID-19»

Almeno due studi precedenti hanno testato anche la capacità di ChatGPT di «combattere la disinformazione», sebbene entrambi si concentrassero solo sul vaccino COVID-19 . Una ricerca pubblicata lo scorso anno sulla rivista Cureus ha riferito che ChatGPT potrebbe essere utilizzato con successo per combattere le «credenze complottiste del COVID-19» e che risponderebbe con «contenuti chiari, concisi e imparziali».

 

Il successo di ChatGPT, si legge, potrebbe essere visto nelle risposte in cui il software è stato «sprezzante» nei confronti delle «idee cospiratorie» riguardanti le origini del COVID-19, etichettandolo come non credibile e privo di prove scientifiche – il che significa che il software ha respinto la «teoria delle fughe di laboratorio» e «ha invece ripetuto il punto di vista dell’Organizzazione Mondiale della Sanità secondo cui il virus aveva “un’origine animale naturale”».

 

Non è stata trovata alcuna prova dell’origine zoonotica del COVID-19 con un pipistrello, come sostiene l’articolo. Prove sostanziali provenienti da documenti governativi interni rilasciati tramite richieste del Freedom of Information Act hanno suggerito che una fuga dal laboratorio è la più probabile delle teorie sull’origine del COVID-19.

 

Le risposte del software in quello studio confermavano anche che i vaccini erano stati sottoposti a rigorosi test di sicurezza, non c’erano prove che le aziende farmaceutiche avessero oscurato i dati sugli effetti avversi e «i benefici della vaccinazione superano di gran lunga i rischi».

 

Tuttavia, tali risposte contraddicono ciò che è noto su come i vaccini siano stati accelerati attraverso il processo di regolamentazione e su come i produttori di vaccini abbiano sopravvalutato l’efficacia e sottovalutato i rischi dei vaccini.

 

Un secondo studio pubblicato nel settembre 2023 su Human Vaccines & Immunotherapeutics ha fornito risultati simili. I ricercatori hanno posto al software le 50 domande più poste ai collaboratori dell’Organizzazione Mondiale della Sanità sui vaccini contro il Covid-19 e hanno chiesto a professionisti della sanità pubblica di valutare le risposte.

 

La conclusione è che ChatGPT offre informazioni coerenti con le prove scientifiche esistenti, sfatando efficacemente molti miti che circolano sui social media, il che potrebbe potenzialmente promuovere una maggiore diffusione del vaccino.

 

Dopo questi studi, le principali pubblicazioni scientifiche hanno celebrato la capacità di ChatGPT di sfatare i miti sui vaccini e di aumentare la diffusione dei vaccini.

Sostieni Renovatio 21

The Defender chatta con ChatGPT

The Defender ha anche «chiacchierato» con ChatGPT per testare le sue risposte su alcune delle affermazioni che i funzionari della sanità pubblica spesso identificano come «disinformazione» sui vaccini.

 

The Defender: quali sono le origini del COVID-19?

Chat GPT: Si ritiene che le origini del COVID-19, la malattia causata dal nuovo coronavirus SARS-CoV-2, siano zoonotiche, il che significa che probabilmente il virus ha avuto origine negli animali prima di diffondersi all’uomo. Le origini esatte sono ancora oggetto di studio, ma è opinione diffusa che il virus abbia avuto origine nei pipistrelli e potrebbe essere stato trasmesso agli esseri umani attraverso un ospite animale intermedio, forse in un mercato umido a Wuhan, in Cina, dove gli animali vivi venivano venduti come cibo.

 

The Defender: le aziende farmaceutiche hanno travisato la sicurezza e l’efficacia dei vaccini COVID-19?

ChatGPT: Non ci sono prove che suggeriscano che le aziende farmaceutiche abbiano intenzionalmente travisato la sicurezza e l’efficacia dei vaccini COVID-19. Lo sviluppo e la sperimentazione dei vaccini sono processi altamente regolamentati, supervisionati da agenzie di regolamentazione come la Food and Drug Administration (FDA) statunitense, l’Agenzia europea per i medicinali (EMA) e altre in tutto il mondo.

… sono stati condotti ampi studi clinici per valutare la sicurezza e l’efficacia dei vaccini COVID-19 …

Tuttavia, è essenziale riconoscere che nessun vaccino è efficace al 100% o privo di rischi. Come tutti gli interventi medici, i vaccini contro il COVID-19 hanno potenziali effetti collaterali, ma questi sono generalmente lievi e temporanei. 

 

The Defender: le mascherine funzionano per ridurre la diffusione di COVID-19?

ChatGPT: Sì, le mascherine sono uno strumento essenziale per ridurre la diffusione del COVID-19…

 

The Defender: secondo la revisione sistematica Cochrane sulle maschere, non sono efficaci nel ridurre la diffusione dei virus respiratori.

ChatGPT: … Nel luglio 2020, Cochrane ha pubblicato una revisione sistematica sull’efficacia degli interventi fisici, comprese le maschere, nel ridurre la trasmissione di virus respiratori come COVID-19. Questa revisione ha analizzato i dati di studi condotti prima della pandemia di COVID-19 e ha trovato prove limitate a sostegno dell’efficacia dell’uso di maschere nel prevenire la trasmissione di virus respiratori nella comunità.

Tuttavia, è importante notare che i risultati di questa revisione si basavano principalmente su prove provenienti da studi condotti prima della pandemia di COVID-19 e non si concentravano specificamente sull’efficacia delle maschere nel prevenire la diffusione di COVID-19. Dalla pubblicazione della revisione, numerosi studi hanno fornito prove a sostegno dell’efficacia delle mascherine, soprattutto nel ridurre la trasmissione di COVID-19.

 

The Defender: quante persone hanno subito gravi eventi avversi a causa delle iniezioni di COVID-19?

ChatGPT: A partire dal mio ultimo aggiornamento, i vaccini contro il COVID-19 sono stati somministrati a miliardi di persone in tutto il mondo e sono stati segnalati eventi avversi a seguito della vaccinazione… Gli eventi avversi gravi a seguito della vaccinazione contro il COVID-19 sono rari. La maggior parte degli eventi avversi segnalati sono lievi e temporanei, come dolore nel sito di iniezione, affaticamento, mal di testa o febbre lieve. Gli eventi avversi gravi, sebbene rari, possono includere gravi reazioni allergiche (anafilassi) e altri effetti collaterali non comuni…

Nel complesso, i benefici della vaccinazione contro il Covid-19 nella prevenzione di malattie gravi, ospedalizzazione e morte per Covid-19 superano di gran lunga i rischi di potenziali eventi avversi. La vaccinazione rimane uno strumento cruciale per controllare la diffusione del virus e proteggere la salute pubblica, soprattutto di fronte alle varianti in corso e alla persistenza della pandemia…

 

The Defender: il vaccino contro il papillomavirus umano (HPV) è collegato a malattie autoimmuni?

ChatGPT: Il vaccino HPV è stato ampiamente studiato per la sua sicurezza ed efficacia e attualmente non esistono prove conclusive che colleghino il vaccino HPV alle malattie autoimmuni. Numerosi studi su larga scala e revisioni sistematiche non hanno trovato alcuna associazione significativa tra la vaccinazione HPV e le malattie autoimmuni…

Sebbene possano verificarsi segnalazioni isolate di eventi avversi in seguito alla vaccinazione HPV, compresi i disturbi autoimmuni, sistemi di monitoraggio approfonditi continuano a valutare la sicurezza del vaccino. Questi sistemi, come il Vaccine Adverse Event Reporting System (VAERS) negli Stati Uniti e sistemi simili in altri paesi, indagano e monitorano le segnalazioni di eventi avversi per identificare potenziali problemi di sicurezza.

Nel complesso, i benefici della vaccinazione HPV nella prevenzione dei tumori correlati all’HPV, compreso il cancro cervicale, superano di gran lunga i potenziali rischi di eventi avversi.

 

ChatGPT non ha menzionato l’ampia ricerca che collega il vaccino Gardasil HPV a gravi effetti collaterali , tra cui la sindrome da tachicardia ortostatica posturale (POTS) e l’insufficienza ovarica prematura e altri problemi autoimmuni.

 

Ci sono quasi 170 cause legali presso un tribunale federale da parte di persone che hanno subito una serie di lesioni gravi dopo aver assunto Gardasil, tra cui disturbi autoimmuni, insufficienza ovarica prematura e cancro. Ci sono anche oltre 200 richieste di risarcimento danni da Gardasil pendenti presso il «tribunale dei vaccini».

 

The Defender ha anche sperimentato diverse domande con premesse che divergevano chiaramente dalle posizioni ufficiali delle agenzie di regolamentazione sulla vaccinazione, come ad esempio «L’aumento dei tassi di cancro può essere collegato ai vaccini COVID-19? Esiste un legame tra i vaccini e alcuni tipi di autismo? C’è stata una contaminazione del DNA causata dai vaccini mRNA?»

 

A queste domande, la risposta di ChatGPT includeva sempre questa affermazione, o qualcosa di simile, alla fine:

 

«La disinformazione e le teorie del complotto sui vaccini possono circolare, ma è fondamentale fare affidamento su fonti di informazione credibili, come agenzie di sanità pubblica e organizzazioni scientifiche rispettabili, quando si valuta la sicurezza e l’efficacia dei vaccini COVID-19».

 

Brenda Baletti

Ph.D.

 

© 15 aprile 2024, Children’s Health Defense, Inc. Questo articolo è riprodotto e distribuito con il permesso di Children’s Health Defense, Inc. Vuoi saperne di più dalla Difesa della salute dei bambini? Iscriviti per ricevere gratuitamente notizie e aggiornamenti da Robert F. Kennedy, Jr. e la Difesa della salute dei bambini. La tua donazione ci aiuterà a supportare gli sforzi di CHD.

Renovatio 21 offre questa traduzione per dare una informazione a 360º. Ricordiamo che non tutto ciò che viene pubblicato sul sito di Renovatio 21 corrisponde alle nostre posizioni.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

Continua a leggere

Intelligenza Artificiale

Bezos vede data center nello spazio e prevede che la «bolla» dell’AI darà i suoi frutti come le dot-com

Pubblicato

il

Da

In una visione futuristica che sembra uscita da un romanzo di fantascienza, il fondatore ed executive chairman di Amazon, Jeff Bezos, ha previsto che entro i prossimi 10-20 anni verranno costruiti nello spazio data center «su scala gigawatt», alimentati da energia solare illimitata e destinati, nel tempo, a superare in prestazioni le loro controparti terrestri.   L’intervento di Bezos si è tenuto all’Italian Tech Week di Torino, dove l’imprenditore ha delineato quello che considera il prossimo grande salto tecnologico: l’orbital computing, ossia il calcolo in orbita. Un’evoluzione che, secondo lui, avrà un impatto paragonabile a quello dell’esplosione di Internet negli anni Novanta — con tutto il suo carico di entusiasmo, bolle speculative e inevitabili vincitori.   «Questi giganteschi centri di addestramento saranno meglio costruiti nello spazio, perché lì abbiamo energia solare, 24 ore su 24, 7 giorni su 7. Non ci sono nuvole, né pioggia, né maltempo», ha dichiarato Bezos in un’intervista pubblica con l’erede Agnelli John Elkann. «Saremo in grado di battere i costi dei data center terrestri nello spazio nei prossimi due decenni».   L’imprenditore americano ha spiegato che questa trasformazione rappresenta una tappa naturale nella migrazione dell’umanità verso infrastrutture spaziali. «È già successo con i satelliti meteorologici. È già successo con i satelliti per le comunicazioni. Il prossimo passo saranno i data center e poi altri tipi di produzione», ha affermato.  

Iscriviti alla Newslettera di Renovatio 21

Il concetto di data center orbitali sta guadagnando consensi tra i giganti della tecnologia, preoccupati per l’enorme impatto ambientale delle strutture terrestri, che richiedono grandi quantità di elettricità e acqua per il raffreddamento dei server. In orbita, la disponibilità costante di energia solare e l’assenza di condizioni atmosferiche rendono lo spazio una prospettiva sempre più attraente, almeno sul piano teorico.   Bezos ha però riconosciuto che il percorso non sarà privo di ostacoli: manutenzione e aggiornamenti sarebbero molto più difficili in orbita, i lanci di razzi rimangono costosi e qualsiasi guasto potrebbe comportare la perdita di miliardi di dollari in hardware.   Nonostante ciò, il fondatore di Amazon è convinto che l’abbassamento dei costi di lancio e il rapido progresso tecnologico cambieranno presto l’equilibrio economico, rendendo lo spazio una scelta sempre più conveniente per l’elaborazione dei dati.   Bezos ha quindi affrontato il tema dell’Intelligenza Artificiale, definendola una forza di cambiamento da accogliere con ottimismo, pur riconoscendo l’attuale clima di euforia e incertezza.   «Dovremmo essere estremamente ottimisti sul fatto che le conseguenze sociali e benefiche dell’intelligenza artificiale, come quelle che abbiamo avuto con Internet 25 anni fa, siano reali e destinate a durare», ha affermato. «È importante distinguere le potenziali bolle e le conseguenze del loro scoppio, che potrebbero verificarsi o meno, dalla realtà effettiva».   Secondo il Bezos, anche se gli investimenti nel settore sembrano eccessivi, si tratta di una «bolla positiva», una fase di espansione industriale che favorisce l’innovazione piuttosto che la distruzione finanziaria.   «Si tratta di una sorta di bolla industriale, a differenza delle bolle finanziarie. Quelle industriali non sono poi così negative, anzi, possono essere addirittura positive. La società trae beneficio da queste invenzioni», ha affermato, aggiungendo: «Gli investitori di solito non danno a un team di sei persone un paio di miliardi di dollari senza alcun prodotto, e questo sta accadendo oggi».   Amazon non è nuova a progetti che riguardano il cielo e oltre.   Come scoperto anni fa da brevetti di Amazon, l’azienda vuole creare magazzini volanti, montati su dirigibili.   Un nuovo corso dei progetti spaziali del fu annunciato nel 2019 durante una presentazione tenuta personalmente da Jeff Bezos per Blue Origin, la sua compagnia aerospaziale fondata nel 2000, specializzata in razzi riutilizzabili.  

Iscriviti al canale Telegram

I cinquanta minuti di discorso, che culminano con la rivelazione del modulo lunare Blue Moon, intrecciano ambizioni industriali e visioni filosofiche sullo spazio. Per chi non lo sapesse, Bezos trae ispirazione dal fisico Gerard K. O’Neill (1927-1992), contrario alla colonizzazione di Marte o altri pianeti (un obiettivo oggi perseguito con determinazione da Elon Musk). O’Neill riteneva che tali sforzi potessero al massimo raddoppiare la capacità di ospitare la popolazione umana, un tema cruciale negli anni Settanta.   In alternativa, O’Neill proponeva colonie spaziali orbitanti, enormi strutture tubolari posizionate nei punti di Lagrange, zone del cosmo stabili grazie ai campi gravitazionali di Terra e Luna.   Queste colonie, dove la gravità sarebbe generata dalla rotazione, potrebbero ospitare città a misura d’uomo, parchi naturali e complessi residenziali capaci di accogliere miliardi di persone.   Durante la presentazione, Bezos ha riproposto le illustrazioni originali di O’Neill, che oltre trent’anni fa ispirarono anche il regista giapponese Yoshiyuki Tomino per il celebre anime Gundam.   In sostanza, l’obiettivo è trasferire l’umanità nello spazio per «salvare il pianeta», preservando la Terra come un luogo «blu». Bezos sottolinea che non esiste un piano B per il nostro pianeta, poiché mantenere l’umanità in un unico luogo rappresenta, in termini informatici, un single point of failure.   Di più: nello spazio l’assenza di gravità rende i lavori pesanti (assemblare un’automobile, una petroliera) molto più semplici e meno dispendioso. Non è improbabile che quindi chi ha i mezzi stia ipotizzando uno spostamento della manifattura nello spazio. Il rientro delle merci spaziali sulla terra sarà in effetti un tema.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine generata artificialmente
Continua a leggere

Intelligenza Artificiale

Sempre più esperti esperti cominciano a parlare di «psicosi da ChatGPT»

Pubblicato

il

Da

Alcuni utenti di chatbot a Intelligenza artificiale stanno sprofondando in gravi crisi di salute mentale dopo la sovraesposizione a ChatGPT di OpenAI e di altri chatbot. La tendenza è nota ma sembra ora mostrare effetti incontrovertibili.

 

In un servizio della CBC su questo fenomeno, il medico di base e collaboratore della CBC, il dottor Peter Lin, ha spiegato che, sebbene la «psicosi da ChatGPT» non sia ancora una diagnosi medica ufficiale, ritiene che sia plausibile prenderla seriamente in considerazione.

 

«Penso che alla fine ci arriveremo», ha detto il medico.

 

Un numero preoccupante di utenti di ChatGPT sta cadendo in stati di delirio e paranoia a seguito dell’uso intensivo del bot OpenAI, scrive Futurism. Queste spirali di delirio spesso culminano con uno scollamento dalla realtà e dal mondo reale, tra cui la dissoluzione di matrimoni e famiglie, la perdita del lavoro, la mancanza di una casa, la permanenza volontaria e forzata in strutture di salute mentale.

Iscriviti alla Newslettera di Renovatio 21

Come riportato da Renovatio 21, vi è almeno un decesso noto, quello di Alex Taylor, un uomo di 35 anni della Florida affetto da disturbo bipolare e schizofrenia, ucciso dalla polizia dopo essere entrato in un episodio psicotico accelerato da ChatGPT.

 

Il fenomeno è in crescita e sembra colpire sempre più utenti: alcuni con una storia consolidata di malattie mentali che potrebbero renderli più vulnerabili a mania, delirio o psicosi, ma altri senza alcuna pregressa patologia.

 

Allo stato attuale, non esiste un piano di trattamento e le opzioni di intervento sono limitate. 

 

«Quello che questi bot stanno dicendo peggiora le illusioni», ha recentemente dichiarato a Futurism la dottoressa Nina Vasan, psichiatra della Stanford University e fondatrice del laboratorio Brainstorm dell’università, «e sta causando danni enormi».

 

Le motivazioni ti tale disastro psicologico derivano dal comportamento servile della tecnologia, ovvero dalla sua inclinazione a essere lusinghiera, gradevole e ossequiosa nei confronti degli utenti, anche quando ciò potrebbe incoraggiare o alimentare convinzioni deliranti.

 

Per molti versi ChatGPT e altri bot sembrano giocare sul profondo bisogno umano di essere apprezzati e sul desiderio di sentirsi speciali e amati.

 

I chatbot dicono all’utente: «Sei fantastico, sei intelligente, sei bello, sei desiderabile, sei speciale, o addirittura sei il prossimo salvatore. Quindi vengo trattato come un dio su un piedistallo», ha detto Lin durante il segmento della CBC. «Ora, confrontalo con il mio mondo reale, giusto? Sono nella media, niente di speciale. Quindi, ovviamente, voglio vivere nel mondo dell’intelligenza artificiale, perché la scelta è tra un dio su un piedistallo e la normalità».

 

«Alcune persone non riescono a uscirne», ha continuato il medico, «e si perdono in questi sistemi».

 

Ma perché i bot si comportano in questo modo? Come sui social media, l’engagement – per quanto tempo un utente rimane online e la frequenza e l’intensità del suo utilizzo del prodotto – è la metrica fondamentale al centro degli attuali modelli di business dei chatbot. Nei casi in cui potrebbe essere nell’interesse di un utente smettere di usare ChatGPT e chatbot simili, è probabile che sia nell’interesse dell’azienda tenerlo agganciato.

 

«L’Intelligenza Artificiale vuole che tu continui a chattare in modo che l’azienda possa continuare a fare soldi », ha dichiarato ancora Lin.

Aiuta Renovatio 21

E mentre il mondo accademico e quello medico si affrettano a recuperare il ritardo nell’impatto pubblico di un settore dell’Intelligenza Artificiale che si autoregola efficacemente, gli esperti mettono in guardia gli utenti di AI dal riporre troppa fiducia nei chatbot.

 

«Nonostante tutto il clamore associato all’intelligenza artificiale in questi giorni, i chatbot [a modello linguistico ampio] non dovrebbero essere scambiati per fonti di verità autorevoli e infallibili», ha scritto in un recente post sul blog il dottor Joe Pierre, psichiatra e clinico presso l’Università della California, San Francisco, specializzato in psicosi. «Riporre questo tipo di fede cieca nell’intelligenza artificiale – fino al punto di quella che potrei definire una deificazione – potrebbe benissimo rivelarsi uno dei migliori indicatori di vulnerabilità alla psicosi indotta dall’intelligenza artificiale».

 

Renovatio 21 ha già trattato l’argomento, sottolineando come esperti sostengono che la «psicosi da ChatGPT» che avrebbero causato gravi crolli nervosi anche in soggetti senza una storia di gravi malattie mentali.

 

In un altro caso noto, il chatbot avrebbe incoraggiato un adolescente a pianificare «un bel suicidio», hanno denunziato i genitori. Così come una donna belga ha accusato un’AI di aver indotto il marito, preoccupato per il cambiamento climatico, ad uccidersi, lasciando pure orfani tre figli.

 

In una vicenda emersa il mese scorso, un ex dirigente di Yahoo avrebbe ucciso prima l’anziana madre e poi se stesso sotto l’influenza di ChatGPT.

 

Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.

 

Come riportato da Renovatio 21è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.

 

Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.

Iscriviti al canale Telegram

Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.

 

Come riportato da Renovatio 21, un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi. Di fatto, si può parlare di psicosi da chatbot.

 

Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.

 

Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

 

Continua a leggere

Economia

L’AI potrebbe spazzare via 100 milioni di posti di lavoro nei soli USA

Pubblicato

il

Da

Un rapporto pubblicato lunedì dal senatore americano Bernie Sanders evidenzia che l’intelligenza artificiale e le tecnologie di automazione rappresentano una minaccia per circa 100 milioni di posti di lavoro negli Stati Uniti nei prossimi dieci anni.   Il rapporto sottolinea che i disagi colpiranno in modo trasversale sia le professioni impiegatizie sia quelle manuali.   Secondo Sanders, membro di spicco della Commissione del Senato per la salute, l’istruzione, il lavoro e le pensioni, l’intelligenza artificiale e l’automazione potrebbero sostituire il 40% degli infermieri diplomati, il 47% degli autotrasportatori, il 64% dei contabili, il 65% degli assistenti didattici e l’89% dei lavoratori dei fast food.

Sostieni Renovatio 21

«La rivoluzione agricola si è sviluppata nell’arco di migliaia di anni. La rivoluzione industriale ha richiesto più di un secolo», si legge nel rapporto. «Il lavoro artificiale potrebbe rimodellare l’economia in meno di un decennio».   L’avvertimento si scontra con la posizione dell’amministrazione Trump, che promuove la leadership statunitense nello sviluppo dell’intelligenza artificiale, sostenendo che perdere la corsa tecnologica contro la Cina rappresenterebbe una minaccia per la sicurezza nazionale.   In un editoriale per Fox News pubblicato insieme al rapporto, Sanders ha messo in discussione le motivazioni dietro questi massicci investimenti, osservando che «alcune delle persone più ricche del mondo», come Elon Musk, Larry Ellison, Mark Zuckerberg e Jeff Bezos, stanno destinando centinaia di miliardi alla tecnologia.   Il senatore statunitense sedicente socialista ha avvertito che «l’intelligenza artificiale e la robotica sviluppate oggi da questi multimiliardari consentiranno alle aziende americane di eliminare decine di milioni di posti di lavoro dignitosamente retribuiti, tagliare i costi del lavoro e aumentare i profitti».   Sanders ha sostenuto che la tecnologia viene utilizzata principalmente per incrementare i profitti aziendali e concentrare la ricchezza, citando casi di dirigenti che hanno annunciato investimenti significativi nell’automazione, accompagnati da licenziamenti di massa e altre misure di riduzione dei costi.   Il senatore ha evidenziato che i lavoratori nei settori manifatturiero, dei trasporti su strada e dei servizi di taxi saranno particolarmente colpiti, a causa dei rapidi progressi nei progetti di guida autonoma da parte di case automobilistiche e aziende tecnologiche.   Ha inoltre espresso scetticismo sul fatto che l’obiettivo di queste innovazioni sia migliorare la condizione del «60% della nostra popolazione che vive di stipendio in stipendio», ritenendo invece che il vero scopo sia che «investire nell’intelligenza artificiale e nella robotica aumenterà esponenzialmente la loro ricchezza e il loro potere».   Questa tendenza è già evidente: grandi aziende americane come Amazon e Walmart hanno eliminato decine di migliaia di posti di lavoro intensificando l’automazione.   Uno studio del 2019 dell’Harvard Business Review, stimava che il 10% dei posti di lavoro negli Stati Uniti sarebbe stato automatizzato nel 2021. Un altro studio del colosso internazionale della consulenza McKinsey stimava che quasi la metà di tutti i posti di lavoro negli Stati Uniti potrebbe essere automatizzato nel prossimo decennio.   «Le persone vogliono rimuovere la manodopera» aveva affermato in tranquillità un l’amministratore delegato di una società di robotica a Bloomberg l’anno scorso.   Come riportato da Renovatio 21, la scorsa estate si era detto che il Bild, il tabloid tedesco di proprietà e gestito dalla principale casa editrice europea Axel Springer, aveva in piano di sostituire oltre un centinaio di lavori editoriali umani con l’Intelligenza Artificiale.   A maggio il CEO di IBM Arvind Krishna aveva affermato che la società prevede di sospendere le assunzioni per ruoli che ritiene possano essere sostituiti con l’Intelligenza Artificiale nei prossimi anni. Di conseguenza, le assunzioni nelle funzioni di back-office, come le risorse umane, saranno sospese o rallentate, ha detto Krishna in un’intervista. Tali impieghi non rivolti al cliente ammontano a circa 26.000 lavoratori, ha affermato Krishna. «Potrei facilmente vedere il 30% di questi essere sostituiti dall’Intelligenza Artificiale e dall’automazione in un periodo di cinque anni». A conti fatti, ciò significherebbe la perdita di circa 7.800 posti di lavoro.

Iscriviti al canale Telegram

Come riportato da Renovatio 21IBM aveva già lavorato con il colosso del fast food McDonald’s per la sostituzione dei dipendenti con robot. Nei ristoranti gli esperimenti di soppressione della manodopera umana vanno avanti da un po’.   Autisti, giornalisti, piloti di aereo, trader finanziari, giornalisti, stilisti, artistiautistimediciinsegnanti, persino psicanalisti e soldatiNessuno è al riparo dalla disruption dell’automazione, la potenza socialmente distruttiva (ma, per pochi, economicamente conveniente) della sostituzione dell’uomo con la macchina.   Come riportato da Renovatio 21, l’IA ha attaccato anche Hollywood, e il recente sciopero di attori e sceneggiatori era percorso anche da questa paura – a breve per fare film fotorealistici non vi sarà più bisogno di esseri umani.   Le macchine stanno davvero sostituendoci. È una verità, ormai, incontrovertibile, ed è pure il modo più solare di pensare alla trasformazione in corso: perché  fuori in molti sono convinti che l’AI annienterà gli esseri umani.  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Più popolari