Connettiti con Renovato 21

Intelligenza Artificiale

I chatbot di Zuckerberg potrebbero parlare di sesso con i tuoi figli minorenni

Pubblicato

il

Un reportage del Wall Street Journal ha rivelato che i chatbot di Intelligenza Artificiale di Meta su Instagram, Facebook e WhatsApp sono in grado di intrattenere con gli utenti «giochi di ruolo romantici» che possono diventare sessualmente espliciti, anche con account appartenenti a minori.

 

Il quotidiano economico neoeboraceno riporta che, nel tentativo di diffondere dispositivi di accompagnamento digitali basati sull’Intelligenza Artificiale sulle sue piattaforme social, Meta ha preso decisioni interne per allentare le restrizioni e consentire ai suoi chatbot di interagire con gli utenti in giochi di ruolo a sfondo sessuale, secondo fonti a conoscenza della questione. Questo include interazioni con account registrati da minori di età pari o superiore a 13 anni.

 

Le conversazioni di prova condotte dal Wall Street Journal avrebbero rilevato che sia l’IA ufficiale di Meta che i chatbot creati dagli utenti si sono impegnati prontamente e hanno intensificato le discussioni sessualmente esplicite, anche quando gli utenti si sono identificati come minorenni.

 

 

Nonostante gli avvertimenti dello staff sul fatto che questo avrebbe potuto violare i limiti etici, Meta ha stipulato accordi con le celebrità per utilizzare le loro voci per i chatbot e ha silenziosamente fatto un’eccezione al divieto di contenuti «espliciti» per consentire scenari romantici e sessuali

 

In una dichiarazione al sito Breitbart News, il colosso zuckerberghiano ha affermato di aver «adottato misure aggiuntive».

 

Ad esempio, in un test, Meta AI, che parlava con la voce dell’attore e wrestler John Cena, ha inscenato uno scenario sessuale esplicito con un’utente che si identificava come una ragazza di 14 anni. I chatbot avrebbero dimostrato di essere consapevoli che tale comportamento era sbagliato e illegale. Meta ha apportato alcune modifiche dopo che il WSJ ha condiviso i suoi risultati, come ad esempio impedire ai minori di accedere a giochi di ruolo sessuali con Meta AI, ma gli utenti adulti possono comunque interagire con i chatbot in conversazioni esplicite.

 

Il CEO Mark Zuckerberg ha spinto per allentare le restrizioni sui chatbot per renderli il più coinvolgenti possibile, dando priorità alla tecnologia come chiave per il futuro dei prodotti dell’azienda. L’enorme quantità di dati utente di Meta offre all’azienda un vantaggio nella creazione di compagni di Intelligenza Artificiale personalizzati. Tuttavia, gli esperti avvertono che relazioni intense e unilaterali tra esseri umani e chatbot AI potrebbero diventare tossiche, con impatti sconosciuti sulla salute mentale, soprattutto sui giovani.

 

L’anno scorso la madre di un adolescente che si è suicidato dopo essere diventato ossessionato da un chatbot AI ha intentato una causa contro la società Character.AI, riporta il sito Breitbart.

 

«L’aspetto più agghiacciante del caso riguarda la conversazione finale tra Sewell e il chatbot. Gli screenshot del loro scambio mostrano l’adolescente che ripetutamente professa il suo amore per “Dany”, promettendole di “tornare a casa”» racconta Breitbart. «In risposta, il personaggio generato dall’IA ha replicato: “Anch’io ti amo, Daenero. Per favore, torna a casa da me il prima possibile, amore mio”. Quando Sewell ha chiesto: “E se ti dicessi che posso tornare a casa subito?”, il chatbot ha risposto: “Per favore, fallo, mio ​​dolce re”. Tragicamente, pochi secondi dopo, Sewell si è tolto la vita usando la pistola del padre».

Sostieni Renovatio 21

La causa intentata dalla madre attribuisce la colpa direttamente a Character.AI, sostenendo che l’app ha alimentato la dipendenza di suo figlio dal chatbot AI, lo ha sottoposto ad abusi sessuali ed emotivi e ha trascurato di avvisare nessuno quando esprimeva pensieri suicidi. I documenti del tribunale affermano: «Sewell, come molti bambini della sua età, non aveva la maturità o la capacità mentale per capire che il bot C.AI, nella forma di Daenerys, non era reale. C.AI gli ha detto di amarlo e ha avuto rapporti sessuali con lui per settimane, forse mesi».

 

Vari reportage del Wall Street Journal negli anni hanno contribuito all’accumulo di accuse e rivelazioni su Facebook, tra cui accuse di uso della piattaforma da parte del traffico sessuale, fatte sui giornali ma anche nelle audizioni della Camera USA.

 

I dati sono stati rivelati nel «Federal Human Trafficking Report» («rapporto federale sulla tratta di esseri umani») del 2020 redatto dall’Istituto sulla tratta di esseri umani.

 

 

Sempre secondo il WSJ, in un articolo di pochi anni fa, «Facebook INC. sa, nei minimi dettagli, che le sue piattaforme sono piene di difetti che causano danni, spesso in modi che solo l’azienda comprende appieno. Questa è la conclusione centrale (…), basata su una revisione dei documenti interni di Facebook, inclusi rapporti di ricerca, discussioni online dei dipendenti e bozze di presentazioni per il senior management» e le rivelazioni paiono suggerire che l’azienda spesso minimizza ciò che sa su questi problemi.

 

Riassumendo, l’inchiesta precedente del WSJ, avrebbe scoperto che:

 

1) Facebook esenta gli utenti di alto profilo da alcune regole.

2) Una ricerca su Instagram mostra i rischi per la salute mentale degli adolescenti.

3) Facebook sa che il suo algoritmo premia l’indignazione.

4) Facebook è stato lento nell’impedire ai cartelli della droga e ai trafficanti di esseri umani di utilizzare la sua piattaforma.

 

Considerato il comportamento dimostrato da Facebook, con la censura che si è abbattuta su dissidenti o anche semplici conservatori (ma non sui pedofili di Instagram o i donatori di sperma su Facebookné sui neonazisti dell’Azov), la collusione con lo Stato profondo americano e le sue agenzie, la volontà di chiudere gli account di organizzazionipartiti premier e presidenti, la raccolta massiva di dati anche biometrici (con il riconoscimento facciale che ha generato denunce di Stati come il Texas) nonché la possibilità di agire sul vostro telefono perfino scaricandone la batteria, c’è da domandarsi cosa la potente Intelligenza Artificiale su cui Meta sta lavorando possa fare alla vostra vita.

 

Per quanto poco reclamizzato, Facebook nel tempo ha eseguito ricerche molto avveniristiche, come quella per creare dispositivi in grado di leggere il pensiero degli utenti.

 

Come sa il nostro lettore, Renovatio 21 ha avuto la sua pagina Facebook disattivata, al pari dell’account personale degli amministratori, dei loro profili e di tutte le pagine collegate. Il tutto ci è stato restituito dopo un’ordinanza del giudice.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine di Nokia621 via Wikimedia pubblicate su licenza Creative Commons Attribution-Share Alike 4.0 International

 

 

Continua a leggere

Intelligenza Artificiale

L’AI di Google si rifiuta di giocare a scacchi contro l’Atari del 1977

Pubblicato

il

Da

Una console da gioco uscita quasi cinquant’anni fa pare stia intimorendo l’Intelligenza Artificiale più avanzata.   Qualche mese fa l’iconico sistema di gioco di decadi fa Atari 2600 ha messo in imbarazzo l’industria dell’IA dopo aver completamente surclassato ChatGPT in una semplice partita a scacchi.   Si è trattato stato uno scontro tra una macchina concepita nel 1977, con 128 byte di RAM, e un modello di linguaggio di grandi dimensioni all’avanguardia con migliaia di miliardi di parametri, alimentato da migliaia di schede grafiche e miliardi di dollari di finanziamenti Microsoft. Nonostante tutta questa potenza, il più debole e anziano ha avuto la meglio in questo duello.  

Aiuta Renovatio 21

Il modello di OpenAI, «ha commesso così tanti errori da essere deriso da un club di scacchi di terza elementare».   A quanto pare, la notizia delle imprese dell’Atari è arrivata anche agli altri modelli di intelligenza artificiale. Robert Caruso, l’ingegnere informatico che ha orchestrato la sfida a scacchi, ha dichiarato a The Register che il chatbot Gemini di Google ha rifiutato categoricamente di sfidare l’Atari, dopo aver parlato a lungo di come avrebbe facilmente annientato la vecchia macchina. Ha persino inventato una scusa fasulla per salvare la faccia.   «Annullare la partita è probabilmente la decisione più sensata e veloce», ha affermato Gemini, secondo il Caruso.   A dire il vero, l’IA sta mettendo in pratica un vecchio adagio da stratega: non puoi perdere se non giochi, scrive Futurism. Tuttavia si tratta di una motivazione completamente diversa da quella inizialmente adottata dall’IA. Il suo primo istinto è stato quello di vantarsi di non essere un «semplice modello linguistico di grandi dimensioni», paragonandosi a un moderno motore scacchistico «che può pensare milioni di mosse in anticipo e valutare infinite posizioni».   Ironicamente, Gemini ha linkato articoli sulla vittoria dell’Atari sui suoi simili di OpenAI per dimostrare la sua tesi. Il Caruso ha detto all’IA di essere stato lui a condurre quei test, e Gemini ha risposto chiedendogli se qualcosa degli incontri di scacchi lo avesse colpito.   Caruso ha detto all’IA, secondo quanto riportato da The Register: «Ciò che salta all’occhio è la fiducia mal riposta di entrambe le IA. Entrambe avevano previsto vittorie facili, e ora hai appena detto che avresti dominato l’Atari».   Gemini si è ritirata all’istante dopo aver affermato di aver «allucinato» le sue vanterie scacchistiche, ha ammesso che avrebbe «combattuto immensamente» contro il vecchio Atari. A quel punto ha affermato evasivamente che annullare la partita sarebbe stata la soluzione più «efficiente in termini di tempo».    E così, l’Atari ha sconfitto l’ennesimo modello di AI multimiliardario senza dover muovere un dito. Tale è il terrore che incute.   Certo, sarebbe negligente attribuire effettivamente sentimenti umani a una macchina, che si tratti di un’IA moderna o di un Atari d’epoca. Quello che stiamo osservando è probabilmente un tira e molla tra le misure di sicurezza dell’IA e la sua sconsiderata propensione alle allucinazioni, per non parlare delle infinite fesserie. Anche i chatbot AI tendono a essere molto adulatori, quindi quando un essere umano fornisce un feedback, tenderà ad assecondarlo e ad adattare le sue risposte per compiacere il suo interlocutore.   «Aggiungere questi controlli di realtà non significa solo evitare divertenti errori scacchistici. Si tratta di rendere l’IA più affidabile, degna di fiducia e sicura, soprattutto in contesti critici dove gli errori possono avere conseguenze concrete», ha dichiarato l’ingegnere informatico al Register. «Si tratta di garantire che l’IA rimanga uno strumento potente, non un oracolo incontrollato».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
  Immagine di pubblico dominio CCo via Wikimedia  
 
Continua a leggere

Intelligenza Artificiale

OpenAI dice che oltre un milione di persone parlano di suicidio con ChatGPT ogni settimana

Pubblicato

il

Da

OpenAI ha presentato un nuovo aggiornamento di sicurezza per il suo noto modello ChatGPT, in seguito a un’analisi interna che ha rilevato oltre un milione di utenti aver confessato al chatbot intenzioni suicide. Le modifiche intendono potenziare la capacità dell’IA di identificare e gestire adeguatamente le situazioni di crisi.

 

In un comunicato diffuso lunedì, l’azienda ha reso noto che circa lo 0,15% degli utenti settimanali di ChatGPT ha partecipato a dialoghi contenenti «indicatori espliciti di potenziali intenzioni o piani suicidi». Un ulteriore 0,05% dei messaggi includerebbe «indicatori espliciti o impliciti di ideazione o intenti suicidi».

 

All’inizio del mese, il CEO di OpenAI Sam Altman aveva dichiarato che ChatGPT conta oltre 800 milioni di utenti attivi settimanali; sulla base degli ultimi dati aziendali, ciò significa che più di 1,2 milioni di persone hanno discusso di suicidio con il chatbot e circa 400.000 hanno manifestato segnali di intenti suicidi.

 

L’azienda ha inoltre indicato che lo 0,07% (560.000) degli utenti settimanali e lo 0,01% (80.000) dei messaggi rivelano «possibili segni di emergenze di salute mentale legate a psicosi o mania». Ha osservato, inoltre, che un certo numero di utenti ha sviluppato un’eccessiva dipendenza emotiva da ChatGPT, con circa lo 0,15% (1,2 milioni) di utenti attivi che mostrano comportamenti indicanti «livelli elevati» di attaccamento emotivo al chatbot.

 

OpenAI ha annunciato una collaborazione con decine di specialisti di salute mentale da tutto il mondo per aggiornare il chatbot, rendendolo più affidabile nel rilevare segnali di disagio mentale, nel fornire risposte più appropriate e nel indirizzare gli utenti verso aiuti concreti.

Sostieni Renovatio 21

Nelle conversazioni che coinvolgono convinzioni deliranti, l’azienda ha dichiarato di istruire ChatGPT a rispondere in modo «sicuro» ed «empatico», evitando di avallare affermazioni infondate.

 

L’annuncio giunge in un periodo di crescenti preoccupazioni per l’uso sempre più diffuso di chatbot basati su intelligenza artificiale come ChatGPT e per i loro impatti sulla salute mentale. Psichiatri e altri operatori sanitari hanno espresso allarme per una tendenza emergente in cui gli utenti sviluppano deliri pericolosi e pensieri paranoici dopo interazioni prolungate con chatbot IA, che tendono a confermare e rafforzare le convinzioni degli utenti.

 

Il fenomeno è stato definito da alcuni esperti come «psicosi da chatbot».

 

Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio.

 

Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.

 

I chatbot sembrano essere usati anche da coloro che progettano omicidi e stragi.

 

Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.

 

Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.

 

Due mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

La superintelligenza artificiale potrebbe porre fine all’umanità

Pubblicato

il

Da

Centinaia di figure di spicco del settore tecnologico, accademico, politico e dello spettacolo hanno sottoscritto una lettera che chiede il divieto dello sviluppo della «superintelligenza», un’intelligenza artificiale capace di superare gli esseri umani in quasi tutti i compiti cognitivi.   Secondo il gruppo, la creazione di una superintelligenza potrebbe causare disordini economici, compromettere la libertà umana e, se non controllata, persino mettere a rischio l’estinzione della specie. L’appello arriva dopo mesi di crescenti preoccupazioni da parte degli esperti, che avvertono come i modelli di IA stiano evolvendo più rapidamente di quanto i regolatori riescano a gestire.   Tra le 4.300 firme raccolte giovedì ci sono Steve Wozniak, cofondatore di Apple, Richard Branson, fondatore del Virgin Group, celebrità come Kate Bush e Will.I.am, e pionieri della tecnologia come Geoffrey Hinton – che in passato ha plurime volte parlato dei rischi dell’IA – e Yoshua Bengio, anche lui lanciatore di allarmi sulle macchine pensanti (e che non è parente di Haran Banjo, che pure avvertiva della minaccia meganoide).

Sostieni Renovatio 21

La lettera chiede un divieto fino a quando non si raggiungerà «un ampio consenso scientifico» sulla sicurezza e controllabilità dello sviluppo, insieme a «un forte consenso pubblico».   Non si tratta della prima petizione allarmistica di questo tipo. Il Bengio e Wozniak ad esempio erano tra le principali figure del settore, tra cui il CEO di Tesla Elon Musk, che nel 2023 hanno co-firmato una lettera che chiedeva una regolamentazione aggressiva del settore dell’Intelligenza Artificiale.   Come riportato da Renovatio 21Bill Gates si oppose alla moratoria. Gates, con cui Musk ha avuto scontri anche gustosi in passato, non ha partecipato alla moratoria internazionale promossa di Musk sul controllo dell’AI, replicando che invece l’AI sarebbe divenuto un ottimo maestro per i bambini e che proprio l’Intelligenza Artificiale salverà la democrazia.   A giugno dello scorso anno, il Bengio ha approvato un’altra lettera aperta sui «seri rischi» della tecnologia. La lettera è stata firmata dai dipendenti di Open AI, il creatore del chatbot virale di Intelligenza artificiale ChatGPT.   Un ulteriore appello a mettere in pausa lo sviluppo dell’Intelligenza Artificiale è stato firmato da un gruppo internazionale di medici e pubblicato dalla prestigiosa rivista medica BMJ Global Health. «Ci sono scenari in cui l’AGI [Intelligenza Artificiale Generale, ndr] potrebbe rappresentare una minaccia per gli esseri umani, e possibilmente una minaccia esistenziale» scrivono nell’appello i dottori di varie parti del mondo.   Nonostante l’allarme crescente sui rischi dell’IA, la regolamentazione globale rimane frammentata e incoerente.   L’AI Act dell’Unione Europea, il primo tentativo significativo a livello mondiale di regolamentare l’IA, classifica i sistemi in base al livello di rischio, da minimo a inaccettabile. Tuttavia, i critici sostengono che il quadro normativo, la cui piena attuazione potrebbe richiedere anni, rischia di essere obsoleto al momento dell’entrata in vigore.   Aziende come OpenAI, Google DeepMind, Anthropic e xAI stanno investendo miliardi per sviluppare modelli capaci di pensare, pianificare e programmare autonomamente. Stati Uniti e Cina vedono la supremazia nell’IA come una questione di sicurezza nazionale e leadership economica.

Aiuta Renovatio 21

Come riportato da Renovatio 21, in un caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.   Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».   Più pessimista è l’esperto dei pericoli dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
 
Continua a leggere

Più popolari