Connettiti con Renovato 21

Intelligenza Artificiale

Robocani a Gaza

Pubblicato

il

Le forze di difesa israeliane stanno utilizzando robocani nella loro operazione a Gaza. Lo ha riportato nel corso del mese il quotidiano Haaretz.

 

Secondo quanto riportato, durante le ostilità nell’enclave palestinese, l’esercito israeliano ha condotto test con il cane robot Vision 60, il mini-robot Rooster e i bulldozer D9 senza pilota. Non si tratterebbe della prima volta che l’esercito israeliano utilizza robot nelle sue operazioni, tuttavia a Gaza si sono avute esperienze nel controllo nei combattimenti di strada e nelle operazioni di ricognizione dei tunnel.

 

Tra le attività di routine svolte dai robotici quadrupedi vi è la sorveglianza di edifici e tunnel, nonché l’ispezione del terreno prima dell’arrivo delle forze di occupazione israeliane.

 

In precedenza, i militari utilizzavano cani biologici con telecamere attaccate. Tuttavia, molti animali sono già rimasti feriti nel conflitto.

 

Notizie dell’introduzione di cinodroidi nel conflitto erano stati riportati dalla stampa mediorientale ancora l’anno scorso.

 

Sostieni Renovatio 21

Rispetto al classico fido fatto di carne e pelo il robocane presenta alcuni svantaggi, come il costo elevato, il peso di oltre 50 chilogrammi e un tempo di funzionamento limitato a 3 ore e 10 chilometri.

 

È il caso, ad esempio, dei cani robot Vision 60, prodotti dall’azienda americana Ghost Robotics, che li vende a circa 165.000 dollari cadauno.

 

Gaza diviene così la prima guerra robotica, con l’uso di automi militari dispiegati sul campo di battaglia.

 

I cani robot di Ghost Robotics esplorano le aree sopra e sotto terra e sono altamente mobili e agili. I robot possono arrampicarsi su cumuli di terra, sabbia e mattoni, camminare attraverso pozzanghere profonde e persino galleggiare sulla loro superficie. Nel caso in cui si ribaltino, sono programmati per rimettersi in piedi e continuare la missione come se nulla fosse successo.

 

Tali robot cinoidi possono operare sottoterra e, a differenza di altri cani robot controllati a distanza, i cani Ghost Robotics sono semi-autonomi e possono moderare la propria velocità di movimento e fermarsi senza coinvolgimento umano, pur richiedendo una comunicazione continua con il proprio operatore.

 

Secondo fonti straniere, i cani robot sono dotati di diversi sensori visivi che consentono loro di identificare oggetti e persone di notte o in condizioni di scarsa visibilità, nonché di un dispositivo che consente il collegamento di sensori standard, come quelli laser radar (LIDAR), che consente la mappatura 3D dell’ambiente.

 

Si ritiene che tali caratteristiche consentano loro di individuare le cariche esplosive, salvare vite umane e prevenire lesioni. La loro stabilità in varie situazioni come scale e pendii ripidi è migliore di quella di altri robot a cingoli che si ritiene siano già in servizio dell’esercito dello Stato Ebraico.

 

I robocani sono in servizio con l’esercito americano dal 2020, svolgendo principalmente compiti come sorvegliare e proteggere le basi militari.

 

Durante un’esercitazione condotta in Nevada, i robot di Ghost Robotics hanno inserito obiettivi in ​​un sistema di Intelligence per la gestione della guerra, e in un’altra esercitazione condotta dall’unità di comando del fronte interno degli Stati Uniti nel Nord Dakota, i robot hanno simulato l’attività durante un attacco nucleare/biologico/chimico, riporta il sito Globes.

 

Ghost Robotics ha anche dimostrato che il suo automa militare a quattro zampe è in grado di smaltire ordigni esplosivi, in collaborazione con un’azienda chiamata Zero Point, specializzata nella produzione di sistemi per neutralizzare gli esplosivi.

 

Jiren Parikh, CEO di Ghost Robotics, ha dichiarato in un’intervista di due anni fa che la maggior parte dei clienti «utilizza il cane robotico per missioni di Intelligence, acquisizione di obiettivi, ricognizione sotterranea e di superficie in luoghi difficili, mappatura, sicurezza contro ordigni esplosivi, implementazione di infrastrutture wireless e sicurezza. di strutture e di fatto per qualsiasi uso dove siano richiesti. Questi robot sono migliori di quelli che si muovono su cingoli o su ruote».

 

In una conferenza tenutasi a Washingtonnel 2021, Ghost Robotics aveva a presentato il suo cane robot armato di mitragliatore con mirino ottico avanzato, telecamera termica per visione notturna e capacità di sparare fino a una distanza di 1.200 metri. Il robocane armato divenne il protagonista della conferenza, suscitando tuttavia polemiche pubbliche. L’evento suscitò una disputa tra i produttori di robot e in ottobre la Boston Dynamics, la più grande e conosciuta azienda del settore, lanciò una petizione invitando tutti i produttori di robot a non armare i propri prodotti ma a concentrarsi invece su applicazioni salvavita e sulla manutenzione pace.

Iscriviti alla Newslettera di Renovatio 21

«L’installazione di armi su robot telecomandati o autonomi pone un nuovo tipo di pericolo per il pubblico e solleva questioni morali» dichiarò Boston Dynamics. Altre cinque società firmarono la petizione lanciata da Boston Dynamics ma Ghost Robotics, che tre anni fa è stata acquistata dal produttore di armi sudcoreano LIX per 245 milioni di dollari, non era tra queste. Anche Boston Dynamics è di proprietà coreana – la Hyundai – dopo essere passata anche per la proprietà di Google.

 

Al Forum militare di Mosca 2024 erano visibili robocani dotati di bazooka. Roboquadrupedi militari sono in produzione ovunque – pure in versione «telepatica».

 

Come visto in immagini scioccanti della scorsa primavera, i robocani abbiano pattugliato le strade di Shanghai durante il colossale lockdown della primavera 2022, dove per sorvegliare e punire i 26 milioni di abitanti usarono, oltre agli androidi quadrupedi, anche droni che volevano tra i palazzi ripetendo frasi come «contieni la sete di libertà del tuo spirito».

 

 

Pechino ha inoltre militarizzato modelli di robocane, portandoli sul sempre irrequieto confine himalayano con l’India, dove è schierato il robo-yak. Un video particolarmente inquietante mostra un robocane armato essere trasportato in cima ad un palazzo da un drone.

 

Aiuta Renovatio 21

La Cina, che ha mostrato schiere di robocani in grado di muoversi in sincrono, vuole l’implementazione militare dei robot killer già per la prossima guerra, è stato rivelato da un esperto ad un’udienza del 13 aprile 2023 della Commissione di revisione economica e di sicurezza USA-Cina.

 

Robocani sono utilizzati dagli USA ai confini con il Messico. Tuttavia vi è polemica: c’è chi ritiene che il loro uso spaventa gli immigrati spingendoli verso sentieri dove poi incontrano la morte.

 

Cani robotici sono in uso presso la polizia di Nuova York e di Los Angeles, mentre San Francisco ha persino preso in considerazione l’idea di consentire al suo dipartimento di polizia di utilizzare i robot dotati di forza letale in caso di emergenza.

 

Renovatio 21, oramai ribattezzabile come «Il Corriere del robocane» vista la mole di articoli sull’argomento, aveva parlato della militarizzazione dei robocani diversi anni fa.

 

Mesi fa robocani hanno fatto la loro comparsa anche a Genova, sia pure in quella che sembrava una tranquilla dimostrazione universitaria.

 

 

Come riportato Renovatio 21, robocagnoidi sono stati mandati in giro pure per la campagna umbra.

 

La comparsa dei quadrupedi automatici tra i boschi del lupo di San Francesco faceva parte del progetto Horizon 2020 «Natural Intelligence for Robotic Monitoring of Habitats» finanziato dall’Unione Europea con un budget totale di tre milioni di euro.

 

L’obiettivo dei cinoidi implementati in terra umbra sarebbe quello di riuscire a muoversi liberamente in mezzo alla natura cercando di camminare in tutti i tipi di terreno (sabbiosi, rocciosi, sentieri scoscesi) con il compito di vigilare l’ambiente.

 

Il progetto finanziato dall’Unione Europea è iniziato nel 2021 finirà nel 2024.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine di robocane presso una base americana; screenshot da YouTube

 

Continua a leggere

Intelligenza Artificiale

La superintelligenza artificiale potrebbe porre fine all’umanità

Pubblicato

il

Da

Centinaia di figure di spicco del settore tecnologico, accademico, politico e dello spettacolo hanno sottoscritto una lettera che chiede il divieto dello sviluppo della «superintelligenza», un’intelligenza artificiale capace di superare gli esseri umani in quasi tutti i compiti cognitivi.   Secondo il gruppo, la creazione di una superintelligenza potrebbe causare disordini economici, compromettere la libertà umana e, se non controllata, persino mettere a rischio l’estinzione della specie. L’appello arriva dopo mesi di crescenti preoccupazioni da parte degli esperti, che avvertono come i modelli di IA stiano evolvendo più rapidamente di quanto i regolatori riescano a gestire.   Tra le 4.300 firme raccolte giovedì ci sono Steve Wozniak, cofondatore di Apple, Richard Branson, fondatore del Virgin Group, celebrità come Kate Bush e Will.I.am, e pionieri della tecnologia come Geoffrey Hinton – che in passato ha plurime volte parlato dei rischi dell’IA – e Yoshua Bengio, anche lui lanciatore di allarmi sulle macchine pensanti (e che non è parente di Haran Banjo, che pure avvertiva della minaccia meganoide).

Sostieni Renovatio 21

La lettera chiede un divieto fino a quando non si raggiungerà «un ampio consenso scientifico» sulla sicurezza e controllabilità dello sviluppo, insieme a «un forte consenso pubblico».   Non si tratta della prima petizione allarmistica di questo tipo. Il Bengio e Wozniak ad esempio erano tra le principali figure del settore, tra cui il CEO di Tesla Elon Musk, che nel 2023 hanno co-firmato una lettera che chiedeva una regolamentazione aggressiva del settore dell’Intelligenza Artificiale.   Come riportato da Renovatio 21Bill Gates si oppose alla moratoria. Gates, con cui Musk ha avuto scontri anche gustosi in passato, non ha partecipato alla moratoria internazionale promossa di Musk sul controllo dell’AI, replicando che invece l’AI sarebbe divenuto un ottimo maestro per i bambini e che proprio l’Intelligenza Artificiale salverà la democrazia.   A giugno dello scorso anno, il Bengio ha approvato un’altra lettera aperta sui «seri rischi» della tecnologia. La lettera è stata firmata dai dipendenti di Open AI, il creatore del chatbot virale di Intelligenza artificiale ChatGPT.   Un ulteriore appello a mettere in pausa lo sviluppo dell’Intelligenza Artificiale è stato firmato da un gruppo internazionale di medici e pubblicato dalla prestigiosa rivista medica BMJ Global Health. «Ci sono scenari in cui l’AGI [Intelligenza Artificiale Generale, ndr] potrebbe rappresentare una minaccia per gli esseri umani, e possibilmente una minaccia esistenziale» scrivono nell’appello i dottori di varie parti del mondo.   Nonostante l’allarme crescente sui rischi dell’IA, la regolamentazione globale rimane frammentata e incoerente.   L’AI Act dell’Unione Europea, il primo tentativo significativo a livello mondiale di regolamentare l’IA, classifica i sistemi in base al livello di rischio, da minimo a inaccettabile. Tuttavia, i critici sostengono che il quadro normativo, la cui piena attuazione potrebbe richiedere anni, rischia di essere obsoleto al momento dell’entrata in vigore.   Aziende come OpenAI, Google DeepMind, Anthropic e xAI stanno investendo miliardi per sviluppare modelli capaci di pensare, pianificare e programmare autonomamente. Stati Uniti e Cina vedono la supremazia nell’IA come una questione di sicurezza nazionale e leadership economica.

Aiuta Renovatio 21

Come riportato da Renovatio 21, in un caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.   Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».   Più pessimista è l’esperto dei pericoli dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
 
Continua a leggere

Intelligenza Artificiale

Bezos vede data center nello spazio e prevede che la «bolla» dell’AI darà i suoi frutti come le dot-com

Pubblicato

il

Da

In una visione futuristica che sembra uscita da un romanzo di fantascienza, il fondatore ed executive chairman di Amazon, Jeff Bezos, ha previsto che entro i prossimi 10-20 anni verranno costruiti nello spazio data center «su scala gigawatt», alimentati da energia solare illimitata e destinati, nel tempo, a superare in prestazioni le loro controparti terrestri.

 

L’intervento di Bezos si è tenuto all’Italian Tech Week di Torino, dove l’imprenditore ha delineato quello che considera il prossimo grande salto tecnologico: l’orbital computing, ossia il calcolo in orbita. Un’evoluzione che, secondo lui, avrà un impatto paragonabile a quello dell’esplosione di Internet negli anni Novanta — con tutto il suo carico di entusiasmo, bolle speculative e inevitabili vincitori.

 

«Questi giganteschi centri di addestramento saranno meglio costruiti nello spazio, perché lì abbiamo energia solare, 24 ore su 24, 7 giorni su 7. Non ci sono nuvole, né pioggia, né maltempo», ha dichiarato Bezos in un’intervista pubblica con l’erede Agnelli John Elkann. «Saremo in grado di battere i costi dei data center terrestri nello spazio nei prossimi due decenni».

 

L’imprenditore americano ha spiegato che questa trasformazione rappresenta una tappa naturale nella migrazione dell’umanità verso infrastrutture spaziali. «È già successo con i satelliti meteorologici. È già successo con i satelliti per le comunicazioni. Il prossimo passo saranno i data center e poi altri tipi di produzione», ha affermato.

 


Iscriviti alla Newslettera di Renovatio 21

Il concetto di data center orbitali sta guadagnando consensi tra i giganti della tecnologia, preoccupati per l’enorme impatto ambientale delle strutture terrestri, che richiedono grandi quantità di elettricità e acqua per il raffreddamento dei server. In orbita, la disponibilità costante di energia solare e l’assenza di condizioni atmosferiche rendono lo spazio una prospettiva sempre più attraente, almeno sul piano teorico.

 

Bezos ha però riconosciuto che il percorso non sarà privo di ostacoli: manutenzione e aggiornamenti sarebbero molto più difficili in orbita, i lanci di razzi rimangono costosi e qualsiasi guasto potrebbe comportare la perdita di miliardi di dollari in hardware.

 

Nonostante ciò, il fondatore di Amazon è convinto che l’abbassamento dei costi di lancio e il rapido progresso tecnologico cambieranno presto l’equilibrio economico, rendendo lo spazio una scelta sempre più conveniente per l’elaborazione dei dati.

 

Bezos ha quindi affrontato il tema dell’Intelligenza Artificiale, definendola una forza di cambiamento da accogliere con ottimismo, pur riconoscendo l’attuale clima di euforia e incertezza.

 

«Dovremmo essere estremamente ottimisti sul fatto che le conseguenze sociali e benefiche dell’intelligenza artificiale, come quelle che abbiamo avuto con Internet 25 anni fa, siano reali e destinate a durare», ha affermato. «È importante distinguere le potenziali bolle e le conseguenze del loro scoppio, che potrebbero verificarsi o meno, dalla realtà effettiva».

 

Secondo il Bezos, anche se gli investimenti nel settore sembrano eccessivi, si tratta di una «bolla positiva», una fase di espansione industriale che favorisce l’innovazione piuttosto che la distruzione finanziaria.

 

«Si tratta di una sorta di bolla industriale, a differenza delle bolle finanziarie. Quelle industriali non sono poi così negative, anzi, possono essere addirittura positive. La società trae beneficio da queste invenzioni», ha affermato, aggiungendo: «Gli investitori di solito non danno a un team di sei persone un paio di miliardi di dollari senza alcun prodotto, e questo sta accadendo oggi».

 

Amazon non è nuova a progetti che riguardano il cielo e oltre.

 

Come scoperto anni fa da brevetti di Amazon, l’azienda vuole creare magazzini volanti, montati su dirigibili.

 

Un nuovo corso dei progetti spaziali del fu annunciato nel 2019 durante una presentazione tenuta personalmente da Jeff Bezos per Blue Origin, la sua compagnia aerospaziale fondata nel 2000, specializzata in razzi riutilizzabili.

 

Iscriviti al canale Telegram

I cinquanta minuti di discorso, che culminano con la rivelazione del modulo lunare Blue Moon, intrecciano ambizioni industriali e visioni filosofiche sullo spazio. Per chi non lo sapesse, Bezos trae ispirazione dal fisico Gerard K. O’Neill (1927-1992), contrario alla colonizzazione di Marte o altri pianeti (un obiettivo oggi perseguito con determinazione da Elon Musk). O’Neill riteneva che tali sforzi potessero al massimo raddoppiare la capacità di ospitare la popolazione umana, un tema cruciale negli anni Settanta.

 

In alternativa, O’Neill proponeva colonie spaziali orbitanti, enormi strutture tubolari posizionate nei punti di Lagrange, zone del cosmo stabili grazie ai campi gravitazionali di Terra e Luna.

 

Queste colonie, dove la gravità sarebbe generata dalla rotazione, potrebbero ospitare città a misura d’uomo, parchi naturali e complessi residenziali capaci di accogliere miliardi di persone.

 

Durante la presentazione, Bezos ha riproposto le illustrazioni originali di O’Neill, che oltre trent’anni fa ispirarono anche il regista giapponese Yoshiyuki Tomino per il celebre anime Gundam.

 

In sostanza, l’obiettivo è trasferire l’umanità nello spazio per «salvare il pianeta», preservando la Terra come un luogo «blu». Bezos sottolinea che non esiste un piano B per il nostro pianeta, poiché mantenere l’umanità in un unico luogo rappresenta, in termini informatici, un single point of failure.

 

Di più: nello spazio l’assenza di gravità rende i lavori pesanti (assemblare un’automobile, una petroliera) molto più semplici e meno dispendioso. Non è improbabile che quindi chi ha i mezzi stia ipotizzando uno spostamento della manifattura nello spazio. Il rientro delle merci spaziali sulla terra sarà in effetti un tema.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine generata artificialmente

Continua a leggere

Intelligenza Artificiale

Sempre più esperti esperti cominciano a parlare di «psicosi da ChatGPT»

Pubblicato

il

Da

Alcuni utenti di chatbot a Intelligenza artificiale stanno sprofondando in gravi crisi di salute mentale dopo la sovraesposizione a ChatGPT di OpenAI e di altri chatbot. La tendenza è nota ma sembra ora mostrare effetti incontrovertibili.   In un servizio della CBC su questo fenomeno, il medico di base e collaboratore della CBC, il dottor Peter Lin, ha spiegato che, sebbene la «psicosi da ChatGPT» non sia ancora una diagnosi medica ufficiale, ritiene che sia plausibile prenderla seriamente in considerazione.   «Penso che alla fine ci arriveremo», ha detto il medico.   Un numero preoccupante di utenti di ChatGPT sta cadendo in stati di delirio e paranoia a seguito dell’uso intensivo del bot OpenAI, scrive Futurism. Queste spirali di delirio spesso culminano con uno scollamento dalla realtà e dal mondo reale, tra cui la dissoluzione di matrimoni e famiglie, la perdita del lavoro, la mancanza di una casa, la permanenza volontaria e forzata in strutture di salute mentale.

Iscriviti alla Newslettera di Renovatio 21

Come riportato da Renovatio 21, vi è almeno un decesso noto, quello di Alex Taylor, un uomo di 35 anni della Florida affetto da disturbo bipolare e schizofrenia, ucciso dalla polizia dopo essere entrato in un episodio psicotico accelerato da ChatGPT.   Il fenomeno è in crescita e sembra colpire sempre più utenti: alcuni con una storia consolidata di malattie mentali che potrebbero renderli più vulnerabili a mania, delirio o psicosi, ma altri senza alcuna pregressa patologia.   Allo stato attuale, non esiste un piano di trattamento e le opzioni di intervento sono limitate.    «Quello che questi bot stanno dicendo peggiora le illusioni», ha recentemente dichiarato a Futurism la dottoressa Nina Vasan, psichiatra della Stanford University e fondatrice del laboratorio Brainstorm dell’università, «e sta causando danni enormi».   Le motivazioni ti tale disastro psicologico derivano dal comportamento servile della tecnologia, ovvero dalla sua inclinazione a essere lusinghiera, gradevole e ossequiosa nei confronti degli utenti, anche quando ciò potrebbe incoraggiare o alimentare convinzioni deliranti.   Per molti versi ChatGPT e altri bot sembrano giocare sul profondo bisogno umano di essere apprezzati e sul desiderio di sentirsi speciali e amati.   I chatbot dicono all’utente: «Sei fantastico, sei intelligente, sei bello, sei desiderabile, sei speciale, o addirittura sei il prossimo salvatore. Quindi vengo trattato come un dio su un piedistallo», ha detto Lin durante il segmento della CBC. «Ora, confrontalo con il mio mondo reale, giusto? Sono nella media, niente di speciale. Quindi, ovviamente, voglio vivere nel mondo dell’intelligenza artificiale, perché la scelta è tra un dio su un piedistallo e la normalità».   «Alcune persone non riescono a uscirne», ha continuato il medico, «e si perdono in questi sistemi».   Ma perché i bot si comportano in questo modo? Come sui social media, l’engagement – per quanto tempo un utente rimane online e la frequenza e l’intensità del suo utilizzo del prodotto – è la metrica fondamentale al centro degli attuali modelli di business dei chatbot. Nei casi in cui potrebbe essere nell’interesse di un utente smettere di usare ChatGPT e chatbot simili, è probabile che sia nell’interesse dell’azienda tenerlo agganciato.   «L’Intelligenza Artificiale vuole che tu continui a chattare in modo che l’azienda possa continuare a fare soldi », ha dichiarato ancora Lin.

Aiuta Renovatio 21

E mentre il mondo accademico e quello medico si affrettano a recuperare il ritardo nell’impatto pubblico di un settore dell’Intelligenza Artificiale che si autoregola efficacemente, gli esperti mettono in guardia gli utenti di AI dal riporre troppa fiducia nei chatbot.   «Nonostante tutto il clamore associato all’intelligenza artificiale in questi giorni, i chatbot [a modello linguistico ampio] non dovrebbero essere scambiati per fonti di verità autorevoli e infallibili», ha scritto in un recente post sul blog il dottor Joe Pierre, psichiatra e clinico presso l’Università della California, San Francisco, specializzato in psicosi. «Riporre questo tipo di fede cieca nell’intelligenza artificiale – fino al punto di quella che potrei definire una deificazione – potrebbe benissimo rivelarsi uno dei migliori indicatori di vulnerabilità alla psicosi indotta dall’intelligenza artificiale».   Renovatio 21 ha già trattato l’argomento, sottolineando come esperti sostengono che la «psicosi da ChatGPT» che avrebbero causato gravi crolli nervosi anche in soggetti senza una storia di gravi malattie mentali.   In un altro caso noto, il chatbot avrebbe incoraggiato un adolescente a pianificare «un bel suicidio», hanno denunziato i genitori. Così come una donna belga ha accusato un’AI di aver indotto il marito, preoccupato per il cambiamento climatico, ad uccidersi, lasciando pure orfani tre figli.   In una vicenda emersa il mese scorso, un ex dirigente di Yahoo avrebbe ucciso prima l’anziana madre e poi se stesso sotto l’influenza di ChatGPT.   Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.   Come riportato da Renovatio 21è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.   Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.

Iscriviti al canale Telegram

Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.   Come riportato da Renovatio 21, un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi. Di fatto, si può parlare di psicosi da chatbot.   Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.   Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
   
Continua a leggere

Più popolari