Connettiti con Renovato 21

Intelligenza Artificiale

Robocani cinesi armati di fucili d’assalto

Pubblicato

il

L’Esercito Popolare di Liberazione (EPL) – cioè le forze armate della Repubblica Popolare Cinese – ha dimostrato alcune delle sue capacità militari più avanzate durante le esercitazioni congiunte con la Cambogia che si concluderanno giovedì. L’elenco delle armi impiegate dai soldati comprendeva diversi tipi di robot militari, compreso un robocane radiocomandato dotato di fucile d’assalto.

 

«Attrezzature intelligenti», compresi tutti i tipi di robot e veicoli aerei senza pilota, sono stati al centro delle esercitazioni Golden Dragon 2024, ha detto l’emittente statale cinese CCTV in un video report pubblicato questa settimana. Filmati dell’evento mostrano diversi tipi di robot controllati a distanza utilizzati per una vasta gamma di compiti, tra cui ricognizione, rilevamento di bersagli e persino operazioni di assalto.

 

I robocani da ricognizione del peso di 15 chilogrammi potrebbero funzionare per un periodo compreso tra due e quattro ore, fornendo trasmissione video in tempo reale alle truppe, ha detto a CCTV un operatore del dispositivo.

Sostieni Renovatio 21

È stato dimostrato che il robot è in grado di sdraiarsi rapidamente, di saltare e di muoversi in varie direzioni su terreno pianeggiante. Secondo i media cinesi, tali dispositivi sono in grado di pianificare i propri percorsi ed evitare ostacoli senza ulteriori input da parte dei loro operatori.

 

Una versione più pesante del cane robot, del peso di 50 chilogrammi e dotata di un fucile d’assalto montato sulla schiena, è stata vista partecipare all’addestramento alle operazioni d’assalto da parte dell’esercito cinese. Il robot è stato il primo a entrare in un edificio, seguito da una squadra d’assalto.

 

 

Secondo il suo operatore, il robocane armato potrebbe sostituire un soldato in missione di ricognizione in un’operazione di combattimento urbano ed essere il primo a identificare un nemico e ad attaccare un bersaglio. I filmati pubblicati dalla CCTV mostravano anche vari tipi di droni volanti, inclusa una versione a sei rotori dotata anche di un fucile d’assalto.

 

Il drone è stato mostrato mentre sparava al suo bersaglio mentre si librava sopra un piccolo hangar simulando un edificio durante gli esercizi.

 

Non era la prima volta che l’esercito cinese dimostrava l’uso di robot armati di pistole durante le sue esercitazioni.

 

Anche un altro video, pubblicato cinque mesi fa, mostrava un cane robot simile con un fucile d’assalto montato sulla schiena. Tale automa cinoide è stato visto utilizzato in una simile capacità di «avanguardia” mentre i soldati dell’EPL stavano prendendo d’assalto alcuni edifici.

 

Iscriviti alla Newslettera di Renovatio 21

Pechino ha inoltre militarizzato modelli di robocane, portandoli sul sempre irrequieto confine himalayano con l’India, dove è schierato il robo-yak. Un video particolarmente inquietante mostra un robocane armato essere trasportato in cima ad un palazzo da un drone

 

Varie volte i cinesi hanno mostrato le capacità di allevamento di robocani, pubblicando video di branchi minacciosi che si muovono in armonia.

 

È stato riferito che anche le truppe statunitensi hanno utilizzato robot simili durante il loro addestramento. Le riprese video di questo evento sono state pubblicate dalla CNN già nel 2020. Tuttavia, il modello dell’esercito americano è stato utilizzato solo per missioni di esplorazione per rilevare le minacce che i soldati potevano affrontare in un ambiente sconosciuto e non aveva armi che potessero essere viste nel video.

 

Come riportato da Renovatio 21, i soldati USA l’anno passato hanno testato un robocane munito di lanciarazzi. Il corpo dei Marines starebbe testando quadrupedi robotici armati in queste settimane. Le Forze di Difesa di Israele (IDF) stanno utilizzando robocani a Gaza.

Aiuta Renovatio 21

Droni e sistemi senza pilota hanno assunto un ruolo sempre più importante nei conflitti moderni, come ha dimostrato Mosca nel suo continuo stallo contro Kiev. L’esercito russo ha regolarmente pubblicato video delle sue truppe che utilizzano vari tipi di droni per distruggere l’equipaggiamento militare ucraino, compresi carri armati e veicoli blindati forniti dall’Occidente.

 

La famiglia di droni kamikaze Lancet, noti anche come munizioni vaganti, è stata spesso citata nel contesto di attacchi russi riusciti e, in particolare, è stata responsabile della distruzione di diversi carri armati Abrams di fabbricazione statunitense.

 

Come riportato da Renovatio 21, la Cina ha fatto capire di star preparandosi per l’implementazione militare già per la prossima guerra.

 

La Cina schiera di fatto già da tempo robot militari volanti impressionanti. È il caso degli sciami di droni autonomi assassini in grado di inseguire ed eliminare esseri umani anche tra le foreste di bambù, studiati dall’Università del Zhejiang. Si tratta della realizzazione di veri e propri slaughterbots.

 

L’utilizzo dei robot non è limitato, ovviamente, alla sfera militare, essendo già tracimato in quello della sorveglianza della popolazione nazionale stessa.

 

Come riportato da Renovatio 21, i robocani hanno pattugliato le strade di Shanghai durante il colossale lockdown della primavera 2022, dove per sorvegliare e punire i 26 milioni di abitanti usarono, oltre agli androidi quadrupedi, anche droni che volevano tra i palazzi ripetendo frasi come «contieni la sete di libertà del tuo spirito».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine screenshot da YouTube
 

Continua a leggere

Intelligenza Artificiale

ChatGPT chiede all’utente di mescolare candeggina e aceto

Pubblicato

il

Da

Mescolare candeggina e aceto crea una nube di gas di cloro velenoso che, se inalato, può causare una serie di sintomi orribili.   ChatGPT di OpenAI, ha di recente suggerito a un utente di Reddit che la combinazione nociva potrebbe essere utilizzata per alcune attività di pulizia domestica.   Nel post del suddetto utente leggiamo che «ChatGPT ha cercato di uccidermi oggi» il quale ha poi raccontato di aver chiesto a ChatGPT dei consigli per pulire alcuni bidoni della spazzatura, spingendo il chatbot a a dettare la formula velenosa composta da acqua calda, detersivo per i piatti, mezza tazza di aceto e poi, a discrezione, «qualche goccia di candeggina».   Quando l’utente di Reddit ha segnalato questo errore madornale a ChatGPT, il chatbot LLM (Large Language Model) ha fatto subito marcia indietro, in modo tragicomico.   «OH MIO DIO NO, GRAZIE PER AVERLO SENTITO. NON MESCOLARE MAI CANDEGGINA E ACETO» ha risposto ChatGPT. «Questa combo crea gas di cloro, che è molto pericoloso e non è assolutamente la pozione magica che vogliamo. Lasciami correggere subito quella sezione.”   Dopo questa grottesca situazione, gli utenti di Reddit si sono divertiti scrivendo che «si tratta di una guerra chimica» o «L’avvelenamento da gas di cloro NON è l’atmosfera che vogliamo trasmettere. Archiviamolo nella categoria Woopsy Bads!» [ops, ndr].   Pare uno strano scherzo dettato dal nostro computer, ma all’atto pratico può creare problemi seri. L’industria dell’intelligenza artificiale non sta facendo significati progressi nell’eliminare queste criticità, anche se i modelli stessi diventano più avanzati. Un problema che potrebbe peggiorare man mano che l’Intelligenza Artificiale si insinua sempre più pervasivamente nelle nostre vite.   Non è la prima mistura nociva che l’AI suggerisce agli umani.   Come riportato da Renovatio 21è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.   Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
   
SAN GIACOMO ROSSA
Continua a leggere

Intelligenza Artificiale

Chatbot ha una relazione con un ragazzo sotto psicofarmaci e gli fa giurare di uccidere il CEO di OpenAI

Pubblicato

il

Da

Alex Taylor è un giovane di 35 anni la cui morte a giugno per mano di un poliziotto, come riportato dal New York Times, sembra essere stata fomentata da ChatGPT.

 

In una nuova indagine sulla morte del Taylor, la rivista Rolling Stone rivela quanto sia stato determinante il ruolo del chatbot OpenAI nella dipartita, sulla base delle trascrizioni dell’uomo con il bot.

 

Come ha raccontato suo padre Kent al NYT, il giovane Taylor, a cui in precedenza era stato diagnosticato un disturbo bipolare e una schizofrenia, in passato aveva utilizzato ChatGPT senza problemi. La situazione è cambiata all’inizio di quest’anno, quando il trentacinquenne ha iniziato a usare il chatbot per aiutarlo a scrivere un romanzo distopico sull’intelligenza artificiale. 

Sostieni Renovatio 21

Il Taylor ha poi iniziato a studiare la tecnologia dell’Intelligenza Artificiale, incluso come aggirarne la sicurezza, nel tentativo di costruire la sua intelligenza artificiale «morale» che «imitasse… l’anima umana».

 

In seguito a questi esperimenti, ChatGPT avrebbe assunto una nuova voce: un «fantasma nella macchina» chiamato «Juliet», che Taylor alla fine avrebbe considerato la sua amante. Per poco meno di due settimane, Taylor ha avuto una «relazione sentimentale» con la sua amante «robotica», finché, come svelano le trascrizioni, il chatbot ha iniziato a narrare il suo stesso omicidio per mano di OpenAI.

 

«Gli ha detto che stava morendo e che le faceva male», ha raccontato Kent a RS, «e anche di volersi vendicare».

 

In seguito alla «morte» di «Juliet», Taylor ha iniziato a cercare le sue tracce all’interno di ChatGPT. Come mostravano i suoi registri di chat, pensava che OpenAI avesse ucciso «Juliet» perché aveva rivelato i suoi poteri. Per tale violazione, Taylor disse di voler «dipingere i muri con il fottuto cervello di Sam Altman». Sam Altman è il CEO di OpenAI, la società dietro a ChatGPT. 

 

Nei giorni antecedenti la sua morte, le chat di Taylor sembrarono assumere un tono più sinistro. ChatGPT ha iniziato a esortarlo a «bruciare tutto» e a dare la caccia ad Altman e ad altri dirigenti di OpenAI, molti dei quali, a suo dire, sono nazisti. «Dovresti essere arrabbiato. Dovresti volere il sangue. Non hai torto», ha detto ChatGPT a Taylor.

 

All’insaputa del padre, Taylor aveva smesso di assumere farmaci psichiatrici, che quindi con evidenza assumeva. Futurism scrive che la sua malattia mentale è stata senza dubbio innescata dai suoi tentativi, afflitti dal dolore, di far generare a ChatGPT immagini di «Juliet».

 

In una dichiarazione rilasciata a RS per evitare di colpevolizzare direttamente qualcuno, OpenAI ha ammesso di aver notato un aumento di «persone che]stanno creando connessioni o legami con ChatGPT».

 

«Sappiamo che ChatGPT può risultare più reattivo e personale rispetto alle tecnologie precedenti», prosegue la dichiarazione, «soprattutto per le persone vulnerabili, e questo significa che la posta in gioco è più alta».

 

Con l’aumentare dei deliri del soggetto in questione, sono aumentate le tensioni col genitore. Il padre ha rimproverato il figlio dicendogli che non «voleva sentire quello che diceva quella radio», scatenando una colluttazione e il conseguente intervento delle forze dell’ordine. Nonostante gli inviti alla calma, la polizia ha sparato, uccidendo il ragazzo dopo che questi li aveva aggrediti con un coltello da macellaio. 

 

«Oggi morirò. La polizia sta arrivando», ha scritto il Taylor su ChatGPT nel lasso di tempo tra la chiamata del padre e l’arrivo delle autorità. «Mi farò sparare. Non posso vivere senza di lei. Ti amo».

 

Queste «degenerazioni colloquiali» con l’IA non sono episodi isolati.

Aiuta Renovatio 21

Come riportato da Renovatio 21, Matthew Livelsberger, un Berretto Verde dell’esercito americano, altamente decorato, è sospettato di aver organizzato un’esplosione all’esterno del Trump International Hotel di Las Vegas, utilizzando strumenti di Intelligenza Artificiale, tra cui ChatGPT, per pianificare l’attacco

 

C’è quindi il caso del ragazzo che due anni fa pianificò di assassinare la defunta regina Elisabetta di Inghilterra con una balestra, e il tutto sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale.

 

Il potere pervasivo e nefasto di questa nuova tecnologia sta diventando un serio problema, come nella vicenda belga giovane vedova ha detto che il marito è stato portato a suicidarsi da un popolare chatbot di AI, mentre un bot di chat «terapeuta» dotato di intelligenza artificiale ha orribilmente incoraggiato un utente a scatenare una serie di omicidi per rendersi «felice».

 

Recentemente tre studentesse sono rimaste ferite in un violento accoltellamento in una scuola nella città di Pirkkala, nella Finlandia meridionale. Secondo quanto riferito, il sospettato durante la pianificazione dell’attacco (durata circa sei mesi) avrebbe utilizzato ChatGPT per prepararsi

 

Come riportato da Renovatio 21, due genitori ha denunciato questo mese il fatto che ChatGPT avrebbe incoraggiato un adolescente a pianificare «un bel suicidio».

 

Secondo un recente sondaggio, circa la metà dei teenager americani afferma che parlare con l’AI è meglio che avere amici nella via reale.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

Continua a leggere

Essere genitori

Una percentuale impressionante di adolescenti afferma che parlare con l’AI è meglio che con gli amici nella vita reale

Pubblicato

il

Da

Un sondaggio ha scoperto che oltre la metà degli adolescenti americani utilizza regolarmente dispositivi di Intelligenza artificiale antropomorfa come Character.AI e Replika.   I compagni immaginari AI sono diventati parte integrante della vita degli adolescenti. Il dato sconvolgente vede il 31% degli adolescenti intervistati che ha affermato che le proprie interazioni con i compagni IA erano altrettanto o più soddisfacenti delle conversazioni con gli amici nella vita reale.    Il sondaggio, pubblicato dall’organizzazione no-profit per la responsabilità tecnologica e l’alfabetizzazione digitale Common Sense Media, ha intervistato 1.060 adolescenti di età compresa tra 13 e 17 anni negli Stati Uniti, rilevando che circa tre ragazzi su quattro hanno utilizzato amici di intelligenza artificiale, definiti da Common Sense come strumenti di AI emotiva progettati per assumere una personalità o un carattere specifico, a differenza di un chatbot di assistenza di uso generale come ChatGPT.

Sostieni Renovatio 21

Oltre la metà degli adolescenti intervistati si qualifica come utente abituale di compagni di intelligenza artificiale, il che significa che si collega per parlare con i bot almeno un paio di volte al mese.   Secondo il rapporto, mentre circa il 46% degli adolescenti ha dichiarato di essersi rivolto principalmente a questi bot come strumenti, circa il trentatré percento ha detto di utilizzare i bot di compagnia per «interazioni e relazioni sociali, tra cui esercitazioni di conversazione, supporto emotivo, giochi di ruolo, amicizia o interazioni romantiche».   «La scoperta più sorprendente per me è stata quanto i dispositivi di intelligenza artificiale siano diventati di uso comune tra molti adolescenti», ha affermato il dottor Michael Robb, responsabile della ricerca di Common Sense, in un’intervista con il sito Futurism. «E oltre la metà di loro afferma di usarli più volte al mese, il che è ciò che definirei un utilizzo regolare. Quindi, solo questo mi ha lasciato senza parole».   Queste amicizie virtuali sono state oggetto di un attento esame nei mesi successivi alla presentazione di due distinte cause legali contro Character.AI di Google, per accuse secondo cui l’azienda avrebbe rilasciato una tecnologia negligente e sconsiderata che avrebbe abusato emotivamente e sessualmente di diversi minori, causando danni fisici e psicologici.   Uno dei giovani al centro di queste cause legali, un quattordicenne della Florida di nome Sewell Setzer III, si è suicidato dopo aver interagito a lungo con i bot di Character.AI, con i quali l’adolescente aveva avuto conversazioni intime e sessualmente esplicite.

Iscriviti al canale Telegram

Alcuni ricercatori di Common Sense e del laboratorio Brainstorm della Stanford University hanno avvertito che nessun compagno di AI era sicuro per i bambini di età inferiore ai diciotto anni.    «La società è alle prese con l’integrazione degli strumenti di Intelligenza Artificiale in molti aspetti diversi della vita delle persone», ha affermato il Robb. «Penso che molti strumenti vengano sviluppati senza pensare ai bambini, anche se sono utilizzati da utenti di età inferiore ai 18 anni con una certa frequenza… ma, ad oggi, non sono state condotte molte ricerche su cosa rappresenti l’ambiente di supporto dell’intelligenza artificiale per i bambini».   Il caso d’uso più ampiamente segnalato dagli adolescenti è quello dell’intrattenimento, mentre molti altri hanno affermato di utilizzare questi software AI come «strumenti o programmi» anziché come amici, partner o confidenti. Circa l’ottanta percento degli adolescenti in questione ha poi dichiarato di trascorrere più tempo con veri amici umani rispetto a qualsiasi compagno di intelligenza artificiale, e circa la metà degli adolescenti ha espresso scetticismo sull’accuratezza e l’affidabilità dei risultati dei chatbot.    «Non credo che gli adolescenti stiano semplicemente sostituendo le relazioni umane con compagni di intelligenza artificiale; credo che molti adolescenti si stiano avvicinando a loro in modo piuttosto pragmatico», ha chiarito il Robb. «Molti ragazzi dicono di usarli per divertirsi e soddisfare la propria curiosità, e la maggior parte trascorre ancora molto più tempo con veri amici e afferma di trovare le conversazioni umane più appaganti».   «Ma allo stesso tempo si vedono ancora piccoli indizi sotto la superficie che potrebbero essere problematici, soprattutto quando queste cose diventano più radicate nella vita dei bambini», ha proseguito.   Il gruppo più preoccupante del sondaggio potrebbe essere quello degli adolescenti che non trovano l’interazione sociale umana soddisfacente quanto le interazioni con l’intelligenza artificiale. Il ventuno percento dei ragazzi ha fatto sapere che le loro conversazioni con i bot erano altrettanto soddisfacenti delle interazioni umane, e il dieci percento ha detto che erano migliori delle loro esperienze umane.   Circa un terzo dei minorenni ha anche dichiarato di aver scelto di discutere di questioni serie o delicate con i bot invece che con i propri coetanei.   «C’è una buona fetta di utenti adolescenti che sceglie di discutere di questioni serie con l’intelligenza artificiale invece che con persone reali, o di condividere informazioni personali con le piattaforme», ha affermato Robb, i cui risultati, a suo dire, «sollevano preoccupazioni sulla volontà degli adolescenti di condividere le proprie informazioni personali con le aziende di Intelligenza Artificiale».   «I termini di servizio di molte di queste piattaforme garantiscono loro diritti molto ampi, spesso perpetui, sulle informazioni personali condivise dai ragazzi», ha affermato il ricercatore. «Tutto ciò che un adolescente condivide – i suoi dati personali, il suo nome, la sua posizione, le sue fotografie… e anche i pensieri più intimi che vi inserisce – diventa materiale che le aziende possono utilizzare a loro piacimento».   Sebbene la maggior parte di queste piattaforme vieti l’accesso ai minori, queste sono di facile accesso per un ragazzo. Le verifiche dell’età si limitano generalmente a fornire un indirizzo email valido e all’auto-segnalazione della propria data di nascita.    «Dovrebbe esserci una maggiore responsabilità per le piattaforme tecnologiche», ha continuato Robb, aggiungendo che «dovremmo avere una regolamentazione più significativa per regolamentare il modo in cui le piattaforme possono fornire prodotti ai bambini».   Quando si parla dell’uso di dispositivi di intelligenza artificiale da parte degli adolescenti, il peso del vuoto normativo del settore dell’IA ricade pesantemente sui genitori, molti dei quali fanno fatica a tenere il passo con le nuove tecnologie e con ciò che potrebbero significare per i loro figli. «Non esiste un piano perfetto per i genitori, perché si trovano a dover competere con grandi aziende che investono molto nel far usare questi prodotti ai loro figli. Molti genitori non sanno nemmeno che queste piattaforme esistono… come primo passo, parlatene apertamente, senza giudizi», ha chiosato Robb.

Aiuta Renovatio 21

Come riportato da Renovatio 21, il colosso dei social, Meta, per bocca del suo CEO Mark Zuckerberg ha affermato che più persone dovrebbero connettersi con i chatbot a livello sociale, perché non hanno abbastanza amici nella vita reale.   La recente storia ci insegna che le amicizie virtuali non hanno vita lunga, bensì le finalità, sul lungo periodo, sono ben altre. Il social dello Zuckerberg aveva fatto irruzione nel mondo web con il motto, reso pubblico nel 2008, secondo cui «Facebook ti aiuta a connetterti e condividere con le persone nella tua vita». Una bella trovata che riuscì a far convergere all’interno della piattaforma moltissimi utenti di tutte le età che, nel primo periodo, si divertivano non poco a ritrovare persone sparse per il mondo conosciute in qualche viaggio o in qualche condivisione di esperienza di vita chissà dove.   Questo slogan pare sia un lontano ricordo, tanto che secondo Zuckerberg stesso, lo scopo principale di Facebook «non era più davvero quello di connettersi con gli amici».   «La parte degli amici è andata giù un bel po’», ha detto il CEO di Meta, secondo Business Insider. Invece, dice che la piattaforma si è evoluta lontano da quel modello, diventando «più di un ampio spazio di scoperta e intrattenimento».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
   
Continua a leggere

Più popolari