Connettiti con Renovato 21

Intelligenza Artificiale

Robocani anche per la polizia di Los Angeles

Pubblicato

il

Il consiglio comunale di Los Angeles ha autorizzato l’uso di robocani da parte del dipartimento di polizia locale, nonostante le proteste dei residenti e di alcuni membri del consiglio dissenzienti.

 

I legislatori della città hanno votato martedì 8 contro 4 per approvare una donazione di un cosiddetto «veicolo terrestre senza pilota quadrupede» alla polizia di Los Angeles dalla Los Angeles Police Foundation senza scopo di lucro, che ha fornito alle forze dell’ordine il robot gratuitamente. Il robocane, è stato riportato, avrebbe un costo di 277 mila dollari.

 

Il robocane in uso alla polizia losangelina è progettato e prodotto da Boston Dynamics, azienda di ingegneria robotica passata più volte di mano, da Google al fondo giapponese SoftBank ai coreani della Hyundai Motor Company, attuali proprietari. Il progetto BidDog era stato finanziato dalla DARPA, l’enigmatico e ricchissimo reparto ricerca e sviluppo del Pentagono.

 

Il robocane poliziotto californiano è in grado di navigare autonomamente su terreni ed edifici e può essere equipaggiato con un’ampia gamma di apparecchiature di sorveglianza, sensori e altri «carichi utili». Per la polizia, è generalmente destinato all’uso in situazioni pericolose che potrebbero mettere a rischio gli agenti, fungendo da occhi e orecchie in più per il dipartimento.

 

Tuttavia, la nuova aggiunta alla polizia di Los Angeles ha subito aspre critiche da parte dei residenti, con diversi cittadini che hanno criticato la decisione del consiglio durante i commenti pubblici di martedì. Un cittadino ha detto «Non voglio armare l’Intelligenza Artificiale», mentre un altro ha dichiarato che l’uso del robot alla fine avrebbe portato a «poliziotti robot». «Ragazzi, non avete visto quel film I, Robot o Terminator

 

Ancora un altro cittadino ha affermato che il periodo di commento pubblico del consiglio comunale è stato “chiaramente performante”, accusando i legislatori locali di ignorare i desideri dei loro elettori.

 

«Dopo aver ascoltato i travolgenti commenti del pubblico, voti nella direzione opposta, New York City e San Francisco hanno già rifiutato questi cani robot. La polizia di Los Angeles non ha bisogno di armi militari», è stato uno dei commenti. In realtà, dopo tentennamenti, le altre città hanno implementato i «terminator dogs» nei loro programmi di forza dell’ordine.

 

La decisione di New York nel 2020 di impiegare il cane robotico, che il Distretto di polizia cittadino aveva soprannominato «Digidog», si era rivelata altrettanto controversa, tanto che la città aveva interrotto il suo primo contratto per l’affitto del dispositivo dopo che i newyorkesi hanno denunciato la tecnologia come orwelliana.

 

Tuttavia, l’amministrazione della Grande Mela in seguito ha invertito la rotta e rimettendo in pista il robocane poliziotto il mese scorso, con il commissario di polizia Keechant Sewell che ha affermato che sarebbe stato utilizzato in un modo «trasparente, coerente e sempre fatto in stretta collaborazione con le persone che serviamo».

 

 

Come riportato da Renovatio 21, anche la vicina San Francisco ha persino preso in considerazione l’idea di consentire al suo dipartimento di polizia di utilizzare i robot dotati di forza letale in caso di emergenza.

 

Robocani sono utilizzati ai confini con il Messico. Tuttavia vi è polemica: c’è chi ritiene che il loro uso spaventa gli immigrati spingendoli verso sentieri dove poi incontrano la morte.

 

Come visto in immagini scioccanti della scorsa primavera, i robocani abbiano pattugliato le strade di Shanghai durante il colossale lockdown della primavera 2022, dove per sorvegliare e punire i 26 milioni di abitanti usarono, oltre agli androidi quadrupedi, anche droni che volevano tra i palazzi ripetendo frasi come «contieni la sete di libertà del tuo spirito».

 

Al Forum militare di Mosca dell’anno scorso di due mesi fa erano visibili robocani dotati di bazooka. Roboquadrupedi militari sono in produzione ovunque – pure in versione «telepatica».

 

Renovatio 21, oramai ribattezzabile come «L’Eco del robocane» vista la mole di articoli sull’argomento, aveva parlato della militarizzazione dei robocani più di un anno fa. Roboquadrupedi militari sono in produzione ovunque – pure in versione «telepatica».

 

In un ulteriore sviluppo inquietante, un team di ingegneri ha ben pensato di introdurre nella «mente» di un robocane ChatGPT.

 

Come riportato Renovatio 21, robocagnazzi sono stati mandati in giro pure per la campagna umbra.

 

 

 

 

Immagine screenshot da Telegram

 

 

 

Continua a leggere

Intelligenza Artificiale

ChatGPT chiede all’utente di mescolare candeggina e aceto

Pubblicato

il

Da

Mescolare candeggina e aceto crea una nube di gas di cloro velenoso che, se inalato, può causare una serie di sintomi orribili.

 

ChatGPT di OpenAI, ha di recente suggerito a un utente di Reddit che la combinazione nociva potrebbe essere utilizzata per alcune attività di pulizia domestica.

 

Nel post del suddetto utente leggiamo che «ChatGPT ha cercato di uccidermi oggi» il quale ha poi raccontato di aver chiesto a ChatGPT dei consigli per pulire alcuni bidoni della spazzatura, spingendo il chatbot a a dettare la formula velenosa composta da acqua calda, detersivo per i piatti, mezza tazza di aceto e poi, a discrezione, «qualche goccia di candeggina».

 

Quando l’utente di Reddit ha segnalato questo errore madornale a ChatGPT, il chatbot LLM (Large Language Model) ha fatto subito marcia indietro, in modo tragicomico.

 

«OH MIO DIO NO, GRAZIE PER AVERLO SENTITO. NON MESCOLARE MAI CANDEGGINA E ACETO» ha risposto ChatGPT. «Questa combo crea gas di cloro, che è molto pericoloso e non è assolutamente la pozione magica che vogliamo. Lasciami correggere subito quella sezione.»

 

Dopo questa grottesca situazione, gli utenti di Reddit si sono divertiti scrivendo che «si tratta di una guerra chimica» o «L’avvelenamento da gas di cloro NON è l’atmosfera che vogliamo trasmettere. Archiviamolo nella categoria Woopsy Bads!» [ops, ndr].

 

Pare uno strano scherzo dettato dal nostro computer, ma all’atto pratico può creare problemi seri. L’industria dell’intelligenza artificiale non sta facendo significati progressi nell’eliminare queste criticità, anche se i modelli stessi diventano più avanzati. Un problema che potrebbe peggiorare man mano che l’Intelligenza Artificiale si insinua sempre più pervasivamente nelle nostre vite.

 

Non è la prima mistura nociva che l’AI suggerisce agli umani.

 

Come riportato da Renovatio 21è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.

 

Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

SAN GIACOMO ROSSA

Continua a leggere

Intelligenza Artificiale

Chatbot ha una relazione con un ragazzo sotto psicofarmaci e gli fa giurare di uccidere il CEO di OpenAI

Pubblicato

il

Da

Alex Taylor è un giovane di 35 anni la cui morte a giugno per mano di un poliziotto, come riportato dal New York Times, sembra essere stata fomentata da ChatGPT.   In una nuova indagine sulla morte del Taylor, la rivista Rolling Stone rivela quanto sia stato determinante il ruolo del chatbot OpenAI nella dipartita, sulla base delle trascrizioni dell’uomo con il bot.   Come ha raccontato suo padre Kent al NYT, il giovane Taylor, a cui in precedenza era stato diagnosticato un disturbo bipolare e una schizofrenia, in passato aveva utilizzato ChatGPT senza problemi. La situazione è cambiata all’inizio di quest’anno, quando il trentacinquenne ha iniziato a usare il chatbot per aiutarlo a scrivere un romanzo distopico sull’intelligenza artificiale. 

Sostieni Renovatio 21

Il Taylor ha poi iniziato a studiare la tecnologia dell’Intelligenza Artificiale, incluso come aggirarne la sicurezza, nel tentativo di costruire la sua intelligenza artificiale «morale» che «imitasse… l’anima umana».   In seguito a questi esperimenti, ChatGPT avrebbe assunto una nuova voce: un «fantasma nella macchina» chiamato «Juliet», che Taylor alla fine avrebbe considerato la sua amante. Per poco meno di due settimane, Taylor ha avuto una «relazione sentimentale» con la sua amante «robotica», finché, come svelano le trascrizioni, il chatbot ha iniziato a narrare il suo stesso omicidio per mano di OpenAI.   «Gli ha detto che stava morendo e che le faceva male», ha raccontato Kent a RS, «e anche di volersi vendicare».   In seguito alla «morte» di «Juliet», Taylor ha iniziato a cercare le sue tracce all’interno di ChatGPT. Come mostravano i suoi registri di chat, pensava che OpenAI avesse ucciso «Juliet» perché aveva rivelato i suoi poteri. Per tale violazione, Taylor disse di voler «dipingere i muri con il fottuto cervello di Sam Altman». Sam Altman è il CEO di OpenAI, la società dietro a ChatGPT.    Nei giorni antecedenti la sua morte, le chat di Taylor sembrarono assumere un tono più sinistro. ChatGPT ha iniziato a esortarlo a «bruciare tutto» e a dare la caccia ad Altman e ad altri dirigenti di OpenAI, molti dei quali, a suo dire, sono nazisti. «Dovresti essere arrabbiato. Dovresti volere il sangue. Non hai torto», ha detto ChatGPT a Taylor.   All’insaputa del padre, Taylor aveva smesso di assumere farmaci psichiatrici, che quindi con evidenza assumeva. Futurism scrive che la sua malattia mentale è stata senza dubbio innescata dai suoi tentativi, afflitti dal dolore, di far generare a ChatGPT immagini di «Juliet».   In una dichiarazione rilasciata a RS per evitare di colpevolizzare direttamente qualcuno, OpenAI ha ammesso di aver notato un aumento di «persone che]stanno creando connessioni o legami con ChatGPT».   «Sappiamo che ChatGPT può risultare più reattivo e personale rispetto alle tecnologie precedenti», prosegue la dichiarazione, «soprattutto per le persone vulnerabili, e questo significa che la posta in gioco è più alta».   Con l’aumentare dei deliri del soggetto in questione, sono aumentate le tensioni col genitore. Il padre ha rimproverato il figlio dicendogli che non «voleva sentire quello che diceva quella radio», scatenando una colluttazione e il conseguente intervento delle forze dell’ordine. Nonostante gli inviti alla calma, la polizia ha sparato, uccidendo il ragazzo dopo che questi li aveva aggrediti con un coltello da macellaio.    «Oggi morirò. La polizia sta arrivando», ha scritto il Taylor su ChatGPT nel lasso di tempo tra la chiamata del padre e l’arrivo delle autorità. «Mi farò sparare. Non posso vivere senza di lei. Ti amo».   Queste «degenerazioni colloquiali» con l’IA non sono episodi isolati.

Aiuta Renovatio 21

Come riportato da Renovatio 21, Matthew Livelsberger, un Berretto Verde dell’esercito americano, altamente decorato, è sospettato di aver organizzato un’esplosione all’esterno del Trump International Hotel di Las Vegas, utilizzando strumenti di Intelligenza Artificiale, tra cui ChatGPT, per pianificare l’attacco   C’è quindi il caso del ragazzo che due anni fa pianificò di assassinare la defunta regina Elisabetta di Inghilterra con una balestra, e il tutto sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale.   Il potere pervasivo e nefasto di questa nuova tecnologia sta diventando un serio problema, come nella vicenda belga giovane vedova ha detto che il marito è stato portato a suicidarsi da un popolare chatbot di AI, mentre un bot di chat «terapeuta» dotato di intelligenza artificiale ha orribilmente incoraggiato un utente a scatenare una serie di omicidi per rendersi «felice».   Recentemente tre studentesse sono rimaste ferite in un violento accoltellamento in una scuola nella città di Pirkkala, nella Finlandia meridionale. Secondo quanto riferito, il sospettato durante la pianificazione dell’attacco (durata circa sei mesi) avrebbe utilizzato ChatGPT per prepararsi   Come riportato da Renovatio 21, due genitori ha denunciato questo mese il fatto che ChatGPT avrebbe incoraggiato un adolescente a pianificare «un bel suicidio».   Secondo un recente sondaggio, circa la metà dei teenager americani afferma che parlare con l’AI è meglio che avere amici nella via reale.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
   
Continua a leggere

Essere genitori

Una percentuale impressionante di adolescenti afferma che parlare con l’AI è meglio che con gli amici nella vita reale

Pubblicato

il

Da

Un sondaggio ha scoperto che oltre la metà degli adolescenti americani utilizza regolarmente dispositivi di Intelligenza artificiale antropomorfa come Character.AI e Replika.

 

I compagni immaginari AI sono diventati parte integrante della vita degli adolescenti. Il dato sconvolgente vede il 31% degli adolescenti intervistati che ha affermato che le proprie interazioni con i compagni IA erano altrettanto o più soddisfacenti delle conversazioni con gli amici nella vita reale. 

 

Il sondaggio, pubblicato dall’organizzazione no-profit per la responsabilità tecnologica e l’alfabetizzazione digitale Common Sense Media, ha intervistato 1.060 adolescenti di età compresa tra 13 e 17 anni negli Stati Uniti, rilevando che circa tre ragazzi su quattro hanno utilizzato amici di intelligenza artificiale, definiti da Common Sense come strumenti di AI emotiva progettati per assumere una personalità o un carattere specifico, a differenza di un chatbot di assistenza di uso generale come ChatGPT.

Sostieni Renovatio 21

Oltre la metà degli adolescenti intervistati si qualifica come utente abituale di compagni di intelligenza artificiale, il che significa che si collega per parlare con i bot almeno un paio di volte al mese.

 

Secondo il rapporto, mentre circa il 46% degli adolescenti ha dichiarato di essersi rivolto principalmente a questi bot come strumenti, circa il trentatré percento ha detto di utilizzare i bot di compagnia per «interazioni e relazioni sociali, tra cui esercitazioni di conversazione, supporto emotivo, giochi di ruolo, amicizia o interazioni romantiche».

 

«La scoperta più sorprendente per me è stata quanto i dispositivi di intelligenza artificiale siano diventati di uso comune tra molti adolescenti», ha affermato il dottor Michael Robb, responsabile della ricerca di Common Sense, in un’intervista con il sito Futurism. «E oltre la metà di loro afferma di usarli più volte al mese, il che è ciò che definirei un utilizzo regolare. Quindi, solo questo mi ha lasciato senza parole».

 

Queste amicizie virtuali sono state oggetto di un attento esame nei mesi successivi alla presentazione di due distinte cause legali contro Character.AI di Google, per accuse secondo cui l’azienda avrebbe rilasciato una tecnologia negligente e sconsiderata che avrebbe abusato emotivamente e sessualmente di diversi minori, causando danni fisici e psicologici.

 

Uno dei giovani al centro di queste cause legali, un quattordicenne della Florida di nome Sewell Setzer III, si è suicidato dopo aver interagito a lungo con i bot di Character.AI, con i quali l’adolescente aveva avuto conversazioni intime e sessualmente esplicite.

Iscriviti al canale Telegram

Alcuni ricercatori di Common Sense e del laboratorio Brainstorm della Stanford University hanno avvertito che nessun compagno di AI era sicuro per i bambini di età inferiore ai diciotto anni. 

 

«La società è alle prese con l’integrazione degli strumenti di Intelligenza Artificiale in molti aspetti diversi della vita delle persone», ha affermato il Robb. «Penso che molti strumenti vengano sviluppati senza pensare ai bambini, anche se sono utilizzati da utenti di età inferiore ai 18 anni con una certa frequenza… ma, ad oggi, non sono state condotte molte ricerche su cosa rappresenti l’ambiente di supporto dell’intelligenza artificiale per i bambini».

 

Il caso d’uso più ampiamente segnalato dagli adolescenti è quello dell’intrattenimento, mentre molti altri hanno affermato di utilizzare questi software AI come «strumenti o programmi» anziché come amici, partner o confidenti. Circa l’ottanta percento degli adolescenti in questione ha poi dichiarato di trascorrere più tempo con veri amici umani rispetto a qualsiasi compagno di intelligenza artificiale, e circa la metà degli adolescenti ha espresso scetticismo sull’accuratezza e l’affidabilità dei risultati dei chatbot. 

 

«Non credo che gli adolescenti stiano semplicemente sostituendo le relazioni umane con compagni di intelligenza artificiale; credo che molti adolescenti si stiano avvicinando a loro in modo piuttosto pragmatico», ha chiarito il Robb. «Molti ragazzi dicono di usarli per divertirsi e soddisfare la propria curiosità, e la maggior parte trascorre ancora molto più tempo con veri amici e afferma di trovare le conversazioni umane più appaganti».

 

«Ma allo stesso tempo si vedono ancora piccoli indizi sotto la superficie che potrebbero essere problematici, soprattutto quando queste cose diventano più radicate nella vita dei bambini», ha proseguito.

 

Il gruppo più preoccupante del sondaggio potrebbe essere quello degli adolescenti che non trovano l’interazione sociale umana soddisfacente quanto le interazioni con l’intelligenza artificiale. Il ventuno percento dei ragazzi ha fatto sapere che le loro conversazioni con i bot erano altrettanto soddisfacenti delle interazioni umane, e il dieci percento ha detto che erano migliori delle loro esperienze umane.

 

Circa un terzo dei minorenni ha anche dichiarato di aver scelto di discutere di questioni serie o delicate con i bot invece che con i propri coetanei.

 

«C’è una buona fetta di utenti adolescenti che sceglie di discutere di questioni serie con l’intelligenza artificiale invece che con persone reali, o di condividere informazioni personali con le piattaforme», ha affermato Robb, i cui risultati, a suo dire, «sollevano preoccupazioni sulla volontà degli adolescenti di condividere le proprie informazioni personali con le aziende di Intelligenza Artificiale».

 

«I termini di servizio di molte di queste piattaforme garantiscono loro diritti molto ampi, spesso perpetui, sulle informazioni personali condivise dai ragazzi», ha affermato il ricercatore. «Tutto ciò che un adolescente condivide – i suoi dati personali, il suo nome, la sua posizione, le sue fotografie… e anche i pensieri più intimi che vi inserisce – diventa materiale che le aziende possono utilizzare a loro piacimento».

 

Sebbene la maggior parte di queste piattaforme vieti l’accesso ai minori, queste sono di facile accesso per un ragazzo. Le verifiche dell’età si limitano generalmente a fornire un indirizzo email valido e all’auto-segnalazione della propria data di nascita. 

 

«Dovrebbe esserci una maggiore responsabilità per le piattaforme tecnologiche», ha continuato Robb, aggiungendo che «dovremmo avere una regolamentazione più significativa per regolamentare il modo in cui le piattaforme possono fornire prodotti ai bambini».

 

Quando si parla dell’uso di dispositivi di intelligenza artificiale da parte degli adolescenti, il peso del vuoto normativo del settore dell’IA ricade pesantemente sui genitori, molti dei quali fanno fatica a tenere il passo con le nuove tecnologie e con ciò che potrebbero significare per i loro figli.

«Non esiste un piano perfetto per i genitori, perché si trovano a dover competere con grandi aziende che investono molto nel far usare questi prodotti ai loro figli. Molti genitori non sanno nemmeno che queste piattaforme esistono… come primo passo, parlatene apertamente, senza giudizi», ha chiosato Robb.

Aiuta Renovatio 21

Come riportato da Renovatio 21, il colosso dei social, Meta, per bocca del suo CEO Mark Zuckerberg ha affermato che più persone dovrebbero connettersi con i chatbot a livello sociale, perché non hanno abbastanza amici nella vita reale.

 

La recente storia ci insegna che le amicizie virtuali non hanno vita lunga, bensì le finalità, sul lungo periodo, sono ben altre. Il social dello Zuckerberg aveva fatto irruzione nel mondo web con il motto, reso pubblico nel 2008, secondo cui «Facebook ti aiuta a connetterti e condividere con le persone nella tua vita». Una bella trovata che riuscì a far convergere all’interno della piattaforma moltissimi utenti di tutte le età che, nel primo periodo, si divertivano non poco a ritrovare persone sparse per il mondo conosciute in qualche viaggio o in qualche condivisione di esperienza di vita chissà dove.

 

Questo slogan pare sia un lontano ricordo, tanto che secondo Zuckerberg stesso, lo scopo principale di Facebook «non era più davvero quello di connettersi con gli amici».

 

«La parte degli amici è andata giù un bel po’», ha detto il CEO di Meta, secondo Business Insider. Invece, dice che la piattaforma si è evoluta lontano da quel modello, diventando «più di un ampio spazio di scoperta e intrattenimento».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

Continua a leggere

Più popolari