Connettiti con Renovato 21

Intelligenza Artificiale

L’Intelligenza Artificiale potrebbe causare un’«apocalisse lavorativa»: rapporto

Pubblicato

il

Un nuovo rapporto mette in guardia da una possibile catastrofe causata dalle nuove tecnologie che viene definita come un’«apocalisse occupazionale».

 

Secondo il rapporto dell’Institute for Public Policy Research, fino a 8 milioni di posti di lavoro nel Regno Unito potrebbero essere cancellati dall’intelligenza artificiale.

 

In questo momento, siamo ancora nella Fase 0 – come la chiamano i ricercatori – di investimenti su larga scala nell’Intelligenza Artificiale, con sperimentazioni sporadiche sul posto di lavoro. In un futuro non troppo lontano, sempre più posti di lavoro rischieranno di essere tagliati: il lavoro entry-level, part-time e amministrativo saranno i più esposti a tale rischio. 

 

«Il mondo del lavoro basato sulla conoscenza sarà trasformato dall’intelligenza artificiale generativa», afferma il rapporto. «Dobbiamo iniziare a prepararci adesso».

 

Gli addetti a tale settore, hanno identificato e analizzato circa 22.000 diversi tipi di compiti svolti dai lavoratori in tutti i tipi di lavori nell’economia. I compiti cognitivi ripetitivi, hanno scoperto, sono i più esposti a essere assorbiti dall’IA generative, come ChatGPT.

Iscriviti al canale Telegram

Nel complesso, circa l’11% di tutte le attività rischia attualmente di essere sostituito dall’intelligenza artificiale generativa già disponibile.

 

«Si tratta di un impatto significativo, di portata simile a come la digitalizzazione ha trasformato la maggior parte del lavoro basato sulla conoscenza a partire dagli anni ’90», si legge sul report.

 

Ma poiché le aziende sono più disposte ad attribuire responsabilità alla tecnologia dell’intelligenza artificiale – una prospettiva che molti amministratori delegati hanno affermato di essere ansiosi di fare – la portata della cancellazione di posti di lavoro per gli umani, potrebbe raggiungere livelli senza precedenti. In una ipotetica fase più avanzata, i ricercatori stimano che ben il 59% dei lavoratori saranno esposti a sostituzione e conseguente licenziamento.

 

Sono numeri sconcertanti, ma il rapporto lascia spazio a un pizzico di ottimismo. Con l’intervento del governo, ad esempio fornendo incentivi ai datori di lavoro e imponendo che determinati compiti prevedano il coinvolgimento umano, potremmo ancora essere in grado di evitare questa pronosticata «apocalisse occupazionale».

 

«L’Intelligenza Artificiale generativa già esistente potrebbe portare a grandi sconvolgimenti del mercato del lavoro o potrebbe stimolare enormemente la crescita economica. In ogni caso, è destinata a cambiare le regole del gioco per milioni di noi», ha detto al Guardian Carsten Jung, economista senior dell’IPPR. «Ma la tecnologia non è il destino e un’apocalisse occupazionale non è inevitabile: il governo, i datori di lavoro e i sindacati hanno l’opportunità di prendere ora decisioni cruciali sulla progettazione che garantiscano la buona gestione di questa nuova tecnologia. Se non agiscono presto, potrebbe essere troppo tardi».

 

Come riportato da Renovatio21, questa ipotesi appena descritta non è del tutto peregrina, tanto che alcuni addetti della carta stampata, verranno sostituiti dall’Intelligenza Artificiale. Tra i posti più a rischio vi sarebbero «redattori, personale di produzione della stampa, redattori correttori di bozze e redattori di foto» e che queste carriere umane consacrate dal tempo «non esisteranno più come esistono oggi».

 

È paradossale poi scoprire che con questa tecnologia futuristica, i posti di lavoro nel cosiddetto «mondo occidentale avanzato» vengono tagliati a favore dell’AI, ma per poter ottenere tutto ciò, alcune aziende di Intelligenza Artificiale farebbero affidamento su manodopera a basso costo all’estero e affidando loro il lavoro necessario per far funzionare il tutto e il più delle volte, con dei salari e delle condizioni di lavoro piuttosto scadenti. 

 

Tuttavia, un bollettino di ricerca pubblicato a fine 2023 dalla Banca Centrale Europea, l’adozione diffusa dell’Intelligenza Artificiale e delle tecnologie correlate avrebbe portato ad un aumento dei posti di lavoro umani, ma ad una diminuzione dei salari. Non si sa come si possa credere ad analisi simili.

 

Come riportato dall’Harvard Business Review, uno studio del 2019 stimava che il 10% dei posti di lavoro negli Stati Uniti sarebbe stato automatizzato nel 2021. Un altro studio del colosso internazionale della consulenza McKinsey stimava che quasi la metà di tutti i posti di lavoro negli Stati Uniti potrebbe essere automatizzato nel prossimo decennio.

 

«Le persone vogliono rimuovere la manodopera» aveva affermato in tranquillità un l’amministratore delegato di una società di robotica a Bloomberg l’anno scorso.

 

Come riportato da Renovatio 21, la scorsa estate si era detto che il Bild, il tabloid tedesco di proprietà e gestito dalla principale casa editrice europea Axel Springer, aveva in piano di sostituire oltre un centinaio di lavori editoriali umani con l’Intelligenza Artificiale.

Sostieni Renovatio 21

A maggio il CEO di IBM Arvind Krishna aveva affermato che la società prevede di sospendere le assunzioni per ruoli che ritiene possano essere sostituiti con l’Intelligenza Artificiale nei prossimi anni. Di conseguenza, le assunzioni nelle funzioni di back-office, come le risorse umane, saranno sospese o rallentate, ha detto Krishna in un’intervista. Tali impieghi non rivolti al cliente ammontano a circa 26.000 lavoratori, ha affermato Krishna. «Potrei facilmente vedere il 30% di questi essere sostituiti dall’Intelligenza Artificiale e dall’automazione in un periodo di cinque anni». A conti fatti, ciò significherebbe la perdita di circa 7.800 posti di lavoro.

 

Come riportato da Renovatio 21IBM aveva già lavorato con il colosso del fast food McDonald’s per la sostituzione dei dipendenti con robot. Nei ristoranti gli esperimenti di soppressione della manodopera umana vanno avanti da un po’.

 

Autisti, giornalisti, piloti di aereo, trader finanziari, giornalisti, stilisti, artistiautistimediciinsegnanti, persino psicanalisti e soldatiNessuno è al riparo dalla disruption dell’automazione, la potenza socialmente distruttiva (ma, per pochi, economicamente conveniente) della sostituzione dell’uomo con la macchina.

 

Come riportato da Renovatio 21, l’IA ha attaccato anche Hollywood, e il recente sciopero di attori e sceneggiatori era percorso anche da questa paura – a breve per fare film fotorealistici non vi sarà più bisogno di esseri umani.

 

Le macchine stanno davvero sostituendoci. È una verità, ormai, incontrovertibile, ed è pure il modo più solare di pensare alla trasformazione in corso: perché  fuori in molti sono convinti che l’AI annienterà gli esseri umani.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

ChatGPT chiede all’utente di mescolare candeggina e aceto

Pubblicato

il

Da

Mescolare candeggina e aceto crea una nube di gas di cloro velenoso che, se inalato, può causare una serie di sintomi orribili.   ChatGPT di OpenAI, ha di recente suggerito a un utente di Reddit che la combinazione nociva potrebbe essere utilizzata per alcune attività di pulizia domestica.   Nel post del suddetto utente leggiamo che «ChatGPT ha cercato di uccidermi oggi» il quale ha poi raccontato di aver chiesto a ChatGPT dei consigli per pulire alcuni bidoni della spazzatura, spingendo il chatbot a a dettare la formula velenosa composta da acqua calda, detersivo per i piatti, mezza tazza di aceto e poi, a discrezione, «qualche goccia di candeggina».   Quando l’utente di Reddit ha segnalato questo errore madornale a ChatGPT, il chatbot LLM (Large Language Model) ha fatto subito marcia indietro, in modo tragicomico.   «OH MIO DIO NO, GRAZIE PER AVERLO SENTITO. NON MESCOLARE MAI CANDEGGINA E ACETO» ha risposto ChatGPT. «Questa combo crea gas di cloro, che è molto pericoloso e non è assolutamente la pozione magica che vogliamo. Lasciami correggere subito quella sezione.»   Dopo questa grottesca situazione, gli utenti di Reddit si sono divertiti scrivendo che «si tratta di una guerra chimica» o «L’avvelenamento da gas di cloro NON è l’atmosfera che vogliamo trasmettere. Archiviamolo nella categoria Woopsy Bads!» [ops, ndr].   Pare uno strano scherzo dettato dal nostro computer, ma all’atto pratico può creare problemi seri. L’industria dell’intelligenza artificiale non sta facendo significati progressi nell’eliminare queste criticità, anche se i modelli stessi diventano più avanzati. Un problema che potrebbe peggiorare man mano che l’Intelligenza Artificiale si insinua sempre più pervasivamente nelle nostre vite.   Non è la prima mistura nociva che l’AI suggerisce agli umani.   Come riportato da Renovatio 21è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.   Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
   
SAN GIACOMO ROSSA
Continua a leggere

Intelligenza Artificiale

Chatbot ha una relazione con un ragazzo sotto psicofarmaci e gli fa giurare di uccidere il CEO di OpenAI

Pubblicato

il

Da

Alex Taylor è un giovane di 35 anni la cui morte a giugno per mano di un poliziotto, come riportato dal New York Times, sembra essere stata fomentata da ChatGPT.

 

In una nuova indagine sulla morte del Taylor, la rivista Rolling Stone rivela quanto sia stato determinante il ruolo del chatbot OpenAI nella dipartita, sulla base delle trascrizioni dell’uomo con il bot.

 

Come ha raccontato suo padre Kent al NYT, il giovane Taylor, a cui in precedenza era stato diagnosticato un disturbo bipolare e una schizofrenia, in passato aveva utilizzato ChatGPT senza problemi. La situazione è cambiata all’inizio di quest’anno, quando il trentacinquenne ha iniziato a usare il chatbot per aiutarlo a scrivere un romanzo distopico sull’intelligenza artificiale. 

Sostieni Renovatio 21

Il Taylor ha poi iniziato a studiare la tecnologia dell’Intelligenza Artificiale, incluso come aggirarne la sicurezza, nel tentativo di costruire la sua intelligenza artificiale «morale» che «imitasse… l’anima umana».

 

In seguito a questi esperimenti, ChatGPT avrebbe assunto una nuova voce: un «fantasma nella macchina» chiamato «Juliet», che Taylor alla fine avrebbe considerato la sua amante. Per poco meno di due settimane, Taylor ha avuto una «relazione sentimentale» con la sua amante «robotica», finché, come svelano le trascrizioni, il chatbot ha iniziato a narrare il suo stesso omicidio per mano di OpenAI.

 

«Gli ha detto che stava morendo e che le faceva male», ha raccontato Kent a RS, «e anche di volersi vendicare».

 

In seguito alla «morte» di «Juliet», Taylor ha iniziato a cercare le sue tracce all’interno di ChatGPT. Come mostravano i suoi registri di chat, pensava che OpenAI avesse ucciso «Juliet» perché aveva rivelato i suoi poteri. Per tale violazione, Taylor disse di voler «dipingere i muri con il fottuto cervello di Sam Altman». Sam Altman è il CEO di OpenAI, la società dietro a ChatGPT. 

 

Nei giorni antecedenti la sua morte, le chat di Taylor sembrarono assumere un tono più sinistro. ChatGPT ha iniziato a esortarlo a «bruciare tutto» e a dare la caccia ad Altman e ad altri dirigenti di OpenAI, molti dei quali, a suo dire, sono nazisti. «Dovresti essere arrabbiato. Dovresti volere il sangue. Non hai torto», ha detto ChatGPT a Taylor.

 

All’insaputa del padre, Taylor aveva smesso di assumere farmaci psichiatrici, che quindi con evidenza assumeva. Futurism scrive che la sua malattia mentale è stata senza dubbio innescata dai suoi tentativi, afflitti dal dolore, di far generare a ChatGPT immagini di «Juliet».

 

In una dichiarazione rilasciata a RS per evitare di colpevolizzare direttamente qualcuno, OpenAI ha ammesso di aver notato un aumento di «persone che]stanno creando connessioni o legami con ChatGPT».

 

«Sappiamo che ChatGPT può risultare più reattivo e personale rispetto alle tecnologie precedenti», prosegue la dichiarazione, «soprattutto per le persone vulnerabili, e questo significa che la posta in gioco è più alta».

 

Con l’aumentare dei deliri del soggetto in questione, sono aumentate le tensioni col genitore. Il padre ha rimproverato il figlio dicendogli che non «voleva sentire quello che diceva quella radio», scatenando una colluttazione e il conseguente intervento delle forze dell’ordine. Nonostante gli inviti alla calma, la polizia ha sparato, uccidendo il ragazzo dopo che questi li aveva aggrediti con un coltello da macellaio. 

 

«Oggi morirò. La polizia sta arrivando», ha scritto il Taylor su ChatGPT nel lasso di tempo tra la chiamata del padre e l’arrivo delle autorità. «Mi farò sparare. Non posso vivere senza di lei. Ti amo».

 

Queste «degenerazioni colloquiali» con l’IA non sono episodi isolati.

Aiuta Renovatio 21

Come riportato da Renovatio 21, Matthew Livelsberger, un Berretto Verde dell’esercito americano, altamente decorato, è sospettato di aver organizzato un’esplosione all’esterno del Trump International Hotel di Las Vegas, utilizzando strumenti di Intelligenza Artificiale, tra cui ChatGPT, per pianificare l’attacco

 

C’è quindi il caso del ragazzo che due anni fa pianificò di assassinare la defunta regina Elisabetta di Inghilterra con una balestra, e il tutto sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale.

 

Il potere pervasivo e nefasto di questa nuova tecnologia sta diventando un serio problema, come nella vicenda belga giovane vedova ha detto che il marito è stato portato a suicidarsi da un popolare chatbot di AI, mentre un bot di chat «terapeuta» dotato di intelligenza artificiale ha orribilmente incoraggiato un utente a scatenare una serie di omicidi per rendersi «felice».

 

Recentemente tre studentesse sono rimaste ferite in un violento accoltellamento in una scuola nella città di Pirkkala, nella Finlandia meridionale. Secondo quanto riferito, il sospettato durante la pianificazione dell’attacco (durata circa sei mesi) avrebbe utilizzato ChatGPT per prepararsi

 

Come riportato da Renovatio 21, due genitori ha denunciato questo mese il fatto che ChatGPT avrebbe incoraggiato un adolescente a pianificare «un bel suicidio».

 

Secondo un recente sondaggio, circa la metà dei teenager americani afferma che parlare con l’AI è meglio che avere amici nella via reale.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

Continua a leggere

Essere genitori

Una percentuale impressionante di adolescenti afferma che parlare con l’AI è meglio che con gli amici nella vita reale

Pubblicato

il

Da

Un sondaggio ha scoperto che oltre la metà degli adolescenti americani utilizza regolarmente dispositivi di Intelligenza artificiale antropomorfa come Character.AI e Replika.   I compagni immaginari AI sono diventati parte integrante della vita degli adolescenti. Il dato sconvolgente vede il 31% degli adolescenti intervistati che ha affermato che le proprie interazioni con i compagni IA erano altrettanto o più soddisfacenti delle conversazioni con gli amici nella vita reale.    Il sondaggio, pubblicato dall’organizzazione no-profit per la responsabilità tecnologica e l’alfabetizzazione digitale Common Sense Media, ha intervistato 1.060 adolescenti di età compresa tra 13 e 17 anni negli Stati Uniti, rilevando che circa tre ragazzi su quattro hanno utilizzato amici di intelligenza artificiale, definiti da Common Sense come strumenti di AI emotiva progettati per assumere una personalità o un carattere specifico, a differenza di un chatbot di assistenza di uso generale come ChatGPT.

Sostieni Renovatio 21

Oltre la metà degli adolescenti intervistati si qualifica come utente abituale di compagni di intelligenza artificiale, il che significa che si collega per parlare con i bot almeno un paio di volte al mese.   Secondo il rapporto, mentre circa il 46% degli adolescenti ha dichiarato di essersi rivolto principalmente a questi bot come strumenti, circa il trentatré percento ha detto di utilizzare i bot di compagnia per «interazioni e relazioni sociali, tra cui esercitazioni di conversazione, supporto emotivo, giochi di ruolo, amicizia o interazioni romantiche».   «La scoperta più sorprendente per me è stata quanto i dispositivi di intelligenza artificiale siano diventati di uso comune tra molti adolescenti», ha affermato il dottor Michael Robb, responsabile della ricerca di Common Sense, in un’intervista con il sito Futurism. «E oltre la metà di loro afferma di usarli più volte al mese, il che è ciò che definirei un utilizzo regolare. Quindi, solo questo mi ha lasciato senza parole».   Queste amicizie virtuali sono state oggetto di un attento esame nei mesi successivi alla presentazione di due distinte cause legali contro Character.AI di Google, per accuse secondo cui l’azienda avrebbe rilasciato una tecnologia negligente e sconsiderata che avrebbe abusato emotivamente e sessualmente di diversi minori, causando danni fisici e psicologici.   Uno dei giovani al centro di queste cause legali, un quattordicenne della Florida di nome Sewell Setzer III, si è suicidato dopo aver interagito a lungo con i bot di Character.AI, con i quali l’adolescente aveva avuto conversazioni intime e sessualmente esplicite.

Iscriviti al canale Telegram

Alcuni ricercatori di Common Sense e del laboratorio Brainstorm della Stanford University hanno avvertito che nessun compagno di AI era sicuro per i bambini di età inferiore ai diciotto anni.    «La società è alle prese con l’integrazione degli strumenti di Intelligenza Artificiale in molti aspetti diversi della vita delle persone», ha affermato il Robb. «Penso che molti strumenti vengano sviluppati senza pensare ai bambini, anche se sono utilizzati da utenti di età inferiore ai 18 anni con una certa frequenza… ma, ad oggi, non sono state condotte molte ricerche su cosa rappresenti l’ambiente di supporto dell’intelligenza artificiale per i bambini».   Il caso d’uso più ampiamente segnalato dagli adolescenti è quello dell’intrattenimento, mentre molti altri hanno affermato di utilizzare questi software AI come «strumenti o programmi» anziché come amici, partner o confidenti. Circa l’ottanta percento degli adolescenti in questione ha poi dichiarato di trascorrere più tempo con veri amici umani rispetto a qualsiasi compagno di intelligenza artificiale, e circa la metà degli adolescenti ha espresso scetticismo sull’accuratezza e l’affidabilità dei risultati dei chatbot.    «Non credo che gli adolescenti stiano semplicemente sostituendo le relazioni umane con compagni di intelligenza artificiale; credo che molti adolescenti si stiano avvicinando a loro in modo piuttosto pragmatico», ha chiarito il Robb. «Molti ragazzi dicono di usarli per divertirsi e soddisfare la propria curiosità, e la maggior parte trascorre ancora molto più tempo con veri amici e afferma di trovare le conversazioni umane più appaganti».   «Ma allo stesso tempo si vedono ancora piccoli indizi sotto la superficie che potrebbero essere problematici, soprattutto quando queste cose diventano più radicate nella vita dei bambini», ha proseguito.   Il gruppo più preoccupante del sondaggio potrebbe essere quello degli adolescenti che non trovano l’interazione sociale umana soddisfacente quanto le interazioni con l’intelligenza artificiale. Il ventuno percento dei ragazzi ha fatto sapere che le loro conversazioni con i bot erano altrettanto soddisfacenti delle interazioni umane, e il dieci percento ha detto che erano migliori delle loro esperienze umane.   Circa un terzo dei minorenni ha anche dichiarato di aver scelto di discutere di questioni serie o delicate con i bot invece che con i propri coetanei.   «C’è una buona fetta di utenti adolescenti che sceglie di discutere di questioni serie con l’intelligenza artificiale invece che con persone reali, o di condividere informazioni personali con le piattaforme», ha affermato Robb, i cui risultati, a suo dire, «sollevano preoccupazioni sulla volontà degli adolescenti di condividere le proprie informazioni personali con le aziende di Intelligenza Artificiale».   «I termini di servizio di molte di queste piattaforme garantiscono loro diritti molto ampi, spesso perpetui, sulle informazioni personali condivise dai ragazzi», ha affermato il ricercatore. «Tutto ciò che un adolescente condivide – i suoi dati personali, il suo nome, la sua posizione, le sue fotografie… e anche i pensieri più intimi che vi inserisce – diventa materiale che le aziende possono utilizzare a loro piacimento».   Sebbene la maggior parte di queste piattaforme vieti l’accesso ai minori, queste sono di facile accesso per un ragazzo. Le verifiche dell’età si limitano generalmente a fornire un indirizzo email valido e all’auto-segnalazione della propria data di nascita.    «Dovrebbe esserci una maggiore responsabilità per le piattaforme tecnologiche», ha continuato Robb, aggiungendo che «dovremmo avere una regolamentazione più significativa per regolamentare il modo in cui le piattaforme possono fornire prodotti ai bambini».   Quando si parla dell’uso di dispositivi di intelligenza artificiale da parte degli adolescenti, il peso del vuoto normativo del settore dell’IA ricade pesantemente sui genitori, molti dei quali fanno fatica a tenere il passo con le nuove tecnologie e con ciò che potrebbero significare per i loro figli. «Non esiste un piano perfetto per i genitori, perché si trovano a dover competere con grandi aziende che investono molto nel far usare questi prodotti ai loro figli. Molti genitori non sanno nemmeno che queste piattaforme esistono… come primo passo, parlatene apertamente, senza giudizi», ha chiosato Robb.

Aiuta Renovatio 21

Come riportato da Renovatio 21, il colosso dei social, Meta, per bocca del suo CEO Mark Zuckerberg ha affermato che più persone dovrebbero connettersi con i chatbot a livello sociale, perché non hanno abbastanza amici nella vita reale.   La recente storia ci insegna che le amicizie virtuali non hanno vita lunga, bensì le finalità, sul lungo periodo, sono ben altre. Il social dello Zuckerberg aveva fatto irruzione nel mondo web con il motto, reso pubblico nel 2008, secondo cui «Facebook ti aiuta a connetterti e condividere con le persone nella tua vita». Una bella trovata che riuscì a far convergere all’interno della piattaforma moltissimi utenti di tutte le età che, nel primo periodo, si divertivano non poco a ritrovare persone sparse per il mondo conosciute in qualche viaggio o in qualche condivisione di esperienza di vita chissà dove.   Questo slogan pare sia un lontano ricordo, tanto che secondo Zuckerberg stesso, lo scopo principale di Facebook «non era più davvero quello di connettersi con gli amici».   «La parte degli amici è andata giù un bel po’», ha detto il CEO di Meta, secondo Business Insider. Invece, dice che la piattaforma si è evoluta lontano da quel modello, diventando «più di un ampio spazio di scoperta e intrattenimento».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
   
Continua a leggere

Più popolari