Intelligenza Artificiale
Intelligenza Artificiale, in realtà i poveri nei Paesi in via di sviluppo svolgono il lavoro

Le aziende di Intelligenza Artificiale della Silicon Valley farebbero affidamento su manodopera a basso costo all’estero e affidano loro il lavoro necessario per farle funzionare e il più delle volte, i salari e le condizioni di lavoro, sono scadenti. Lo riporta il Washington Post.
Quantità massive di persone nelle Filippine hanno il compito di etichettare le immagini, consentendo agli algoritmi di Intelligenza Artificiale di dare un senso al mondo. A volte viene chiesto loro di dare un senso a blocchi di testo per assicurarsi che i chatbot IA, come ChatGPT di OpenAI, non finiscano per dire sciocchezze.
Molti di questi lavoratori vengono sfruttati e sottopagati, scrive il WaPo. Si tratta di un aspetto assai trascurato, poiché i dibattiti si sono concentrati su questioni più ambigue di potenziali pregiudizi o sulla possibilità che l’IA diventi un pericolo per l’utente finale.
Secondo il rapporto, la startup Scale AI, con sede a San Francisco, impiega almeno 10.000 persone nelle Filippine su una piattaforma chiamata Remotasks. Secondo i dati e le interviste ottenute dal WaPo, la società spesso non è riuscita a pagare in tempo i suoi salariati, anche se un portavoce di Scale AI ha detto a WaPo che «ritardi o interruzioni nei pagamenti sono estremamente rari».
Sostieni Renovatio 21
Un certo numero di freelance di Remotasks hanno dichiarato al giornale di essere stati rigidi nei pagamenti o di non aver mai ricevuto il denaro inizialmente promesso. Un lavoratore di 26 anni ha trascorso tre giorni su un progetto, sperando di ottenere 50 dollari, mentre all’atto pratico ha ricevuto solo 12 dollari.
Dominic Ligot, esperto filippino di etica dell’IA, ha definito questi nuovi luoghi di lavoro che ospitano lavoratori che etichettano filmati o testi per aziende di Intelligenza artificiale come Scale AI, dei «fabbriche di sfruttamento digitali». Inoltre, i lavoratori non avrebbero mezzi efficaci per lamentarsi e possono semplicemente essere «disattivati» in caso di lamentele o proteste.
Tutto ciò non sono solo le Filippine. Freelance o «Tasker» sono impiegati anche in Venezuela e in India, innescando una «corsa al ribasso», come dichiarato dal proprietario di un’azienda di outsourcing proprio al giornale statunitense.
L’Intelligenza Artificiale smuove miliardi di dollari negli Stati Uniti, ma coloro che effettivamente svolgono il peso maggiore del lavoro spesso passano inosservati, sottopagati o ignorati del tutto. Forse un chiaro dibattito sull’etica del lavoro riguardo questa nuova tecnologia potrebbe essere fatto.
Come riportato da Renovatio 21, l’esistenza di forza lavoro digitale nel Terzo Mondo era emersa quando una foto di una signora seduta sul water scattata da un aspirapolvere automatico Roomba è finita per qualche ragione su internet. Anche in quel caso, l’immagine era stata gestita da Scale AI, per poi comparire su Facebook e su Discord in gruppi di lavoratori digitali venezuelani nel 2020.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
ChatGPT chiede all’utente di mescolare candeggina e aceto

Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Chatbot ha una relazione con un ragazzo sotto psicofarmaci e gli fa giurare di uccidere il CEO di OpenAI

Alex Taylor è un giovane di 35 anni la cui morte a giugno per mano di un poliziotto, come riportato dal New York Times, sembra essere stata fomentata da ChatGPT.
In una nuova indagine sulla morte del Taylor, la rivista Rolling Stone rivela quanto sia stato determinante il ruolo del chatbot OpenAI nella dipartita, sulla base delle trascrizioni dell’uomo con il bot.
Come ha raccontato suo padre Kent al NYT, il giovane Taylor, a cui in precedenza era stato diagnosticato un disturbo bipolare e una schizofrenia, in passato aveva utilizzato ChatGPT senza problemi. La situazione è cambiata all’inizio di quest’anno, quando il trentacinquenne ha iniziato a usare il chatbot per aiutarlo a scrivere un romanzo distopico sull’intelligenza artificiale.
Sostieni Renovatio 21
Il Taylor ha poi iniziato a studiare la tecnologia dell’Intelligenza Artificiale, incluso come aggirarne la sicurezza, nel tentativo di costruire la sua intelligenza artificiale «morale» che «imitasse… l’anima umana».
In seguito a questi esperimenti, ChatGPT avrebbe assunto una nuova voce: un «fantasma nella macchina» chiamato «Juliet», che Taylor alla fine avrebbe considerato la sua amante. Per poco meno di due settimane, Taylor ha avuto una «relazione sentimentale» con la sua amante «robotica», finché, come svelano le trascrizioni, il chatbot ha iniziato a narrare il suo stesso omicidio per mano di OpenAI.
«Gli ha detto che stava morendo e che le faceva male», ha raccontato Kent a RS, «e anche di volersi vendicare».
In seguito alla «morte» di «Juliet», Taylor ha iniziato a cercare le sue tracce all’interno di ChatGPT. Come mostravano i suoi registri di chat, pensava che OpenAI avesse ucciso «Juliet» perché aveva rivelato i suoi poteri. Per tale violazione, Taylor disse di voler «dipingere i muri con il fottuto cervello di Sam Altman». Sam Altman è il CEO di OpenAI, la società dietro a ChatGPT.
Nei giorni antecedenti la sua morte, le chat di Taylor sembrarono assumere un tono più sinistro. ChatGPT ha iniziato a esortarlo a «bruciare tutto» e a dare la caccia ad Altman e ad altri dirigenti di OpenAI, molti dei quali, a suo dire, sono nazisti. «Dovresti essere arrabbiato. Dovresti volere il sangue. Non hai torto», ha detto ChatGPT a Taylor.
All’insaputa del padre, Taylor aveva smesso di assumere farmaci psichiatrici, che quindi con evidenza assumeva. Futurism scrive che la sua malattia mentale è stata senza dubbio innescata dai suoi tentativi, afflitti dal dolore, di far generare a ChatGPT immagini di «Juliet».
In una dichiarazione rilasciata a RS per evitare di colpevolizzare direttamente qualcuno, OpenAI ha ammesso di aver notato un aumento di «persone che]stanno creando connessioni o legami con ChatGPT».
«Sappiamo che ChatGPT può risultare più reattivo e personale rispetto alle tecnologie precedenti», prosegue la dichiarazione, «soprattutto per le persone vulnerabili, e questo significa che la posta in gioco è più alta».
Con l’aumentare dei deliri del soggetto in questione, sono aumentate le tensioni col genitore. Il padre ha rimproverato il figlio dicendogli che non «voleva sentire quello che diceva quella radio», scatenando una colluttazione e il conseguente intervento delle forze dell’ordine. Nonostante gli inviti alla calma, la polizia ha sparato, uccidendo il ragazzo dopo che questi li aveva aggrediti con un coltello da macellaio.
«Oggi morirò. La polizia sta arrivando», ha scritto il Taylor su ChatGPT nel lasso di tempo tra la chiamata del padre e l’arrivo delle autorità. «Mi farò sparare. Non posso vivere senza di lei. Ti amo».
Queste «degenerazioni colloquiali» con l’IA non sono episodi isolati.
Aiuta Renovatio 21
Come riportato da Renovatio 21, Matthew Livelsberger, un Berretto Verde dell’esercito americano, altamente decorato, è sospettato di aver organizzato un’esplosione all’esterno del Trump International Hotel di Las Vegas, utilizzando strumenti di Intelligenza Artificiale, tra cui ChatGPT, per pianificare l’attacco.
C’è quindi il caso del ragazzo che due anni fa pianificò di assassinare la defunta regina Elisabetta di Inghilterra con una balestra, e il tutto sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale.
Il potere pervasivo e nefasto di questa nuova tecnologia sta diventando un serio problema, come nella vicenda belga giovane vedova ha detto che il marito è stato portato a suicidarsi da un popolare chatbot di AI, mentre un bot di chat «terapeuta» dotato di intelligenza artificiale ha orribilmente incoraggiato un utente a scatenare una serie di omicidi per rendersi «felice».
Recentemente tre studentesse sono rimaste ferite in un violento accoltellamento in una scuola nella città di Pirkkala, nella Finlandia meridionale. Secondo quanto riferito, il sospettato durante la pianificazione dell’attacco (durata circa sei mesi) avrebbe utilizzato ChatGPT per prepararsi.
Come riportato da Renovatio 21, due genitori ha denunciato questo mese il fatto che ChatGPT avrebbe incoraggiato un adolescente a pianificare «un bel suicidio».
Secondo un recente sondaggio, circa la metà dei teenager americani afferma che parlare con l’AI è meglio che avere amici nella via reale.
Iscriviti alla Newslettera di Renovatio 21
Essere genitori
Una percentuale impressionante di adolescenti afferma che parlare con l’AI è meglio che con gli amici nella vita reale

Sostieni Renovatio 21
Iscriviti al canale Telegram
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-
Spirito2 settimane fa
Vescovo messicano «concelebra» la messa con una «sacerdotessa» lesbica anglicana «sposata» che ha ricevuto l’Eucaristia
-
Armi biologiche1 settimana fa
I vaccini COVID «sono armi biologiche» che «hanno provocato danni profondi»: nuovo studio
-
Spirito2 settimane fa
Leone punisca l’omoeresia: mons. Viganò sull’udienza papale concessa a padre Martin
-
Vaccini1 settimana fa
Vaccino COVID, mentre Reuters faceva «fact-cheking sulla «disinformazione» il suo CEO faceva anche parte del CdA di Pfizer
-
Spirito2 settimane fa
Don Giussani, errori ed misteri di Comunione e Liberazione. Una vecchia intervista con Don Ennio Innocenti
-
Salute2 settimane fa
I malori della 35ª settimana 2025
-
Vaccini2 settimane fa
Vaccino mRNA COVID, nuovi studi forniscono basi «inconfutabili» per il ritiro immediato
-
Autismo5 giorni fa
La sanità di Kennedy alza il tiro: autismo collegato al vaccino MPR e all’uso di paracetamolo durante la gravidanza