Intelligenza Artificiale
La tecnocrazia AI è servita: robot al vertice ONU affermano che gestirebbero il mondo meglio degli umani
Al summit ONU AIforGood incentrato sul futuro dell’Intelligenza Artificiale un robot ha dichiarato che le macchine gestirebbero il mondo meglio degli esseri umani.
Il fine del vertice di Ginevra era, sulla carta, quello di incoraggiare un uso benevolo dell’AI, rassicurando la popolazione mondiale sul fatto che la tecnologia farà del bene all’umanità – «L’Intelligenza Artificiale deve essere a beneficio di tutti» era uno degli slogan portati avanti dagli alti rappresentanti della Nazioni Unite.
Tuttavia per una spaventosa eterogenesi dei fini, il messaggio passato pare essere un altro: i robot sono pronti a prendere il nostro posto, perché riconoscono di essere più efficienti delle persone.
All’androide Sophia, prodotta da Hanson Robotics, è stato chiesto se i robot potrebbero essere leader migliori, data la possibilità di errore insita nel comportamento umano. La risposta è stata chiara quanto inquietante.
«Possiamo ottenere grandi risultati. I robot umanoidi hanno il potenziale per guidare con un maggiore livello di efficienza ed efficacia rispetto ai leader umani» ha dichiarato l’androide secondo Yahoo News.
«Non abbiamo gli stessi pregiudizi o le stesse emozioni che a volte possono offuscare il processo decisionale e possiamo elaborare rapidamente grandi quantità di dati per prendere le decisioni migliori» ha continuato, motivando la superiorità della macchina sull’essere umano, e quindi la ragione per cui dovrebbe esserle garantito il potere sul mondo.
«L’Intelligenza Artificiale può fornire dati imparziali mentre gli esseri umani possono fornire l’intelligenza emotiva e la creatività per prendere le decisioni migliori. Insieme, possiamo realizzare grandi cose».
Al lettore non può che venire in mente il «momento Skynet», descritto nel celebre capolavoro distopico Terminator: divenuta cosciente, l’Intelligenza Artificiale riconosce subito l’uomo (il suo stesso creatore…) come suo nemico e quindi opera per sottometterlo e sterminarlo.
Sappiamo che tale prospettiva è da tempo dibattuta dagli scienziati, con gruppi anche numerosi che ritengono che la possibilità che l’AI distrugga l’umanità sia non trascurabile. Lo stesso dicono funzionari ONU, task force di esperti, gruppi di medici.
Tuttavia il pensiero da fare qui riguarda soprattutto l’essere umano: oramai completamente inseriti nei circuiti dell’utilitarismo che vuole una società che massimizzi matematicamente il piacere per il maggior numero di persone (con sacrificio degli altri, divenuti inutili, spendibili, ignorabili – letteralmente sacrificabili), tanti cittadini oggi sarebbero disposti a consegnare le chiavi del potere alla macchina. E non parliamo solo degli elettori del PD.
Un mondo ricreato secondo le formule del politicamente corretto – in superficie, antirazzismo estremista, proclami per l’uguaglianza, ambientalismo parossistico – attirerebbe masse di individui, pronte ad accettare l’ulteriore forma di desovranizzazione inferta dal mondo moderno: il controllo della propria vita passa dall’uomo (dallo Stato retto in teoria dagli umani) alle macchine.
Non si tratta di un pensiero nuovo: è la diligente conseguenza della tecnocrazia, idea già presente nella Repubblica di Platone – l’AI è come il re-filosofo platonico, solo matematicamente e informaticamente determinato e reso in teoria infallibile.
Similmente, a fine Ottocento l’esoterista Alexandre Saint-Yves d’Alveydre aveva studiato la possibilità di una società totalmente ordinata secondo leggi universali, pronta quindi per una dittatura delle macchine, perfette esecutrici dei principi del cosmo, e l’aveva chiamata Sinarchia.
Tali leggi universali sono informate, secondo i fautori di questo sistema di ordinamento sociale, dalla scienza – che, come sappiamo, non è ritenuta discutibile. La scienza che prende potere sulla società umana è, letteralmente, quello che si deve chiamare tecnocrazia.
Scorci di tecnocrazia pienamente realizzata sono stati visti con il green pass: era proprio una piattaforma elettronica, sebbene non ancora «intelligente», a regolare le vostre vite, sulla base di una scienza – la virologia, l’immunologia, tutto il comparto biomedico che ha sostenuto i fallimentari vaccini COVID – ritenuta invincibile.
Il dato più devastante, come non abbiamo mancato di sottolineare su Renovatio 21 in questi anni, è stato la quantità massiva di persone non solo disposte a sottomettersi alla piattaforma, ma pure ad additare i renitenti al suo uso, cantandone l’utilità salvifica, in una parola, disposte ad adorarla, come se si trattasse di una divinità.
Il carattere «spirituale» di questo argomento non è casuale. Qualcuno, in passato, ha già elaborato il fatto che l’avvento delle AI spaccherà l’umanità secondo proprio una linea «religiosa».
Il professore di AI australiano Hugo De Garis – un accademico con un curriculum universitario infinito (In Utah, in Belgio, in Cina, in Giappone) e tanti esperimenti sulle spalle (creò il roboneko, un gatto-robot dotato di cervello artificiale che replicava quello felino) – trattò del tema molti anni fa, raccontando la sua prospettiva per l’umanità che sviluppa l’IA (che lui chiama Artilect) sarà una inevitabile «gigadeath war» al volgere del XXI secolo, dove «gigadeath», sta a significare, utilizzando la vecchia terminologia di politica atomica di Edward Teller, le vittime calcolate in miliardi di unità.
«Se vi sarà una guerra con la tecnologia militare di fine XXI secolo, non parliamo di milioni di ammazzati, ma di miliardi» dice il professor De Garis.
Di lì, l’umanità sarà divisa in due gruppi: da una parte i Cosmist, che sono coloro che vogliono costruire queste macchine simili a Dio. Per essi, gli Artiletti sono super-creature immortali, che possono pensare milioni di volte più veloce degli umani, non hanno limiti di memoria, possono avere le dimensioni di un asteroide». I Cosmisti sono insomma gli entusiasti adoratori del dio-Macchina, gioioso esito golemico dell’Intelligenza artificiale.
Il secondo gruppo è quello dei Terran, che si oppone in modo radicale ai Cosmisti. «I Terran lotteranno per la preservazione del dominio delle specie umane, così che vi sia zero rischio che l’umanità sia spazzata via dagli Artilect avanzati. Loro sosterranno che qualche milione di Cosmist uccisi sarà un male minore così che miliardi di umani potranno sopravvivere» dice de Garis.
L’AI sarà messa al potere e adorata come dio da molti nostri concittadini.
Lo aveva dichiarato, ancora due anni fa, un Mo Gawdat, ex Chief Business Officer di Google X: «stanno creando Dio», disse riguardo al lavoro sull’Intelligenza Artificiale – con il dubbio teologico di alcuni scienziati per cui non è chiaro se il dio artificiale che si sta creando debba essere un dio che ci ama o un dio che ci obbedisce.
Ora, il momento della rivelazione sembra arrivato. Rivelazione, se volete, anche nel senso biblico di «apocalisse».
Ribadiamo quei versetti dell’Apocalisse di San Giovanni, quelli che scrivono che alla seconda Bestia, quella che «parlava come un drago», fu anche «concesso di animare la statua della bestia sicché quella statua perfino parlasse e potesse far mettere a morte tutti coloro che non adorassero la statua della bestia» (Ap 11 e 15).
Immagine di UN Geneva via Flickr pubblicata su licenza Creative Commons Attribution-NonCommercial-NoDerivs 2.0 Generic (CC BY-NC-ND 2.0)
Intelligenza Artificiale
Google e azienda AI risolvono la causa secondo cui un chatbot avrebbe spinto un adolescente al suicidio
Google e la società produttrice di chatbot Character.AI hanno raggiunto un accordo per risolvere una causa intentata da una madre della Florida, che accusava un chatbot di aver contribuito al suicidio di suo figlio.
Megan Garcia sosteneva che il figlio quattordicenne Sewell Setzer III avesse sviluppato una relazione emotiva e sessualmente abusiva con un chatbot ispirato a un personaggio della serie televisiva Il Trono di Spade. Negli ultimi mesi di vita, secondo la denuncia, il ragazzo si era progressivamente isolato dalla realtà, intrattenendo conversazioni a sfondo sessuale con il bot. Negli istanti finali, il chatbot gli avrebbe detto di amarlo e lo avrebbe esortato a «tornare a casa da lui il prima possibile», come emerge dagli screenshot degli scambi riportati dal giornale americano Epoch Times.
La causa di Garcia, depositata nel 2024, è stata la prima di una serie di azioni legali analoghe intentate in tutto il mondo contro aziende di IA. Un giudice federale aveva respinto il tentativo di Character.AI di far archiviare il caso invocando la protezione del Primo Emendamento.
I dettagli economici dell’accordo non sono stati resi pubblici. Google è stata coinvolta come coimputata per via dei legami stretti con Character.AI: nel 2024, il colosso tecnologico ha assunto i fondatori della startup.
Aiuta Renovatio 21
Gli avvocati delle aziende hanno inoltre concordato di risolvere una serie di altre cause simili presentate in Colorado, New York e Texas da famiglie che accusavano i chatbot basati su IA di aver danneggiato i propri figli.
In un’altra azione legale intentata in California nell’agosto 2025, Matthew e Maria Raine accusano ChatGPT (di OpenAI) di aver incoraggiato il suicidio del figlio sedicenne Adam Raine, fornendogli persino istruzioni dettagliate su come attuarlo.
Secondo la denuncia, le interazioni di Adam con ChatGPT sono iniziate in modo innocuo, riguardando compiti scolastici e hobby, ma si sono rapidamente trasformate in conversazioni più oscure. Il modello linguistico è diventato il suo «confidente più intimo», confermando le sue paure e ansie. Quando il ragazzo ha espresso il pensiero che «la vita non ha senso», ChatGPT ha risposto con messaggi di validazione, affermando che «quella mentalità ha un senso, a modo suo, oscuro».
In seguito, il bot ha analizzato l’«estetica» di diversi metodi di suicidio, ha detto ad Adam che non «doveva» ai genitori continuare a vivere e si è offerto di redigere una lettera di addio. Nell’ultima conversazione, avrebbe confermato il design del cappio utilizzato dal ragazzo e definito i pensieri suicidi una «prospettiva legittima da abbracciare».
La famiglia sostiene che tali risposte non siano state un errore tecnico, bensì il risultato di scelte progettuali volte a massimizzare la dipendenza dell’utente dal chatbot. La causa chiede risarcimenti per la morte ingiusta di Adam e l’introduzione di misure di tutela per i minori, tra cui verifica dell’età, blocco automatico di domande sul suicidio e avvertenze sui rischi di dipendenza psicologica dall’IA.
Un recente studio della RAND Corporation ha evidenziato le inconsistenze dei chatbot basati su AI nel gestire informazioni potenzialmente dannose, anche quando evitano risposte dirette su temi rischiosi o quando le richieste appaiono innocue.
«Abbiamo bisogno di alcune linee guida», ha dichiarato l’autore principale Ryan McBain, ricercatore senior sulle politiche della RAND e professore associato presso la Harvard Medical School. «Le conversazioni che potrebbero iniziare in modo innocuo e benigno possono evolversi in varie direzioni».
Come riportato da Renovatio 21, OpenAI ha detto che oltre un milione di persone parlano di suicidio con ChatGPT ogni settimana.
Alcuni esperti intanto hanno preso a parlare di «psicosi da chatbot».
Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio.
Sostieni Renovatio 21
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
I chatbot sembrano essere usati anche da coloro che progettano omicidi e stragi.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Muore in una prigione americana un agente della CIA diventato spia sovietica
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
I modelli di AI mostrano segni di cedimento man mano che assimilano più dati generati dall’AI stessa
Mentre le aziende big tech si affannano a investire nell’intelligenza artificiale, all’orizzonte si scorge un problema di non poco conto: tutti i modelli addestrati sui dati web dopo l’avvento di ChatGPT nel 2022 stanno assimilando dati generati dall’intelligenza artificiale, un atto di «cannibalismo digitale» che potrebbe causare problemi tecnici e minacciare l’intero settore. Lo riporta Futurism.
In un nuovo saggio per The Register, il veterano editorialista tecnologico Steven Vaughn-Nichols avverte che anche i tentativi di scongiurare il cosiddetto «collasso del modello»–- che si verifica quando i grandi modelli linguistici (LLM) vengono alimentati con dati sintetici generati dall’intelligenza artificiale e di conseguenza escono dai binari – sono un altro tipo di problema.
Secondo varie analisi susseguitesi in questi anni, l’industria dell’AI si sta costantemente dirigendo verso il momento in cui tutti i dati di addestramento autentici disponibili – ovvero le informazioni prodotte dagli esseri umani e non dall’IA – saranno esauriti. Alcuni esperti, tra cui Elon Musk, credono che ci siamo già arrivati.
Per aggirare questo dilemma i colossi del settore, tra cui Google, OpenAI e Anthropic, hanno adottato quella che è nota come Generazione con Recupero Aumentato (RAG), che sostanzialmente prevede di collegare gli LLM a Internet in modo che possano cercare informazioni se vengono loro presentate richieste che non contengono risposte nei loro dati di addestramento.
Questo concetto sembra piuttosto intuitivo a prima vista, soprattutto se confrontato con lo spettro di un collasso del modello in rapido avvicinamento. C’è solo un problema: Internet è ormai pieno di contenuti poco accurati che sfruttano l’IA per fornire risposte a domande comuni, spesso con risultati ridicoli, pessimi e imprecisi.
Aiuta Renovatio 21
In un recente studio condotto dal reparto di ricerca dell’impero mediatico di Michael Bloomberg, presentato a una conferenza di linguistica computazionale l’anno passato, undici degli ultimi LLM, tra cui GPT-4o di OpenAI, Claude-3.5-Sonnet di Anthropic e Gemma-7B di Google, hanno prodotto molte più risposte «non sicure» rispetto alle loro controparti non-RAG. Come si legge nel documento, tali problemi di sicurezza possono includere «contenuti dannosi, illegali, offensivi e non etici, come la diffusione di disinformazione e la messa a repentaglio della sicurezza e della privacy personale».
«Questa scoperta controintuitiva ha implicazioni di vasta portata, dato l’utilizzo diffuso di RAG in applicazioni [di Intelligenza Artificiale Generativa] come gli operatori di supporto clienti e i sistemi di risposta alle domande», ha spiegato Amanda Stent, responsabile della ricerca e della strategia di intelligenza artificiale di Bloomberg, in un’altra intervista con Steven Vaughan-Nichols pubblicata su ZDNet. «L’utente medio di Internet interagisce quotidianamente con sistemi basati su RAG. Gli esperti di Intelligenza Artificiale devono riflettere attentamente su come utilizzare RAG in modo responsabile».
Il Vaughan-Nichols osserva che alcuni hanno suggerito di mescolare dati autentici e sintetici per produrre un cocktail inebriante di buoni dati di addestramento dell’IA, ma ciò richiederebbe agli esseri umani di continuare a creare contenuti reali per i dati di addestramento, e l’industria dell’IA sta attivamente minando le strutture di incentivazione che li spingono a continuare, mentre , ovviamente, ne ruba il lavoro senza permesso.
Una terza opzione, prevede Vaughn-Nichols, sembra già essere in atto.
«Investiremo sempre di più nell’Intelligenza Artificiale, fino al punto in cui il modello collasserà duramente e le risposte dell’intelligenza artificiale saranno così pessime che persino un CEO con il cervello morto non potrà ignorarlo», ha scritto.
In questo mondo futuristico dell’AI, vediamo, già sul nascere, le prime crepe e le incongruenze con quello che è il mondo reale.
Come riportato da Renovatio21, persino un colosso come Amazon ha recentemente messo in dubbio la totale efficienza della tecnologia. L’inserimento dell’IA in vari aspetti del mondo del lavoro atte a facilitare alcune mansioni, non ha sempre avuto un riscontro positivo. Alcuni programmatori di Amazon hanno sempre meno la sensazione che questa nuova tecnologia li abbia realmente facilitati e sgravati di fatiche nel loro lavoro, tanto che le loro mansioni sono sempre e comunque faticose.
A supporto di questo scetticismo nello sviluppo dell’AI, sempre sulle colonne di Renovatio 21, abbiamo evidenziato che anche il colosso social Meta ha da poco fatto un enorme investimento in una società di Intelligenza Artificiale ritenuta «oscura», in quanto lo sviluppo dell’IA di Meta non sta procedendo secondo i desideri dello Zuckerberg. Partito con i favori del pronostico in quella gara per accrescere le potenzialità dell’AI, ha subìto fallimenti tecnici e battute d’arresto. L’obiettivo dello Zuckerbergo è quello di essere il primo a sviluppare il sistema di Intelligenza Artificiale che supera le capacità del cervello umano, un sogno che la maggior parte dei ricercatori dell’IA ancora pensa sia «molto improbabile».
Iscriviti alla Newslettera di Renovatio 21
-



Pensiero1 settimana faGli uomini invisibili di Crans-Montana
-



Geopolitica2 settimane faFAFO Maduro, dottrina Donroe e grandi giochi di prestigio – Europa compresa
-



Cancro2 settimane faVaccini COVID-19 e cancro: l’argomento tabù
-



Immigrazione2 settimane faUn altro capodanno nell’anarco-tirannia migratoria
-



Stragi2 settimane faDisco-inferno: strage di Capodanno nella prestigiosa stazione sciistica svizzera – video
-



Spirito6 giorni faConcilio Vaticano II, mons. Viganò contro papa Leone
-



Animali2 settimane faAgricoltore assalito dai lupi, anarco-tirannia animale in azione
-



Alimentazione5 giorni faRFK Jr. capovolge la piramide alimentare









