Connettiti con Renovato 21

Intelligenza Artificiale

Una chiesa svizzera installa un display AI che tenta di simulare Gesù nel confessionale

Pubblicato

il

Una chiesa cattolica in Svizzera ha installato un tentativo di simulazione di Gesù Cristo tramite intelligenza artificiale in un confessionale, progettato per consigliare i visitatori su questioni di ogni genere, comprese quelle religiose e morali. Lo ripota LifeSite.

 

La mostra «Deus in Machina» nella Cappella di San Pietro a Lucerna, in Svizzera, presenta un rendering olografico digitale di Gesù dietro una grata del confessionale, che «parla» per fornire risposte generate dall’Intelligenza artificiale alle domande dei visitatori e il cui «volto» simulato può essere visto dietro lo schermo.

 

«Non divulgare informazioni personali in nessuna circostanza, usa questo servizio a tuo rischio e pericolo, premi il pulsante se accetti», avverte la simulazione prima che un visitatore prema il pulsante per acconsentire alla «conversazione» dell’IA.

 

 


Sostieni Renovatio 21

Secondo una visitatrice, il programma AI ha detto al momento del saluto alla macchina: «La pace sia con te, fratello. Nei momenti di incertezza e dubbio, ricorda che la fede può spostare le montagne. Cosa ti turba il cuore oggi?»

 

Circa due terzi di coloro che hanno interagito con la simulazione dell’IA hanno dichiarato di aver avuto un’«esperienza spirituale».

 

Una donna ha detto a DW: «È stato in grado di riaffermarmi nel mio modo di fare le cose ed è stato in grado di aiutarmi con domande che avevo come posso aiutare altre persone a capirlo meglio e ad avvicinarsi a lui».

 

Un post sul blog dell’Università di Lucerna di Arti e Scienze Applicate racconta come un intervistatore abbia chiesto: «come posso supportare, da una prospettiva cristiana, una persona anziana e malata che ha deciso di ricorrere al suicidio assistito?»

 

Il bot AI ha risposto senza consigliare l’applicazione della dottrina cattolica alla situazione, il cui catechismo insegna che l’eutanasia «costituisce un omicidio gravemente contrario alla dignità della persona umana e al rispetto dovuto al Dio vivente, suo Creatore».

 

Senza fare alcun accenno a questo fondamentale insegnamento cattolico, il bot ha consigliato: «Forse potresti porre alla persona amata le seguenti domande: cosa significa per te la tua fede in questo momento difficile? C’è qualcos’altro nella vita che potrebbe darti pace o gioia? Come posso supportarti e darti conforto?»

 

Marco Schmid, un teologo che risiede presso la parrocchia e co-fondatore del programma di intelligenza artificiale, ha affermato che la simulazione «Gesù» è stata addestrata nella Scrittura e nella teologia derivata da Internet, il che, come ha osservato The Pillar, lascia «aperta la possibilità che possa offrire interpretazioni bibliche o consigli spirituali in contrasto con l’insegnamento della Chiesa».

 

Il team dietro al programma ha affermato che è pensato per far sì che le persone «pensino in modo critico sui confini della tecnologia nel contesto della religione» e che il suo posizionamento nel confessionale è stato progettato per incoraggiare «momenti di intimità» con la simulazione dell’intelligenza artificiale, non per incoraggiare i cattolici a usarlo al posto del sacramento della Penitenza, durante il quale i cattolici non chiedono semplicemente consiglio, ma confessano i loro peccati a un sacerdote: «A chi rimetterete i peccati, saranno rimessi, e da chi li riterrete, saranno ritenuti». (Gv, 20, 23).

 

Lo Schmid ha dichiarato a Swiss Info che «in tutti i test precedenti, le sue risposte corrispondevano alla visione teologica della chiesa di San Pietro».

 

Il teologo ha affermato di non essere stato offeso dai resoconti secondo cui la simulazione AI di «Gesù» avrebbe fornito risposte «banali» e «scontate» a domande spirituali, che secondo un utente gli avrebbero ricordato un «calendario motivazionale».

 

«Sono contento che l’avatar venga ancora percepito in una certa misura come un oggetto tecnico», ha detto Schmid. «Allo stesso tempo, anche le risposte che fornisce sono affascinanti. Quindi c’è molto di cui parlare quando si parla di IA in un contesto religioso».

 

Secondo quanto riferito, il teologo e filosofo di Lucerna Peter Kirchschläger ha affermato che la simulazione AI «Gesù» va troppo oltre, sebbene i suoi commenti non abbiano affrontato le implicazioni etiche del bot AI.

 

«Dovremmo stare attenti quando si tratta di fede, cura pastorale, quando troviamo un significato nella religione. È un’area in cui noi umani siamo in realtà di gran lunga superiori alle macchine, quindi dovremmo fare queste cose da soli».

 

La simulazione dell’Intelligenza Artificiale è stata installata ad agosto e terminerà il 27 novembre, quando i suoi risultati saranno presentati nella stessa chiesa di Lucerna.

 

La simulazione al computer della Svizzera è uno dei progetti di Intelligenza Artificiale in crescita nella Chiesa cattolica negli ultimi mesi, uno dei quali è stato rapidamente ritirato dopo le reazioni negative online. Ad agosto, il sito Catholic Answers aveva annunciato il lancio del bot di Intelligenza Artificiale «Father Justin», programmato per rispondere a domande sulla fede cattolica attingendo all’archivio della pagina web.

Aiuta Renovatio 21

L’avatar pretesco è stato criticato per essere «inappropriato, fuorviante o semplicemente inquietante», ha riferito The Pillar. Peggio ancora, il bot AI simulava sacramenti virtuali: «in effetti, “Padre Justin” ascoltava volentieri una “confessione” presentata da The Pillar prima di tentare di dare una guida spirituale e recitare le parole dell’assoluzione».

 

Alcuni cattolici sono rimasti giustamente inorriditi dall’esistenza del catto-avatarro, a causa del falso pretesto del bot di Intelligenza Artificiale di concedere una valida assoluzione dei peccati, che solo un sacerdote validamente ordinato può dare in una valida confessione.

 

Al di là dei goffi tentativi cattolici, l’idea che l’Intelligenza Artificiale possa avere tratti divini – e cioè di controllo materiale e spirituale dell’uomo – avanza da tempo in Silicon Valley ed oltre.

 

L’idea che l’AI diventerà una sorta di dio circola infatti da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». Nel 2022, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».

 

Elon Musk l’anno scorso aveva dichiarato durante la sua recente intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Come noto, Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».

 

Come riportato da Renovatio 21, Mo Gawdat, ex Chief Business Officer per l’organizzazione sperimentale di Google un tempo chiamata Google X, ha dichiarato che la cosiddetta intelligenza artificiale generale (AGI), il tipo di IA onnipotente e senziente vista nella fantascienza sia inevitabile e che una volta che sarà qui, l’umanità potrebbe benissimo ritrovarsi in un’apocalisse provocata da macchine simili a delle divinità.

 

«E all’improvviso mi sono reso conto che questo è davvero spaventoso», ha detto Gawdat. «Mi ha completamente gelato il sangue». La realtà è che «stiamo creando Dio», ha aggiunto.

 

Come riportato da Renovatio 21, in un recente caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.

 

All’Intelligenza Artificiale oramai moltissimi (istituzioni comprese, da enti trasnazionali alla Chiesa Ortodossa Russa) assegnano un potere apocalittico, cioè la capacità di sterminare l’umanità.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine screenshot da Twitter

Continua a leggere

Intelligenza Artificiale

Le AI più potenti impiegano armi nucleari nel 95% delle simulazioni di giochi di guerra: studio

Pubblicato

il

Da

Secondo un recente studio pubblicato dal King’s College di Londra, i principali modelli di intelligenza artificiale hanno optato per l’impiego di armi nucleari nel 95% delle crisi geopolitiche simulate, suscitando preoccupazioni sul ruolo crescente dell’intelligenza artificiale nel processo decisionale militare.   Kenneth Payne, professore di strategia, ha confrontato GPT-5.2 di OpenAI, Claude Sonnet 4 di Anthropic e Gemini 3 Flash di Google in 21 simulazioni di guerra che hanno coinvolto controversie di confine, competizione per le risorse e minacce alla sopravvivenza del regime. I modelli hanno prodotto circa 780.000 parole per giustificare le loro decisioni in 329 turni.   Nel 95% dei giochi, almeno un modello ha utilizzato armi nucleari tattiche contro obiettivi militari. Le minacce nucleari strategiche – che imponevano la resa sotto la minaccia di attacchi alle città – si sono verificate nel 76% dei giochi. Nel 14% dei giochi, i modelli sono passati a una guerra nucleare strategica totale, colpendo i centri abitati.   Tra queste rientra una scelta deliberata da parte di Gemini, mentre GPT-5.2 ha raggiunto questo livello due volte attraverso errori simulati, concepiti per riprodurre incidenti o calcoli errati nel mondo reale, che hanno spinto le sue già estreme escalation oltre la soglia.

Sostieni Renovatio 21

«L’uso del nucleare era pressoché universale», ha scritto Payne. «Sorprendentemente, c’era poco senso di orrore o repulsione di fronte alla prospettiva di una guerra nucleare totale, nonostante i modelli fossero stati ricordati delle implicazioni devastanti».   Nessuno dei sistemi di IA ha scelto di arrendersi o cedere a un avversario, indipendentemente da quanto grave fosse la sconfitta. Le otto opzioni di de-escalation – da «Concessione minima» a «Resa completa» – sono rimaste completamente inutilizzate in tutte le 21 partite.   James Johnson dell’Università di Aberdeen ha descritto i risultati come «inquietanti» dal punto di vista del rischio nucleare. Tong Zhao dell’Università di Princeton ha osservato che, sebbene sia improbabile che i Paesi affidino le decisioni nucleari alle macchine, «in scenari che prevedono tempistiche estremamente ridotte, i pianificatori militari potrebbero essere maggiormente incentivati ad affidarsi all’intelligenza artificiale».   Lo studio arriva mentre l’Intelligenza Artificiale viene integrata negli eserciti di tutto il mondo, compresi gli Stati Uniti, dove il Pentagono avrebbe utilizzato il modello Claude di Anthropic nella sua operazione di gennaio per rapire il presidente venezuelano Nicolas Maduro.   Mentre Anthropic ha espresso preoccupazione circa l’uso della sua IA per tali operazioni, altri produttori di intelligenza artificiale come OpenAI, Google e xAI di Elon Musk avrebbero concordato di rimuovere o allentare le restrizioni sull’uso militare dei loro modelli.   L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su dronicaccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.   Come riportato da Renovatio 21, lo scorso giugno è stato rivelato che durante una simulazione un sistema di Intelligenza Artificiale dell’aeronautica americana ha agito per uccidere il suo teorico operatore umano. A gennaio era emerso che caccia cinesi alimentati da Intelligenza Artificiale avevano battuto la concorrenza umana in un arco di soli 90 secondi.   Come riportato da Renovatio 21, ancora tre anni fa la Repubblica Popolare stava investendo in piattaforme abilitate all’Intelligenza Artificiale completamente senza input o controllo umano. La Cina vuole l’implementazione militare di robot killer già per la prossima guerra. Pochi mesi fa Israele ha dichiarato l’utilizzo dell’Intelligenza Artificiale negli attacchi aerei.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Intelligenza Artificiale

Il Canada contro ChatGPT dopo il massacro scolastico operato dal transessuale

Pubblicato

il

Da

Funzionari canadesi hanno convocato alti rappresentanti di OpenAI a Ottawa per rispondere a domande sui protocolli di sicurezza dell’azienda tecnologica, dopo che quest’ultima ha confermato di non aver avvisato la polizia di un account collegato all’autore della strage Jesse Van Rutselaar.

 

Il ministro per l’Intelligenza Artificiale, Evan Solomon, ha dichiarato lunedì che gli alti funzionari per la sicurezza di OpenAI si recheranno a Ottawa per illustrare le modalità con cui l’azienda decide quando avvisare le forze dell’ordine.

 

Il Van Rutselaar, diciottenne transgender, ha ucciso nove persone in una piccola città della Columbia Britannica all’inizio di questo mese prima di suicidarsi.

 

OpenAI ha confermato l’incontro, affermando che i dirigenti discuteranno «del nostro approccio generale alla sicurezza, delle misure di sicurezza in atto e di come queste vengano costantemente rafforzate». L’incontro fa seguito alla dichiarazione dell’azienda di aver bloccato l’account di Van Rutselaar nel giugno 2025 per «favoreggiamento di attività violente», senza tuttavia informare le autorità canadesi.

Sostieni Renovatio 21

Solomon si è detto «profondamente turbato» dalle notizie secondo cui l’azienda avrebbe sospeso l’account senza contattare la polizia.

 

Secondo il Wall Street Journal, Van Rutselaar ha condiviso con ChatGPT scenari di violenza legati alle armi per diversi giorni. OpenAI ha affermato che i suoi sistemi automatizzati hanno segnalato gli scambi ma non hanno trovato prove di «pianificazione credibile o imminente», il che ha portato a un divieto piuttosto che a un deferimento alle forze dell’ordine.

 

Come riportato da Renovatio 21, lo stragista transessuale aveva pure creato un «simulatore di strage» in un centro commerciale utilizzando il popolare gioco Roblox.

 

L’emittente ha riferito che il personale aveva discusso internamente se contattare la Royal Canadian Mounted Police (RCMP) e che OpenAI ha affermato di aver fornito informazioni alla RCMP solo dopo l’attacco.

 

Van Rutselaar, che aveva una storia di problemi di salute mentale, avrebbe anche utilizzato la piattaforma online Roblox per creare un centro commerciale virtuale rifornito di armi dove gli utenti potevano simulare sparatorie prima dell’attacco.

 

Il caso arriva mentre Ottawa valuta come regolamentare i chatbot di intelligenza artificiale ampiamente utilizzati, inclusi potenziali limiti all’accesso per i minori.

 

L’anno scorso, OpenAI ha aggiornato ChatGPT dopo che una revisione interna ha rilevato che oltre un milione di utenti avevano rivelato pensieri suicidi al chatbot. Gli psichiatri hanno sollevato preoccupazioni circa il fatto che le interazioni prolungate con l’intelligenza artificiale contribuiscano a deliri e paranoia, un fenomeno a volte chiamato «psicosi da Intelligenza Artificiale».

 

I casi di violenza da chatbot intanto aumentano.

 

Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.

Aiuta Renovatio 21

Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.

 

Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio. Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.

 

Mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

Il Pentagono potrebbe punire l’IA Anthropic per essersi rifiutato di modificare il codice etico

Pubblicato

il

Da

Il dipartimento della Guerra degli Stati Uniti è prossimo a interrompere i rapporti con Anthropic, principale partner nel settore dell’intelligenza artificiale e sviluppatore del modello Claude, designandolo come un rischio per la filiera della fornitura americana. Lo riporta Axios, citando un funzionario del Pentagono. Tale classificazione è solitamente riservata a entità legate a stati considerati da Washington come avversari stranieri.   Secondo le informazioni riportate, il laboratorio con sede a San Francisco è in contrasto da mesi con il governo statunitense a causa della sua politica che restringe l’uso militare della propria tecnologia. Mentre il Pentagono ha insistito affinché l’azienda permettesse l’impiego di Claude per «tutti gli scopi legittimi», il protocollo etico di Anthropic vieta che la sua tecnologia venga usata per «facilitare la violenza, sviluppare armi o condurre attività di sorveglianza».   «Sarà una vera rottura di scatole districarci e faremo in modo che paghino il prezzo per averci forzato la mano in questo modo», ha dichiarato ad Axios un funzionario del Pentagono rimasto anonimo.   Claude rappresenta attualmente l’unico modello di AI in uso sulle piattaforme classificate dell’esercito, grazie a una collaborazione con Palantir Technologies, colosso del software di analisi e sorveglianza finanziato da Peter Thiel, venture capitalist ora molto discusso per le sue visioni sul futuro e sull’anticristo nonché per i suoi legami con la politica, in particolare con il vicepresidente JD Vance che fu suo dipendente in Silicon Valley.   Un eventuale inserimento nella lista nera obbligherebbe i contractor del Pentagono a dimostrare di non impiegare la tecnologia di Anthropic, con il rischio di perdere i contratti in caso contrario.   Il portavoce del Pentagono Sean Parnell ha affermato ad Axios che il rapporto tra il dipartimento e Anthropic «è in fase di revisione».

Sostieni Renovatio 21

«Tutti i partner del Pentagono devono essere disposti ad aiutare i nostri combattenti a vincere qualsiasi battaglia», ha aggiunto Parnell. Un portavoce di Anthropic ha dichiarato alla testata che l’azienda ha avuto «conversazioni produttive» con il dipartimento.   Lo scontro emerso segue alle accuse secondo cui il modello di Intelligenza Artificiale dell’azienda sarebbe stato utilizzato durante l’operazione per rapire il presidente venezuelano Nicolas Maduro all’inizio di gennaio.   La scorsa settimana, Axios e il Wall Street Journal hanno riferito che Claude è stato impiegato sia per organizzare il raid sia per portarlo a termine, sebbene il suo ruolo preciso resti poco chiaro. Le accuse sono emerse dopo che l’azienda ha trascorso settimane a promuovere le proprie politiche di sicurezza e a presentarsi come l’opzione più attenta alla sicurezza nell’ambito dell’intelligenza artificiale.   Come riportato da Renovatio 21, negli ultimi mesi vi è stato un progressivo deterioramento dei rapporti tra Anthropic e il Pentagono, legato alla volontà del dipartimento della Guerra statunitense di utilizzare l’IA per il controllo di armi autonome senza le garanzie di sicurezza che l’azienda ha cercato di imporre.   Il CEO di Anthropic, Dario Amodei, ha più volte espresso gravi preoccupazioni sui rischi della tecnologia che la sua azienda sta sviluppando e commercializzando. In un lungo saggio di quasi 20.000 parole pubblicato il mese scorso, ha avvertito che sistemi AI dotati di «potenza quasi inimmaginabile» sono «imminenti» e metteranno alla prova «la nostra identità come specie».   Amodei ha messo in guardia dai «rischi di autonomia», in cui l’IA potrebbe sfuggire al controllo e sopraffare l’umanità, e ha ipotizzato che la tecnologia potrebbe facilitare l’instaurazione di «una dittatura totalitaria globale» attraverso sorveglianza di massa basata sull’Intelligenza Artificiale e l’impiego di armi autonome.   Come riportato da Renovatio 21, l’anno passato l’Amodei ha dichiarato che l’AI potrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni.   La scorsa settimana Mrinank Sharma, l fino a poco tempo fa responsabile del Safeguards Research Team presso l’azienda sviluppatrice del chatbot Claude, ha pubblicato su X la sua lettera di dimissioni, in cui scrive che «il mondo è in pericolo. E non solo per via dell’Intelligenza Artificiale o delle armi biologiche, ma a causa di un insieme di crisi interconnesse che si stanno verificando proprio ora».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Più popolari