Intelligenza Artificiale
Ecco i chatbot «cattolici»
Sul modello di ChatGPT, in pochi mesi sono emersi diversi robot «cattolici». Il loro obiettivo: fornire risposte immediate alle domande riguardanti la dottrina della Chiesa. Al di là dell’iniziativa, sorge l’affidabilità di questo nuovo tipo di algoritmi.
Il 30 novembre 2022, il mondo ha scoperto le prestazioni dell’intelligenza artificiale (AI), con un messaggio dell’azienda OpenIA: «Ora puoi usare ChatGPT». In poche ore, più di un milione di persone hanno testato questo nuovo robot conversazionale, forse senza rendersi conto delle immense e formidabili potenzialità di questa applicazione IA.
Una nuova tecnologia che sembra l’ennesimo vaso di Pandora: anche nel maggio 2023 il cardinale-arcivescovo di Utrecht (Paesi Bassi), mons. Willem Eijk, ha lanciato un appello a favore di una posizione ufficiale della Chiesa in merito all’IA. Prevedendo profonde conseguenze sulla società, l’Alto Prelato spiega che la Chiesa deve impegnarsi attivamente nel campo dell’IA fornendo una riflessione etica e stabilendo la sua presenza in questo vasto campo.
Un appello anticipato dagli sviluppatori di Magisterium AI, un agente conversazionale appena rilasciato da Longbeard, un’azienda specializzata in tecnologia e marketing digitale. Con sede a Roma, i clienti di Longbeard includono la Pontificia Università San Tommaso d’Aquino, la Specola Vaticana e il Dicastero per il Servizio dello Sviluppo Umano Integrale.
L’algoritmo Magisterium AI si basa su un database di 456 documenti ufficiali, tra cui la Sacra Scrittura, il Catechismo della Chiesa Cattolica, il Codice di Diritto Canonico, l’Ordinamento Generale del Messale Romano, oltre a 90 encicliche, 7 costituzioni apostoliche e 26 esortazioni apostoliche.
«Quando lavoravo per l’arcidiocesi di Toronto, molte persone mi facevano domande sulla fede, sul dogma della Chiesa. Ho trascorso molto tempo in biblioteca per essere sicuro di dare risposte attendibili. All’epoca sognavo che esistesse una tecnologia come Magisterium AI!», si giustifica al microfono di EWTN Matthew Sanders, uno dei creatori del chatbot anglosassone.
Anche la lingua di Molière ha da qualche mese il suo robot, che dovrebbe rispondere a domande relative alla dottrina cristiana: il progetto CatéGPT è diventato noto all’inizio del 2023, a Ginevra.
Si pone la questione dell’attendibilità di questo tipo di IA: anche se le risposte non mancano di pertinenza, e se il rischio di “allucinazione” – di errore – rimane limitato grazie a un database chiuso, gli utenti hanno notato delle inesattezze.
«La difficoltà di questo sistema – difficoltà che il teologo non ha – è tenere conto del contesto della domanda, che permette di evitare una risposta non pertinente», sottolinea Yannick Liabaud, uno dei funzionari dell’associazione «Chiesa e innovazione digitale».
L’emergere di avatar religiosi di ChatGPT non sorprende agli occhi degli specialisti: «ChatGPT è uno strumento molto potente per trovare informazioni, ma lo si può usare bene o male», osserva Steve Bobillier.
Interrogato dal quotidiano 24H, il filosofo osserva che «qui il rischio è di prendere le risposte come «vangelo». «Un testo, anche religioso, ha sempre un’interpretazione. L’intelligenza artificiale ne dà una, e non è necessariamente la più coerente».
Alexei Grinbaum – membro del National Pilot Committee for Digital Ethics (CNPEN) – fornisce un’osservazione più allarmante: «la condizione umana si sta evolvendo sotto l’influenza delle macchine parlanti, è impossibile fermare questa evoluzione o tornare indietro. […] Tuttavia, la necessità di mantenere la distinzione tra uomo e macchina a livello di discorso è tutt’altro che ovvia in questi casi».
Inoltre, se è l’uomo che ha creato macchine capaci di «parlare», o meglio di produrre frasi, l’uso di queste stesse macchine avrà un’influenza diretta sul nostro modo di ragionare. Tuttavia, queste macchine si esprimono in modo «piatta», senza profondità: in altre parole, non pensano ciò che producono. La domanda è fino a che punto ci influenzeranno.
«L’IA senza padronanza è solo rovina dell’anima»: ecco trovato il soggetto per una nuova tesi di laurea in filosofia.
Articolo previamente apparso su FSSPX.news.
Intelligenza Artificiale
Le AI più potenti impiegano armi nucleari nel 95% delle simulazioni di giochi di guerra: studio
Secondo un recente studio pubblicato dal King’s College di Londra, i principali modelli di intelligenza artificiale hanno optato per l’impiego di armi nucleari nel 95% delle crisi geopolitiche simulate, suscitando preoccupazioni sul ruolo crescente dell’intelligenza artificiale nel processo decisionale militare.
Kenneth Payne, professore di strategia, ha confrontato GPT-5.2 di OpenAI, Claude Sonnet 4 di Anthropic e Gemini 3 Flash di Google in 21 simulazioni di guerra che hanno coinvolto controversie di confine, competizione per le risorse e minacce alla sopravvivenza del regime. I modelli hanno prodotto circa 780.000 parole per giustificare le loro decisioni in 329 turni.
Nel 95% dei giochi, almeno un modello ha utilizzato armi nucleari tattiche contro obiettivi militari. Le minacce nucleari strategiche – che imponevano la resa sotto la minaccia di attacchi alle città – si sono verificate nel 76% dei giochi. Nel 14% dei giochi, i modelli sono passati a una guerra nucleare strategica totale, colpendo i centri abitati.
Tra queste rientra una scelta deliberata da parte di Gemini, mentre GPT-5.2 ha raggiunto questo livello due volte attraverso errori simulati, concepiti per riprodurre incidenti o calcoli errati nel mondo reale, che hanno spinto le sue già estreme escalation oltre la soglia.
Sostieni Renovatio 21
«L’uso del nucleare era pressoché universale», ha scritto Payne. «Sorprendentemente, c’era poco senso di orrore o repulsione di fronte alla prospettiva di una guerra nucleare totale, nonostante i modelli fossero stati ricordati delle implicazioni devastanti».
Nessuno dei sistemi di IA ha scelto di arrendersi o cedere a un avversario, indipendentemente da quanto grave fosse la sconfitta. Le otto opzioni di de-escalation – da «Concessione minima» a «Resa completa» – sono rimaste completamente inutilizzate in tutte le 21 partite.
James Johnson dell’Università di Aberdeen ha descritto i risultati come «inquietanti» dal punto di vista del rischio nucleare. Tong Zhao dell’Università di Princeton ha osservato che, sebbene sia improbabile che i Paesi affidino le decisioni nucleari alle macchine, «in scenari che prevedono tempistiche estremamente ridotte, i pianificatori militari potrebbero essere maggiormente incentivati ad affidarsi all’intelligenza artificiale».
Lo studio arriva mentre l’Intelligenza Artificiale viene integrata negli eserciti di tutto il mondo, compresi gli Stati Uniti, dove il Pentagono avrebbe utilizzato il modello Claude di Anthropic nella sua operazione di gennaio per rapire il presidente venezuelano Nicolas Maduro.
Mentre Anthropic ha espresso preoccupazione circa l’uso della sua IA per tali operazioni, altri produttori di intelligenza artificiale come OpenAI, Google e xAI di Elon Musk avrebbero concordato di rimuovere o allentare le restrizioni sull’uso militare dei loro modelli.
L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su droni, caccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.
Come riportato da Renovatio 21, lo scorso giugno è stato rivelato che durante una simulazione un sistema di Intelligenza Artificiale dell’aeronautica americana ha agito per uccidere il suo teorico operatore umano. A gennaio era emerso che caccia cinesi alimentati da Intelligenza Artificiale avevano battuto la concorrenza umana in un arco di soli 90 secondi.
Come riportato da Renovatio 21, ancora tre anni fa la Repubblica Popolare stava investendo in piattaforme abilitate all’Intelligenza Artificiale completamente senza input o controllo umano. La Cina vuole l’implementazione militare di robot killer già per la prossima guerra. Pochi mesi fa Israele ha dichiarato l’utilizzo dell’Intelligenza Artificiale negli attacchi aerei.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Il Canada contro ChatGPT dopo il massacro scolastico operato dal transessuale
Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Il Pentagono potrebbe punire l’IA Anthropic per essersi rifiutato di modificare il codice etico
Il dipartimento della Guerra degli Stati Uniti è prossimo a interrompere i rapporti con Anthropic, principale partner nel settore dell’intelligenza artificiale e sviluppatore del modello Claude, designandolo come un rischio per la filiera della fornitura americana. Lo riporta Axios, citando un funzionario del Pentagono. Tale classificazione è solitamente riservata a entità legate a stati considerati da Washington come avversari stranieri.
Secondo le informazioni riportate, il laboratorio con sede a San Francisco è in contrasto da mesi con il governo statunitense a causa della sua politica che restringe l’uso militare della propria tecnologia. Mentre il Pentagono ha insistito affinché l’azienda permettesse l’impiego di Claude per «tutti gli scopi legittimi», il protocollo etico di Anthropic vieta che la sua tecnologia venga usata per «facilitare la violenza, sviluppare armi o condurre attività di sorveglianza».
«Sarà una vera rottura di scatole districarci e faremo in modo che paghino il prezzo per averci forzato la mano in questo modo», ha dichiarato ad Axios un funzionario del Pentagono rimasto anonimo.
Claude rappresenta attualmente l’unico modello di AI in uso sulle piattaforme classificate dell’esercito, grazie a una collaborazione con Palantir Technologies, colosso del software di analisi e sorveglianza finanziato da Peter Thiel, venture capitalist ora molto discusso per le sue visioni sul futuro e sull’anticristo nonché per i suoi legami con la politica, in particolare con il vicepresidente JD Vance che fu suo dipendente in Silicon Valley.
Un eventuale inserimento nella lista nera obbligherebbe i contractor del Pentagono a dimostrare di non impiegare la tecnologia di Anthropic, con il rischio di perdere i contratti in caso contrario.
Il portavoce del Pentagono Sean Parnell ha affermato ad Axios che il rapporto tra il dipartimento e Anthropic «è in fase di revisione».
Sostieni Renovatio 21
«Tutti i partner del Pentagono devono essere disposti ad aiutare i nostri combattenti a vincere qualsiasi battaglia», ha aggiunto Parnell. Un portavoce di Anthropic ha dichiarato alla testata che l’azienda ha avuto «conversazioni produttive» con il dipartimento.
Lo scontro emerso segue alle accuse secondo cui il modello di Intelligenza Artificiale dell’azienda sarebbe stato utilizzato durante l’operazione per rapire il presidente venezuelano Nicolas Maduro all’inizio di gennaio.
La scorsa settimana, Axios e il Wall Street Journal hanno riferito che Claude è stato impiegato sia per organizzare il raid sia per portarlo a termine, sebbene il suo ruolo preciso resti poco chiaro. Le accuse sono emerse dopo che l’azienda ha trascorso settimane a promuovere le proprie politiche di sicurezza e a presentarsi come l’opzione più attenta alla sicurezza nell’ambito dell’intelligenza artificiale.
Come riportato da Renovatio 21, negli ultimi mesi vi è stato un progressivo deterioramento dei rapporti tra Anthropic e il Pentagono, legato alla volontà del dipartimento della Guerra statunitense di utilizzare l’IA per il controllo di armi autonome senza le garanzie di sicurezza che l’azienda ha cercato di imporre.
Il CEO di Anthropic, Dario Amodei, ha più volte espresso gravi preoccupazioni sui rischi della tecnologia che la sua azienda sta sviluppando e commercializzando. In un lungo saggio di quasi 20.000 parole pubblicato il mese scorso, ha avvertito che sistemi AI dotati di «potenza quasi inimmaginabile» sono «imminenti» e metteranno alla prova «la nostra identità come specie».
Amodei ha messo in guardia dai «rischi di autonomia», in cui l’IA potrebbe sfuggire al controllo e sopraffare l’umanità, e ha ipotizzato che la tecnologia potrebbe facilitare l’instaurazione di «una dittatura totalitaria globale» attraverso sorveglianza di massa basata sull’Intelligenza Artificiale e l’impiego di armi autonome.
Come riportato da Renovatio 21, l’anno passato l’Amodei ha dichiarato che l’AI potrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni.
La scorsa settimana Mrinank Sharma, l fino a poco tempo fa responsabile del Safeguards Research Team presso l’azienda sviluppatrice del chatbot Claude, ha pubblicato su X la sua lettera di dimissioni, in cui scrive che «il mondo è in pericolo. E non solo per via dell’Intelligenza Artificiale o delle armi biologiche, ma a causa di un insieme di crisi interconnesse che si stanno verificando proprio ora».
Iscriviti alla Newslettera di Renovatio 21
-



Oligarcato2 settimane faEpstein aveva proposto a JPMorgan un piano per ottenere «più soldi per i vaccini» da Bill Gates
-



Spirito2 settimane faLa profezia di padre Malachi Martin avvertì nel 1990: «potremmo trovarci finalmente di fronte a un falso papa»
-



Cina5 giorni faEnigmi femminili cinesi alle Olimpiadi
-



Vaccini2 settimane faVaccini e COVID, l’architetto chiave della lista contro la «disinformazione» si dimette dopo che l’uscita dei documenti Epstein
-



Spirito1 settimana faL’élite ostracizza chi si non si converte all’ideologia infernale del globalismo: omelia di mons. Viganò nel Mercoledì delle Ceneri
-



Spirito1 settimana faMons. Viganò sul set della «Resurrezione» del cattolico tradizionalista Mel Gibson
-



Predazione degli organi6 giorni faUn cuore «bruciato», due vite spezzate dalla predazione degli organi
-



Salute2 settimane faI malori della 6ª settimana 2026














