Intelligenza Artificiale
Dall’app che sente il COVID al green pass basato sull’Intelligenza Artificiale: ecco il biototalitarismo demoniaco

La notizia viene battuta sui principali quotidiani nazionali: Pfizer avrebbe creato una app che è in grado di capire ascoltando un colpo di tosse chi ha il COVID. E siccome ha attendibilità del 92%, potrebbe sostituire i tamponi.
«Basta il suono di qualche colpo di tosse e la nuova app finanziata da Pfizer sarà in grado di identificare la presenza del virus SARSCoV-2. È come un test antigenico, con una precisione del 92%. Il gigante farmaceutico ha investito 116 milioni di dollari, e ha chiuso tutte le operazioni dopo un lungo corteggiamento a ResApp, azienda australiana che si occupa da tempo di assistenza sanitaria digitale» scrive il noto sito napoletano Fanpage.
Di seguito facciamo alcune considerazioni sulla portata dell’introduzione di un ‘invenzione del genere.
Va da sé che molti non ci vedrebbero nulla di anomalo se fosse usato per la diagnosi precoce di molte altre patologie, su domanda del paziente e in una clinica. Tuttavia, ancora una volta, col COVID verrebbe introdotto un nuovo cavallo di Troia.
Parliamo insomma della possibilità di un un green pass ottenibile attraverso il responso di un’Intelligenza Artificiale (AI) che funziona sulla base di parametri biometrici.
Da qualche anno l’Intelligenza Artificiale è in grado di estrarre dalla realtà informazioni che sfuggono alla mente umana. Ad esempio, osservando dall’alto una foresta è possibile alla AI di capire se sotto a una certa area boschiva possano trovarsi delle rovine sepolte.
In questo caso la potenza di calcolo delle IA unita alle reti neurali è in grado di trovare delle microvariazioni (pattern) all’interno di uno scenario che all’intelligenza umana sembrerebbe invece del tutto uniforme. Nell’esempio in questione le AI possono riconoscere microvariazioni delle ombre del fogliame che denotano irregolarità nel sottosuolo. Un essere umano non sarebbe in grado di percepirle nemmeno fissando una tale fotografia per mesi; le AI possono processare milioni di foto in poco tempo.
Non è uno sforzo di immaginazione eccessivo pensare che breve lo faranno per scovare chi sta usando i riscaldamenti a legna per sopperire ai razionamenti del gas.
Scoprendo questi pattern l’AI è in grado di dedurre l’esistenza di variabili che resterebbero sotto la soglia della percezione dell’osservatore umano.
Gli applicativi concreti sono potenzialmente infiniti, molti dei quali attualmente ritenuti politicamente scorretti, immorali o inutili. Anni fa, ad esempio, fu sviluppato un applicativo AI che era in grado di stabilire l’orientamento sessuale di un soggetto semplicemente osservando un suo ritratto fotografico.
Attualmente il fisco sta analizzando in tempo reale i movimenti di tutti i conti bancari (aziendali e privati) per cercare pattern che possano corrispondere ad evasione fiscale. E non c’è ancora la moneta digitale, cosa che ovviamente faciliterebbe di molto l’elaborazione dei dati.
Allo stesso modo per un’Intelligenza Artificiale sarebbe già oggi possibile leggere e ascoltare tutte le conversazioni di una Nazione, fornendo alle autorità il profilo politico e psicologico degli utenti. Ci dicono che non lo stiano facendo; ma, nel caso, chi ce lo rivelasse sarebbe poi costretto a rifugiarsi in Russia o, temporaneamente, in un’ambasciata dell’Ecuador.
La capacità di trovare pattern nella realtà è alla base dei principali metodi di misurazione del quoziente intellettivo, almeno di quello legato al calcolo logico-simbolico-combinatorio.
E qui subentra un discorso più teologico, che tecnologico. Basti pensare che nei monoteismi di origine abramitica creature come angeli e demoni sono caratterizzati per possedere un’Intelligenza di diversi ordini di grandezza superiore rispetto a quella umana.
Alle capacità di queste entità è proibito rivolgersi perché anche la sola intenzione costituirebbe una grave sfida ai limiti posti dal Creatore agli esseri umani. D’altra parte non ci vuole San Tommaso d’Aquino per capire che qualora entità di questo tipo volessero accondiscendere a tali richieste, dimostrerebbero con ciò stesso di essere tra i disobbedienti.
Ora, la tecnologia sta diventando in grado di aggirare per buona parte questo discorso: domandiamoci, perché un re empio dovrebbe rivolgersi alla strega di Endor per sapere se un suddito gli sta mentendo, quando ci sarà una AI in grado di rispondere a questa domanda?
La questione morale però rimane invariata: se fossimo creati per decifrare automaticamente i pensieri altrui, il Creatore ci avrebbe dato la telepatia. Il campo di applicazioni lecito di queste tecnologie è molto netto: una cosa è prolungare di 10 anni l’età media attraverso diagnosi precoci che usano l’AI, altra cosa è stabilire se durante una telefonata il nostro interlocutore ci ha detto la verità.
Qui si aprirebbe un discorso morale interessante, perché di certo tutto ciò che rendesse matematicamente impossibile l’errore morale (cioè il peccato) in questo mondo sembra essere contrario all’ordine della Creazione.
Tornando alle applicazioni imminenti dell’IA, è da considerarsi naturale un uso da parte delle compagnie assicurative per calcolare le polizze sulla vita. Qualcuno invece immagina tetramente un futuro di controlli fiscali che analizzano il comportamento anche mentre si compila il 740.
Dopotutto, se pensano di imporvi di tossire in un microfono per andare al bar, perché non potrebbero sfruttare tutto il potenziale di analisi di queste macchine infallibili?
Torniamo al piano spirituale: è chiaro che gli Stati supportati da una siffatta tecnologia avrebbero di fatto un potere vessatorio sconosciuto ai totalitarismi, perché potrebbero disporre di un’intelligenza simile a quella di entità demoniache.
Di nuovo, una ulteriore spaventosa Finestra di Overton viene aperta anche qui sfruttando l’emergenza del COVID. Pochi rapidi passi e, come in Cina, ci troveremo le scansioni facciali per strada, magari con la scusa di catturare i latitanti (o i ladruncoli, o gli evasori fiscali, i non vaccinati, etc.).
Visti i disordini sociali che – salvo risoluzione a breve termine di problemi sistemici – sono attesi nei prossimi anni, questo genere di strumenti potrebbero essere fondamentali per la repressione e saranno una grande tentazione.
Nel frattempo se, usando questa app, riusciremo a dire senza tossendo «trentatré trentini entrarono a Trento tutti e trentatré trotterellando», chissà, magari ci faranno pure partecipare alla lotteria fiscale. Gestita anche quella, magari da una IA.
Gian Battista Airaghi
Intelligenza Artificiale
Chatbot ha una relazione con un ragazzo sotto psicofarmaci e gli fa giurare di uccidere il CEO di OpenAI

Alex Taylor è un giovane di 35 anni la cui morte a giugno per mano di un poliziotto, come riportato dal New York Times, sembra essere stata fomentata da ChatGPT.
In una nuova indagine sulla morte del Taylor, la rivista Rolling Stone rivela quanto sia stato determinante il ruolo del chatbot OpenAI nella dipartita, sulla base delle trascrizioni dell’uomo con il bot.
Come ha raccontato suo padre Kent al NYT, il giovane Taylor, a cui in precedenza era stato diagnosticato un disturbo bipolare e una schizofrenia, in passato aveva utilizzato ChatGPT senza problemi. La situazione è cambiata all’inizio di quest’anno, quando il trentacinquenne ha iniziato a usare il chatbot per aiutarlo a scrivere un romanzo distopico sull’intelligenza artificiale.
Sostieni Renovatio 21
Il Taylor ha poi iniziato a studiare la tecnologia dell’Intelligenza Artificiale, incluso come aggirarne la sicurezza, nel tentativo di costruire la sua intelligenza artificiale «morale» che «imitasse… l’anima umana».
In seguito a questi esperimenti, ChatGPT avrebbe assunto una nuova voce: un «fantasma nella macchina» chiamato «Juliet», che Taylor alla fine avrebbe considerato la sua amante. Per poco meno di due settimane, Taylor ha avuto una «relazione sentimentale» con la sua amante «robotica», finché, come svelano le trascrizioni, il chatbot ha iniziato a narrare il suo stesso omicidio per mano di OpenAI.
«Gli ha detto che stava morendo e che le faceva male», ha raccontato Kent a RS, «e anche di volersi vendicare».
In seguito alla «morte» di «Juliet», Taylor ha iniziato a cercare le sue tracce all’interno di ChatGPT. Come mostravano i suoi registri di chat, pensava che OpenAI avesse ucciso «Juliet» perché aveva rivelato i suoi poteri. Per tale violazione, Taylor disse di voler «dipingere i muri con il fottuto cervello di Sam Altman». Sam Altman è il CEO di OpenAI, la società dietro a ChatGPT.
Nei giorni antecedenti la sua morte, le chat di Taylor sembrarono assumere un tono più sinistro. ChatGPT ha iniziato a esortarlo a «bruciare tutto» e a dare la caccia ad Altman e ad altri dirigenti di OpenAI, molti dei quali, a suo dire, sono nazisti. «Dovresti essere arrabbiato. Dovresti volere il sangue. Non hai torto», ha detto ChatGPT a Taylor.
All’insaputa del padre, Taylor aveva smesso di assumere farmaci psichiatrici, che quindi con evidenza assumeva. Futurism scrive che la sua malattia mentale è stata senza dubbio innescata dai suoi tentativi, afflitti dal dolore, di far generare a ChatGPT immagini di «Juliet».
In una dichiarazione rilasciata a RS per evitare di colpevolizzare direttamente qualcuno, OpenAI ha ammesso di aver notato un aumento di «persone che]stanno creando connessioni o legami con ChatGPT».
«Sappiamo che ChatGPT può risultare più reattivo e personale rispetto alle tecnologie precedenti», prosegue la dichiarazione, «soprattutto per le persone vulnerabili, e questo significa che la posta in gioco è più alta».
Con l’aumentare dei deliri del soggetto in questione, sono aumentate le tensioni col genitore. Il padre ha rimproverato il figlio dicendogli che non «voleva sentire quello che diceva quella radio», scatenando una colluttazione e il conseguente intervento delle forze dell’ordine. Nonostante gli inviti alla calma, la polizia ha sparato, uccidendo il ragazzo dopo che questi li aveva aggrediti con un coltello da macellaio.
«Oggi morirò. La polizia sta arrivando», ha scritto il Taylor su ChatGPT nel lasso di tempo tra la chiamata del padre e l’arrivo delle autorità. «Mi farò sparare. Non posso vivere senza di lei. Ti amo».
Queste «degenerazioni colloquiali» con l’IA non sono episodi isolati.
Aiuta Renovatio 21
Come riportato da Renovatio 21, Matthew Livelsberger, un Berretto Verde dell’esercito americano, altamente decorato, è sospettato di aver organizzato un’esplosione all’esterno del Trump International Hotel di Las Vegas, utilizzando strumenti di Intelligenza Artificiale, tra cui ChatGPT, per pianificare l’attacco.
C’è quindi il caso del ragazzo che due anni fa pianificò di assassinare la defunta regina Elisabetta di Inghilterra con una balestra, e il tutto sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale.
Il potere pervasivo e nefasto di questa nuova tecnologia sta diventando un serio problema, come nella vicenda belga giovane vedova ha detto che il marito è stato portato a suicidarsi da un popolare chatbot di AI, mentre un bot di chat «terapeuta» dotato di intelligenza artificiale ha orribilmente incoraggiato un utente a scatenare una serie di omicidi per rendersi «felice».
Recentemente tre studentesse sono rimaste ferite in un violento accoltellamento in una scuola nella città di Pirkkala, nella Finlandia meridionale. Secondo quanto riferito, il sospettato durante la pianificazione dell’attacco (durata circa sei mesi) avrebbe utilizzato ChatGPT per prepararsi.
Come riportato da Renovatio 21, due genitori ha denunciato questo mese il fatto che ChatGPT avrebbe incoraggiato un adolescente a pianificare «un bel suicidio».
Secondo un recente sondaggio, circa la metà dei teenager americani afferma che parlare con l’AI è meglio che avere amici nella via reale.
Iscriviti alla Newslettera di Renovatio 21
Essere genitori
Una percentuale impressionante di adolescenti afferma che parlare con l’AI è meglio che con gli amici nella vita reale

Sostieni Renovatio 21
Iscriviti al canale Telegram
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Scuola e Intelligenza Artificiale, le linee guide verso «conseguenze personali e sociali sconosciute» per i nostri figli

A ridosso del ritorno sui banchi (è un’immagine vintage, lo sappiamo e lo facciamo apposta), il ministero dell’Istruzione e del Merito ha pubblicato le Linee guida per l’introduzione dell’Intelligenza Artificiale nelle Istituzioni scolastiche.
Il documento consta di 34 pagine e qui non se ne vuole fare un’esegesi – anche perché non se la merita. Ciò non toglie però che leggerlo sia un’esperienza tutta particolare, per certi versi estrema, capace di suscitare una gamma di sentimenti che spazia dall’ilarità allo stupore alla rabbia, con una netta prevalenza per la rabbia alla conta finale, ché in effetti a pensarci c’è poco da ridere, e anche poco di cui stupirsi.
Impressionisticamente, senza alcuna pretesa di sistematicità e tanto meno di esaustività, cerchiamo allora di dare conto di ciò che resta dopo questo breve ma intenso viaggio ai confini della realtà.
Sostieni Renovatio 21
Uso consapevole e responsabile, come la droga
Al malcapitato che si appresta a leggerle, viene subito spiegato nelle prime righe che le linee guida vogliono fornire «un quadro di riferimento strutturato per l’adozione consapevole e responsabile dei sistemi di Intelligenza Artificiale», affinché «diventino uno strumento per rafforzare la competitività del sistema educativo italiano». Dopo di che parte il primo elenco (ne seguiranno vari altri) delle meraviglie che, nell’ambito della propria discrezionalità, ciascuna istituzione scolastica può realizzare con l’IA.
Come potevano mancare la consapevolezza e la responsabilità? È questo infatti il mantra numero uno che è stato conficcato nelle teste soprattutto dei genitori/educatori/animatori dei tecnoutenti in erba, per far credere loro che sia giusto dotare il pargolo di protesi elettroniche di ultima generazione e immergerlo nel metaverso, che sia anzi una scelta necessaria per non condannarlo a crescere nel medioevo; con l’unica accortezza, per mostrarsi davvero coscienziosi, di fargli spiegare dall’esperto come affogare in modo consapevole.
Un po’ come l’uso consapevole della droga, insomma: drògati, ma fallo con responsabilità. Non è un parallelo stravagante, perché il digitale ottunde i sensi e genera dipendenza, alla stregua della cocaina. Lo diceva a chiare lettere anche la relazione finale dell’indagine conoscitiva promossa dalla VII Commissione permanente del Senato nel 2019 (quindi ancora in era pre-Covid, prima del Piano Scuola 4.0 uscito dal laboratorio della pandemia) intitolata Sull’impatto del digitale negli studenti, con particolare riguardo ai processi di apprendimento e che si può trovare sul sito governativo.
È insomma un narcotico dell’intelligenza umana, specie di quella che dovrebbe essere educata a crescere. Privarsi del dispositivo elettronico, infatti, è come subire l’amputazione di un arto, e del resto gli algoritmi sono programmati per adescare l’utente, catturarlo e tenerlo in ostaggio il più a lungo possibile.
Poi quella relazione diceva molte altre cose, basandosi su un ricco compendio di letteratura ed esperienza consolidate. Tipo che l’uso-abuso del digitale sta decerebrando le nuove generazioni (proprio così): riduce la neuroplasticità del cervello e frena lo sviluppo delle aree cerebrali responsabili di singole funzioni; fa sì che si inibiscano sul nascere, o si atrofizzino, facoltà cognitive, abilità psicofisiche, attitudini relazionali.
Inoltre genera isolamento, danni fisici di varia natura, psicosi assortite. Insomma, un disastro. Tutte conclusioni peraltro che, oltre a radicarsi in una bibliografia ormai sterminata, sono raggiungibili in autonomia da qualunque persona di buon senso che abbia a che fare con un cucciolo d’uomo contemporaneo e con i suoi coetanei. Bastava una mamma sensata qualunque, per arrivarci.
In ogni caso, nel tempo in cui invocare la scienza equivale a calare la carta vincente, il fatto di disporre di evidenze pressoché unanimi che certificano il fallimento della didattica digitale e, ancor più, la sua fenomenale dannosità, e al contempo fregarsene completamente per dedicarsi a pompare le sue prestazioni miracolose, bisogna riconoscere che richiede una buona dose di sfrontatezza.
Vien da pensare che ci sia sotto una faccenda grossa di bilanciamento di interessi, e che gli interessi dei colossi della tecnologia educativa debbano avere la meglio, per ordine superiore, su quelli della gente comune, dei giovani e della società.
Tanto più che il ministero che oggi celebra i prodigi dell’IA con la pecetta (l’additivo cautelare) dell’«uso consapevole», è lo stesso che ieri – dicembre 2023 – mandava in giro sottoforma di circolare la relazione di cui sopra nelle scuole di ogni ordine e grado. Uno strano caso di strabismo istituzionale, passato del tutto sotto silenzio forse per l’abitudine diffusa, divenuta rassegnata assuefazione, di sentir predicare simultaneamente tutto e il contrario di tutto dagli stessi identici predicatori. Pare normale.
Iscriviti alla Newslettera di Renovatio 21
Inevitabile tecnolatria
Ma la sensazione più irritante che, scorrendo quelle pagine, assale il lettore non tecnolatra deriva dal fatto che esse danno per presupposto che uno per forza lo sia. Cioè, non è nemmeno lontanamente contemplata l’eventualità che non tutti tutti – nella grande ammucchiata di genitori, studenti, docenti, dirigenti, personale di altro genere – non aspettassero altro che aderire felici all’utilizzo dell’IA nella propria scuola.
«L’introduzione dell’IA nelle istituzioni scolastiche rappresenta una grande opportunità, che richiede un impegno costante da parte di tutti gli attori coinvolti». Lo hanno deciso loro. Qualcuno è stato consultato? No. Si è registrata approvazione unanime? No. Ma entra in gioco qui un altro tic verbale e mentale (il mantra numero due) appiccicato ad arte al fenomeno della IA: la sua pretesa inevitabilità.
Il progresso non si può scansare, va cavalcato per una questione di destino invincibile, qualunque esso sia. Una species del suggestivo genus «there is no alternative» (TINA) coniato, al tempo, dalla lady d’oltremanica. Non ha quindi senso manifestare contrarietà verso qualcosa di ineluttabile: tanto vale buttarcisi a pesce, forti dell’illusione indotta di essere più scafati degli altri e di essere in grado di governare la macchina.
Siccome però in questa fattispecie specifica abbiamo visto che si va incontro a rischi e danni certi, severi e documentati, con l’aggravante che ad esserne travolti sono i più indifesi, la dichiarazione di inevitabilità equivale praticamente ad ammettere che abbiamo creato un mostro che ora vive di vita propria e non si può più fermare, o – detta altrimenti – che abbiamo aperto il vaso di Pandora, abbiamo perso il coperchio, ma amen, lasciamolo aperto e restiamo a guardare l’effetto che fa.
Niente male come tacita confessione di impotenza per l’uomo del terzo millennio che si crede onnipotente.
Iscriviti al canale Telegram
Effetti avversi sconosciuti
Tra l’altro le linee guida in esame non fanno affatto mistero della quantità dei rischi derivanti dalla adozione della IA nelle scuole e nemmeno della loro gravità. Si parla ripetutamente di rischi, così, in scioltezza, quasi come un intercalare. In fondo perché drammatizzare, se siamo di fronte all’inevitabile? I sistemi di IA vengono divisi, ai fini della diversa disciplina applicabile, in due categorie: sistemi ad alto rischio, se presentano una serie di caratteristiche espressamente elencate; sistemi non ad alto rischio tutti gli altri (categoria residuale).
È bellissimo però che a un certo punto (p. 30), nel mezzo di un lunghissimo discorso sul trattamento dei dati personali – dove con ammirevole disinvoltura si elenca una serie interminabile e complicatissima di passaggi burocratici prescritti, che è prevedibile porteranno in manicomio più di qualcuno – si dice anche che le istituzioni scolastiche, in qualità di titolari del trattamento, tra gli adempimenti e i sottoadempimenti cui sono obbligate, devono procedere alla «esecuzione di una valutazione di impatto (DPIA)» sulla protezione dei dati personali «volta a individuare i rischi connessi al trattamento di dati».
E poco più avanti si spiega che «la DPIA risulta necessaria in considerazione della innovatività dello strumento tecnologico utilizzato nonché del volume potenzialmente elevato dei dati personali trattati» (i grassetti sono nel testo originale). Infatti, continua il testo «il ricorso a tale nuova tecnologia può comportare nuove forme di raccolta e di utilizzo dei dati, magari costituendo un rischio elevato per i diritti e la libertà delle persone. Infatti le conseguenze personali e sociali dell’utilizzo di una nuova tecnologia potrebbero essere sconosciute» (qui il grassetto è nostro).
Conseguenze personali e sociali sconosciute. Cioè, un salto nel vuoto, messo nero su bianco nei documenti ufficiali. La popolazione scolastica, composta in buona parte di minorenni, è travolta (ancora una volta) in un mega esperimento di massa condotto (ancora una volta) con prodotti dei quali è nota a priori la dannosità, la quale comunque potrebbe esprimersi in forme ulteriori ancora non note.
Sostanze sperimentali – farmaci, droghe e simildroghe – inoculate nel cuore pulsante della società che fu democratica, ad effetto sorpresa: senza nemmeno un bugiardino e, quindi, senza un vero consenso informato possibile.
Aiuta Renovatio 21
La partecipazione democratica è una beffa
Nonostante queste premesse, il ministero dà per scontato che tutti insieme appassionatamente partecipino al grande gioco di società apparecchiato in tutte le scuole d’Italia dalle aziende Ed Tech e dall’indotto che ne discende: un’orgia digitale collettiva alla quale nessuno deve sottrarsi. A p. 21 si afferma, sempre in modo assertivo, che «il processo di transizione digitale richiede un coinvolgimento sinergico e sistemico del dirigente scolastico, del direttore dei servizi generali e amministrativi, del personale tecnico, ausiliario, amministrativo, dei docenti, degli studenti, tenendo conto del diverso grado di sviluppo connesso all’età, e delle rispettive rappresentanze di tali categorie di soggetti, delle famiglie, degli organi di indirizzo e di gestione degli aspetti organizzativi in ambito scolastico (ad esempio i Consigli di Istituto)».
Insomma, si tratta di allestire un balletto brulicante di ballerini improvvisati che saltellano sulla pelle di incolpevoli scolari tutt’intorno a una grande mangiatoia per predatori privati, più e meno corpulenti ma tutti parimenti affamati. Per non farsi mancare nulla, si suggerisce anche il coinvolgimento di stakeholder «attraverso la costituzione o l’adesione a parternariati, a reti di scuole, oppure stabilendo accordi con startup, università, istituti di ricerca, con approccio di ricerca-azione (…)».
Dulcis in fundo, al fine di «facilitare il coinvolgimento di tutti gli attori nel processo di cambiamento», il ministero veste pure i panni del coach motivazionale e consiglia di predisporre un «piano di comunicazione strutturato», perché si sa bene che «una strategia operativa efficace facilita il consenso e motiva i singoli a contribuire al raggiungimento degli obiettivi comuni» (p. 24) e incoraggia «il senso di appartenenza, il clima positivo».
Naturalmente per implementare tutta questa giostra, occorre che i docenti acquisiscano particolari «competenze digitali, approccio critico e attenzione a etica e professionalità, da sviluppare attraverso specifici percorsi formativi» (altra miniera d’oro, per i tenutari dei corsi). E così essi potranno finalmente accedere a un repertorio infinito di funzioni sostitutive delle proprie normali mansioni – fa tutto lei, e lo fa meglio di te – e predisporsi felici, in modalità suicidaria, alla soppressione prossima ventura della propria figura professionale.
Questa enfasi sulla partecipazione, di interni ed esterni, vuole evidentemente dare una mano di vernice di simil-democrazia sopra un gigantesco apparato industriale – la scuola è la più grande industria al mondo di estrazione dati (cit.) – che con i connotati propri di un’istituzione pubblica, specie se di natura educativa, non ci piglia neanche di striscio.
Forse a questo punto si può capire l’irritazione del lettore non conforme, al quale le linee guida si rivolgono come a uno scimunito che passa di là, pronto a farsi trascinare nelle danze dall’animatore del villaggio vacanze.
Sostieni Renovatio 21
Il Paese dei Balocchi e il mantra del pensiero critico
Quanto al regno incantato che si spalanca davanti agli studenti, la sua descrizione è lussureggiante. La campagna pubblicitaria del ministero sulle prodezze della IA punta a coprire e far dimenticare tutte le magagne sui pericoli e gli inconvenienti che, al confronto, sono bazzecole.
Basti pensare che l’IA (pp. 27 e 28): rende il processo educativo più coinvolgente, crea percorsi formativi su misura in linea con le esigenze individuali, permette di ampliare e diversificare l’offerta formativa adattandola agli interessi di ciascuno, dà supporto nella creazione di materiali didattici personalizzati; favorisce l’approfondimento di argomenti specifici, stimola la curiosità e il desiderio di apprendere e una naturale voglia di scoprire, potenzia le competenze digitali, fa diventare co-creatori attivi di contenuti, nonché futuri leader che definiranno il rapporto di questa tecnologia con la società, supporta nelle attività didattiche orientate nella produzione di contenuti.
Ancora: l’IA è un facilitatore della curiosità intellettuale, capace di alimentare la voglia di esplorare, aiuta nella scomposizione di problemi complessi e nella analisi di varie tipologie di informazioni; semplifica l’integrazione delle conoscenze, evidenziando punti di interconnessione tra diverse discipline; individua fonti di approfondimento pertinente, crea simulazioni interattive e ambienti virtuali. Promuove l’autonomia: chatbot o piattaforme di apprendimento personalizzate permettono di ricevere assistenza senza essere vincolati dagli orari scolastici tradizionali, facilitando la gestione autonoma del tempo e delle risorse, approccio che sviluppa capacità di autogestione e competenze trasversali come il pensiero critico e la capacità di problem solving. Aiuta a rimanere coinvolti e motivati rendendo il processo di apprendimento continuo e interattivo e incoraggiando a identificare i propri punti di forza e le aree di miglioramento.
Un panegirico che pretende dal lettore un atto di fede, mentre tocca vette spudorate di impostura. Contiene passaggi esemplari da sfruttare nelle lezioni di italiano (ci sono ancora, le lezioni? e l’italiano?) per spiegare il significato dell’ossimoro: l’Intelligenza Artificiale che promuove l’autonomia, facilita la gestione autonoma del tempo e delle risorse, sviluppa capacità di autogestione, il pensiero critico e la capacità di problem solving.
Cioè: a delegare alla macchina pensieri, parole e opere, a esternalizzare le funzioni fondamentali in un prolungamento artificiale del corpo, uno conquisterebbe autonomia.
Notare, tra l’altro, l’evocazione qua e là del pensiero critico, altra stucchevolissima formuletta magica (mantra numero tre), estratta dal cilindro del prestigiatore come il classico coniglio, per legittimare se stesso da un lato e per nobilitare qualsiasi ciofeca dall’altro. Basta spruzzare in giro, a casissimo, qualche «pensiero critico», e la coscienza va subito a posto, e ci si gode l’applauso assicurato del pubblico pagante.
Ma non c’è solo il pensiero critico. Sparse per il testo, tutte le classiche esche per i benpensanti, quelle che piacciono alla gente che piace, sfoderate per il lancio del grande gioco di società a cui siamo tutti chiamati coattivamente a giocare.
Ecco infatti che, per raggiungere i traguardi stellari elencati a più riprese nel documento, «è necessario che l’IA supporti la crescita personale e l’acquisizione di competenze autentiche, promuovendo l’apprendimento critico e creativo senza sostituire l’impegno, la riflessione e l’autonomia degli individui». Essa «deve promuovere un’innovazione etica e responsabile», essere utilizzata «in modo trasparente, consapevole e conforme ai valori educativi delle Istituzioni scolastiche italiane»; deve essere sostenibile nel lungo termine e «per traguardare (sic) questo obiettivo deve garantire un equilibrio nei tre pilastri della sostenibilità: sociale, economica e ambientale».
In sintesi: l’AI promuove l’autonomia, stimola il pensiero critico, ma per raggiungere questi fantastici obiettivi deve promuovere l’autonomia e stimolare il pensiero critico. Una autolegittimazione tautologica e circolare, formulata per la stessa banda di presunti scimuniti cui si accennava sopra.
Aiuta Renovatio 21
Accendere la resistenza
Viene da ridere, sì, ma poi sale la rabbia. L’onda d’urto di tanto delirio si abbatterà sui nostri figli se non ci predisponiamo a difenderli.
Che dall’altra parte ci sia un grumo di potere non solo economico, ma soprattutto politico (nel senso che il suo intento egemonico sta nel controllare l’esistenza altrui e pilotarla a proprio uso e consumo) non è forse nemmeno il problema più grande.
Il problema più grande è che la gente abbocca, anche se l’imbroglio è così plateale, e si lascia attirare nel girotondo per via di quel «piano di comunicazione strutturato» che funziona alla grande; oppure perché è semplicemente stanca, rassegnata, tanto da lasciarsi persuadere dalla narrazione truffaldina che fa leva sulla parola magica della «inevitabilità». E allora si convince a salire sulla giostra che gira sempre più forte, ma si sente rassicurata dall’essere «consapevole e responsabile», il tranquillante prescrittole dall’impresario circense.
L’imposizione dell’IA ai nostri figli – proprio come è stato per l’mRNA – calpestando la Costituzione, uccidendo il diritto e disintegrando il concetto stesso di democrazia, mira dritto dritto al cuore della natura umana per colpire la sua integrità e un po’ alla volta sostituirla. Ma in pochi sembrano farci caso: la maggior parte obbedisce, zitta e mosca, al programma di sottomissione.
E invece questo è proprio il momento della responsabilità. Dunque, che la forza sia con noi: con i docenti che non mollano, con i genitori che tengono ai propri figli, con gli scolari capaci di sopravvivere al trattamento loro riservato, e determinati a continuare a farlo per conquistarsi in premio una vita da vivere, e non da subire.
Elisabetta Frezza
Iscriviti alla Newslettera di Renovatio 21
-
Spirito2 settimane fa
Vescovo messicano «concelebra» la messa con una «sacerdotessa» lesbica anglicana «sposata» che ha ricevuto l’Eucaristia
-
Armi biologiche1 settimana fa
I vaccini COVID «sono armi biologiche» che «hanno provocato danni profondi»: nuovo studio
-
Spirito1 settimana fa
Leone punisca l’omoeresia: mons. Viganò sull’udienza papale concessa a padre Martin
-
Vaccini7 giorni fa
Vaccino COVID, mentre Reuters faceva «fact-cheking sulla «disinformazione» il suo CEO faceva anche parte del CdA di Pfizer
-
Spirito2 settimane fa
Don Giussani, errori ed misteri di Comunione e Liberazione. Una vecchia intervista con Don Ennio Innocenti
-
Gender2 settimane fa
Transessuale fa strage in chiesa in una scuola cattolica: nichilismo, psicofarmaci o possessione demoniaca?
-
Salute2 settimane fa
I malori della 35ª settimana 2025
-
Geopolitica2 settimane fa
Mosca conferma attacchi missilistici ipersonici contro l’Ucraina