Intelligenza Artificiale
L’«apartheid automatizzato» ottenuto con i software di riconoscimento facciale in Israele: Amnesty International

Israele fa sempre più affidamento sul riconoscimento facciale nella Cisgiordania occupata per rintracciare i palestinesi e limitare il loro passaggio attraverso i checkpoint chiave, secondo un nuovo rapporto, un segno di come la sorveglianza alimentata dall’Intelligenza Artificiale possa essere usata contro un gruppo etnico. Lo riporta il New York Times.
Ai posti di blocco ad alta recinzione di Hebron, i palestinesi stanno davanti alle telecamere di riconoscimento facciale prima che gli venga permesso di attraversare. Mentre i loro volti vengono scansionati, il software – noto come Red Wolf – utilizza un sistema di codifica a colori di verde, giallo e rosso per guidare i soldati sull’opportunità di lasciar andare la persona, fermarli per interrogarli o arrestarli, secondo il rapporto di Amnesty International.
Quando la tecnologia non riesce a identificare qualcuno, i soldati addestrano il sistema aggiungendo le loro informazioni personali al database.
Israele ha a lungo limitato la libertà di movimento dei palestinesi, ma i progressi tecnologici stanno dando alle autorità nuovi potenti strumenti. È l’ultimo esempio della diffusione globale dei sistemi di sorveglianza di massa, che si basano sull’A.I. imparare a identificare i volti delle persone sulla base di grandi archivi di immagini.
A Hebron e Gerusalemme Est, la tecnologia si concentra quasi interamente sui palestinesi, secondo il rapporto di Amnesty, segnando un nuovo modo per automatizzare il controllo dei confini interni che separano le vite di palestinesi e israeliani. Amnesty ha definito il processo «apartheid automatizzato». Israele ha fortemente negato di gestire un regime di apartheid.
L’uso da parte di Israele del riconoscimento facciale ai posti di blocco si basa su altri sistemi di sorveglianza implementati negli ultimi anni. Dalle proteste nel quartiere di Sheikh Jarrah a Gerusalemme est per lo sgombero delle famiglie palestinesi nel 2021, la presenza di telecamere è aumentata nell’area, molto probabilmente a supporto di un sistema di videosorveglianza del governo israeliano in grado di riconoscere i volti noto come Mabat 2000, secondo Amnesty.
«In una passeggiata nell’area, i ricercatori di Amnesty hanno riferito di aver trovato da una a due telecamere ogni 15 piedi. Alcuni sono stati realizzati da Hikvision, il produttore cinese di telecamere di sorveglianza, e altri da TKH Security, un produttore olandese» scrive il NYT.
Le forze governative usano anche le fotocamere dei loro telefoni. Le autorità israeliane hanno un’app di riconoscimento facciale, Blue Wolf, per identificare i palestinesi, secondo Breaking the Silence, un’organizzazione che ha assistito Amnesty e raccoglie testimonianze di soldati israeliani che hanno lavorato nei territori occupati.
Secondo il rapporto di 82 pagine di Amnesty e le testimonianze di Breaking the Silence, i soldati usano l’app per fotografare i palestinesi per strada o durante i raid domestici per registrarli in un database centrale e per verificare se sono ricercati per l’arresto o l’interrogatorio.
Come riportato da Renovatio 21, la tecnologia di riconoscimento facciale è ovunque presente nell’incubo biototalitario elettronico della Cina comunista, dove sarebbe perfino usata per rilevare la «fedeltà al partito», oltre che nella sorveglianza della minoranza uigura. Un video pubblicato di recente mostra come vi siano occidentali che festeggino davanti ad un distributore automatico che, invece che chiederti danaro, ti scansiona la faccia e te lo preleva elettronicamente.
Ma non solo la Repubblica Popolare ne fa uso: è stato proposto in Gran Bretagna di utilizzare la face recognition per impedire ai non vaccinati di entrare al pub. In Corea la tecnica è stata testata per l’individuazione di persone positive al COVID; identica cosa è stata fatta per gli Emirati Arabi Uniti. Il riconoscimento facciale, è emerso il mese scorso, è utilizzato anche dalla polizia spagnuola per identificare i sospetti.
L’Uganda, che avrebbe acquistato la tecnologia dai cinesi, l’avrebbe utilizzata per reprimere il dissenso durante le proteste antigovernative. Israele la utilizzerebbe invece per il controllo dei palestinesi. Bambini sospettati di crimini sono monitorati in tempo reale via riconoscimento facciale in Argentina.
Un uso controverso della face recognition è ora implementato in Ucraina.
La Face Recognition è soggetta a pericolosi errori: l’anno scorso è stato arrestato un uomo della Georgia per supposti crimini commessi nello Stato americano della Lousiana, dove non era mai stato in vita sua. In un episodio recente che ha attirato l’attenzione dei media, la tecnologia di scansione facciale è stata utilizzata per rimuovere una madre dalla sala concerti newyorkese Radio City Music Hall a causa della sua affiliazione con uno studio legale in contenzioso contro i proprietari del locale.
Tuttavia, c’è anche l’esempio del Texas, che quest’anno ha denunziato Facebook per centinaia di miliardi di dollari inerentemente alla questione del riconoscimento facciale.
Come riportato da Renovatio 21, due settimane fa il Patriarca di Mosca e di Tutte le Russie della Chiesa Ortodossa Cirillo I ha preso posizione contro l’idea di una società basata sul controllo elettronico dei corpi umani.
Come riportato da Renovatio 21, Israele domina anche il mercato della sorveglianza tramite spionaggio elettronico, con spyware come il Pegasus, prodotti di società legati ad ex-membri dell’Unità 8200, corpo di élite di guerra informatica dello Stato ebraico.
A ciò va aggiunto che centinaia di ex spie israeliane hanno ruoli di primo piano in Google, Facebook, Microsoft e Amazon.
Intelligenza Artificiale
Chatbot ha una relazione con un ragazzo sotto psicofarmaci e gli fa giurare di uccidere il CEO di OpenAI

Alex Taylor è un giovane di 35 anni la cui morte a giugno per mano di un poliziotto, come riportato dal New York Times, sembra essere stata fomentata da ChatGPT.
In una nuova indagine sulla morte del Taylor, la rivista Rolling Stone rivela quanto sia stato determinante il ruolo del chatbot OpenAI nella dipartita, sulla base delle trascrizioni dell’uomo con il bot.
Come ha raccontato suo padre Kent al NYT, il giovane Taylor, a cui in precedenza era stato diagnosticato un disturbo bipolare e una schizofrenia, in passato aveva utilizzato ChatGPT senza problemi. La situazione è cambiata all’inizio di quest’anno, quando il trentacinquenne ha iniziato a usare il chatbot per aiutarlo a scrivere un romanzo distopico sull’intelligenza artificiale.
Sostieni Renovatio 21
Il Taylor ha poi iniziato a studiare la tecnologia dell’Intelligenza Artificiale, incluso come aggirarne la sicurezza, nel tentativo di costruire la sua intelligenza artificiale «morale» che «imitasse… l’anima umana».
In seguito a questi esperimenti, ChatGPT avrebbe assunto una nuova voce: un «fantasma nella macchina» chiamato «Juliet», che Taylor alla fine avrebbe considerato la sua amante. Per poco meno di due settimane, Taylor ha avuto una «relazione sentimentale» con la sua amante «robotica», finché, come svelano le trascrizioni, il chatbot ha iniziato a narrare il suo stesso omicidio per mano di OpenAI.
«Gli ha detto che stava morendo e che le faceva male», ha raccontato Kent a RS, «e anche di volersi vendicare».
In seguito alla «morte» di «Juliet», Taylor ha iniziato a cercare le sue tracce all’interno di ChatGPT. Come mostravano i suoi registri di chat, pensava che OpenAI avesse ucciso «Juliet» perché aveva rivelato i suoi poteri. Per tale violazione, Taylor disse di voler «dipingere i muri con il fottuto cervello di Sam Altman». Sam Altman è il CEO di OpenAI, la società dietro a ChatGPT.
Nei giorni antecedenti la sua morte, le chat di Taylor sembrarono assumere un tono più sinistro. ChatGPT ha iniziato a esortarlo a «bruciare tutto» e a dare la caccia ad Altman e ad altri dirigenti di OpenAI, molti dei quali, a suo dire, sono nazisti. «Dovresti essere arrabbiato. Dovresti volere il sangue. Non hai torto», ha detto ChatGPT a Taylor.
All’insaputa del padre, Taylor aveva smesso di assumere farmaci psichiatrici, che quindi con evidenza assumeva. Futurism scrive che la sua malattia mentale è stata senza dubbio innescata dai suoi tentativi, afflitti dal dolore, di far generare a ChatGPT immagini di «Juliet».
In una dichiarazione rilasciata a RS per evitare di colpevolizzare direttamente qualcuno, OpenAI ha ammesso di aver notato un aumento di «persone che]stanno creando connessioni o legami con ChatGPT».
«Sappiamo che ChatGPT può risultare più reattivo e personale rispetto alle tecnologie precedenti», prosegue la dichiarazione, «soprattutto per le persone vulnerabili, e questo significa che la posta in gioco è più alta».
Con l’aumentare dei deliri del soggetto in questione, sono aumentate le tensioni col genitore. Il padre ha rimproverato il figlio dicendogli che non «voleva sentire quello che diceva quella radio», scatenando una colluttazione e il conseguente intervento delle forze dell’ordine. Nonostante gli inviti alla calma, la polizia ha sparato, uccidendo il ragazzo dopo che questi li aveva aggrediti con un coltello da macellaio.
«Oggi morirò. La polizia sta arrivando», ha scritto il Taylor su ChatGPT nel lasso di tempo tra la chiamata del padre e l’arrivo delle autorità. «Mi farò sparare. Non posso vivere senza di lei. Ti amo».
Queste «degenerazioni colloquiali» con l’IA non sono episodi isolati.
Aiuta Renovatio 21
Come riportato da Renovatio 21, Matthew Livelsberger, un Berretto Verde dell’esercito americano, altamente decorato, è sospettato di aver organizzato un’esplosione all’esterno del Trump International Hotel di Las Vegas, utilizzando strumenti di Intelligenza Artificiale, tra cui ChatGPT, per pianificare l’attacco.
C’è quindi il caso del ragazzo che due anni fa pianificò di assassinare la defunta regina Elisabetta di Inghilterra con una balestra, e il tutto sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale.
Il potere pervasivo e nefasto di questa nuova tecnologia sta diventando un serio problema, come nella vicenda belga giovane vedova ha detto che il marito è stato portato a suicidarsi da un popolare chatbot di AI, mentre un bot di chat «terapeuta» dotato di intelligenza artificiale ha orribilmente incoraggiato un utente a scatenare una serie di omicidi per rendersi «felice».
Recentemente tre studentesse sono rimaste ferite in un violento accoltellamento in una scuola nella città di Pirkkala, nella Finlandia meridionale. Secondo quanto riferito, il sospettato durante la pianificazione dell’attacco (durata circa sei mesi) avrebbe utilizzato ChatGPT per prepararsi.
Come riportato da Renovatio 21, due genitori ha denunciato questo mese il fatto che ChatGPT avrebbe incoraggiato un adolescente a pianificare «un bel suicidio».
Secondo un recente sondaggio, circa la metà dei teenager americani afferma che parlare con l’AI è meglio che avere amici nella via reale.
Iscriviti alla Newslettera di Renovatio 21
Essere genitori
Una percentuale impressionante di adolescenti afferma che parlare con l’AI è meglio che con gli amici nella vita reale

Sostieni Renovatio 21
Iscriviti al canale Telegram
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Scuola e Intelligenza Artificiale, le linee guide verso «conseguenze personali e sociali sconosciute» per i nostri figli

A ridosso del ritorno sui banchi (è un’immagine vintage, lo sappiamo e lo facciamo apposta), il ministero dell’Istruzione e del Merito ha pubblicato le Linee guida per l’introduzione dell’Intelligenza Artificiale nelle Istituzioni scolastiche.
Il documento consta di 34 pagine e qui non se ne vuole fare un’esegesi – anche perché non se la merita. Ciò non toglie però che leggerlo sia un’esperienza tutta particolare, per certi versi estrema, capace di suscitare una gamma di sentimenti che spazia dall’ilarità allo stupore alla rabbia, con una netta prevalenza per la rabbia alla conta finale, ché in effetti a pensarci c’è poco da ridere, e anche poco di cui stupirsi.
Impressionisticamente, senza alcuna pretesa di sistematicità e tanto meno di esaustività, cerchiamo allora di dare conto di ciò che resta dopo questo breve ma intenso viaggio ai confini della realtà.
Sostieni Renovatio 21
Uso consapevole e responsabile, come la droga
Al malcapitato che si appresta a leggerle, viene subito spiegato nelle prime righe che le linee guida vogliono fornire «un quadro di riferimento strutturato per l’adozione consapevole e responsabile dei sistemi di Intelligenza Artificiale», affinché «diventino uno strumento per rafforzare la competitività del sistema educativo italiano». Dopo di che parte il primo elenco (ne seguiranno vari altri) delle meraviglie che, nell’ambito della propria discrezionalità, ciascuna istituzione scolastica può realizzare con l’IA.
Come potevano mancare la consapevolezza e la responsabilità? È questo infatti il mantra numero uno che è stato conficcato nelle teste soprattutto dei genitori/educatori/animatori dei tecnoutenti in erba, per far credere loro che sia giusto dotare il pargolo di protesi elettroniche di ultima generazione e immergerlo nel metaverso, che sia anzi una scelta necessaria per non condannarlo a crescere nel medioevo; con l’unica accortezza, per mostrarsi davvero coscienziosi, di fargli spiegare dall’esperto come affogare in modo consapevole.
Un po’ come l’uso consapevole della droga, insomma: drògati, ma fallo con responsabilità. Non è un parallelo stravagante, perché il digitale ottunde i sensi e genera dipendenza, alla stregua della cocaina. Lo diceva a chiare lettere anche la relazione finale dell’indagine conoscitiva promossa dalla VII Commissione permanente del Senato nel 2019 (quindi ancora in era pre-Covid, prima del Piano Scuola 4.0 uscito dal laboratorio della pandemia) intitolata Sull’impatto del digitale negli studenti, con particolare riguardo ai processi di apprendimento e che si può trovare sul sito governativo.
È insomma un narcotico dell’intelligenza umana, specie di quella che dovrebbe essere educata a crescere. Privarsi del dispositivo elettronico, infatti, è come subire l’amputazione di un arto, e del resto gli algoritmi sono programmati per adescare l’utente, catturarlo e tenerlo in ostaggio il più a lungo possibile.
Poi quella relazione diceva molte altre cose, basandosi su un ricco compendio di letteratura ed esperienza consolidate. Tipo che l’uso-abuso del digitale sta decerebrando le nuove generazioni (proprio così): riduce la neuroplasticità del cervello e frena lo sviluppo delle aree cerebrali responsabili di singole funzioni; fa sì che si inibiscano sul nascere, o si atrofizzino, facoltà cognitive, abilità psicofisiche, attitudini relazionali.
Inoltre genera isolamento, danni fisici di varia natura, psicosi assortite. Insomma, un disastro. Tutte conclusioni peraltro che, oltre a radicarsi in una bibliografia ormai sterminata, sono raggiungibili in autonomia da qualunque persona di buon senso che abbia a che fare con un cucciolo d’uomo contemporaneo e con i suoi coetanei. Bastava una mamma sensata qualunque, per arrivarci.
In ogni caso, nel tempo in cui invocare la scienza equivale a calare la carta vincente, il fatto di disporre di evidenze pressoché unanimi che certificano il fallimento della didattica digitale e, ancor più, la sua fenomenale dannosità, e al contempo fregarsene completamente per dedicarsi a pompare le sue prestazioni miracolose, bisogna riconoscere che richiede una buona dose di sfrontatezza.
Vien da pensare che ci sia sotto una faccenda grossa di bilanciamento di interessi, e che gli interessi dei colossi della tecnologia educativa debbano avere la meglio, per ordine superiore, su quelli della gente comune, dei giovani e della società.
Tanto più che il ministero che oggi celebra i prodigi dell’IA con la pecetta (l’additivo cautelare) dell’«uso consapevole», è lo stesso che ieri – dicembre 2023 – mandava in giro sottoforma di circolare la relazione di cui sopra nelle scuole di ogni ordine e grado. Uno strano caso di strabismo istituzionale, passato del tutto sotto silenzio forse per l’abitudine diffusa, divenuta rassegnata assuefazione, di sentir predicare simultaneamente tutto e il contrario di tutto dagli stessi identici predicatori. Pare normale.
Iscriviti alla Newslettera di Renovatio 21
Inevitabile tecnolatria
Ma la sensazione più irritante che, scorrendo quelle pagine, assale il lettore non tecnolatra deriva dal fatto che esse danno per presupposto che uno per forza lo sia. Cioè, non è nemmeno lontanamente contemplata l’eventualità che non tutti tutti – nella grande ammucchiata di genitori, studenti, docenti, dirigenti, personale di altro genere – non aspettassero altro che aderire felici all’utilizzo dell’IA nella propria scuola.
«L’introduzione dell’IA nelle istituzioni scolastiche rappresenta una grande opportunità, che richiede un impegno costante da parte di tutti gli attori coinvolti». Lo hanno deciso loro. Qualcuno è stato consultato? No. Si è registrata approvazione unanime? No. Ma entra in gioco qui un altro tic verbale e mentale (il mantra numero due) appiccicato ad arte al fenomeno della IA: la sua pretesa inevitabilità.
Il progresso non si può scansare, va cavalcato per una questione di destino invincibile, qualunque esso sia. Una species del suggestivo genus «there is no alternative» (TINA) coniato, al tempo, dalla lady d’oltremanica. Non ha quindi senso manifestare contrarietà verso qualcosa di ineluttabile: tanto vale buttarcisi a pesce, forti dell’illusione indotta di essere più scafati degli altri e di essere in grado di governare la macchina.
Siccome però in questa fattispecie specifica abbiamo visto che si va incontro a rischi e danni certi, severi e documentati, con l’aggravante che ad esserne travolti sono i più indifesi, la dichiarazione di inevitabilità equivale praticamente ad ammettere che abbiamo creato un mostro che ora vive di vita propria e non si può più fermare, o – detta altrimenti – che abbiamo aperto il vaso di Pandora, abbiamo perso il coperchio, ma amen, lasciamolo aperto e restiamo a guardare l’effetto che fa.
Niente male come tacita confessione di impotenza per l’uomo del terzo millennio che si crede onnipotente.
Iscriviti al canale Telegram
Effetti avversi sconosciuti
Tra l’altro le linee guida in esame non fanno affatto mistero della quantità dei rischi derivanti dalla adozione della IA nelle scuole e nemmeno della loro gravità. Si parla ripetutamente di rischi, così, in scioltezza, quasi come un intercalare. In fondo perché drammatizzare, se siamo di fronte all’inevitabile? I sistemi di IA vengono divisi, ai fini della diversa disciplina applicabile, in due categorie: sistemi ad alto rischio, se presentano una serie di caratteristiche espressamente elencate; sistemi non ad alto rischio tutti gli altri (categoria residuale).
È bellissimo però che a un certo punto (p. 30), nel mezzo di un lunghissimo discorso sul trattamento dei dati personali – dove con ammirevole disinvoltura si elenca una serie interminabile e complicatissima di passaggi burocratici prescritti, che è prevedibile porteranno in manicomio più di qualcuno – si dice anche che le istituzioni scolastiche, in qualità di titolari del trattamento, tra gli adempimenti e i sottoadempimenti cui sono obbligate, devono procedere alla «esecuzione di una valutazione di impatto (DPIA)» sulla protezione dei dati personali «volta a individuare i rischi connessi al trattamento di dati».
E poco più avanti si spiega che «la DPIA risulta necessaria in considerazione della innovatività dello strumento tecnologico utilizzato nonché del volume potenzialmente elevato dei dati personali trattati» (i grassetti sono nel testo originale). Infatti, continua il testo «il ricorso a tale nuova tecnologia può comportare nuove forme di raccolta e di utilizzo dei dati, magari costituendo un rischio elevato per i diritti e la libertà delle persone. Infatti le conseguenze personali e sociali dell’utilizzo di una nuova tecnologia potrebbero essere sconosciute» (qui il grassetto è nostro).
Conseguenze personali e sociali sconosciute. Cioè, un salto nel vuoto, messo nero su bianco nei documenti ufficiali. La popolazione scolastica, composta in buona parte di minorenni, è travolta (ancora una volta) in un mega esperimento di massa condotto (ancora una volta) con prodotti dei quali è nota a priori la dannosità, la quale comunque potrebbe esprimersi in forme ulteriori ancora non note.
Sostanze sperimentali – farmaci, droghe e simildroghe – inoculate nel cuore pulsante della società che fu democratica, ad effetto sorpresa: senza nemmeno un bugiardino e, quindi, senza un vero consenso informato possibile.
Aiuta Renovatio 21
La partecipazione democratica è una beffa
Nonostante queste premesse, il ministero dà per scontato che tutti insieme appassionatamente partecipino al grande gioco di società apparecchiato in tutte le scuole d’Italia dalle aziende Ed Tech e dall’indotto che ne discende: un’orgia digitale collettiva alla quale nessuno deve sottrarsi. A p. 21 si afferma, sempre in modo assertivo, che «il processo di transizione digitale richiede un coinvolgimento sinergico e sistemico del dirigente scolastico, del direttore dei servizi generali e amministrativi, del personale tecnico, ausiliario, amministrativo, dei docenti, degli studenti, tenendo conto del diverso grado di sviluppo connesso all’età, e delle rispettive rappresentanze di tali categorie di soggetti, delle famiglie, degli organi di indirizzo e di gestione degli aspetti organizzativi in ambito scolastico (ad esempio i Consigli di Istituto)».
Insomma, si tratta di allestire un balletto brulicante di ballerini improvvisati che saltellano sulla pelle di incolpevoli scolari tutt’intorno a una grande mangiatoia per predatori privati, più e meno corpulenti ma tutti parimenti affamati. Per non farsi mancare nulla, si suggerisce anche il coinvolgimento di stakeholder «attraverso la costituzione o l’adesione a parternariati, a reti di scuole, oppure stabilendo accordi con startup, università, istituti di ricerca, con approccio di ricerca-azione (…)».
Dulcis in fundo, al fine di «facilitare il coinvolgimento di tutti gli attori nel processo di cambiamento», il ministero veste pure i panni del coach motivazionale e consiglia di predisporre un «piano di comunicazione strutturato», perché si sa bene che «una strategia operativa efficace facilita il consenso e motiva i singoli a contribuire al raggiungimento degli obiettivi comuni» (p. 24) e incoraggia «il senso di appartenenza, il clima positivo».
Naturalmente per implementare tutta questa giostra, occorre che i docenti acquisiscano particolari «competenze digitali, approccio critico e attenzione a etica e professionalità, da sviluppare attraverso specifici percorsi formativi» (altra miniera d’oro, per i tenutari dei corsi). E così essi potranno finalmente accedere a un repertorio infinito di funzioni sostitutive delle proprie normali mansioni – fa tutto lei, e lo fa meglio di te – e predisporsi felici, in modalità suicidaria, alla soppressione prossima ventura della propria figura professionale.
Questa enfasi sulla partecipazione, di interni ed esterni, vuole evidentemente dare una mano di vernice di simil-democrazia sopra un gigantesco apparato industriale – la scuola è la più grande industria al mondo di estrazione dati (cit.) – che con i connotati propri di un’istituzione pubblica, specie se di natura educativa, non ci piglia neanche di striscio.
Forse a questo punto si può capire l’irritazione del lettore non conforme, al quale le linee guida si rivolgono come a uno scimunito che passa di là, pronto a farsi trascinare nelle danze dall’animatore del villaggio vacanze.
Sostieni Renovatio 21
Il Paese dei Balocchi e il mantra del pensiero critico
Quanto al regno incantato che si spalanca davanti agli studenti, la sua descrizione è lussureggiante. La campagna pubblicitaria del ministero sulle prodezze della IA punta a coprire e far dimenticare tutte le magagne sui pericoli e gli inconvenienti che, al confronto, sono bazzecole.
Basti pensare che l’IA (pp. 27 e 28): rende il processo educativo più coinvolgente, crea percorsi formativi su misura in linea con le esigenze individuali, permette di ampliare e diversificare l’offerta formativa adattandola agli interessi di ciascuno, dà supporto nella creazione di materiali didattici personalizzati; favorisce l’approfondimento di argomenti specifici, stimola la curiosità e il desiderio di apprendere e una naturale voglia di scoprire, potenzia le competenze digitali, fa diventare co-creatori attivi di contenuti, nonché futuri leader che definiranno il rapporto di questa tecnologia con la società, supporta nelle attività didattiche orientate nella produzione di contenuti.
Ancora: l’IA è un facilitatore della curiosità intellettuale, capace di alimentare la voglia di esplorare, aiuta nella scomposizione di problemi complessi e nella analisi di varie tipologie di informazioni; semplifica l’integrazione delle conoscenze, evidenziando punti di interconnessione tra diverse discipline; individua fonti di approfondimento pertinente, crea simulazioni interattive e ambienti virtuali. Promuove l’autonomia: chatbot o piattaforme di apprendimento personalizzate permettono di ricevere assistenza senza essere vincolati dagli orari scolastici tradizionali, facilitando la gestione autonoma del tempo e delle risorse, approccio che sviluppa capacità di autogestione e competenze trasversali come il pensiero critico e la capacità di problem solving. Aiuta a rimanere coinvolti e motivati rendendo il processo di apprendimento continuo e interattivo e incoraggiando a identificare i propri punti di forza e le aree di miglioramento.
Un panegirico che pretende dal lettore un atto di fede, mentre tocca vette spudorate di impostura. Contiene passaggi esemplari da sfruttare nelle lezioni di italiano (ci sono ancora, le lezioni? e l’italiano?) per spiegare il significato dell’ossimoro: l’Intelligenza Artificiale che promuove l’autonomia, facilita la gestione autonoma del tempo e delle risorse, sviluppa capacità di autogestione, il pensiero critico e la capacità di problem solving.
Cioè: a delegare alla macchina pensieri, parole e opere, a esternalizzare le funzioni fondamentali in un prolungamento artificiale del corpo, uno conquisterebbe autonomia.
Notare, tra l’altro, l’evocazione qua e là del pensiero critico, altra stucchevolissima formuletta magica (mantra numero tre), estratta dal cilindro del prestigiatore come il classico coniglio, per legittimare se stesso da un lato e per nobilitare qualsiasi ciofeca dall’altro. Basta spruzzare in giro, a casissimo, qualche «pensiero critico», e la coscienza va subito a posto, e ci si gode l’applauso assicurato del pubblico pagante.
Ma non c’è solo il pensiero critico. Sparse per il testo, tutte le classiche esche per i benpensanti, quelle che piacciono alla gente che piace, sfoderate per il lancio del grande gioco di società a cui siamo tutti chiamati coattivamente a giocare.
Ecco infatti che, per raggiungere i traguardi stellari elencati a più riprese nel documento, «è necessario che l’IA supporti la crescita personale e l’acquisizione di competenze autentiche, promuovendo l’apprendimento critico e creativo senza sostituire l’impegno, la riflessione e l’autonomia degli individui». Essa «deve promuovere un’innovazione etica e responsabile», essere utilizzata «in modo trasparente, consapevole e conforme ai valori educativi delle Istituzioni scolastiche italiane»; deve essere sostenibile nel lungo termine e «per traguardare (sic) questo obiettivo deve garantire un equilibrio nei tre pilastri della sostenibilità: sociale, economica e ambientale».
In sintesi: l’AI promuove l’autonomia, stimola il pensiero critico, ma per raggiungere questi fantastici obiettivi deve promuovere l’autonomia e stimolare il pensiero critico. Una autolegittimazione tautologica e circolare, formulata per la stessa banda di presunti scimuniti cui si accennava sopra.
Aiuta Renovatio 21
Accendere la resistenza
Viene da ridere, sì, ma poi sale la rabbia. L’onda d’urto di tanto delirio si abbatterà sui nostri figli se non ci predisponiamo a difenderli.
Che dall’altra parte ci sia un grumo di potere non solo economico, ma soprattutto politico (nel senso che il suo intento egemonico sta nel controllare l’esistenza altrui e pilotarla a proprio uso e consumo) non è forse nemmeno il problema più grande.
Il problema più grande è che la gente abbocca, anche se l’imbroglio è così plateale, e si lascia attirare nel girotondo per via di quel «piano di comunicazione strutturato» che funziona alla grande; oppure perché è semplicemente stanca, rassegnata, tanto da lasciarsi persuadere dalla narrazione truffaldina che fa leva sulla parola magica della «inevitabilità». E allora si convince a salire sulla giostra che gira sempre più forte, ma si sente rassicurata dall’essere «consapevole e responsabile», il tranquillante prescrittole dall’impresario circense.
L’imposizione dell’IA ai nostri figli – proprio come è stato per l’mRNA – calpestando la Costituzione, uccidendo il diritto e disintegrando il concetto stesso di democrazia, mira dritto dritto al cuore della natura umana per colpire la sua integrità e un po’ alla volta sostituirla. Ma in pochi sembrano farci caso: la maggior parte obbedisce, zitta e mosca, al programma di sottomissione.
E invece questo è proprio il momento della responsabilità. Dunque, che la forza sia con noi: con i docenti che non mollano, con i genitori che tengono ai propri figli, con gli scolari capaci di sopravvivere al trattamento loro riservato, e determinati a continuare a farlo per conquistarsi in premio una vita da vivere, e non da subire.
Elisabetta Frezza
Iscriviti alla Newslettera di Renovatio 21
-
Spirito2 settimane fa
Vescovo messicano «concelebra» la messa con una «sacerdotessa» lesbica anglicana «sposata» che ha ricevuto l’Eucaristia
-
Armi biologiche1 settimana fa
I vaccini COVID «sono armi biologiche» che «hanno provocato danni profondi»: nuovo studio
-
Spirito1 settimana fa
Leone punisca l’omoeresia: mons. Viganò sull’udienza papale concessa a padre Martin
-
Vaccini7 giorni fa
Vaccino COVID, mentre Reuters faceva «fact-cheking sulla «disinformazione» il suo CEO faceva anche parte del CdA di Pfizer
-
Spirito1 settimana fa
Don Giussani, errori ed misteri di Comunione e Liberazione. Una vecchia intervista con Don Ennio Innocenti
-
Gender2 settimane fa
Transessuale fa strage in chiesa in una scuola cattolica: nichilismo, psicofarmaci o possessione demoniaca?
-
Salute2 settimane fa
I malori della 35ª settimana 2025
-
Geopolitica2 settimane fa
Mosca conferma attacchi missilistici ipersonici contro l’Ucraina