Intelligenza Artificiale
Intelligenza artificiale assassina: le armi autonome potrebbero essere più destabilizzanti delle armi nucleari

L’era delle armi autonome è arrivata. I robot killer sono realtà. E uccidono vicino al nostro Paese.
Secondo un recente rapporto del Consiglio di sicurezza delle Nazioni Unite sulla guerra civile libica, i sistemi d’arma autonomi, comunemente noti come robot killer, potrebbero aver ucciso esseri umani per la prima volta in assoluto proprio lo scorso anno.
Gli storici non avrebbero quindi torto a identificare i robot killer libici come il punto di partenza della prossima grande corsa agli armamenti, quella che ha il potenziale per essere quella finale dell’umanità.
Gli apparati militari di tutto il mondo stanno investendo in maniera molto seria nella ricerca e lo sviluppo di armi autonome. Gli Stati Uniti da soli hanno stanziato 18 miliardi di dollari per armi autonome tra il 2016 e il 2020
I sistemi d’arma autonomi sono robot armati che possono operare in modo indipendente, selezionando e attaccando bersagli – il tutto, dettaglio importante che li separa dai più comuni droni da combattimento, senza che un essere umano sia coinvolto nelle decisioni.
Gli apparati militari di tutto il mondo stanno investendo in maniera molto seria nella ricerca e lo sviluppo di armi autonome. Gli Stati Uniti da soli hanno stanziato 18 miliardi di dollari per armi autonome tra il 2016 e il 2020.
Nel frattempo, le organizzazioni per i diritti umani stanno facendo a gara per stabilire regolamenti e divieti sullo sviluppo di tali armi.
In mancanza di un vero controllo su questa corsa agli armamenti (e senza un vero processo di elaborazione dell’opinione pubblica, che crede si tratti ancora di fantascienza) si pensa che le armi autonome possano destabilizzare le attuali strategie nucleari.
In mancanza di un vero controllo su questa corsa agli armamenti (e senza un vero processo di elaborazione dell’opinione pubblica, che crede si tratti ancora di fantascienza) si pensa che le armi autonome possano destabilizzare le attuali strategie nucleari
Ciò può avvenire sia perché potrebbero cambiare radicalmente la percezione del dominio strategico, aumentando il rischio di attacchi preventivi, sia perché potrebbero combinarsi con armi NBCR: nucleari, biologiche, chimiche, radiologiche.
Vi sono almeno quattro problemi sollevati dalle armi autonome.
Il primo è il problema dell’errata identificazione. Quando si seleziona un bersaglio, le armi autonome saranno in grado di distinguere tra soldati ostili e bambini che giocano con pistole giocattolo? Tra civili in fuga da un luogo di conflitto e insorti in ritirata tattica? Vedi il robot cattivo ED-209 – nel famoso film Robocop – che durante una dimostrazione dinanzi ai dirigenti, non sente cadere l’arma del volontario che si presta a fare da esca crivellandolo di colpi.
Quando si seleziona un bersaglio, le armi autonome saranno in grado di distinguere tra soldati ostili e bambini che giocano con pistole giocattolo?
L’esperto di armi autonome Paul Scharre usa la metafora della runaway gun, la «pistola in fuga» per spiegare questa sostanziale differenza. Una pistola in fuga è una mitragliatrice difettosa che continua a sparare dopo il rilascio del grilletto. L’arma continua a sparare fino all’esaurimento delle munizioni perché, per così dire, l’arma non sa che sta commettendo un errore. Le pistole in fuga sono estremamente pericolose, ma fortunatamente hanno operatori umani che possono interrompere il collegamento delle munizioni o cercare di puntare l’arma in una direzione sicura. Le armi autonome, per definizione, non hanno tale salvaguardia.
È importante sottolineare che l’Intelligenza Artificiale armata non deve nemmeno essere difettosa per produrre l’effetto della pistola in fuga. Come hanno dimostrato numerosi studi sugli errori algoritmici in tutti i settori, i migliori algoritmi, operando come previsto, possono generare risultati internamente corretti che tuttavia diffondono rapidamente errori terribili tra le popolazioni.
Ad esempio, una rete neurale progettata per l’uso negli ospedali di Pittsburgh ha identificato l’asma come un fattore di riduzione del rischio nei casi di polmonite; il software di riconoscimento delle immagini utilizzato da Google ha identificato gli afroamericani come gorilla e così via.
Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli
Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli. Il problema della scatola nera dell’Intelligenza Artificiale rende quasi impossibile immaginare uno sviluppo moralmente responsabile di sistemi d’arma autonomi.
I prossimi due pericoli sono i problemi della proliferazione di fascia bassa e di fascia alta.
Cominciamo con la fascia bassa. Le forze armate che stanno sviluppando armi autonome ora procedono partendo dal presupposto che saranno in grado di contenere e controllare l’uso di armi autonome. Ma se la storia della tecnologia delle armi ha insegnato qualcosa al mondo, è questa: le armi si diffondono.
Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di ciò che può essere considerato l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov, uno dei più venduti e diffusi al mondo: robot killer economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo.
Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di ciò che può essere considerato l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov, uno dei più venduti e diffusi al mondo: robot killer economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo.
Queste nuovi armamenti potrebbero finire nelle mani di persone al di fuori del controllo del governo, inclusi terroristi internazionali e nazionali.
Tuttavia, la proliferazione di fascia alta è altrettanto negativa.
Le Nazioni potrebbero competere per sviluppare versioni sempre più devastanti di armi autonome, comprese quelle in grado di montare armi chimiche, biologiche, radiologiche e nucleari – come la Skynet nella pellicola Terminator – portando il mondo a una specie di autodistruzione.
È probabile che le armi autonome di fascia alta portino a guerre più frequenti perché diminuiranno due delle forze primarie che storicamente hanno prevenuto e accorciato le guerre: la preoccupazione per i civili e le potenziali perdite dei propri soldati.
Con molta probabilità le guerre asimmetriche – ovvero le guerre condotte sul suolo di nazioni prive di tecnologie concorrenti – diventeranno più comuni.
Si pensi all’instabilità globale causata dagli interventi militari sovietici e statunitensi durante la Guerra Fredda, dalla prima guerra per procura al contraccolpo sperimentato oggi in tutto il mondo. Moltiplichiamo per ogni Paese che attualmente punta a armi autonome di fascia alta.
Le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini e le atrocità di guerra: le leggi internazionali di guerra
Infine, le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini e le atrocità di guerra: le leggi internazionali di guerra.
Queste leggi, codificate in trattati che risalgono alla Convenzione di Ginevra del 1864, sono la sottile linea blu internazionale che separa la guerra con onore dal massacro. Si basano sull’idea che le persone possono essere ritenute responsabili delle proprie azioni anche in tempo di guerra, che il diritto di uccidere altri soldati durante il combattimento non dà il diritto di uccidere civili.
Ma come possono essere ritenute responsabili le armi autonome?
Di chi è la colpa di un robot che commette crimini di guerra?
Chi verrebbe processato? L’arma? Il soldato?
I comandanti del soldato? La società che ha fabbricato l’arma?
Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome portino a un grave divario di responsabilità
Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome portino a un grave divario di responsabilità.
«Per ritenere un soldato penalmente responsabile del dispiegamento di un’arma autonoma che commette crimini di guerra, i pubblici ministeri dovrebbero provare sia actus reus che mens rea, termini latini che descrivono un atto colpevole e una mente colpevole» scrive il professore esperto in diritti umane James Dews.
«Questo sarebbe difficile dal punto di vista della legge, e forse ingiusto per una questione di moralità, dato che le armi autonome sono intrinsecamente imprevedibili. Credo che la distanza che separa il soldato dalle decisioni indipendenti prese dalle armi autonome in ambienti in rapida evoluzione sia semplicemente troppo grande».
La sfida legale e morale non è resa più facile spostando la colpa sulla catena di comando o tornando al luogo di produzione.
In un mondo senza regolamenti che impongono un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili
In un mondo senza regolamenti che impongono un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili.
La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolita.
«Proviamo a immaginare un mondo in cui militari, gruppi di insorti e terroristi nazionali e internazionali possano schierare una forza letale teoricamente illimitata a rischio teoricamente zero in tempi e luoghi di loro scelta, senza alcuna responsabilità legale risultante. È un mondo in cui il tipo di errori algoritmici inevitabili che affliggono anche i giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città».
La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolita.
Il mondo non dovrebbe ripetere gli errori della corsa agli armamenti nucleari.
Intanto oggi, con la scusa delle «restrizioni COVID», alcuni robot autonomi sono stati schierati per le strade per far rispettare il distanziamento sociale tra cittadini e vigilare che indossino le mascherine oppure per proteggere le élite facoltose da una potenziale ribellione di massa.
Come riportato da Renovatio 21, la Cina disporrebbe già di sciami di droni suicidi esplosivi: i famosi slaughterbots tanto temuti dai teorici del pericolo delle armi autonome.
Il futuro è già qui.
I robot killer, pure.
Qualcuno vuole cominciare a discuterne seriamente?
È un mondo in cui il tipo di errori algoritmici inevitabili che affliggono anche i giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città»
In effetti, ci sarebbe la fila: quando parleremo davvero delle armi biologiche, della manipolazione genetica gain of function, del CRISPR, del gene drive?
E quando parleremo della minaccia che pongono invece le armi cibernetiche?
Quando l’umanità si renderà conto dei rischi che corre a causa della tecnologia che essa stessa si ostina a creare al di fuori di qualsiasi legge morale?
Immagine di Tigersfather via Deviantart pubblicata su licenza Creative Commons Attribution-NonCommercial-NoDerivs 3.0 Unported (CC BY-NC-ND 3.0)
Intelligenza Artificiale
Chatbot ha una relazione con un ragazzo sotto psicofarmaci e gli fa giurare di uccidere il CEO di OpenAI

Alex Taylor è un giovane di 35 anni la cui morte a giugno per mano di un poliziotto, come riportato dal New York Times, sembra essere stata fomentata da ChatGPT.
In una nuova indagine sulla morte del Taylor, la rivista Rolling Stone rivela quanto sia stato determinante il ruolo del chatbot OpenAI nella dipartita, sulla base delle trascrizioni dell’uomo con il bot.
Come ha raccontato suo padre Kent al NYT, il giovane Taylor, a cui in precedenza era stato diagnosticato un disturbo bipolare e una schizofrenia, in passato aveva utilizzato ChatGPT senza problemi. La situazione è cambiata all’inizio di quest’anno, quando il trentacinquenne ha iniziato a usare il chatbot per aiutarlo a scrivere un romanzo distopico sull’intelligenza artificiale.
Sostieni Renovatio 21
Il Taylor ha poi iniziato a studiare la tecnologia dell’Intelligenza Artificiale, incluso come aggirarne la sicurezza, nel tentativo di costruire la sua intelligenza artificiale «morale» che «imitasse… l’anima umana».
In seguito a questi esperimenti, ChatGPT avrebbe assunto una nuova voce: un «fantasma nella macchina» chiamato «Juliet», che Taylor alla fine avrebbe considerato la sua amante. Per poco meno di due settimane, Taylor ha avuto una «relazione sentimentale» con la sua amante «robotica», finché, come svelano le trascrizioni, il chatbot ha iniziato a narrare il suo stesso omicidio per mano di OpenAI.
«Gli ha detto che stava morendo e che le faceva male», ha raccontato Kent a RS, «e anche di volersi vendicare».
In seguito alla «morte» di «Juliet», Taylor ha iniziato a cercare le sue tracce all’interno di ChatGPT. Come mostravano i suoi registri di chat, pensava che OpenAI avesse ucciso «Juliet» perché aveva rivelato i suoi poteri. Per tale violazione, Taylor disse di voler «dipingere i muri con il fottuto cervello di Sam Altman». Sam Altman è il CEO di OpenAI, la società dietro a ChatGPT.
Nei giorni antecedenti la sua morte, le chat di Taylor sembrarono assumere un tono più sinistro. ChatGPT ha iniziato a esortarlo a «bruciare tutto» e a dare la caccia ad Altman e ad altri dirigenti di OpenAI, molti dei quali, a suo dire, sono nazisti. «Dovresti essere arrabbiato. Dovresti volere il sangue. Non hai torto», ha detto ChatGPT a Taylor.
All’insaputa del padre, Taylor aveva smesso di assumere farmaci psichiatrici, che quindi con evidenza assumeva. Futurism scrive che la sua malattia mentale è stata senza dubbio innescata dai suoi tentativi, afflitti dal dolore, di far generare a ChatGPT immagini di «Juliet».
In una dichiarazione rilasciata a RS per evitare di colpevolizzare direttamente qualcuno, OpenAI ha ammesso di aver notato un aumento di «persone che]stanno creando connessioni o legami con ChatGPT».
«Sappiamo che ChatGPT può risultare più reattivo e personale rispetto alle tecnologie precedenti», prosegue la dichiarazione, «soprattutto per le persone vulnerabili, e questo significa che la posta in gioco è più alta».
Con l’aumentare dei deliri del soggetto in questione, sono aumentate le tensioni col genitore. Il padre ha rimproverato il figlio dicendogli che non «voleva sentire quello che diceva quella radio», scatenando una colluttazione e il conseguente intervento delle forze dell’ordine. Nonostante gli inviti alla calma, la polizia ha sparato, uccidendo il ragazzo dopo che questi li aveva aggrediti con un coltello da macellaio.
«Oggi morirò. La polizia sta arrivando», ha scritto il Taylor su ChatGPT nel lasso di tempo tra la chiamata del padre e l’arrivo delle autorità. «Mi farò sparare. Non posso vivere senza di lei. Ti amo».
Queste «degenerazioni colloquiali» con l’IA non sono episodi isolati.
Aiuta Renovatio 21
Come riportato da Renovatio 21, Matthew Livelsberger, un Berretto Verde dell’esercito americano, altamente decorato, è sospettato di aver organizzato un’esplosione all’esterno del Trump International Hotel di Las Vegas, utilizzando strumenti di Intelligenza Artificiale, tra cui ChatGPT, per pianificare l’attacco.
C’è quindi il caso del ragazzo che due anni fa pianificò di assassinare la defunta regina Elisabetta di Inghilterra con una balestra, e il tutto sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale.
Il potere pervasivo e nefasto di questa nuova tecnologia sta diventando un serio problema, come nella vicenda belga giovane vedova ha detto che il marito è stato portato a suicidarsi da un popolare chatbot di AI, mentre un bot di chat «terapeuta» dotato di intelligenza artificiale ha orribilmente incoraggiato un utente a scatenare una serie di omicidi per rendersi «felice».
Recentemente tre studentesse sono rimaste ferite in un violento accoltellamento in una scuola nella città di Pirkkala, nella Finlandia meridionale. Secondo quanto riferito, il sospettato durante la pianificazione dell’attacco (durata circa sei mesi) avrebbe utilizzato ChatGPT per prepararsi.
Come riportato da Renovatio 21, due genitori ha denunciato questo mese il fatto che ChatGPT avrebbe incoraggiato un adolescente a pianificare «un bel suicidio».
Secondo un recente sondaggio, circa la metà dei teenager americani afferma che parlare con l’AI è meglio che avere amici nella via reale.
Iscriviti alla Newslettera di Renovatio 21
Essere genitori
Una percentuale impressionante di adolescenti afferma che parlare con l’AI è meglio che con gli amici nella vita reale

Sostieni Renovatio 21
Iscriviti al canale Telegram
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Scuola e Intelligenza Artificiale, le linee guide verso «conseguenze personali e sociali sconosciute» per i nostri figli

A ridosso del ritorno sui banchi (è un’immagine vintage, lo sappiamo e lo facciamo apposta), il ministero dell’Istruzione e del Merito ha pubblicato le Linee guida per l’introduzione dell’Intelligenza Artificiale nelle Istituzioni scolastiche.
Il documento consta di 34 pagine e qui non se ne vuole fare un’esegesi – anche perché non se la merita. Ciò non toglie però che leggerlo sia un’esperienza tutta particolare, per certi versi estrema, capace di suscitare una gamma di sentimenti che spazia dall’ilarità allo stupore alla rabbia, con una netta prevalenza per la rabbia alla conta finale, ché in effetti a pensarci c’è poco da ridere, e anche poco di cui stupirsi.
Impressionisticamente, senza alcuna pretesa di sistematicità e tanto meno di esaustività, cerchiamo allora di dare conto di ciò che resta dopo questo breve ma intenso viaggio ai confini della realtà.
Sostieni Renovatio 21
Uso consapevole e responsabile, come la droga
Al malcapitato che si appresta a leggerle, viene subito spiegato nelle prime righe che le linee guida vogliono fornire «un quadro di riferimento strutturato per l’adozione consapevole e responsabile dei sistemi di Intelligenza Artificiale», affinché «diventino uno strumento per rafforzare la competitività del sistema educativo italiano». Dopo di che parte il primo elenco (ne seguiranno vari altri) delle meraviglie che, nell’ambito della propria discrezionalità, ciascuna istituzione scolastica può realizzare con l’IA.
Come potevano mancare la consapevolezza e la responsabilità? È questo infatti il mantra numero uno che è stato conficcato nelle teste soprattutto dei genitori/educatori/animatori dei tecnoutenti in erba, per far credere loro che sia giusto dotare il pargolo di protesi elettroniche di ultima generazione e immergerlo nel metaverso, che sia anzi una scelta necessaria per non condannarlo a crescere nel medioevo; con l’unica accortezza, per mostrarsi davvero coscienziosi, di fargli spiegare dall’esperto come affogare in modo consapevole.
Un po’ come l’uso consapevole della droga, insomma: drògati, ma fallo con responsabilità. Non è un parallelo stravagante, perché il digitale ottunde i sensi e genera dipendenza, alla stregua della cocaina. Lo diceva a chiare lettere anche la relazione finale dell’indagine conoscitiva promossa dalla VII Commissione permanente del Senato nel 2019 (quindi ancora in era pre-Covid, prima del Piano Scuola 4.0 uscito dal laboratorio della pandemia) intitolata Sull’impatto del digitale negli studenti, con particolare riguardo ai processi di apprendimento e che si può trovare sul sito governativo.
È insomma un narcotico dell’intelligenza umana, specie di quella che dovrebbe essere educata a crescere. Privarsi del dispositivo elettronico, infatti, è come subire l’amputazione di un arto, e del resto gli algoritmi sono programmati per adescare l’utente, catturarlo e tenerlo in ostaggio il più a lungo possibile.
Poi quella relazione diceva molte altre cose, basandosi su un ricco compendio di letteratura ed esperienza consolidate. Tipo che l’uso-abuso del digitale sta decerebrando le nuove generazioni (proprio così): riduce la neuroplasticità del cervello e frena lo sviluppo delle aree cerebrali responsabili di singole funzioni; fa sì che si inibiscano sul nascere, o si atrofizzino, facoltà cognitive, abilità psicofisiche, attitudini relazionali.
Inoltre genera isolamento, danni fisici di varia natura, psicosi assortite. Insomma, un disastro. Tutte conclusioni peraltro che, oltre a radicarsi in una bibliografia ormai sterminata, sono raggiungibili in autonomia da qualunque persona di buon senso che abbia a che fare con un cucciolo d’uomo contemporaneo e con i suoi coetanei. Bastava una mamma sensata qualunque, per arrivarci.
In ogni caso, nel tempo in cui invocare la scienza equivale a calare la carta vincente, il fatto di disporre di evidenze pressoché unanimi che certificano il fallimento della didattica digitale e, ancor più, la sua fenomenale dannosità, e al contempo fregarsene completamente per dedicarsi a pompare le sue prestazioni miracolose, bisogna riconoscere che richiede una buona dose di sfrontatezza.
Vien da pensare che ci sia sotto una faccenda grossa di bilanciamento di interessi, e che gli interessi dei colossi della tecnologia educativa debbano avere la meglio, per ordine superiore, su quelli della gente comune, dei giovani e della società.
Tanto più che il ministero che oggi celebra i prodigi dell’IA con la pecetta (l’additivo cautelare) dell’«uso consapevole», è lo stesso che ieri – dicembre 2023 – mandava in giro sottoforma di circolare la relazione di cui sopra nelle scuole di ogni ordine e grado. Uno strano caso di strabismo istituzionale, passato del tutto sotto silenzio forse per l’abitudine diffusa, divenuta rassegnata assuefazione, di sentir predicare simultaneamente tutto e il contrario di tutto dagli stessi identici predicatori. Pare normale.
Iscriviti alla Newslettera di Renovatio 21
Inevitabile tecnolatria
Ma la sensazione più irritante che, scorrendo quelle pagine, assale il lettore non tecnolatra deriva dal fatto che esse danno per presupposto che uno per forza lo sia. Cioè, non è nemmeno lontanamente contemplata l’eventualità che non tutti tutti – nella grande ammucchiata di genitori, studenti, docenti, dirigenti, personale di altro genere – non aspettassero altro che aderire felici all’utilizzo dell’IA nella propria scuola.
«L’introduzione dell’IA nelle istituzioni scolastiche rappresenta una grande opportunità, che richiede un impegno costante da parte di tutti gli attori coinvolti». Lo hanno deciso loro. Qualcuno è stato consultato? No. Si è registrata approvazione unanime? No. Ma entra in gioco qui un altro tic verbale e mentale (il mantra numero due) appiccicato ad arte al fenomeno della IA: la sua pretesa inevitabilità.
Il progresso non si può scansare, va cavalcato per una questione di destino invincibile, qualunque esso sia. Una species del suggestivo genus «there is no alternative» (TINA) coniato, al tempo, dalla lady d’oltremanica. Non ha quindi senso manifestare contrarietà verso qualcosa di ineluttabile: tanto vale buttarcisi a pesce, forti dell’illusione indotta di essere più scafati degli altri e di essere in grado di governare la macchina.
Siccome però in questa fattispecie specifica abbiamo visto che si va incontro a rischi e danni certi, severi e documentati, con l’aggravante che ad esserne travolti sono i più indifesi, la dichiarazione di inevitabilità equivale praticamente ad ammettere che abbiamo creato un mostro che ora vive di vita propria e non si può più fermare, o – detta altrimenti – che abbiamo aperto il vaso di Pandora, abbiamo perso il coperchio, ma amen, lasciamolo aperto e restiamo a guardare l’effetto che fa.
Niente male come tacita confessione di impotenza per l’uomo del terzo millennio che si crede onnipotente.
Iscriviti al canale Telegram
Effetti avversi sconosciuti
Tra l’altro le linee guida in esame non fanno affatto mistero della quantità dei rischi derivanti dalla adozione della IA nelle scuole e nemmeno della loro gravità. Si parla ripetutamente di rischi, così, in scioltezza, quasi come un intercalare. In fondo perché drammatizzare, se siamo di fronte all’inevitabile? I sistemi di IA vengono divisi, ai fini della diversa disciplina applicabile, in due categorie: sistemi ad alto rischio, se presentano una serie di caratteristiche espressamente elencate; sistemi non ad alto rischio tutti gli altri (categoria residuale).
È bellissimo però che a un certo punto (p. 30), nel mezzo di un lunghissimo discorso sul trattamento dei dati personali – dove con ammirevole disinvoltura si elenca una serie interminabile e complicatissima di passaggi burocratici prescritti, che è prevedibile porteranno in manicomio più di qualcuno – si dice anche che le istituzioni scolastiche, in qualità di titolari del trattamento, tra gli adempimenti e i sottoadempimenti cui sono obbligate, devono procedere alla «esecuzione di una valutazione di impatto (DPIA)» sulla protezione dei dati personali «volta a individuare i rischi connessi al trattamento di dati».
E poco più avanti si spiega che «la DPIA risulta necessaria in considerazione della innovatività dello strumento tecnologico utilizzato nonché del volume potenzialmente elevato dei dati personali trattati» (i grassetti sono nel testo originale). Infatti, continua il testo «il ricorso a tale nuova tecnologia può comportare nuove forme di raccolta e di utilizzo dei dati, magari costituendo un rischio elevato per i diritti e la libertà delle persone. Infatti le conseguenze personali e sociali dell’utilizzo di una nuova tecnologia potrebbero essere sconosciute» (qui il grassetto è nostro).
Conseguenze personali e sociali sconosciute. Cioè, un salto nel vuoto, messo nero su bianco nei documenti ufficiali. La popolazione scolastica, composta in buona parte di minorenni, è travolta (ancora una volta) in un mega esperimento di massa condotto (ancora una volta) con prodotti dei quali è nota a priori la dannosità, la quale comunque potrebbe esprimersi in forme ulteriori ancora non note.
Sostanze sperimentali – farmaci, droghe e simildroghe – inoculate nel cuore pulsante della società che fu democratica, ad effetto sorpresa: senza nemmeno un bugiardino e, quindi, senza un vero consenso informato possibile.
Aiuta Renovatio 21
La partecipazione democratica è una beffa
Nonostante queste premesse, il ministero dà per scontato che tutti insieme appassionatamente partecipino al grande gioco di società apparecchiato in tutte le scuole d’Italia dalle aziende Ed Tech e dall’indotto che ne discende: un’orgia digitale collettiva alla quale nessuno deve sottrarsi. A p. 21 si afferma, sempre in modo assertivo, che «il processo di transizione digitale richiede un coinvolgimento sinergico e sistemico del dirigente scolastico, del direttore dei servizi generali e amministrativi, del personale tecnico, ausiliario, amministrativo, dei docenti, degli studenti, tenendo conto del diverso grado di sviluppo connesso all’età, e delle rispettive rappresentanze di tali categorie di soggetti, delle famiglie, degli organi di indirizzo e di gestione degli aspetti organizzativi in ambito scolastico (ad esempio i Consigli di Istituto)».
Insomma, si tratta di allestire un balletto brulicante di ballerini improvvisati che saltellano sulla pelle di incolpevoli scolari tutt’intorno a una grande mangiatoia per predatori privati, più e meno corpulenti ma tutti parimenti affamati. Per non farsi mancare nulla, si suggerisce anche il coinvolgimento di stakeholder «attraverso la costituzione o l’adesione a parternariati, a reti di scuole, oppure stabilendo accordi con startup, università, istituti di ricerca, con approccio di ricerca-azione (…)».
Dulcis in fundo, al fine di «facilitare il coinvolgimento di tutti gli attori nel processo di cambiamento», il ministero veste pure i panni del coach motivazionale e consiglia di predisporre un «piano di comunicazione strutturato», perché si sa bene che «una strategia operativa efficace facilita il consenso e motiva i singoli a contribuire al raggiungimento degli obiettivi comuni» (p. 24) e incoraggia «il senso di appartenenza, il clima positivo».
Naturalmente per implementare tutta questa giostra, occorre che i docenti acquisiscano particolari «competenze digitali, approccio critico e attenzione a etica e professionalità, da sviluppare attraverso specifici percorsi formativi» (altra miniera d’oro, per i tenutari dei corsi). E così essi potranno finalmente accedere a un repertorio infinito di funzioni sostitutive delle proprie normali mansioni – fa tutto lei, e lo fa meglio di te – e predisporsi felici, in modalità suicidaria, alla soppressione prossima ventura della propria figura professionale.
Questa enfasi sulla partecipazione, di interni ed esterni, vuole evidentemente dare una mano di vernice di simil-democrazia sopra un gigantesco apparato industriale – la scuola è la più grande industria al mondo di estrazione dati (cit.) – che con i connotati propri di un’istituzione pubblica, specie se di natura educativa, non ci piglia neanche di striscio.
Forse a questo punto si può capire l’irritazione del lettore non conforme, al quale le linee guida si rivolgono come a uno scimunito che passa di là, pronto a farsi trascinare nelle danze dall’animatore del villaggio vacanze.
Sostieni Renovatio 21
Il Paese dei Balocchi e il mantra del pensiero critico
Quanto al regno incantato che si spalanca davanti agli studenti, la sua descrizione è lussureggiante. La campagna pubblicitaria del ministero sulle prodezze della IA punta a coprire e far dimenticare tutte le magagne sui pericoli e gli inconvenienti che, al confronto, sono bazzecole.
Basti pensare che l’IA (pp. 27 e 28): rende il processo educativo più coinvolgente, crea percorsi formativi su misura in linea con le esigenze individuali, permette di ampliare e diversificare l’offerta formativa adattandola agli interessi di ciascuno, dà supporto nella creazione di materiali didattici personalizzati; favorisce l’approfondimento di argomenti specifici, stimola la curiosità e il desiderio di apprendere e una naturale voglia di scoprire, potenzia le competenze digitali, fa diventare co-creatori attivi di contenuti, nonché futuri leader che definiranno il rapporto di questa tecnologia con la società, supporta nelle attività didattiche orientate nella produzione di contenuti.
Ancora: l’IA è un facilitatore della curiosità intellettuale, capace di alimentare la voglia di esplorare, aiuta nella scomposizione di problemi complessi e nella analisi di varie tipologie di informazioni; semplifica l’integrazione delle conoscenze, evidenziando punti di interconnessione tra diverse discipline; individua fonti di approfondimento pertinente, crea simulazioni interattive e ambienti virtuali. Promuove l’autonomia: chatbot o piattaforme di apprendimento personalizzate permettono di ricevere assistenza senza essere vincolati dagli orari scolastici tradizionali, facilitando la gestione autonoma del tempo e delle risorse, approccio che sviluppa capacità di autogestione e competenze trasversali come il pensiero critico e la capacità di problem solving. Aiuta a rimanere coinvolti e motivati rendendo il processo di apprendimento continuo e interattivo e incoraggiando a identificare i propri punti di forza e le aree di miglioramento.
Un panegirico che pretende dal lettore un atto di fede, mentre tocca vette spudorate di impostura. Contiene passaggi esemplari da sfruttare nelle lezioni di italiano (ci sono ancora, le lezioni? e l’italiano?) per spiegare il significato dell’ossimoro: l’Intelligenza Artificiale che promuove l’autonomia, facilita la gestione autonoma del tempo e delle risorse, sviluppa capacità di autogestione, il pensiero critico e la capacità di problem solving.
Cioè: a delegare alla macchina pensieri, parole e opere, a esternalizzare le funzioni fondamentali in un prolungamento artificiale del corpo, uno conquisterebbe autonomia.
Notare, tra l’altro, l’evocazione qua e là del pensiero critico, altra stucchevolissima formuletta magica (mantra numero tre), estratta dal cilindro del prestigiatore come il classico coniglio, per legittimare se stesso da un lato e per nobilitare qualsiasi ciofeca dall’altro. Basta spruzzare in giro, a casissimo, qualche «pensiero critico», e la coscienza va subito a posto, e ci si gode l’applauso assicurato del pubblico pagante.
Ma non c’è solo il pensiero critico. Sparse per il testo, tutte le classiche esche per i benpensanti, quelle che piacciono alla gente che piace, sfoderate per il lancio del grande gioco di società a cui siamo tutti chiamati coattivamente a giocare.
Ecco infatti che, per raggiungere i traguardi stellari elencati a più riprese nel documento, «è necessario che l’IA supporti la crescita personale e l’acquisizione di competenze autentiche, promuovendo l’apprendimento critico e creativo senza sostituire l’impegno, la riflessione e l’autonomia degli individui». Essa «deve promuovere un’innovazione etica e responsabile», essere utilizzata «in modo trasparente, consapevole e conforme ai valori educativi delle Istituzioni scolastiche italiane»; deve essere sostenibile nel lungo termine e «per traguardare (sic) questo obiettivo deve garantire un equilibrio nei tre pilastri della sostenibilità: sociale, economica e ambientale».
In sintesi: l’AI promuove l’autonomia, stimola il pensiero critico, ma per raggiungere questi fantastici obiettivi deve promuovere l’autonomia e stimolare il pensiero critico. Una autolegittimazione tautologica e circolare, formulata per la stessa banda di presunti scimuniti cui si accennava sopra.
Aiuta Renovatio 21
Accendere la resistenza
Viene da ridere, sì, ma poi sale la rabbia. L’onda d’urto di tanto delirio si abbatterà sui nostri figli se non ci predisponiamo a difenderli.
Che dall’altra parte ci sia un grumo di potere non solo economico, ma soprattutto politico (nel senso che il suo intento egemonico sta nel controllare l’esistenza altrui e pilotarla a proprio uso e consumo) non è forse nemmeno il problema più grande.
Il problema più grande è che la gente abbocca, anche se l’imbroglio è così plateale, e si lascia attirare nel girotondo per via di quel «piano di comunicazione strutturato» che funziona alla grande; oppure perché è semplicemente stanca, rassegnata, tanto da lasciarsi persuadere dalla narrazione truffaldina che fa leva sulla parola magica della «inevitabilità». E allora si convince a salire sulla giostra che gira sempre più forte, ma si sente rassicurata dall’essere «consapevole e responsabile», il tranquillante prescrittole dall’impresario circense.
L’imposizione dell’IA ai nostri figli – proprio come è stato per l’mRNA – calpestando la Costituzione, uccidendo il diritto e disintegrando il concetto stesso di democrazia, mira dritto dritto al cuore della natura umana per colpire la sua integrità e un po’ alla volta sostituirla. Ma in pochi sembrano farci caso: la maggior parte obbedisce, zitta e mosca, al programma di sottomissione.
E invece questo è proprio il momento della responsabilità. Dunque, che la forza sia con noi: con i docenti che non mollano, con i genitori che tengono ai propri figli, con gli scolari capaci di sopravvivere al trattamento loro riservato, e determinati a continuare a farlo per conquistarsi in premio una vita da vivere, e non da subire.
Elisabetta Frezza
Iscriviti alla Newslettera di Renovatio 21
-
Spirito2 settimane fa
Vescovo messicano «concelebra» la messa con una «sacerdotessa» lesbica anglicana «sposata» che ha ricevuto l’Eucaristia
-
Armi biologiche1 settimana fa
I vaccini COVID «sono armi biologiche» che «hanno provocato danni profondi»: nuovo studio
-
Spirito1 settimana fa
Leone punisca l’omoeresia: mons. Viganò sull’udienza papale concessa a padre Martin
-
Vaccini7 giorni fa
Vaccino COVID, mentre Reuters faceva «fact-cheking sulla «disinformazione» il suo CEO faceva anche parte del CdA di Pfizer
-
Spirito2 settimane fa
Don Giussani, errori ed misteri di Comunione e Liberazione. Una vecchia intervista con Don Ennio Innocenti
-
Gender2 settimane fa
Transessuale fa strage in chiesa in una scuola cattolica: nichilismo, psicofarmaci o possessione demoniaca?
-
Salute2 settimane fa
I malori della 35ª settimana 2025
-
Geopolitica2 settimane fa
Mosca conferma attacchi missilistici ipersonici contro l’Ucraina