Intelligenza Artificiale
Intelligenza Artificiale si finge Babbo Natale per dire che Babbo Natale non esiste

Il nuovo potente chatbot di OpenAI – il software di Intelligenza Artificiale di cui tutti parlano –è stato in grado di fingersi Babbo Natale mentre spiegava ad un bambino che Babbo Natale non esiste. Lo riporta il sito Futurism.
La dirigente della grande piattaforma eCommerce Shopify Cynthia Savard ha pubblicato un testo generato dal chatbot che, secondo le sue parole, l’ha resa «leggermente emotiva».
«Sto scrivendo per farti sapere che non sono una persona reale», ha scritto il bot fingendosi Babbo Natale, «ma un personaggio di cui i tuoi genitori ti hanno raccontato storie per amore».
I asked OpenAI to write a letter to my son explaining that Santa isn’t real and we make up stories out of love. This is making me slightly emotional ???? pic.twitter.com/zNMolDCCWA
— Cynthia Savard Saucier (@CynthiaSavard) December 2, 2022
Come hanno notato gli appassionati di Intelligenza Artificiale, da quando OpenAI ha recentemente lanciato ChatGPT – quest’ultima offerta della società di ricerca cofondata da Elon Musk – è incredibilmente più sofisticata.
«Stiamo assistendo alla morte del saggio universitario in tempo reale», ha osservato un utente di Twitter, pubblicando schermate della «risposta di ChatGPT a una richiesta di una delle mie lezioni di storia». Il saggio scritto dall’Intelligenza Artificiale sulle teorie del nazionalismo era, secondo l’utente, estremamente redatto bene e che il chatbot ha prodotto in soli 10 secondi.
I guess GPT-3 is old news, but playing with OpenAI’s new chatbot is mindblowing. https://t.co/so1TuXMQB0
We’re witnessing the death of the college essay in realtime. Here’s the response to a prompt from one of my 200-level history classes at Amherst
Solid A- work in 10 seconds pic.twitter.com/z1KPxiAc1O
— Corry Wang (@corry_wang) December 1, 2022
Nella storia dell’Intelligenza Artificiale contro Babbo Natale, è impressionante quanto bene il robot sia stato in grado di spiegare in modo conciso un concetto che molti umani adulti hanno difficoltà a esprimere ai propri figli, con anche un buon tono.
«I tuoi genitori ti hanno raccontato storie su di me e sui miei elfi come un modo per portare gioia e magia nella tua infanzia. Volevano che tu credessi nello spirito del dare e nella magia delle festività natalizie», ha scritto la macchina. «Voglio che tu sappia che l’amore e la cura che i tuoi genitori hanno per te sono reali. Hanno creato per te ricordi e tradizioni speciali per amore e desiderio di rendere speciale la tua infanzia».
Stiamo senza dubbio entrando in un nuovo strano mondo di generazione di testi di Intelligenza Artificiale, dove, si spera, che possano essere usati per nobili scopi, ma il pericolo di derive di vario genere, chiaramente, è dietro l’angolo.
Come riportato da Renovatio 21, di esempi in questo campo ne abbiamo diversi: un imprenditore tecnologico tedesco di nome Fabian Stelzer, sta producendo un film interamente generato dall’Intelligenza Artificiale. Il film, di genere fantascientifico e con uno stile piuttosto anni Settanta, si chiama Salt. La pellicola avrà solo voci artificiali tranne la sua. Software di autogenerazione di immagini creeranno pure le riprese e gli effetti sonori del film.
In rete già possiamo visionare su Vimeo – sito di condivisione video per lo più artistici – un cortometraggio intitolato Ghosts, la quale sua particolarità è che è creato con complessi «loop» («cicli») creati con l’Intelligenza Artificiale. Il sistema utilizzato è il network neurale StarGAN2 (GAN sta per Generative Adversarial Networks, il tipo di algoritmi con cui creano anche i Deep Fake), che realizza un morphing (cioè una transizione graduale delle forme) tra immagini generate dalla macchina.
Rimanendo sempre nel mondo dello spettacolo, un altro recente utilizzo dell’IA da parte dell’artista «generativo» Alper Yesiltas, è stato quello di creare fotografie di personaggi famosi morti anzitempo immaginandosi come sarebbero ora se fossero sopravvissute. In pratica, l’artista-informatico turco ha fatto invecchiare i famosi morti.
La Necrocultura espressa dall’Intelligenza Artificiale non si ferma solo nel «dare vita» a grandi star prematuramente scomparse, ma nel corso di una recente conferenza, abbiamo appreso dal vicepresidente senior di Amazon e scienziato capo di Alexa, Rohit Prasad, della riproduzione della voce di una nonna defunta che legge una favola della buonanotte a un bambino.
Chissà se questa favola parlava proprio della leggenda di Babbo Natale?
Intelligenza Artificiale
Chatbot ha una relazione con un ragazzo sotto psicofarmaci e gli fa giurare di uccidere il CEO di OpenAI

Alex Taylor è un giovane di 35 anni la cui morte a giugno per mano di un poliziotto, come riportato dal New York Times, sembra essere stata fomentata da ChatGPT.
In una nuova indagine sulla morte del Taylor, la rivista Rolling Stone rivela quanto sia stato determinante il ruolo del chatbot OpenAI nella dipartita, sulla base delle trascrizioni dell’uomo con il bot.
Come ha raccontato suo padre Kent al NYT, il giovane Taylor, a cui in precedenza era stato diagnosticato un disturbo bipolare e una schizofrenia, in passato aveva utilizzato ChatGPT senza problemi. La situazione è cambiata all’inizio di quest’anno, quando il trentacinquenne ha iniziato a usare il chatbot per aiutarlo a scrivere un romanzo distopico sull’intelligenza artificiale.
Sostieni Renovatio 21
Il Taylor ha poi iniziato a studiare la tecnologia dell’Intelligenza Artificiale, incluso come aggirarne la sicurezza, nel tentativo di costruire la sua intelligenza artificiale «morale» che «imitasse… l’anima umana».
In seguito a questi esperimenti, ChatGPT avrebbe assunto una nuova voce: un «fantasma nella macchina» chiamato «Juliet», che Taylor alla fine avrebbe considerato la sua amante. Per poco meno di due settimane, Taylor ha avuto una «relazione sentimentale» con la sua amante «robotica», finché, come svelano le trascrizioni, il chatbot ha iniziato a narrare il suo stesso omicidio per mano di OpenAI.
«Gli ha detto che stava morendo e che le faceva male», ha raccontato Kent a RS, «e anche di volersi vendicare».
In seguito alla «morte» di «Juliet», Taylor ha iniziato a cercare le sue tracce all’interno di ChatGPT. Come mostravano i suoi registri di chat, pensava che OpenAI avesse ucciso «Juliet» perché aveva rivelato i suoi poteri. Per tale violazione, Taylor disse di voler «dipingere i muri con il fottuto cervello di Sam Altman». Sam Altman è il CEO di OpenAI, la società dietro a ChatGPT.
Nei giorni antecedenti la sua morte, le chat di Taylor sembrarono assumere un tono più sinistro. ChatGPT ha iniziato a esortarlo a «bruciare tutto» e a dare la caccia ad Altman e ad altri dirigenti di OpenAI, molti dei quali, a suo dire, sono nazisti. «Dovresti essere arrabbiato. Dovresti volere il sangue. Non hai torto», ha detto ChatGPT a Taylor.
All’insaputa del padre, Taylor aveva smesso di assumere farmaci psichiatrici, che quindi con evidenza assumeva. Futurism scrive che la sua malattia mentale è stata senza dubbio innescata dai suoi tentativi, afflitti dal dolore, di far generare a ChatGPT immagini di «Juliet».
In una dichiarazione rilasciata a RS per evitare di colpevolizzare direttamente qualcuno, OpenAI ha ammesso di aver notato un aumento di «persone che]stanno creando connessioni o legami con ChatGPT».
«Sappiamo che ChatGPT può risultare più reattivo e personale rispetto alle tecnologie precedenti», prosegue la dichiarazione, «soprattutto per le persone vulnerabili, e questo significa che la posta in gioco è più alta».
Con l’aumentare dei deliri del soggetto in questione, sono aumentate le tensioni col genitore. Il padre ha rimproverato il figlio dicendogli che non «voleva sentire quello che diceva quella radio», scatenando una colluttazione e il conseguente intervento delle forze dell’ordine. Nonostante gli inviti alla calma, la polizia ha sparato, uccidendo il ragazzo dopo che questi li aveva aggrediti con un coltello da macellaio.
«Oggi morirò. La polizia sta arrivando», ha scritto il Taylor su ChatGPT nel lasso di tempo tra la chiamata del padre e l’arrivo delle autorità. «Mi farò sparare. Non posso vivere senza di lei. Ti amo».
Queste «degenerazioni colloquiali» con l’IA non sono episodi isolati.
Aiuta Renovatio 21
Come riportato da Renovatio 21, Matthew Livelsberger, un Berretto Verde dell’esercito americano, altamente decorato, è sospettato di aver organizzato un’esplosione all’esterno del Trump International Hotel di Las Vegas, utilizzando strumenti di Intelligenza Artificiale, tra cui ChatGPT, per pianificare l’attacco.
C’è quindi il caso del ragazzo che due anni fa pianificò di assassinare la defunta regina Elisabetta di Inghilterra con una balestra, e il tutto sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale.
Il potere pervasivo e nefasto di questa nuova tecnologia sta diventando un serio problema, come nella vicenda belga giovane vedova ha detto che il marito è stato portato a suicidarsi da un popolare chatbot di AI, mentre un bot di chat «terapeuta» dotato di intelligenza artificiale ha orribilmente incoraggiato un utente a scatenare una serie di omicidi per rendersi «felice».
Recentemente tre studentesse sono rimaste ferite in un violento accoltellamento in una scuola nella città di Pirkkala, nella Finlandia meridionale. Secondo quanto riferito, il sospettato durante la pianificazione dell’attacco (durata circa sei mesi) avrebbe utilizzato ChatGPT per prepararsi.
Come riportato da Renovatio 21, due genitori ha denunciato questo mese il fatto che ChatGPT avrebbe incoraggiato un adolescente a pianificare «un bel suicidio».
Secondo un recente sondaggio, circa la metà dei teenager americani afferma che parlare con l’AI è meglio che avere amici nella via reale.
Iscriviti alla Newslettera di Renovatio 21
Essere genitori
Una percentuale impressionante di adolescenti afferma che parlare con l’AI è meglio che con gli amici nella vita reale

Sostieni Renovatio 21
Iscriviti al canale Telegram
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Scuola e Intelligenza Artificiale, le linee guide verso «conseguenze personali e sociali sconosciute» per i nostri figli

A ridosso del ritorno sui banchi (è un’immagine vintage, lo sappiamo e lo facciamo apposta), il ministero dell’Istruzione e del Merito ha pubblicato le Linee guida per l’introduzione dell’Intelligenza Artificiale nelle Istituzioni scolastiche.
Il documento consta di 34 pagine e qui non se ne vuole fare un’esegesi – anche perché non se la merita. Ciò non toglie però che leggerlo sia un’esperienza tutta particolare, per certi versi estrema, capace di suscitare una gamma di sentimenti che spazia dall’ilarità allo stupore alla rabbia, con una netta prevalenza per la rabbia alla conta finale, ché in effetti a pensarci c’è poco da ridere, e anche poco di cui stupirsi.
Impressionisticamente, senza alcuna pretesa di sistematicità e tanto meno di esaustività, cerchiamo allora di dare conto di ciò che resta dopo questo breve ma intenso viaggio ai confini della realtà.
Sostieni Renovatio 21
Uso consapevole e responsabile, come la droga
Al malcapitato che si appresta a leggerle, viene subito spiegato nelle prime righe che le linee guida vogliono fornire «un quadro di riferimento strutturato per l’adozione consapevole e responsabile dei sistemi di Intelligenza Artificiale», affinché «diventino uno strumento per rafforzare la competitività del sistema educativo italiano». Dopo di che parte il primo elenco (ne seguiranno vari altri) delle meraviglie che, nell’ambito della propria discrezionalità, ciascuna istituzione scolastica può realizzare con l’IA.
Come potevano mancare la consapevolezza e la responsabilità? È questo infatti il mantra numero uno che è stato conficcato nelle teste soprattutto dei genitori/educatori/animatori dei tecnoutenti in erba, per far credere loro che sia giusto dotare il pargolo di protesi elettroniche di ultima generazione e immergerlo nel metaverso, che sia anzi una scelta necessaria per non condannarlo a crescere nel medioevo; con l’unica accortezza, per mostrarsi davvero coscienziosi, di fargli spiegare dall’esperto come affogare in modo consapevole.
Un po’ come l’uso consapevole della droga, insomma: drògati, ma fallo con responsabilità. Non è un parallelo stravagante, perché il digitale ottunde i sensi e genera dipendenza, alla stregua della cocaina. Lo diceva a chiare lettere anche la relazione finale dell’indagine conoscitiva promossa dalla VII Commissione permanente del Senato nel 2019 (quindi ancora in era pre-Covid, prima del Piano Scuola 4.0 uscito dal laboratorio della pandemia) intitolata Sull’impatto del digitale negli studenti, con particolare riguardo ai processi di apprendimento e che si può trovare sul sito governativo.
È insomma un narcotico dell’intelligenza umana, specie di quella che dovrebbe essere educata a crescere. Privarsi del dispositivo elettronico, infatti, è come subire l’amputazione di un arto, e del resto gli algoritmi sono programmati per adescare l’utente, catturarlo e tenerlo in ostaggio il più a lungo possibile.
Poi quella relazione diceva molte altre cose, basandosi su un ricco compendio di letteratura ed esperienza consolidate. Tipo che l’uso-abuso del digitale sta decerebrando le nuove generazioni (proprio così): riduce la neuroplasticità del cervello e frena lo sviluppo delle aree cerebrali responsabili di singole funzioni; fa sì che si inibiscano sul nascere, o si atrofizzino, facoltà cognitive, abilità psicofisiche, attitudini relazionali.
Inoltre genera isolamento, danni fisici di varia natura, psicosi assortite. Insomma, un disastro. Tutte conclusioni peraltro che, oltre a radicarsi in una bibliografia ormai sterminata, sono raggiungibili in autonomia da qualunque persona di buon senso che abbia a che fare con un cucciolo d’uomo contemporaneo e con i suoi coetanei. Bastava una mamma sensata qualunque, per arrivarci.
In ogni caso, nel tempo in cui invocare la scienza equivale a calare la carta vincente, il fatto di disporre di evidenze pressoché unanimi che certificano il fallimento della didattica digitale e, ancor più, la sua fenomenale dannosità, e al contempo fregarsene completamente per dedicarsi a pompare le sue prestazioni miracolose, bisogna riconoscere che richiede una buona dose di sfrontatezza.
Vien da pensare che ci sia sotto una faccenda grossa di bilanciamento di interessi, e che gli interessi dei colossi della tecnologia educativa debbano avere la meglio, per ordine superiore, su quelli della gente comune, dei giovani e della società.
Tanto più che il ministero che oggi celebra i prodigi dell’IA con la pecetta (l’additivo cautelare) dell’«uso consapevole», è lo stesso che ieri – dicembre 2023 – mandava in giro sottoforma di circolare la relazione di cui sopra nelle scuole di ogni ordine e grado. Uno strano caso di strabismo istituzionale, passato del tutto sotto silenzio forse per l’abitudine diffusa, divenuta rassegnata assuefazione, di sentir predicare simultaneamente tutto e il contrario di tutto dagli stessi identici predicatori. Pare normale.
Iscriviti alla Newslettera di Renovatio 21
Inevitabile tecnolatria
Ma la sensazione più irritante che, scorrendo quelle pagine, assale il lettore non tecnolatra deriva dal fatto che esse danno per presupposto che uno per forza lo sia. Cioè, non è nemmeno lontanamente contemplata l’eventualità che non tutti tutti – nella grande ammucchiata di genitori, studenti, docenti, dirigenti, personale di altro genere – non aspettassero altro che aderire felici all’utilizzo dell’IA nella propria scuola.
«L’introduzione dell’IA nelle istituzioni scolastiche rappresenta una grande opportunità, che richiede un impegno costante da parte di tutti gli attori coinvolti». Lo hanno deciso loro. Qualcuno è stato consultato? No. Si è registrata approvazione unanime? No. Ma entra in gioco qui un altro tic verbale e mentale (il mantra numero due) appiccicato ad arte al fenomeno della IA: la sua pretesa inevitabilità.
Il progresso non si può scansare, va cavalcato per una questione di destino invincibile, qualunque esso sia. Una species del suggestivo genus «there is no alternative» (TINA) coniato, al tempo, dalla lady d’oltremanica. Non ha quindi senso manifestare contrarietà verso qualcosa di ineluttabile: tanto vale buttarcisi a pesce, forti dell’illusione indotta di essere più scafati degli altri e di essere in grado di governare la macchina.
Siccome però in questa fattispecie specifica abbiamo visto che si va incontro a rischi e danni certi, severi e documentati, con l’aggravante che ad esserne travolti sono i più indifesi, la dichiarazione di inevitabilità equivale praticamente ad ammettere che abbiamo creato un mostro che ora vive di vita propria e non si può più fermare, o – detta altrimenti – che abbiamo aperto il vaso di Pandora, abbiamo perso il coperchio, ma amen, lasciamolo aperto e restiamo a guardare l’effetto che fa.
Niente male come tacita confessione di impotenza per l’uomo del terzo millennio che si crede onnipotente.
Iscriviti al canale Telegram
Effetti avversi sconosciuti
Tra l’altro le linee guida in esame non fanno affatto mistero della quantità dei rischi derivanti dalla adozione della IA nelle scuole e nemmeno della loro gravità. Si parla ripetutamente di rischi, così, in scioltezza, quasi come un intercalare. In fondo perché drammatizzare, se siamo di fronte all’inevitabile? I sistemi di IA vengono divisi, ai fini della diversa disciplina applicabile, in due categorie: sistemi ad alto rischio, se presentano una serie di caratteristiche espressamente elencate; sistemi non ad alto rischio tutti gli altri (categoria residuale).
È bellissimo però che a un certo punto (p. 30), nel mezzo di un lunghissimo discorso sul trattamento dei dati personali – dove con ammirevole disinvoltura si elenca una serie interminabile e complicatissima di passaggi burocratici prescritti, che è prevedibile porteranno in manicomio più di qualcuno – si dice anche che le istituzioni scolastiche, in qualità di titolari del trattamento, tra gli adempimenti e i sottoadempimenti cui sono obbligate, devono procedere alla «esecuzione di una valutazione di impatto (DPIA)» sulla protezione dei dati personali «volta a individuare i rischi connessi al trattamento di dati».
E poco più avanti si spiega che «la DPIA risulta necessaria in considerazione della innovatività dello strumento tecnologico utilizzato nonché del volume potenzialmente elevato dei dati personali trattati» (i grassetti sono nel testo originale). Infatti, continua il testo «il ricorso a tale nuova tecnologia può comportare nuove forme di raccolta e di utilizzo dei dati, magari costituendo un rischio elevato per i diritti e la libertà delle persone. Infatti le conseguenze personali e sociali dell’utilizzo di una nuova tecnologia potrebbero essere sconosciute» (qui il grassetto è nostro).
Conseguenze personali e sociali sconosciute. Cioè, un salto nel vuoto, messo nero su bianco nei documenti ufficiali. La popolazione scolastica, composta in buona parte di minorenni, è travolta (ancora una volta) in un mega esperimento di massa condotto (ancora una volta) con prodotti dei quali è nota a priori la dannosità, la quale comunque potrebbe esprimersi in forme ulteriori ancora non note.
Sostanze sperimentali – farmaci, droghe e simildroghe – inoculate nel cuore pulsante della società che fu democratica, ad effetto sorpresa: senza nemmeno un bugiardino e, quindi, senza un vero consenso informato possibile.
Aiuta Renovatio 21
La partecipazione democratica è una beffa
Nonostante queste premesse, il ministero dà per scontato che tutti insieme appassionatamente partecipino al grande gioco di società apparecchiato in tutte le scuole d’Italia dalle aziende Ed Tech e dall’indotto che ne discende: un’orgia digitale collettiva alla quale nessuno deve sottrarsi. A p. 21 si afferma, sempre in modo assertivo, che «il processo di transizione digitale richiede un coinvolgimento sinergico e sistemico del dirigente scolastico, del direttore dei servizi generali e amministrativi, del personale tecnico, ausiliario, amministrativo, dei docenti, degli studenti, tenendo conto del diverso grado di sviluppo connesso all’età, e delle rispettive rappresentanze di tali categorie di soggetti, delle famiglie, degli organi di indirizzo e di gestione degli aspetti organizzativi in ambito scolastico (ad esempio i Consigli di Istituto)».
Insomma, si tratta di allestire un balletto brulicante di ballerini improvvisati che saltellano sulla pelle di incolpevoli scolari tutt’intorno a una grande mangiatoia per predatori privati, più e meno corpulenti ma tutti parimenti affamati. Per non farsi mancare nulla, si suggerisce anche il coinvolgimento di stakeholder «attraverso la costituzione o l’adesione a parternariati, a reti di scuole, oppure stabilendo accordi con startup, università, istituti di ricerca, con approccio di ricerca-azione (…)».
Dulcis in fundo, al fine di «facilitare il coinvolgimento di tutti gli attori nel processo di cambiamento», il ministero veste pure i panni del coach motivazionale e consiglia di predisporre un «piano di comunicazione strutturato», perché si sa bene che «una strategia operativa efficace facilita il consenso e motiva i singoli a contribuire al raggiungimento degli obiettivi comuni» (p. 24) e incoraggia «il senso di appartenenza, il clima positivo».
Naturalmente per implementare tutta questa giostra, occorre che i docenti acquisiscano particolari «competenze digitali, approccio critico e attenzione a etica e professionalità, da sviluppare attraverso specifici percorsi formativi» (altra miniera d’oro, per i tenutari dei corsi). E così essi potranno finalmente accedere a un repertorio infinito di funzioni sostitutive delle proprie normali mansioni – fa tutto lei, e lo fa meglio di te – e predisporsi felici, in modalità suicidaria, alla soppressione prossima ventura della propria figura professionale.
Questa enfasi sulla partecipazione, di interni ed esterni, vuole evidentemente dare una mano di vernice di simil-democrazia sopra un gigantesco apparato industriale – la scuola è la più grande industria al mondo di estrazione dati (cit.) – che con i connotati propri di un’istituzione pubblica, specie se di natura educativa, non ci piglia neanche di striscio.
Forse a questo punto si può capire l’irritazione del lettore non conforme, al quale le linee guida si rivolgono come a uno scimunito che passa di là, pronto a farsi trascinare nelle danze dall’animatore del villaggio vacanze.
Sostieni Renovatio 21
Il Paese dei Balocchi e il mantra del pensiero critico
Quanto al regno incantato che si spalanca davanti agli studenti, la sua descrizione è lussureggiante. La campagna pubblicitaria del ministero sulle prodezze della IA punta a coprire e far dimenticare tutte le magagne sui pericoli e gli inconvenienti che, al confronto, sono bazzecole.
Basti pensare che l’IA (pp. 27 e 28): rende il processo educativo più coinvolgente, crea percorsi formativi su misura in linea con le esigenze individuali, permette di ampliare e diversificare l’offerta formativa adattandola agli interessi di ciascuno, dà supporto nella creazione di materiali didattici personalizzati; favorisce l’approfondimento di argomenti specifici, stimola la curiosità e il desiderio di apprendere e una naturale voglia di scoprire, potenzia le competenze digitali, fa diventare co-creatori attivi di contenuti, nonché futuri leader che definiranno il rapporto di questa tecnologia con la società, supporta nelle attività didattiche orientate nella produzione di contenuti.
Ancora: l’IA è un facilitatore della curiosità intellettuale, capace di alimentare la voglia di esplorare, aiuta nella scomposizione di problemi complessi e nella analisi di varie tipologie di informazioni; semplifica l’integrazione delle conoscenze, evidenziando punti di interconnessione tra diverse discipline; individua fonti di approfondimento pertinente, crea simulazioni interattive e ambienti virtuali. Promuove l’autonomia: chatbot o piattaforme di apprendimento personalizzate permettono di ricevere assistenza senza essere vincolati dagli orari scolastici tradizionali, facilitando la gestione autonoma del tempo e delle risorse, approccio che sviluppa capacità di autogestione e competenze trasversali come il pensiero critico e la capacità di problem solving. Aiuta a rimanere coinvolti e motivati rendendo il processo di apprendimento continuo e interattivo e incoraggiando a identificare i propri punti di forza e le aree di miglioramento.
Un panegirico che pretende dal lettore un atto di fede, mentre tocca vette spudorate di impostura. Contiene passaggi esemplari da sfruttare nelle lezioni di italiano (ci sono ancora, le lezioni? e l’italiano?) per spiegare il significato dell’ossimoro: l’Intelligenza Artificiale che promuove l’autonomia, facilita la gestione autonoma del tempo e delle risorse, sviluppa capacità di autogestione, il pensiero critico e la capacità di problem solving.
Cioè: a delegare alla macchina pensieri, parole e opere, a esternalizzare le funzioni fondamentali in un prolungamento artificiale del corpo, uno conquisterebbe autonomia.
Notare, tra l’altro, l’evocazione qua e là del pensiero critico, altra stucchevolissima formuletta magica (mantra numero tre), estratta dal cilindro del prestigiatore come il classico coniglio, per legittimare se stesso da un lato e per nobilitare qualsiasi ciofeca dall’altro. Basta spruzzare in giro, a casissimo, qualche «pensiero critico», e la coscienza va subito a posto, e ci si gode l’applauso assicurato del pubblico pagante.
Ma non c’è solo il pensiero critico. Sparse per il testo, tutte le classiche esche per i benpensanti, quelle che piacciono alla gente che piace, sfoderate per il lancio del grande gioco di società a cui siamo tutti chiamati coattivamente a giocare.
Ecco infatti che, per raggiungere i traguardi stellari elencati a più riprese nel documento, «è necessario che l’IA supporti la crescita personale e l’acquisizione di competenze autentiche, promuovendo l’apprendimento critico e creativo senza sostituire l’impegno, la riflessione e l’autonomia degli individui». Essa «deve promuovere un’innovazione etica e responsabile», essere utilizzata «in modo trasparente, consapevole e conforme ai valori educativi delle Istituzioni scolastiche italiane»; deve essere sostenibile nel lungo termine e «per traguardare (sic) questo obiettivo deve garantire un equilibrio nei tre pilastri della sostenibilità: sociale, economica e ambientale».
In sintesi: l’AI promuove l’autonomia, stimola il pensiero critico, ma per raggiungere questi fantastici obiettivi deve promuovere l’autonomia e stimolare il pensiero critico. Una autolegittimazione tautologica e circolare, formulata per la stessa banda di presunti scimuniti cui si accennava sopra.
Aiuta Renovatio 21
Accendere la resistenza
Viene da ridere, sì, ma poi sale la rabbia. L’onda d’urto di tanto delirio si abbatterà sui nostri figli se non ci predisponiamo a difenderli.
Che dall’altra parte ci sia un grumo di potere non solo economico, ma soprattutto politico (nel senso che il suo intento egemonico sta nel controllare l’esistenza altrui e pilotarla a proprio uso e consumo) non è forse nemmeno il problema più grande.
Il problema più grande è che la gente abbocca, anche se l’imbroglio è così plateale, e si lascia attirare nel girotondo per via di quel «piano di comunicazione strutturato» che funziona alla grande; oppure perché è semplicemente stanca, rassegnata, tanto da lasciarsi persuadere dalla narrazione truffaldina che fa leva sulla parola magica della «inevitabilità». E allora si convince a salire sulla giostra che gira sempre più forte, ma si sente rassicurata dall’essere «consapevole e responsabile», il tranquillante prescrittole dall’impresario circense.
L’imposizione dell’IA ai nostri figli – proprio come è stato per l’mRNA – calpestando la Costituzione, uccidendo il diritto e disintegrando il concetto stesso di democrazia, mira dritto dritto al cuore della natura umana per colpire la sua integrità e un po’ alla volta sostituirla. Ma in pochi sembrano farci caso: la maggior parte obbedisce, zitta e mosca, al programma di sottomissione.
E invece questo è proprio il momento della responsabilità. Dunque, che la forza sia con noi: con i docenti che non mollano, con i genitori che tengono ai propri figli, con gli scolari capaci di sopravvivere al trattamento loro riservato, e determinati a continuare a farlo per conquistarsi in premio una vita da vivere, e non da subire.
Elisabetta Frezza
Iscriviti alla Newslettera di Renovatio 21
-
Spirito2 settimane fa
Vescovo messicano «concelebra» la messa con una «sacerdotessa» lesbica anglicana «sposata» che ha ricevuto l’Eucaristia
-
Armi biologiche1 settimana fa
I vaccini COVID «sono armi biologiche» che «hanno provocato danni profondi»: nuovo studio
-
Spirito1 settimana fa
Leone punisca l’omoeresia: mons. Viganò sull’udienza papale concessa a padre Martin
-
Vaccini7 giorni fa
Vaccino COVID, mentre Reuters faceva «fact-cheking sulla «disinformazione» il suo CEO faceva anche parte del CdA di Pfizer
-
Spirito1 settimana fa
Don Giussani, errori ed misteri di Comunione e Liberazione. Una vecchia intervista con Don Ennio Innocenti
-
Gender2 settimane fa
Transessuale fa strage in chiesa in una scuola cattolica: nichilismo, psicofarmaci o possessione demoniaca?
-
Salute2 settimane fa
I malori della 35ª settimana 2025
-
Geopolitica2 settimane fa
Mosca conferma attacchi missilistici ipersonici contro l’Ucraina