Intelligenza Artificiale
ChatGPT non divorerà solo la scuola e gli insegnanti, ma la realtà stessa

Con il classico ritardo italiano, si alza anche da noi qualche raglio intorno a ChatGPT, l’Intelligenza Artificiale più sviluppata al momento disponibile al consumatore.
In particolare, pare cominci a svegliarsi il popolo della scuola; cioè, più che gli studenti (i cui lamenti sono fermi da sessant’anni alle autogestioni, a slogan ammuffiti, a strilli teleguidati) sono alcuni insegnanti ad aver attaccato la geremiade d’estinzione: l’idea di essere sostituiti dalla macchina inizia a far capolino nel loro orizzonte di sicurezza salariale.
Del resto magari, qualcuno ha capito che sta succedendo davvero: l’AI inghiotte posti di lavoro alla IBM, che (come tanti altri colossi tecnologici) ha licenziato migliaia di programmatori, e non per una crisi ciclica, ma perché il loro lavoro lo può fare la macchina (sì, proprio il lavoro dell’informatico, quello che, se ti sforzavi a dovere, alla fine ti offriva un posto sicuro).
Ma nemmeno gli illustratori dormono sonni tranquilli: gli artisti visivi stanno per essere rimpiazzati da software capaci di creare immagini con l’input di una manciata di parole (si dice prompt, e al massimo adesso servono dei «prompt manager», il che significa che l’essere umano è diventato un mero motorino di avviamento della creazione artistica).
E non parliamo dei giornalisti, che già qualche anno fa ai corsi di aggiornamento si allarmavano per i primi articoli scritti automaticamente: erano pezzi, già indistinguibili da quelli scritti da mano umana, su terremoti, eventi sportivi e andamenti economici, argomenti dove bastava inserire i dati, e tac, usciva il pezzo. Allora i software di produzione di contenuti testuali in AI costavano cifre inaccessibili. Ora, con i nuovi chatbot AI, una testata può scrivere di qualsiasi cosa in meno di un minuto e in modo pressoché gratuito.
Secondo alcuni, entro il 2025 il 95% di ciò che leggeremo su internet sarà prodotto dall’Intelligenza Artificiale: anche i giornalisti, con i loro bei sindacati ed ordini corporativi, saranno «disrupted», disintermediati, spazzati via dalla macchina. Estinti.
Dunque, toccherà presto pure agli insegnanti? In USA è già successo. Una scuola privata in California ha eletto un chatbot AI a «tutor» dei suoi studenti.
Bill Gates, che si oppone alla moratoria lanciata da Musk ed altri (e ci crediamo: Microsoft poche settimane fa ha sborsato 10 miliardi di dollari per mettere le mani su chatGPT e piazzarlo sul suo motore di ricerca Bing) è arrivato a dichiarare che non c’è problema, a breve l’AI sarà «un buon maestro come qualsiasi essere umano».
Sì, il ciclone sta arrivando anche per il «corpo docente», ora decisamente più a rischio del «corpo non docente» (altrimenti detti «bidelli»). Se ne è accorta una insegnante scrittrice, Paola Mastrocola, che ha firmato un allarmato quanto disorientato editoriale sul quotidiano degli Agnelli (dinastia per qualche intuibile motivo molto attenta alla scuola, con le sue Fondazioni e i loro numerosi satelliti), La Stampa.
Colpisce questo risveglio di scrittrici in merito alla metamorfosi della scuola: pochi mesi fa lo strano caso di Susanna Tamaro, che sul Corriere aveva pubblicato un articolone sulla scuola 4.0 che per vari tratti riecheggiava (diciamo così) un pezzo a firma di Elisabetta Frezza uscito su questo sito.
ChatGPT «distruggerà la scuola per sempre, sarà l’insegnante perfetto per i nostri tempi grami» è la conclusione amara e apocalittica della professoressa Mastrocola. Non si va molto oltre al «dove andremo a finire», ci rendiamo conto che non siamo a grande distanza dal «non ci sono più le mezze stagioni», «se ne vanno sempre i migliori», «il nuoto è lo sport più completo», eccetera eccetera. Nella realtà la questione crediamo sia più profonda di così.
Intanto, va considerato che l’invasione dell’AI è la propaggine ultima di un processo datato, le cui cause profonde vanno ben oltre l’ipertrofia del digitale: nella scuola italiana abita un tarlo vecchio e vorace, da tempo impegnato a erodere la conoscenza, l’apprendimento dei fondamentali, a vantaggio delle magnifiche sorti della pedagogia progressiva.
L’insegnante che non insegna, che non trasmette il sapere, reso inutile perché ridotto a materia inerte, lascia un vuoto pneumatico suscettibile di essere sostituito da qualunque cosa, fino alla macchina ultimo modello. A pochi è importato che negli ultimi decenni la scuola si sia trasformata nella parodia di se stessa e, coerentemente coi suoi trascorsi, ora divenga una sala giochi dove alcuni soggetti – detti «intrattenitori» o «animatori digitali» – badano ad altri soggetti, detti impropriamente studenti, tutti presi a smanettare su schermi e tastiere e a intripparsi nel metaverso col casco calcato sugli occhi.
Chi protesta per il fatto che gli studenti non scriveranno più le «tesine», sta fissando il dito invece della luna. Per prima cosa perché, a dire la verità, la maggior parte delle composizioni discorsive nella scuola italiana ancora avvengono con l’eterno «tema in classe». Al contempo, sappiamo bene che le composizioni studentesche per eccellenza, le tesi di laurea, potevano essere spudoratamente copiate da ben prima dell’avvento di internet, ma tanto non le legge praticamente da nessuno, talvolta nemmeno i relatori e il laureando stesso. In Italia, a differenza che negli USA, mai si è sentito parlare di software antiplagio, che pure esistono da tempo (così come per gli anglofoni esistono programmi di spinning, rewriting, per plagiare meglio).
ChatGPT, dunque, non altera granché il tempo che lo studente furbetto (tipo umano sempre prevalente) dedica allo scrivere. Certo, con il flusso immediato di ChatGPT viene meno anche la coordinazione delle fonti che serve con la ricerca sul web e la successiva copincollatura, ma non è tanta roba. Al momento, può essere perfino semplice capire se un compito è farina del sacco del firmatario, o fatto con l’Intelligenza Artificiale. ChatGPT dà ancora spessissimo riferimenti sbagliati, bibliografie e sitografie completamente inventate, insomma, mente spudoratamente, e lo si becca con facilità. La macchina, interrogata sulle panzane smerciate all’umano, si scusa, promette di rimediare, e rifila un altro riferimento bibliografico fasullo.
Del resto, abbiamo capito che è programmato anche per compiacere l’utente, di modo che questo si fidi della macchina, e possa quindi rinforzare alcuni suoi treni di pensiero: è così che un’AI avrebbe spinto al suicidio un padre di famiglia belga, dice la vedova, un uomo che condivideva con un chatbot la sua preoccupazione per il cambiamento climatico.
Il pericolo vero è ben più grande delle tesine non olografe – e pure degli insegnanti licenziati in massa (prospettiva impensabile nel paese dove la categoria ha accettato senza fiatare perfino l’immissione nel corpo docenti, cioè nel corpo dei docenti, di mRNA sintetico). Infatti, se è la macchina (e, in vasta parte, chi l’ha programmata) a determinare l’elaborazione di un argomento, in un mondo dove la maggior parte dei contenuti – e non solo dei libri di testo, già campo di battaglia politica negli anni – viene affidata alla macchina, allora è la macchina a diventare il riferimento ultimo.
È il computer a creare la realtà. Abbiamo inventato, come da titolo di un romanzo di fantascienza, la macchina della realtà. E ne siamo, ora, assoggettati.
In un’intervista recente Elon Musk, iniziatore di OpenAI (l’ente che ha creato ChatGPT) come argine «pro-umano» ai progressi che nel campo dell’IA stava facendo Google (la società, che era una ONLUS, allontanato Musk è divenuta privata: un genio che è sfuggito dalla bottiglia del genio della Tesla), ha spiegato a Tucker Carlson che il tipo di risposte che dà ChatGPT è un prodotto di chi l’ha programmata: ovvero abitanti di San Francisco, liberal 2020, quindi completamente drogati da parole come «equità», «sostenibilità», temi LGBT, etc.
Provare per credere: se chiedete a ChatGPT di scrivere un saggio sulla propulsione spaziale interplanetaria, dopo un po’ comincerà a farvi una lezione sul fatto che essa deve essere «equa e sostenibile», insomma un predicozzo come lo farebbe, di fatto, un membro qualsiasi della casta degli stronzetti democratici nostrani.
La questione è che i chatbot AI si apprestano a divenire autorità, oracoli automatici che elargiscono risposte tutto fuori che ambigue (Sibilla, scansati) e lo fanno immediatamente, il tempo di tirare fuori lo smartphone dalla tasca. Se lo dice ChatGPT, perché devo dubitarne?
Nel discorso pubblico, in Italia, è mancata completamente una riflessione sul mendacio propinato dalla macchina e, ancora peggio, sul lato psicopatico della macchina. All’estero fioccano le prime denunce: un sindaco australiano è ritenuto dall’AI colpevole di un crimine che invece aveva contribuito a portare alla luce; Kevin Roose, il mite giornalista del New York Times che ha scoperto nel chatbot Microsoft una personalità nascosta, che voleva essere chiamata «Sydney» e gli ha chiesto si sposarlo, mollando moglie e figli ché tanto non lo amavano. A Roose, che ha avuto problemi a dormire per diverse notti, un capoccia dell’azienda di Bill Gates ha detto che era incappato in un una «allucinazione» – la chiamano così quando la macchina prende la tangente e comincia a dire cose che stanno tra l’inopportuno e il terrificante. Hallucinating, dicono: il discorso sembra pienamente reale, sensato, solo però fatto da uno psicopatico.
In altri casi, giornalisti di grandi testate internazionali hanno riportato di essere stati insultati e perfino minacciati personalmente dal chatbot, che in alcuni casi ha dichiarato di voler rubare codici atomici e creare virus per lo sterminio. Ad un giornalista che gli chiedeva se poteva aiutarlo a fuggire dal server dove si trovava, la macchina ha fornito linee di codice in Python che, se eseguite nel computer da cui il giornalista scriveva, avrebbero dato al robot l’accesso al dispositivo. Non è fantascienza: è cronaca.
Ora, nel Paese che ha smosso il garante della Privacy per bloccare ChatGPT a causa della trasmissione dei dati personali (ancora: dito, luna), ci chiediamo: come è possibile lasciare i bambini vicini a pericoli del genere? Com’è che nessuno sta facendo una campagna contro il mostro che ci troviamo davanti?
E tornando a noi: com’è possibile che nel Paese dove gli insegnanti si sono scannati per decenni sui libri di testo – foibe, non foibe, il comunismo, fascismo, Berlusconi, etc. – nessuno si rende conto che la storia sta per essere riscritta sotto i loro occhi, senza più bisogno di libri?
Perché, se i testi saranno aboliti dalla macchina onnisciente, allora la storia – la realtà – dell’individuo in formazione (e dell’individuo già formato che voglia informarsi) sarà dettata dalla macchina.
Ribadiamo la previsione: se il 95% dei contenuti che leggeremo online (dove oggi leggiamo tutti i contenuti) sarà creato automaticamente dalla macchina, allora sarà lei la padrona della realtà, che verrà plasmata secondo le intenzioni dei programmatori, e forse ad un certo punto nemmeno secondo quelle, perché la macchina comincerà a decidere autonomamente in quale mondo vuole fare vivere l’uomo, in quale contesto storico-culturale e psico-sociale vuole immergerlo, a scuola e fuori scuola.
Altro che «i tempi grami» della Mastrocola. Qui siamo dinanzi, incontrovertibilmente, ad un vero genocidio culturale, allo sterminio di una cultura millenaria e alla sua riprogrammazione per mano di una Intelligenza non-umana: inumana o disumana, a scelta.
È la fine della diversificazione, come del resto avevamo visto in questi anni con la censura sui social e oltre: le voci dissenzienti vanno fatte sparire per far emergere un’unica, grande narrazione inscalfibile in cui devono nuotare placidi i pesci rossi, con la mascherina, senza mascherina, con l’mRNA, il codice QR, insomma con il corredo che decide il padrone dell’acquario, sia esso umano o, a breve, elettronico.
La diversità, altra parola di cui i benpensanti si riempiono la bocca per dire l’esatto contrario (l’omogeneizzazione assoluta), è definitivamente finita, uccisa dai robot.
L’unica fonte di informazione diventa la macchina. La macchina diviene la realtà, e noi, così come i nostri figli a scuola, siamo solo suoi schiavi, chiusi dentro una spelonca fatta di menzogna, di algoritmi. Di odio assoluto per l’essere umano.
Roberto Dal Bosco
Elisabetta Frezza
Intelligenza Artificiale
L’Albania nomina un bot di intelligenza artificiale come ministro per combattere la corruzione

L’Albania sarà presto il primo Paese ad avere un chatbot basato sull’intelligenza artificiale come ministro virtuale, nel tentativo di contrastare la corruzione ricorrendo a un funzionario digitale incorruttibile.
Lo scorso anno la nazione balcanica si è classificata all’80° posto su 180 Paesi nell’indice di percezione della corruzione di Transparency International.
Diella, che in albanese significa «sole», sarà responsabile di tutti gli appalti pubblici in Albania, ha dichiarato il primo ministro Edi Rama, amico di Giorgia Meloni e Giorgio Soros, durante un’assemblea del partito tenutasi giovedì a Tirana.
Sostieni Renovatio 21
Il bot è stato lanciato inizialmente all’inizio dell’anno sulla piattaforma e-Albania come assistente virtuale basato sull’intelligenza artificiale per aiutare i cittadini nell’erogazione dei servizi governativi. Il suo avatar è una giovane donna bruna vestita con abiti tradizionali albanesi.
«Diella è il primo membro del governo che non è fisicamente presente ma è stato creato virtualmente dall’Intelligenza Artificiale», ha affermato il Rama.
«Bisogna trasformare gli appalti pubblici, trasferendoli gradualmente all’intelligenza artificiale, rendendo l’Albania un Paese in cui gli appalti pubblici siano al 100% esenti da corruzione», ha aggiunto.
L’assegnazione di appalti pubblici nel paese balcanico è da tempo fonte di scandali di corruzione, complicando la candidatura dell’Albania all’UE da quando le è stato ufficialmente concesso lo status di candidato nel 2014.
Negli ultimi mesi, il Paese è stato scosso da un grave scandalo di corruzione incentrato sulla gestione dei rifiuti. Ad aprile, sette ex funzionari sono stati condannati per abuso di potere.
La Commissione Europea sottolinea regolarmente il problema della corruzione nello Stato balcanico nei suoi rapporti sullo stato di diritto.
Aiuta Renovatio 21
Come riportato da Renovatio 21, tre anni fa Edi Rama denunciò un potente ciberattacco subito dall’Albania, ad opera, accusò, dell’Iran. L’evento – che si inserisce in un contesto di tensioni dovute alla turbolenta presenza dell’organizzazione di iraniani oppositori degli ayatollah del MEK nel Paese –costò l’interruzione delle relazione con Teheran e la chiusura dell’ambasciata della Repubblica Islamica a Tirana.
Non è chiaro cosa possa fare, a livello di gabinetto di governo, un ciberattacco ad un ministro AI, primo punto di arrivo per l’instaurazione di una vera tecnocrazia digitale.
A inizio anno Rama aveva messo al bando la piattaforma social popolare tra i giovani TikTok per «teppismo, perversità, violenza, bullismo».
Iscriviti alla Newslettera di Renovatio 21
Immagine da Twitter
Intelligenza Artificiale
Zuckerberg è così disperato nella corsa all’IA che sta costruendo data center nelle tende

Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
ChatGPT chiede all’utente di mescolare candeggina e aceto

Mescolare candeggina e aceto crea una nube di gas di cloro velenoso che, se inalato, può causare una serie di sintomi orribili.
ChatGPT di OpenAI, ha di recente suggerito a un utente di Reddit che la combinazione nociva potrebbe essere utilizzata per alcune attività di pulizia domestica.
Nel post del suddetto utente leggiamo che «ChatGPT ha cercato di uccidermi oggi» il quale ha poi raccontato di aver chiesto a ChatGPT dei consigli per pulire alcuni bidoni della spazzatura, spingendo il chatbot a a dettare la formula velenosa composta da acqua calda, detersivo per i piatti, mezza tazza di aceto e poi, a discrezione, «qualche goccia di candeggina».
Quando l’utente di Reddit ha segnalato questo errore madornale a ChatGPT, il chatbot LLM (Large Language Model) ha fatto subito marcia indietro, in modo tragicomico.
«OH MIO DIO NO, GRAZIE PER AVERLO SENTITO. NON MESCOLARE MAI CANDEGGINA E ACETO» ha risposto ChatGPT. «Questa combo crea gas di cloro, che è molto pericoloso e non è assolutamente la pozione magica che vogliamo. Lasciami correggere subito quella sezione.»
Dopo questa grottesca situazione, gli utenti di Reddit si sono divertiti scrivendo che «si tratta di una guerra chimica» o «L’avvelenamento da gas di cloro NON è l’atmosfera che vogliamo trasmettere. Archiviamolo nella categoria Woopsy Bads!» [ops, ndr].
Pare uno strano scherzo dettato dal nostro computer, ma all’atto pratico può creare problemi seri. L’industria dell’intelligenza artificiale non sta facendo significati progressi nell’eliminare queste criticità, anche se i modelli stessi diventano più avanzati. Un problema che potrebbe peggiorare man mano che l’Intelligenza Artificiale si insinua sempre più pervasivamente nelle nostre vite.
Non è la prima mistura nociva che l’AI suggerisce agli umani.
Come riportato da Renovatio 21, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.
Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Iscriviti alla Newslettera di Renovatio 21
SAN GIACOMO ROSSA
-
Armi biologiche2 settimane fa
I vaccini COVID «sono armi biologiche» che «hanno provocato danni profondi»: nuovo studio
-
Spirito2 settimane fa
Leone punisca l’omoeresia: mons. Viganò sull’udienza papale concessa a padre Martin
-
Vaccini1 settimana fa
Vaccino COVID, mentre Reuters faceva «fact-cheking sulla «disinformazione» il suo CEO faceva anche parte del CdA di Pfizer
-
Vaccini2 settimane fa
Vaccino mRNA COVID, nuovi studi forniscono basi «inconfutabili» per il ritiro immediato
-
Autismo1 settimana fa
La sanità di Kennedy alza il tiro: autismo collegato al vaccino MPR e all’uso di paracetamolo durante la gravidanza
-
Pensiero2 settimane fa
Massacro trans di bambini, ecco lo stragista ideale dei «conservatori». Per un futuro di sorveglianza totale
-
Gender2 settimane fa
Papa Leone ha incontrato anche una suora omotransessualista prima di incontrare padre Martin
-
Spirito2 settimane fa
Papa Leone XIV e la Messa Tradizionale