Intelligenza Artificiale
ChatGPT mente agli elettori dicendo che il loro sindaco era stato in galera per corruzione
Brian Hood è un informatore – una cosiddetta «gola profonda» – elogiato per aver coraggiosamente contribuito a denunciare uno scandalo mondiale di corruzione legato alla National Reserve Bank australiana, la Banca Centrale degli antipodi.
ChatGPT ha sostenuto invece falsamente che lo stesso Hood è stato condannato per aver pagato tangenti a funzionari stranieri, si era dichiarato colpevole di corruzione e corruzione ed era stato condannato al carcere.
Hood, che ora è sindaco di Hepburn Shire vicino a Melbourne in Australia, ha dichiarato di voler citare in giudizio la società dietro ChatGPT per aver raccontato bugie su di lui, in quella che potrebbe essere la prima causa per diffamazione del suo genere contro il chatbot di Intelligenza Artificiale.
«Non c’è mai stato un suggerimento da nessuna parte che io sia mai stato complice di qualcosa, quindi questa macchina ha creato completamente questa cosa da zero», ha detto Hood al Washington Post, confermando la sua intenzione di intentare una causa per diffamazione contro ChatGPT. «Devono esserci un controllo e una regolamentazione adeguati sulla cosiddetta intelligenza artificiale, perché le persone si affidano a loro».
«Essere accusato di essere un criminale (…) e aver trascorso del tempo in prigione quando questo è sbagliato di 180 gradi è estremamente dannoso per la tua reputazione. Soprattutto tenendo presente che sono un funzionario eletto nel governo locale. Ha appena riaperto vecchie ferite».
Il caso è l’ultimo esempio di un elenco crescente di chatbot di intelligenza artificiale che pubblicano bugie su persone reali. Il chatbot ha recentemente inventato una falsa storia di molestie sessuali che coinvolge un vero professore di legge, Jonathan Turley, citando un articolo del Washington Post che non esisteva come prova.
Qualora dovesse procedere, la causa di Hood sarà la prima volta che qualcuno intenta una causa per diffamazione contro il contenuto di ChatGPT. Se arrivasse in tribunale, il caso metterebbe alla prova acque legali inesplorate, costringendo i giudici a considerare se gli operatori di un robot di Intelligenza Artificiale possano essere ritenuti responsabili delle sue presunte dichiarazioni diffamatorie.
In una dichiarazione, l’avvocato di Hood elenca molteplici esempi di falsità specifiche fatte da ChatGPT sul loro cliente, incluso il fatto che ha autorizzato pagamenti a un trafficante di armi per assicurarsi un contratto con il governo malese.
«Non lo troverai da nessun’altra parte, niente che suggerisca lontanamente quello che hanno suggerito loro. In qualche modo l’hanno creato dal nulla», ha dichiarato sconvolto Hood.
Nella ricerca sull’Intelligenza Artificiale di solito la chiamiamo «allucinazione»: i modelli linguistici sono addestrati per produrre un testo plausibile, non un testo fattuale.
Come riportato da Renovatio 21, le menzogne dell’IA sono oramai onnipresenti, così come le minacce agli utenti, e le idee apocalittiche di volere ingenerare catastrofi con virus o codici nucleari.
In realtà, queste macchine allucinatorie hanno già iniziato a provocare morti umane: è il caso del padre di famiglia belga suicidatosi dopo chat con una IA – la famiglia ritiene che senza il chatbot il marito sarebbe vivo.
Oltre allo sterminio, l’umanità rischia un altro scenario da incubo: un modo con notizie ingenerate dalle macchine, in larga parte false nonostante i riferimenti dati (che sono quasi sempre fasulli, se si va a cercare). Ecco le vere fake news…
L’idea è: chi comanda l’AI, di fatto comanderà la realtà.
E se l’AI si comanda da sola, la realtà umana sarà inventata dalla macchina.
Bello scenario da fine del mondo.
Intelligenza Artificiale
Chatbot AI mettono in pericolo gli escursionisti
Il sito Futurism riporta l’ennesima vicenda in cui l’Intelligenza Artificiale mette in pericolo gli esseri umani, che stupidamente si fidano di essa.
Qualche mese fa, due escursionisti che cercavano di affrontare una parete rocciosa di una montagna vicino a Vancouver, hanno dovuto chiamare una squadra di soccorso dopo che sono caduti nella neve. La coppia indossava solo scarpe da ginnastica a suola piatta, ignari che le altitudini più elevate di una catena montuosa potrebbero essere ancora innevate appena dopo l’inverno.
«Siamo saliti lassù con degli stivali per loro», ha detto al Vancouver Sun Brent Calkin, leader della squadra di ricerca e soccorso di Lions Bay. «Abbiamo chiesto loro le dimensioni dello scarpone e gli abbiamo portato scarponi e bastoni da sci».
Si scopre che per pianificare la loro sfortunata spedizione, gli escursionisti hanno seguito incautamente i consigli dati loro da Google Maps e dal chatbot AI ChatGPT.
Sostieni Renovatio 21
Ora, Calkin e il suo team di soccorso stanno avvertendo che non è prudente fare affidamento su app e chatbot AI per pianificare un’escursione complicata attraverso la natura selvaggia.
Con la quantità di informazioni disponibili online, è bene documentarsi bene prima di affrontare questo tipo di escursioni, ha sottolineato Calkin al Vancouver Sun. Un recente articolo di Mountain Rescue England e Wales ha accusato i social media e le cattive app di navigazione per le troppe chiamate alle squadre di soccorso, ha osservato il giornale.
Stephen Hui, autore del libro 105 Hikes, ha fatto eco a quell’avvertimento e ha ammonito che ottenere informazioni affidabili è una delle più grandi sfide presentate dai chatbot e dalle app AI. Con l’Intelligenza Artificiale in particolare, Hui ha detto al Vancouver Sun, non è sempre facile dire se ti le informazioni sono obsolete oppure recenti e affidabili.
Dal suo test di ChatGPT, Hui non è rimasto troppo colpito: può darti «direzioni decenti» sui sentieri più comuni e popolari, ma va in evidente difficoltà nel tracciare percorsi più impervi e meno battuti.
I chatbot AI faticano a fornire informazioni pertinenti in tempo reale.
«Il periodo dell’anno è un grosso problema» in British Columbia, ha detto Hui al Vancouver Sun. «La vista più ricercata è la cima della montagna, ma questo è davvero accessibile solo agli escursionisti da luglio a ottobre. In inverno, le persone potrebbero ancora cercare quelle viste e non rendersi conto che ci sarà neve».
C’è da dire che il tipo di persona che chiede a un chatbot consigli escursionistici probabilmente non conosce nemmeno le domande giuste da porre.
È di gran lunga più consigliato chiedere a un essere umano con esperienza della zona, ha suggerito Calkin, anziché affidarsi a queste nuove tecnologie che ancora, per troppe cose, risultano totalmente fuorvianti e inattendibili.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Xiaomi ora utilizza robot umanoidi per assemblare auto elettriche
🚨 Xiaomi deploys humanoid bots at its EV assembly plant, adding momentum to the factory robotics race alongside Tesla Optimus
• 3 hours of continuous autonomous operation • 90.2% success rate placing self-tapping nuts • Powered by Vision-Language-Action (VLA) + reinforcement… https://t.co/epvny9BPki pic.twitter.com/4Kzb9CaWaW — Herbert Ong (@herbertong) March 2, 2026
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
L’Iran bombarda per rappresaglia i data center dell’AI
All’inizio di questa settimana, droni iraniani hanno colpito tre strutture di Amazon Web Services (AWS) negli Emirati Arabi Uniti e in Bahrein, provocando interruzioni globali dei servizi online. Gli esperti ritengono che gli attacchi rappresentino il primo caso in cui grandi aziende tecnologiche americane sono state prese di mira in un’operazione militare.
Gli attacchi hanno causato «danni strutturali, interrotto la fornitura di energia elettrica alle nostre infrastrutture e, in alcuni casi, hanno richiesto interventi di spegnimento incendi che hanno causato ulteriori danni causati dall’acqua», ha ammesso il gigante della tecnologia in un aggiornamento del 2 marzo riportato da Futurism.
Secondo quanto riportato dal Financial Times, fonti affiliate alla Guardia Rivoluzionaria iraniana hanno affermato che l’Iran avrebbe preso di mira sia gli stabilimenti di Amazon che quelli di Microsoft, sebbene quest’ultima non abbia ancora subito interruzioni nella regione.
Gli incidenti evidenziano come i data center siano diventati obiettivi chiave sul campo di battaglia. La regione circostante, in Medio Oriente, è stata un’importante attrazione per gli hyperscaler (i principali fornitori di servizi cloud su larga scala) statunitensi, come sottolinea la CNBC, il che potrebbe significare che un numero ancora maggiore di asset americani è a rischio.
Iscriviti al canale Telegram ![]()
A far salire la posta in gioco è l’ascesa dell’intelligenza artificiale, che richiede data center potenti, già emersi come focolai di controversie lontano da qualsiasi teatro di guerra. Aziende come OpenAI, Oracle e Nvidia hanno annunciato importanti investimenti negli Emirati Arabi Uniti, tra cui importanti data center e un vasto «campus di Intelligenza Artificiale», nell’ambito del programma Stargate del presidente Donald Trump, una travagliata e visionaria – nonché inquietante – iniziativa da 500 miliardi di dollari annunciata quasi subito dopo il suo insediamento.
«L’Iran e i suoi alleati hanno preso di mira i giacimenti petroliferi in passato, ma i loro attacchi di questa settimana ai data center degli Emirati Arabi Uniti dimostrano che ora sono considerati infrastrutture critiche», ha dichiarato alla CNBC Patrick Murphy, direttore esecutivo dell’unità geopolitica della società di consulenza Hilco Global.
Gli attacchi evidenziano anche la crescente domanda di sicurezza delle infrastrutture per mantenere online le operazioni, che secondo Murphy potrebbe portare i governi a includere i data center in Medio Oriente «nei quadri di pianificazione della sicurezza nazionale insieme agli impianti energetici, alle reti di telecomunicazioni, agli impianti di trattamento delle acque e agli hub dei trasporti».
Rafforzare questi obiettivi potrebbe risultare difficile, poiché i data center potrebbero essere resi offline prendendo di mira turbine, unità di aria condizionata e altre strutture esposte.
«Gli iraniani considerano i data center parte del conflitto», ha dichiarato al Financial Times Matt Peal, direttore del Center for Strategic and International Studies. «Questo è un modo per avere un impatto concreto sulla regione».
Nel frattempo, Amazon è scossa dalla crescente instabilità geopolitica che minaccia le sue attività. «Anche se lavoriamo per ripristinare queste strutture, il conflitto in corso nella regione rende il contesto operativo più ampio in Medio Oriente ancora imprevedibile», ha dichiarato l’azienda ai clienti in una nota. «Raccomandiamo vivamente ai clienti con carichi di lavoro in esecuzione in Medio Oriente di agire ora per migrare tali carichi di lavoro verso regioni AWS alternative».
Iscriviti alla Newslettera di Renovatio 21
Immagine di pubblico dominio CC0 via Wikimedia
-



Pensiero6 giorni faEcco la guerra globale per l’anticristo
-



Comunicati2 settimane faIn morte di Albachiara
-



Comunicati2 settimane faAddio Albachiara
-



Vaccini2 settimane faProgetto Artichoke: 70 anni fa la CIA discuteva di nascondere farmaci per il controllo mentale nei vaccini
-



Comunicati2 settimane faAlbachiara, la militanza, la determinazione cristiana
-



Morte cerebrale5 giorni faDichiarato morto, un bambino torna in vita dopo cinque ore: quando la realtà smentisce i protocolli
-



Occulto2 settimane faPapa Leone XIV nomina a Sassari il vescovo che partecipò all’inaugurazione di una loggia massonica
-



Geopolitica4 giorni faQuesta è una guerra mondiale di religione: l’avvertimento di Tucker Carlson














