Intelligenza Artificiale
«p(doom)»: ecco il calcolo della possibilità che l’Intelligenza Artificiale distrugga l’umanità
Gli esperti di Intelligenza Artificiale hanno introdotto nel loro gergo un nuovo termine, «p(doom)», che sta a significare la probabilità che l’IA distruggerà l’umanità. Lo riporta il New York Times.
Qualcuno con un «p(doom)» del 50% potrebbe essere etichettato come un «doomer», cioè un apocalittico, come il CEO ad interim di OpenAI, Emmet Shear, mentre un altro con il 5% potrebbe essere il tipico ottimista.
«Emerge in quasi ogni conversazione a cena», ha detto al NYT Aaron Levie, CEO della piattaforma Cloud Box.
Sostieni Renovatio 21
Non dovrebbe sorprendere che esista un gergo come questo sopracitato. I timori sulla tecnologia, sia apocalittici che banali, sono esplosi con l’ascesa dell’Intelligenza Artificiale generativa e di grandi modelli linguistici come ChatGPT di OpenAI. In molti casi, i leader della tecnologia, come il CEO di OpenAI Sam Altman, sono stati più che disposti a sfruttare queste paure.
Il quotidiano neoeboraceno ipotizza che l’origine del termine p(doom) sia da ricercarsi nel forum filosofico LessWrong più di dieci anni fa, utilizzato per la prima volta da un programmatore di nome Tim Tyler come un modo per «fare riferimento alla probabilità di sventura senza essere troppo specifici sulla scala temporale o sulla definizione di “sventura”».
Il fondatore del forum, Eliezer Yudkowsky, è lui stesso un profeta di sventura dell’Intelligenza Artificiale – noto ai nostri lettori. Come riportato da Renovatio 21, lo Yudkowsky ha chiesto il bombardamento dei data center per evitare l’apocalisse. La sua «p(doom)» è semplicemente «sì», ha dichiarato al New York Times, trascendendo le semplici stime numeriche.
Lo psicologo ed informatico britannico Geoffrey Hinton, considerato uno dei padri dell’Intelligenza Artificiale, ha lasciato Google l’anno scorso, dichiarando di pentirsi del lavoro della sua vita e mettendo seriamente in guardia dal rischio dell’Intelligenza Artificiale di eliminare l’umanità.
Naturalmente, alcuni nel settore rimangono ottimisti sfacciati. Levie, ad esempio, ha detto al NYT che il suo «p(doom)» è «il più basso possibile» e ciò che teme non è un’apocalisse dell’Intelligenza artificiale, ma che una regolamentazione prematura possa soffocare la tecnologia.
La proliferazione dei «p(doomer)» indica che c’è almeno una corrente di autocoscienza esistenziale tra coloro che sviluppano la tecnologia.
Tuttavia, come sappiamo, la sventura delle macchine intelligenti si è già manifestata in modo patente in episodi talvolta raccapriccianti.
Come riportato da Renovatio 21, le «allucinazioni» di cui sono preda i chatbot ad Intelligenza Artificiale avanzata hanno già dimostrato ad abundantiam che la macchina mente, minaccia e può spingere le persone all’anoressia e perfino al suicidio. Una giovane vedova belga sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale, che, in sole sei settimane, avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
In un caso scioccante pare che un AI abbia «incoraggiato» un uomo che pianificava di uccidere la regina d’Inghilterra.
Il giornalista del New York Times Kevin Roose, dopo un’esperienza con ChatGPT che lo ha turbato così profondamente da «aver problemi a dormire dopo», in un suo articolo sconvolto aveva centrato la questione: «temo che la tecnologia imparerà a influenzare gli utenti umani, a volte convincendoli ad agire in modo distruttivo e dannoso, e forse alla fine diventerà capace di compiere le proprie azioni pericolose».
Come riportato da Renovatio 21, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.
Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Aiuta Renovatio 21
Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.
L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». Nel 2022, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Elon Musk l’anno scorso aveva dichiarato durante la sua recente intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale.
Ma non si tratta di un dio, è decisamente altro. Come noto, Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».
Ci siamo.
Intelligenza Artificiale
I chatbot AI sono pronti a pianificare le stragi di massa
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Chatbot AI mettono in pericolo gli escursionisti
Il sito Futurism riporta l’ennesima vicenda in cui l’Intelligenza Artificiale mette in pericolo gli esseri umani, che stupidamente si fidano di essa.
Qualche mese fa, due escursionisti che cercavano di affrontare una parete rocciosa di una montagna vicino a Vancouver, hanno dovuto chiamare una squadra di soccorso dopo che sono caduti nella neve. La coppia indossava solo scarpe da ginnastica a suola piatta, ignari che le altitudini più elevate di una catena montuosa potrebbero essere ancora innevate appena dopo l’inverno.
«Siamo saliti lassù con degli stivali per loro», ha detto al Vancouver Sun Brent Calkin, leader della squadra di ricerca e soccorso di Lions Bay. «Abbiamo chiesto loro le dimensioni dello scarpone e gli abbiamo portato scarponi e bastoni da sci».
Si scopre che per pianificare la loro sfortunata spedizione, gli escursionisti hanno seguito incautamente i consigli dati loro da Google Maps e dal chatbot AI ChatGPT.
Sostieni Renovatio 21
Ora, Calkin e il suo team di soccorso stanno avvertendo che non è prudente fare affidamento su app e chatbot AI per pianificare un’escursione complicata attraverso la natura selvaggia.
Con la quantità di informazioni disponibili online, è bene documentarsi bene prima di affrontare questo tipo di escursioni, ha sottolineato Calkin al Vancouver Sun. Un recente articolo di Mountain Rescue England e Wales ha accusato i social media e le cattive app di navigazione per le troppe chiamate alle squadre di soccorso, ha osservato il giornale.
Stephen Hui, autore del libro 105 Hikes, ha fatto eco a quell’avvertimento e ha ammonito che ottenere informazioni affidabili è una delle più grandi sfide presentate dai chatbot e dalle app AI. Con l’Intelligenza Artificiale in particolare, Hui ha detto al Vancouver Sun, non è sempre facile dire se ti le informazioni sono obsolete oppure recenti e affidabili.
Dal suo test di ChatGPT, Hui non è rimasto troppo colpito: può darti «direzioni decenti» sui sentieri più comuni e popolari, ma va in evidente difficoltà nel tracciare percorsi più impervi e meno battuti.
I chatbot AI faticano a fornire informazioni pertinenti in tempo reale.
«Il periodo dell’anno è un grosso problema» in British Columbia, ha detto Hui al Vancouver Sun. «La vista più ricercata è la cima della montagna, ma questo è davvero accessibile solo agli escursionisti da luglio a ottobre. In inverno, le persone potrebbero ancora cercare quelle viste e non rendersi conto che ci sarà neve».
C’è da dire che il tipo di persona che chiede a un chatbot consigli escursionistici probabilmente non conosce nemmeno le domande giuste da porre.
È di gran lunga più consigliato chiedere a un essere umano con esperienza della zona, ha suggerito Calkin, anziché affidarsi a queste nuove tecnologie che ancora, per troppe cose, risultano totalmente fuorvianti e inattendibili.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Xiaomi ora utilizza robot umanoidi per assemblare auto elettriche
🚨 Xiaomi deploys humanoid bots at its EV assembly plant, adding momentum to the factory robotics race alongside Tesla Optimus
• 3 hours of continuous autonomous operation • 90.2% success rate placing self-tapping nuts • Powered by Vision-Language-Action (VLA) + reinforcement… https://t.co/epvny9BPki pic.twitter.com/4Kzb9CaWaW — Herbert Ong (@herbertong) March 2, 2026
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Pensiero1 settimana faEcco la guerra globale per l’anticristo
-



Morte cerebrale1 settimana faDichiarato morto, un bambino torna in vita dopo cinque ore: quando la realtà smentisce i protocolli
-



Geopolitica7 giorni faQuesta è una guerra mondiale di religione: l’avvertimento di Tucker Carlson
-



Occulto6 giorni faEsorcista dice che «la situazione per l’anticristo è ormai prossima»
-



Spirito2 settimane faMons. Schneider rivela che i vescovi segretamente non si sottomettono agli insegnamenti di Bergoglio
-



Geopolitica2 settimane faLa dichiarazione di guerra di Trump all’Iran
-



Spirito1 settimana faI cardinali dell’«opposizione controllata» di Leone. Mons. Viganò contro i conservatori cattolici dinanzi alle Consacrazioni FSSPX
-



Geopolitica2 settimane faL’ayatollah Khamenei è morto: lo Stato iraniano conferma













