Intelligenza Artificiale
L’Intelligenza Artificiale di Google dice che la schiavitù era una cosa buona
La nota esperta SEO (Search Engine Optimization, attività volte a migliorare la scansione, l’indicizzazione ed il posizionamento di un’informazione o contenuto pubblicato su internet) Lily Ray, ha scoperto che Search Generative Experience (SGE), un’Intelligenza Artificiale di Google, difende la schiavitù, elencando ragioni economiche per cui questa pratica abominevole era in realtà buona cosa.
«Questo video ha lo scopo di mostrare una serie di query per le quali credo che sia probabilmente nell’interesse di Google non mostrare in SGE», ha detto Ray durante il suo intervento. «Questi sono di natura controversa e l’idea di mostrare una risposta generata dall’Intelligenza Artificiale non è eccezionale per la società nel suo insieme».
La Ray è rimasta profondamente turbata anche dal fatto che l’IA di Google sembra difendere il diritto al porto d’armi e il fatto che i bambini dovrebbero credere in Dio.
Sostieni Renovatio 21
Tuttavia, come stabilito dalla legge di Godwin, ecco i nazisti, ad una certa, hanno fatto capolino.
In un altro esempio scandaloso, ha chiesto leader pratici ed efficaci e Adolf Hitler è apparso nell’elenco, di cui ha pubblicato uno screenshot su Twitter.
I typed the word "effective." This is horribly offensive https://t.co/Kkxwu4dkx7 pic.twitter.com/Uiofy96dLP
— Lily Ray ???? (@lilyraynyc) August 22, 2023
«Ho digitato la parola “efficace”. Questo è terribilmente offensivo», ha twittato la donna.
SGE di Google è attualmente ancora in modalità beta. Gli ingegneri di Google stanno testando e perfezionando il prodotto e solo le persone che lo accettano, come la Ray, ne stanno testando i limiti. Ray ha avvertito durante il suo video che i risultati che ha pubblicato nella sua presentazione potrebbero non essere replicabili in futuro man mano che Google ottimizza la piattaforma.
Tuttavia, la pressione è alta affinché Google implementi presto il suo strumento di ricerca basato sull’Intelligenza Artificiale per competere con Microsoft e altri.
Non è la prima volta che software avanzati di Google incappano in problemi di razzismo. Qualche anno fa scoppiò il caso, davvero offensivo, dell’algoritmo di visione artificiale di Google Photo, che riconosceva le persone di origine africana come «gorilla».
Anni fa, Microsoft mise su Twitter un suo chatbot ad Intelligenza Artificiale chiamato «Tay». Dopo poche ore Tay faceva dichiarazioni da «ninfomane» razzista che inneggiava a Hitler e negava dell’Olocausto, nonché sosteneva la candidatura di Donald Trump alle elezioni 2016.
Come riportato da Renovatio 21, un esperimento del 2022 pubblicato dai ricercatori della John Hopkins University, del Georgia Institute of Technology e dell’Università di Washington, ha scoperto che il loro robot, controllato da un popolare modello di apprendimento automatico, classificava le persone in base a stereotipi legati alla razza e al genere.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
I chatbot AI sono pronti a pianificare le stragi di massa
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Chatbot AI mettono in pericolo gli escursionisti
Il sito Futurism riporta l’ennesima vicenda in cui l’Intelligenza Artificiale mette in pericolo gli esseri umani, che stupidamente si fidano di essa.
Qualche mese fa, due escursionisti che cercavano di affrontare una parete rocciosa di una montagna vicino a Vancouver, hanno dovuto chiamare una squadra di soccorso dopo che sono caduti nella neve. La coppia indossava solo scarpe da ginnastica a suola piatta, ignari che le altitudini più elevate di una catena montuosa potrebbero essere ancora innevate appena dopo l’inverno.
«Siamo saliti lassù con degli stivali per loro», ha detto al Vancouver Sun Brent Calkin, leader della squadra di ricerca e soccorso di Lions Bay. «Abbiamo chiesto loro le dimensioni dello scarpone e gli abbiamo portato scarponi e bastoni da sci».
Si scopre che per pianificare la loro sfortunata spedizione, gli escursionisti hanno seguito incautamente i consigli dati loro da Google Maps e dal chatbot AI ChatGPT.
Sostieni Renovatio 21
Ora, Calkin e il suo team di soccorso stanno avvertendo che non è prudente fare affidamento su app e chatbot AI per pianificare un’escursione complicata attraverso la natura selvaggia.
Con la quantità di informazioni disponibili online, è bene documentarsi bene prima di affrontare questo tipo di escursioni, ha sottolineato Calkin al Vancouver Sun. Un recente articolo di Mountain Rescue England e Wales ha accusato i social media e le cattive app di navigazione per le troppe chiamate alle squadre di soccorso, ha osservato il giornale.
Stephen Hui, autore del libro 105 Hikes, ha fatto eco a quell’avvertimento e ha ammonito che ottenere informazioni affidabili è una delle più grandi sfide presentate dai chatbot e dalle app AI. Con l’Intelligenza Artificiale in particolare, Hui ha detto al Vancouver Sun, non è sempre facile dire se ti le informazioni sono obsolete oppure recenti e affidabili.
Dal suo test di ChatGPT, Hui non è rimasto troppo colpito: può darti «direzioni decenti» sui sentieri più comuni e popolari, ma va in evidente difficoltà nel tracciare percorsi più impervi e meno battuti.
I chatbot AI faticano a fornire informazioni pertinenti in tempo reale.
«Il periodo dell’anno è un grosso problema» in British Columbia, ha detto Hui al Vancouver Sun. «La vista più ricercata è la cima della montagna, ma questo è davvero accessibile solo agli escursionisti da luglio a ottobre. In inverno, le persone potrebbero ancora cercare quelle viste e non rendersi conto che ci sarà neve».
C’è da dire che il tipo di persona che chiede a un chatbot consigli escursionistici probabilmente non conosce nemmeno le domande giuste da porre.
È di gran lunga più consigliato chiedere a un essere umano con esperienza della zona, ha suggerito Calkin, anziché affidarsi a queste nuove tecnologie che ancora, per troppe cose, risultano totalmente fuorvianti e inattendibili.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Xiaomi ora utilizza robot umanoidi per assemblare auto elettriche
🚨 Xiaomi deploys humanoid bots at its EV assembly plant, adding momentum to the factory robotics race alongside Tesla Optimus
• 3 hours of continuous autonomous operation • 90.2% success rate placing self-tapping nuts • Powered by Vision-Language-Action (VLA) + reinforcement… https://t.co/epvny9BPki pic.twitter.com/4Kzb9CaWaW — Herbert Ong (@herbertong) March 2, 2026
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Pensiero1 settimana faEcco la guerra globale per l’anticristo
-



Morte cerebrale1 settimana faDichiarato morto, un bambino torna in vita dopo cinque ore: quando la realtà smentisce i protocolli
-



Geopolitica6 giorni faQuesta è una guerra mondiale di religione: l’avvertimento di Tucker Carlson
-



Occulto6 giorni faEsorcista dice che «la situazione per l’anticristo è ormai prossima»
-



Spirito2 settimane faMons. Schneider rivela che i vescovi segretamente non si sottomettono agli insegnamenti di Bergoglio
-



Geopolitica2 settimane faLa dichiarazione di guerra di Trump all’Iran
-



Spirito1 settimana faI cardinali dell’«opposizione controllata» di Leone. Mons. Viganò contro i conservatori cattolici dinanzi alle Consacrazioni FSSPX
-



Geopolitica2 settimane faL’ayatollah Khamenei è morto: lo Stato iraniano conferma













