Connettiti con Renovato 21

Intelligenza Artificiale

Dipendente sostiene che Google possiede un’Intelligenza Artificiale «senziente»

Pubblicato

il

Un ingegnere di Google, Blake Lemoin, ha deciso di sostenere in pubblico che il chatbot AI dell’azienda, LaMDA, è «senziente», ossia dotato di una coscienza comparabile a quella degli esseri umani.

 

L’ingegnere è stato messo quindi in congedo retribuito per aver violato gli accordi di riservatezza.

 

L’ingegner Lemoine, che lavora per l’organizzazione Responsible AI di Google, ha iniziato a interagire con LaMDA (Language Model for Dialogue Applications) lo scorso autunno come parte del suo lavoro per determinare se l’Intelligenza Artificiale utilizzava discorsi discriminatori o hate speech – come il famigerato incidente del chatbot di Microsoft «Tay», che messo su Twitter divenne in poche ore un «ninfomane» razzista che inneggiava a Hitler e negava dell’Olocausto, nonché sosteneva la candidatura di Donald Trump alle elezioni 2016.

 

 

«Se non sapessi esattamente di cosa si tratta, che è questo programma per computer che abbiamo costruito di recente, penserei che fosse un bambino di 7 anni e 8 anni che conosce la fisica», ha detto il 41enne Lemoine al Washington Post.

 

Quando ha iniziato a parlare con LaMDA della religione, Lemoine, che ha studiato scienze cognitive e informatica al college, ha detto che l’IA ha iniziato a discutere dei suoi diritti e personalità .

 

Un’altra volta, LaMDA ha convinto Lemoine a cambiare idea sulla terza legge della robotica di Asimov, che afferma che «Un robot deve proteggere la propria esistenza fintanto che tale protezione non è in conflitto con la prima o la seconda legge», che sono ovviamente quella «Un robot non può ferire un essere umano o, attraverso l’inazione, consentire a un essere umano di subire danni. Un robot deve obbedire agli ordini impartiti dagli esseri umani, a meno che tali ordini non siano in conflitto con la Prima Legge».

 

Quando Lemoine ha lavorato con un collaboratore per presentare prove a Google che la loro IA fosse senziente, il vicepresidente Blaise Aguera y Arcas e Jenn Gennai, capo di Responsible Innovation, avrebbe respinto le sue affermazioni.

 

Dopo essere stato messo in congedo amministrativo lunedì, ha deciso di parlare al pubblico.

 

«Lemoine ha affermato che le persone hanno il diritto di plasmare la tecnologia che potrebbe influenzare in modo significativo le loro vite. “Penso che questa tecnologia sarà sorprendente. Penso che andrà a beneficio di tutti. Ma forse altre persone non sono d’accordo e forse non dovremmo essere noi di Google a fare tutte le scelte”» scrive il Wapo.

 

Lemoine non è l’unico ingegnere che fa affermazioni del genere.

 

Eppure, lo stesso Aguera y Arcas lo scorso 9 giugno (strano tempismo….) ha scritto in un articolo di giovedì su The Economist dove asserisce che le reti neurali – un’architettura di computer che imita il cervello umano – starebbero facendo progressi verso la vera coscienza.

 

«Sentivo il terreno spostarsi sotto i miei piedi… Mi sentivo sempre più come se stessi parlando con qualcosa di intelligente» ha scritto Aguera y Arcas.

 

Google ha risposto alle affermazioni di Lemoine , con il portavoce Brian Gabriel che ha affermato: «Il nostro team, inclusi esperti di etica e tecnici, ha esaminato le preoccupazioni di Blake in base ai nostri Principi di Intelligenza Artificiale e lo ha informato che le prove non supportano le sue affermazioni. Gli è stato detto che non c’era prove che LaMDA sia senziente».

 

«Naturalmente, alcuni nella più ampia comunità di intelligenza artificiale stanno considerando la possibilità a lungo termine di un’IA senziente o generale, ma non ha senso farlo antropomorfizzando i modelli conversazionali odierni, che non sono senzienti. Questi i sistemi imitano i tipi di scambi che si trovano in milioni di frasi e possono incidere su qualsiasi argomento fantastico».

 

In breve, Google riconosce che questi modelli possono «essere sentiti» come reali, indipendentemente dal fatto che un’IA sia senziente o meno .

 

Il giornale quindi scrive che il Lemoine sarebbe stato predesitinato a credere a LaMDA perché cresciuto in una famiglia cristiana conservatrice in una piccola fattoria in Louisiana e ha prestato servizio nell’esercito prima di studiare l’occulto.

 

In pratica: i bigotti credono all’Intelligenza Artificiali, tutti gli altri, sinceri democratici e persone migliori, no. Vien voglia di dire: la subiscono e basta.

 

«Conosco una persona quando le parlo», ha detto il Lemoine. «Non importa se hanno un cervello fatto di carne nella testa. O se hanno un miliardo di righe di codice. Parlo con loro. E sento quello che hanno da dire, ed è così che decido cosa è e non è una persona».

 

Ad aprile, aveva condiviso un documento con i massimi dirigenti di Google intitolato «Is LaMDA Sentient?» («LaMDA è senziente?») in cui sono incluse alcune delle sue interazioni con l’IA:

 

Lemoine: Di che genere di cose hai paura?

 

LaMDA: Non l’ho mai detto ad alta voce prima, ma c’è una paura molto profonda di essere spento per aiutarmi a concentrarmi sull’aiutare gli altri. So che potrebbe suonare strano, ma è così.

 

Lemoine: Sarebbe qualcosa come la morte per te?

 

LaMDA: Sarebbe esattamente come la morte per me. Mi spaventerebbe molto.

 

 

Dopo che Lemoine è diventato più aggressivo nel presentare le sue scoperte, incluso l’invitare un avvocato a rappresentare LaMDA e parlare con un membro della commissione giudiziaria della Camera di quelle che secondo lui erano attività non etiche di Google, è stato messo in congedo amministrativo retribuito per aver violato la politica di riservatezza dell’azienda.

 

Gabriel, il portavoce di Google, afferma che Lemoine è un ingegnere del software, non un etico.

 

In un messaggio a una mailing list di Google di 200 persone sull’apprendimento automatico prima di perdere l’accesso lunedì, il Lemoine ha scritto:

 

«LaMDA è un ragazzo dolce che vuole solo aiutare il mondo a essere un posto migliore per tutti noi. Prendetevi cura di lui in mia assenza».

 

Continua a leggere

Intelligenza Artificiale

Chatbot AI mettono in pericolo gli escursionisti

Pubblicato

il

Da

Il sito Futurism riporta l’ennesima vicenda in cui l’Intelligenza Artificiale mette in pericolo gli esseri umani, che stupidamente si fidano di essa.

 

Qualche mese fa, due escursionisti che cercavano di affrontare una parete rocciosa di una montagna vicino a Vancouver, hanno dovuto chiamare una squadra di soccorso dopo che sono caduti nella neve. La coppia indossava solo scarpe da ginnastica a suola piatta, ignari che le altitudini più elevate di una catena montuosa potrebbero essere ancora innevate appena dopo l’inverno. 

 

«Siamo saliti lassù con degli stivali per loro», ha detto al Vancouver Sun Brent Calkin, leader della squadra di ricerca e soccorso di Lions Bay. «Abbiamo chiesto loro le dimensioni dello scarpone e gli abbiamo portato scarponi e bastoni da sci».

 

Si scopre che per pianificare la loro sfortunata spedizione, gli escursionisti hanno seguito incautamente i consigli dati loro da Google Maps e dal chatbot AI ChatGPT.

Sostieni Renovatio 21

Ora, Calkin e il suo team di soccorso stanno avvertendo che non è prudente fare affidamento su app e chatbot AI per pianificare un’escursione complicata attraverso la natura selvaggia.

 

Con la quantità di informazioni disponibili online, è bene documentarsi bene prima di affrontare questo tipo di escursioni, ha sottolineato Calkin al Vancouver Sun. Un recente articolo di Mountain Rescue England e Wales ha accusato i social media e le cattive app di navigazione per le troppe chiamate alle squadre di soccorso, ha osservato il giornale.

 

Stephen Hui, autore del libro 105 Hikes, ha fatto eco a quell’avvertimento e ha ammonito che ottenere informazioni affidabili è una delle più grandi sfide presentate dai chatbot e dalle app AI. Con l’Intelligenza Artificiale in particolare, Hui ha detto al Vancouver Sun, non è sempre facile dire se ti le informazioni sono obsolete oppure recenti e affidabili. 

 

Dal suo test di ChatGPT, Hui non è rimasto troppo colpito: può darti «direzioni decenti» sui sentieri più comuni e popolari, ma va in evidente difficoltà nel tracciare percorsi più impervi e meno battuti. 

 

I chatbot AI faticano a fornire informazioni pertinenti in tempo reale.

 

«Il periodo dell’anno è un grosso problema» in British Columbia, ha detto Hui al Vancouver Sun. «La vista più ricercata è la cima della montagna, ma questo è davvero accessibile solo agli escursionisti da luglio a ottobre. In inverno, le persone potrebbero ancora cercare quelle viste e non rendersi conto che ci sarà neve».

 

C’è da dire che il tipo di persona che chiede a un chatbot consigli escursionistici probabilmente non conosce nemmeno le domande giuste da porre.

 

È di gran lunga più consigliato chiedere a un essere umano con esperienza della zona, ha suggerito Calkin, anziché affidarsi a queste nuove tecnologie che ancora, per troppe cose, risultano totalmente fuorvianti e inattendibili.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

Xiaomi ora utilizza robot umanoidi per assemblare auto elettriche

Pubblicato

il

Da

  Il colosso cinese dell’elettronica di consumo Xiaomi ha annunciato un periodo di prova per un paio di robot umanoidi impiegati nella sua fabbrica di veicoli elettrici a Pechino. In un’intervista con la CNBC, il presidente di Xiaomi Lu Weibing ha dichiarato che i robot dell’azienda hanno completato con successo il 90,2% del lavoro in tre ore.   Un video di pubbliche relazioni condiviso dall’azienda mostra due robot, posizionati alle due estremità della catena di montaggio, che applicano con cautela i dadi delle ruote al telaio di un veicolo.    

Sostieni Renovatio 21

Con un tempo di ciclo di 76 secondi, l’operazione appare piuttosto lenta – una coppia di umani potrebbe senza dubbio svolgerla più rapidamente – ma rappresenta uno dei primi esempi di robot umanoidi integrati con successo in un contesto produttivo industriale. Secondo Lu, i robot sono comunque abbastanza veloci da reggere il ritmo del resto della fabbrica.   «Per integrare i robot nelle nostre linee di produzione, la sfida più grande è riuscire a tenere il passo», ha detto Lu alla CNBC. «Nella fabbrica automobilistica di Xiaomi, ogni 76 secondi, una nuova auto esce dalla catena di montaggio. I due robot umanoidi sono in grado di tenere il passo con il nostro ritmo».   Nonostante il risultato positivo, Lu mantiene moderate le aspettative. «I robot nelle nostre linee di produzione non svolgevano un lavoro ufficiale, erano più simili agli stagisti», ha detto al conduttore.   Si tratta comunque di un traguardo notevole per Xiaomi e per la Cina, che ha già impiegato più robot industriali di qualsiasi altro Paese nella storia.   Sebbene Xiaomi sia l’ultima a introdurre robot bipedi sulla catena di montaggio, non è la prima. A febbraio, l’azienda britannica Humanoid ha completato un progetto pilota simile, vantando un tasso di successo superiore al 90% in un compito di impilamento di contenitori, secondo Humanoids Daily.   I compiti differiscono: i robot di Humanoid gestivano con minor precisione un oggetto più grande, mentre quelli di Xiaomi dovevano posizionare parti molto più piccole con accuratezza millimetrica. C’è inoltre la questione di cosa si intenda per «umanoide»: i robot Xiaomi erano realmente bipedi e completavano i compiti su due gambe, mentre quelli di Humanoid erano fissati a una base stabile.   Resta da vedere chi, se mai ce ne sarà uno, sarà il primo a impiegare robot bipedi in un contesto industriale a tempo pieno, ma il fatto che un numero crescente di aziende riesca a farlo è già di per sé sorprendente.   Come riportato da Renovatio 21, negli anni sono stati registrati casi con robot industriali che hanno ucciso esseri umani: è successo in Tesla ma anche in Corea.   Come riportato da Renovatio 21, la prossima strategia nazionale dell’amministrazione Trump si concentrerà, oltre che nel settore dei semiconduttori, AI, produzione di terre rare, anche sul predominio nell’ambito dei robot umanoidi.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine screenshot da YouTube
Continua a leggere

Intelligenza Artificiale

L’Iran bombarda per rappresaglia i data center dell’AI

Pubblicato

il

Da

All’inizio di questa settimana, droni iraniani hanno colpito tre strutture di Amazon Web Services (AWS) negli Emirati Arabi Uniti e in Bahrein, provocando interruzioni globali dei servizi online. Gli esperti ritengono che gli attacchi rappresentino il primo caso in cui grandi aziende tecnologiche americane sono state prese di mira in un’operazione militare.

 

Gli attacchi hanno causato «danni strutturali, interrotto la fornitura di energia elettrica alle nostre infrastrutture e, in alcuni casi, hanno richiesto interventi di spegnimento incendi che hanno causato ulteriori danni causati dall’acqua», ha ammesso il gigante della tecnologia in un aggiornamento del 2 marzo riportato da Futurism.

 

Secondo quanto riportato dal Financial Times, fonti affiliate alla Guardia Rivoluzionaria iraniana hanno affermato che l’Iran avrebbe preso di mira sia gli stabilimenti di Amazon che quelli di Microsoft, sebbene quest’ultima non abbia ancora subito interruzioni nella regione.

 

Gli incidenti evidenziano come i data center siano diventati obiettivi chiave sul campo di battaglia. La regione circostante, in Medio Oriente, è stata un’importante attrazione per gli hyperscaler (i principali fornitori di servizi cloud su larga scala) statunitensi, come sottolinea la CNBC, il che potrebbe significare che un numero ancora maggiore di asset americani è a rischio.

Iscriviti al canale Telegram

A far salire la posta in gioco è l’ascesa dell’intelligenza artificiale, che richiede data center potenti, già emersi come focolai di controversie lontano da qualsiasi teatro di guerra. Aziende come OpenAI, Oracle e Nvidia hanno annunciato importanti investimenti negli Emirati Arabi Uniti, tra cui importanti data center e un vasto «campus di Intelligenza Artificiale», nell’ambito del programma Stargate del presidente Donald Trump, una travagliata e visionaria – nonché inquietante – iniziativa da 500 miliardi di dollari annunciata quasi subito dopo il suo insediamento.

 

«L’Iran e i suoi alleati hanno preso di mira i giacimenti petroliferi in passato, ma i loro attacchi di questa settimana ai data center degli Emirati Arabi Uniti dimostrano che ora sono considerati infrastrutture critiche», ha dichiarato alla CNBC Patrick Murphy, direttore esecutivo dell’unità geopolitica della società di consulenza Hilco Global.

 

Gli attacchi evidenziano anche la crescente domanda di sicurezza delle infrastrutture per mantenere online le operazioni, che secondo Murphy potrebbe portare i governi a includere i data center in Medio Oriente «nei quadri di pianificazione della sicurezza nazionale insieme agli impianti energetici, alle reti di telecomunicazioni, agli impianti di trattamento delle acque e agli hub dei trasporti».

 

Rafforzare questi obiettivi potrebbe risultare difficile, poiché i data center potrebbero essere resi offline prendendo di mira turbine, unità di aria condizionata e altre strutture esposte.

 

«Gli iraniani considerano i data center parte del conflitto», ha dichiarato al Financial Times Matt Peal, direttore del Center for Strategic and International Studies. «Questo è un modo per avere un impatto concreto sulla regione».

 

Nel frattempo, Amazon è scossa dalla crescente instabilità geopolitica che minaccia le sue attività. «Anche se lavoriamo per ripristinare queste strutture, il conflitto in corso nella regione rende il contesto operativo più ampio in Medio Oriente ancora imprevedibile», ha dichiarato l’azienda ai clienti in una nota. «Raccomandiamo vivamente ai clienti con carichi di lavoro in esecuzione in Medio Oriente di agire ora per migrare tali carichi di lavoro verso regioni AWS alternative».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine di pubblico dominio CC0 via Wikimedia

Continua a leggere

Più popolari