Connettiti con Renovato 21

Intelligenza Artificiale

L’AI «probabilmente» annienterà l’umanità: parlano gli scienziati di Oxford e Google

Pubblicato

il

I ricercatori di Google Deepmind e dell’Università di Oxford hanno concluso che esistono delle probabilità che una Intelligenza Artificiale (AI) superintelligente segnerà la fine dell’umanità; uno scenario decisamente inquietante che sempre più persone esperte cominciano ad ipotizzare.

 

In un recente articolo pubblicato sulla rivista AI Magazine, il team composto dallo scienziato senior di DeepMind, Marcus Hutter, e dai ricercatori di Oxford, Michael Cohen e Michael Osborne, sostengono che le macchine alla fine saranno incentivate a infrangere le regole impostate dai loro creatori per competere nella ricerca di risorse ed energia.

 

«Nelle condizioni che abbiamo identificato, la nostra conclusione è molto più forte di quella di qualsiasi pubblicazione precedente: una catastrofe esistenziale non è solo possibile, ma probabile», ha twittato all’inizio di questo mese Cohen, studente di ingegneria dell’Università di Oxford e coautore dell’articolo. 

 

 


 

Nel documento i ricercatori sostengono che l’umanità potrebbe affrontare il suo destino sotto forma di «agenti disallineati» super avanzati che percepiscono l’umanità come un ostacolo ai loro progetti e sviluppi.

 

«Un buon modo per un agente di mantenere il controllo a lungo termine della sua ricompensa è eliminare potenziali minacce e utilizzare tutta l’energia disponibile per proteggere il proprio computer», si legge nel documento. «Perdere questo gioco sarebbe fatale».

 

I ricercatori sostengono che non c’è molto che possano fare al riguardo. «In un mondo con risorse infinite, sarei estremamente incerto su cosa potrebbe succedere», ha detto il Cohen in un’intervista a Motherboard. «In un mondo con risorse limitate, c’è una competizione inevitabile per queste risorse».

 

«E se sei in una competizione con qualcosa in grado di ingannarti ad ogni turno, allora non dovresti aspettarti di vincere», ha aggiunto.

 

In risposta a questa ipotetica minaccia, l’umanità dovrebbe far progredire lentamente e con attenzione le sue tecnologie di Intelligenza Artificiale. Se queste ipotesi fossero veritiere, «un agente artificiale sufficientemente avanzato potrebbe intervenire nella fornitura di informazioni sugli obiettivi, con conseguenze catastrofiche», avverte il documento.

 

Inoltre il ricercatore a capo di OpenAI ha recentemente dichiarato che l’Intelligenza Artificiale potrebbe già essere stata in grado di prendere coscienza. Ilya Sutskever, scienziato capo del gruppo di ricerca OpenAI – una organizzazione ora divenuta a scopo di lucro inizialmente dedicata allo sviluppo di una IA «benevola» che possa giovare all’umanità invece che distruggerla – aveva twittato che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».

 

Un altro progetto chiamato DALL-E2, un sistema di Intelligenza Artificiale testo-immagine realizzato da Open AI,  parrebbe aver creato un proprio linguaggio scritto. È ciò che sostiene Giannis Daras, uno studente di dottorato in informatica presso l’Università del Texas ad Austin.

 

DALL-E2 ha fatto un salto evolutivo all’inizio di quest’anno con la sua straordinaria capacità di trasformare i messaggi di testo in immagini fotorealistiche con tanto di stile artistico e ora sembra che possa essere ancora più potente e inquietante di quanto si potesse immaginare, in quanto pare sia in grado di generare un proprio codice segreto.

 

Previsioni altrettanto sinistre vengono da Mo Gawdat, ex Chief Business Officer per l’organizzazione sperimentale di Google, in una intervista rilasciata al giornale britannico The Times.

 

L’uomo della Silicon Valley ha dichiarato che crede che la cosiddetta Intelligenza Artificiale generale (AGI), il tipo di AI onnipotente e senziente vista nella fantascienza  sia inevitabile e che una volta che sarà qui, l’umanità potrebbe benissimo ritrovarsi in un’apocalisse provocata da macchine simili a delle divinità.

 

Si tratta, in pratica, dello scenario «Skynet» – l’Intelligenza Artificiale che nella storia di Terminator assume il controllo della Terra reputando l’uomo come minaccia.

 

Il Gawdat ha detto al Times di aver avuto la sua spaventosa rivelazione mentre lavorava con gli sviluppatori di intelligenza artificiale di Google X che stavano costruendo bracci robotici in grado di trovare e raccogliere una pallina.

 

Dopo un periodo di lenti progressi, Gawdat ha detto che un braccio ha afferrato la palla e sembrava tenerla sollevata verso i ricercatori in un gesto che, a lui, sembrava un gesto di esibizione.

 

Come riportato da Renovatio 21, sono vari le voci che si stanno levando per neutralizzare la minaccia di una Intelligenza Artificiale assassina. Secondo alcuni osservatori, le armi autonome potrebbero essere più destabilizzanti di quelle nucleari.

 

L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su droni, caccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.

 

Una moratoria ONU sui robot killer non ha trovato al momento l’accordo dei vari Paesi.

 

Nel frattempo, su questo sito testimoniamo spesso di come robot e AI stanno di fatto sostituendo i dipendenti umani perfino nei fast food.

 

Come riportato dall’Harvard Business Review, uno studio del 2019 stimava che il 10% dei posti di lavoro negli Stati Uniti sarebbe stato automatizzato quest’anno. Un altro studio del colosso internazionale della consulenza McKinsey stimava che quasi la metà di tutti i posti di lavoro negli Stati Uniti potrebbe essere automatizzato nel prossimo decennio.

 

 

Continua a leggere

Intelligenza Artificiale

Xiaomi ora utilizza robot umanoidi per assemblare auto elettriche

Pubblicato

il

Da

 

Il colosso cinese dell’elettronica di consumo Xiaomi ha annunciato un periodo di prova per un paio di robot umanoidi impiegati nella sua fabbrica di veicoli elettrici a Pechino. In un’intervista con la CNBC, il presidente di Xiaomi Lu Weibing ha dichiarato che i robot dell’azienda hanno completato con successo il 90,2% del lavoro in tre ore.

 

Un video di pubbliche relazioni condiviso dall’azienda mostra due robot, posizionati alle due estremità della catena di montaggio, che applicano con cautela i dadi delle ruote al telaio di un veicolo.

 

 


Sostieni Renovatio 21

Con un tempo di ciclo di 76 secondi, l’operazione appare piuttosto lenta – una coppia di umani potrebbe senza dubbio svolgerla più rapidamente – ma rappresenta uno dei primi esempi di robot umanoidi integrati con successo in un contesto produttivo industriale. Secondo Lu, i robot sono comunque abbastanza veloci da reggere il ritmo del resto della fabbrica.

 

«Per integrare i robot nelle nostre linee di produzione, la sfida più grande è riuscire a tenere il passo», ha detto Lu alla CNBC. «Nella fabbrica automobilistica di Xiaomi, ogni 76 secondi, una nuova auto esce dalla catena di montaggio. I due robot umanoidi sono in grado di tenere il passo con il nostro ritmo».

 

Nonostante il risultato positivo, Lu mantiene moderate le aspettative. «I robot nelle nostre linee di produzione non svolgevano un lavoro ufficiale, erano più simili agli stagisti», ha detto al conduttore.

 

Si tratta comunque di un traguardo notevole per Xiaomi e per la Cina, che ha già impiegato più robot industriali di qualsiasi altro Paese nella storia.

 

Sebbene Xiaomi sia l’ultima a introdurre robot bipedi sulla catena di montaggio, non è la prima. A febbraio, l’azienda britannica Humanoid ha completato un progetto pilota simile, vantando un tasso di successo superiore al 90% in un compito di impilamento di contenitori, secondo Humanoids Daily.

 

I compiti differiscono: i robot di Humanoid gestivano con minor precisione un oggetto più grande, mentre quelli di Xiaomi dovevano posizionare parti molto più piccole con accuratezza millimetrica. C’è inoltre la questione di cosa si intenda per «umanoide»: i robot Xiaomi erano realmente bipedi e completavano i compiti su due gambe, mentre quelli di Humanoid erano fissati a una base stabile.

 

Resta da vedere chi, se mai ce ne sarà uno, sarà il primo a impiegare robot bipedi in un contesto industriale a tempo pieno, ma il fatto che un numero crescente di aziende riesca a farlo è già di per sé sorprendente.

 

Come riportato da Renovatio 21, negli anni sono stati registrati casi con robot industriali che hanno ucciso esseri umani: è successo in Tesla ma anche in Corea.

 

Come riportato da Renovatio 21, la prossima strategia nazionale dell’amministrazione Trump si concentrerà, oltre che nel settore dei semiconduttori, AI, produzione di terre rare, anche sul predominio nell’ambito dei robot umanoidi.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine screenshot da YouTube

Continua a leggere

Intelligenza Artificiale

L’Iran bombarda per rappresaglia i data center dell’AI

Pubblicato

il

Da

All’inizio di questa settimana, droni iraniani hanno colpito tre strutture di Amazon Web Services (AWS) negli Emirati Arabi Uniti e in Bahrein, provocando interruzioni globali dei servizi online. Gli esperti ritengono che gli attacchi rappresentino il primo caso in cui grandi aziende tecnologiche americane sono state prese di mira in un’operazione militare.   Gli attacchi hanno causato «danni strutturali, interrotto la fornitura di energia elettrica alle nostre infrastrutture e, in alcuni casi, hanno richiesto interventi di spegnimento incendi che hanno causato ulteriori danni causati dall’acqua», ha ammesso il gigante della tecnologia in un aggiornamento del 2 marzo riportato da Futurism.   Secondo quanto riportato dal Financial Times, fonti affiliate alla Guardia Rivoluzionaria iraniana hanno affermato che l’Iran avrebbe preso di mira sia gli stabilimenti di Amazon che quelli di Microsoft, sebbene quest’ultima non abbia ancora subito interruzioni nella regione.   Gli incidenti evidenziano come i data center siano diventati obiettivi chiave sul campo di battaglia. La regione circostante, in Medio Oriente, è stata un’importante attrazione per gli hyperscaler (i principali fornitori di servizi cloud su larga scala) statunitensi, come sottolinea la CNBC, il che potrebbe significare che un numero ancora maggiore di asset americani è a rischio.

Iscriviti al canale Telegram

A far salire la posta in gioco è l’ascesa dell’intelligenza artificiale, che richiede data center potenti, già emersi come focolai di controversie lontano da qualsiasi teatro di guerra. Aziende come OpenAI, Oracle e Nvidia hanno annunciato importanti investimenti negli Emirati Arabi Uniti, tra cui importanti data center e un vasto «campus di Intelligenza Artificiale», nell’ambito del programma Stargate del presidente Donald Trump, una travagliata e visionaria – nonché inquietante – iniziativa da 500 miliardi di dollari annunciata quasi subito dopo il suo insediamento.   «L’Iran e i suoi alleati hanno preso di mira i giacimenti petroliferi in passato, ma i loro attacchi di questa settimana ai data center degli Emirati Arabi Uniti dimostrano che ora sono considerati infrastrutture critiche», ha dichiarato alla CNBC Patrick Murphy, direttore esecutivo dell’unità geopolitica della società di consulenza Hilco Global.   Gli attacchi evidenziano anche la crescente domanda di sicurezza delle infrastrutture per mantenere online le operazioni, che secondo Murphy potrebbe portare i governi a includere i data center in Medio Oriente «nei quadri di pianificazione della sicurezza nazionale insieme agli impianti energetici, alle reti di telecomunicazioni, agli impianti di trattamento delle acque e agli hub dei trasporti».   Rafforzare questi obiettivi potrebbe risultare difficile, poiché i data center potrebbero essere resi offline prendendo di mira turbine, unità di aria condizionata e altre strutture esposte.   «Gli iraniani considerano i data center parte del conflitto», ha dichiarato al Financial Times Matt Peal, direttore del Center for Strategic and International Studies. «Questo è un modo per avere un impatto concreto sulla regione».   Nel frattempo, Amazon è scossa dalla crescente instabilità geopolitica che minaccia le sue attività. «Anche se lavoriamo per ripristinare queste strutture, il conflitto in corso nella regione rende il contesto operativo più ampio in Medio Oriente ancora imprevedibile», ha dichiarato l’azienda ai clienti in una nota. «Raccomandiamo vivamente ai clienti con carichi di lavoro in esecuzione in Medio Oriente di agire ora per migrare tali carichi di lavoro verso regioni AWS alternative».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine di pubblico dominio CC0 via Wikimedia
Continua a leggere

Intelligenza Artificiale

OpenAI stringe un accordo con il Pentagono

Pubblicato

il

Da

OpenAI, proprietaria di ChatGPT, ha firmato un accordo con il Pentagono per l’utilizzo dei suoi strumenti di Intelligenza Artificiale nei sistemi classificati dell’esercito, ha annunciato venerdì il CEO Sam Altman. L’accordo prevederebbe misure di sicurezza simili a quelle richieste in precedenza dal concorrente Anthropic.

 

L’annuncio è arrivato poche ore dopo che il presidente degli Stati Uniti Donald Trump ha ordinato alle agenzie federali di interrompere l’uso dei sistemi di IA da Anthropic, citando preoccupazioni relative all’impiego militare e ai tentativi dell’azienda di imporre condizioni al Pentagono.

 

Altman ha sottolineato che il Pentagono ha «dimostrato un profondo rispetto per la sicurezza e il desiderio di collaborare per raggiungere il miglior risultato possibile». Ha aggiunto che due principi fondamentali di sicurezza – il divieto di sorveglianza di massa a livello nazionale e la responsabilità umana per l’uso della forza, compresi i sistemi d’arma autonomi – sono riflessi nell’accordo. L’azienda implementerà inoltre misure di sicurezza tecniche e crittografia completa del disco per garantire il funzionamento sicuro dei modelli di intelligenza artificiale, ma solo su reti cloud, ha aggiunto.

Aiuta Renovatio 21

Il CEO di OpenAI ha chiesto al Pentagono di estendere queste condizioni a tutte le aziende di Intelligenza Artificiale, esortando Washington a non intraprendere azioni legali.

 

In precedenza, il Pentagono si era affidato al modello Claude di Anthropic nelle reti classificate. Tuttavia, Anthropic si è successivamente rifiutata di concedere il pieno accesso ai suoi sistemi di intelligenza artificiale senza garanzie che la tecnologia non sarebbe stata utilizzata per la sorveglianza interna o per il puntamento di armi completamente autonomo senza la supervisione umana.

 

I funzionari del Pentagono hanno interpretato questo come un tentativo da parte dell’azienda di dettare termini che vanno oltre una normale partnership commerciale. Il vicesegretario alla Difesa Emil Michael ha criticato il CEO di Anthropic, Dario Amodei, per aver tentato di esercitare un controllo eccessivo sulle operazioni militari, alimentando le tensioni, come riportato da Bloomberg all’inizio di questa settimana.

 

Dopo aver vietato per sei mesi alle agenzie governative di utilizzare gli sviluppi dell’intelligenza artificiale di Anthropic, Trump ha accusato l’azienda di aver tentato di fare pressione sul Pentagono affinché rispettasse le sue condizioni e di aver messo a rischio la sicurezza nazionale.

 

«Non ne abbiamo bisogno, non li vogliamo e non avremo più a che fare con loro», ha scritto su Truth Social.

 

Anthropic è stato il primo sviluppatore commerciale di AI a implementare modelli linguistici di grandi dimensioni su reti classificate del Pentagono, nell’ambito di un contratto del valore di 200 milioni di dollari. Il suo chatbot Claude è stato utilizzato per analisi di intelligence, simulazioni operative, operazioni informatiche e flussi di lavoro di pianificazione.

 

Lo scontro emerso segue alle accuse secondo cui il modello di Intelligenza Artificiale dell’azienda sarebbe stato utilizzato durante l’operazione per rapire il presidente venezuelano Nicolas Maduro all’inizio di gennaio.

 

Come riportato da Renovatio 21, negli ultimi mesi vi è stato un progressivo deterioramento dei rapporti tra Anthropic e il Pentagono, legato alla volontà del dipartimento della Guerra statunitense di utilizzare l’IA per il controllo di armi autonome senza le garanzie di sicurezza che l’azienda ha cercato di imporre.

Iscriviti al canale Telegram

Il CEO di Anthropic, Dario Amodei, ha più volte espresso gravi preoccupazioni sui rischi della tecnologia che la sua azienda sta sviluppando e commercializzando. In un lungo saggio di quasi 20.000 parole pubblicato il mese scorso, ha avvertito che sistemi AI dotati di «potenza quasi inimmaginabile» sono «imminenti» e metteranno alla prova «la nostra identità come specie».

 

Amodei ha messo in guardia dai «rischi di autonomia», in cui l’IA potrebbe sfuggire al controllo e sopraffare l’umanità, e ha ipotizzato che la tecnologia potrebbe facilitare l’instaurazione di «una dittatura totalitaria globale» attraverso sorveglianza di massa basata sull’Intelligenza Artificiale e l’impiego di armi autonome.

 

Come riportato da Renovatio 21, l’anno passato l’Amodei ha dichiarato che l’AI potrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni.

 

Lo scorso mese Mrinank Sharma, fino a poco tempo fa responsabile del Safeguards Research Team presso l’azienda sviluppatrice del chatbot Claude, ha pubblicato su X la sua lettera di dimissioni, in cui scrive che «il mondo è in pericolo. E non solo per via dell’Intelligenza Artificiale o delle armi biologiche, ma a causa di un insieme di crisi interconnesse che si stanno verificando proprio ora».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine di David B. Gleason via Wikimedia pubblicata su licenza Creative Commons Attribution-Share Alike 2.0 Generic


 

 

Continua a leggere

Più popolari