Connettiti con Renovato 21

Intelligenza Artificiale

Intelligenza artificiale assassina: le armi autonome potrebbero essere più destabilizzanti delle armi nucleari

Pubblicato

il

 

 

L’era delle armi autonome è arrivata. I robot killer sono realtà. E uccidono vicino al nostro Paese.

 

Secondo un recente rapporto del Consiglio di sicurezza delle Nazioni Unite  sulla guerra civile libica, i sistemi d’arma autonomi, comunemente noti come robot killer, potrebbero aver ucciso esseri umani per la prima volta in assoluto proprio lo scorso anno.

 

Gli storici non avrebbero quindi torto a identificare i robot killer libici come il punto di partenza della prossima grande corsa agli armamenti, quella che ha il potenziale per essere quella finale dell’umanità.

 

Gli apparati militari di tutto il mondo stanno  investendo in maniera molto seria nella ricerca e lo sviluppo di armi autonome. Gli Stati Uniti da soli hanno  stanziato 18 miliardi  di dollari per armi autonome tra il 2016 e il 2020

I sistemi d’arma autonomi sono robot armati che possono operare in modo indipendente, selezionando e attaccando bersagli – il tutto, dettaglio importante che li separa dai più comuni droni da combattimento, senza che un essere umano sia coinvolto nelle decisioni.

 

Gli apparati militari di tutto il mondo stanno  investendo in maniera molto seria nella ricerca e lo sviluppo di armi autonome. Gli Stati Uniti da soli hanno  stanziato 18 miliardi  di dollari per armi autonome tra il 2016 e il 2020.

 

Nel frattempo, le organizzazioni per i diritti umani stanno facendo a gara per stabilire regolamenti e divieti sullo sviluppo di tali armi.

 

In mancanza di un vero controllo su questa corsa agli armamenti (e senza un vero processo di elaborazione dell’opinione pubblica, che crede si tratti ancora di fantascienza) si pensa che le armi autonome possano destabilizzare le attuali strategie nucleari.

 

In mancanza di un vero controllo su questa corsa agli armamenti (e senza un vero processo di elaborazione dell’opinione pubblica, che crede si tratti ancora di fantascienza) si pensa che le armi autonome possano destabilizzare le attuali strategie nucleari

Ciò può avvenire sia perché potrebbero cambiare radicalmente la percezione del dominio strategico, aumentando il rischio di attacchi preventivi, sia perché potrebbero combinarsi con armi NBCR: nucleari, biologiche, chimiche, radiologiche.

 

Vi sono almeno quattro problemi sollevati dalle armi autonome.

 

Il primo è il problema dell’errata identificazione. Quando si seleziona un bersaglio, le armi autonome saranno in grado di distinguere tra soldati ostili e bambini che giocano con pistole giocattolo? Tra civili in fuga da un luogo di conflitto e insorti in ritirata tattica? Vedi il robot cattivo ED-209 – nel famoso film Robocop – che durante una dimostrazione dinanzi ai dirigenti, non sente cadere l’arma del volontario che si presta a fare da esca crivellandolo di colpi.

 

Quando si seleziona un bersaglio, le armi autonome saranno in grado di distinguere tra soldati ostili e bambini che giocano con pistole giocattolo?

 

L’esperto di armi autonome Paul Scharre usa la metafora della runaway gun, la «pistola in fuga» per spiegare questa sostanziale differenza. Una pistola in fuga è una mitragliatrice difettosa che continua a sparare dopo il rilascio del grilletto. L’arma continua a sparare fino all’esaurimento delle munizioni perché, per così dire, l’arma non sa che sta commettendo un errore. Le pistole in fuga sono estremamente pericolose, ma fortunatamente hanno operatori umani che possono interrompere il collegamento delle munizioni o cercare di puntare l’arma in una direzione sicura. Le armi autonome, per definizione, non hanno tale salvaguardia.

 

È importante sottolineare che l’Intelligenza Artificiale armata non deve nemmeno essere difettosa per produrre l’effetto della pistola in fuga. Come hanno dimostrato numerosi studi sugli errori algoritmici in tutti i settori, i migliori algoritmi, operando come previsto, possono  generare risultati internamente corretti che tuttavia diffondono rapidamente errori terribili tra le popolazioni.

 

Ad esempio, una rete neurale progettata per l’uso negli ospedali di Pittsburgh ha identificato l’asma come un fattore di riduzione del rischio nei casi di polmonite; il software di riconoscimento delle immagini utilizzato da Google ha identificato gli afroamericani come gorilla e così via.

 

Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli

Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli. Il  problema  della scatola nera dell’Intelligenza Artificiale rende quasi impossibile immaginare uno sviluppo moralmente responsabile di sistemi d’arma autonomi.

 

I prossimi due pericoli sono i problemi della proliferazione di fascia bassa e di fascia alta.

 

Cominciamo con la fascia bassa. Le forze armate che stanno sviluppando armi autonome ora procedono partendo dal presupposto che saranno in grado di contenere e controllare l’uso di armi autonome. Ma se la storia della tecnologia delle armi ha insegnato qualcosa al mondo, è questa: le armi si diffondono.

 

Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di ciò che può essere considerato l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov, uno dei più venduti e diffusi al mondo: robot killer economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo.

 

Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di ciò che può essere considerato l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov, uno dei più venduti e diffusi al mondo: robot killer economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo.

Queste nuovi armamenti potrebbero finire nelle mani di persone al di fuori del controllo del governo, inclusi terroristi internazionali e nazionali.

 

Tuttavia, la proliferazione di fascia alta è altrettanto negativa.

 

Le Nazioni potrebbero competere per sviluppare versioni sempre più devastanti di armi autonome, comprese quelle in grado di montare armi chimiche, biologiche, radiologiche e nucleari – come la Skynet nella pellicola Terminator – portando il mondo a una specie di autodistruzione.

 

È probabile che le armi autonome di fascia alta portino a guerre più frequenti perché diminuiranno due delle forze primarie che storicamente hanno prevenuto e accorciato le guerre: la preoccupazione per i civili e le potenziali perdite dei propri soldati.

 

Con molta probabilità le guerre asimmetriche – ovvero le guerre condotte sul suolo di nazioni prive di tecnologie concorrenti – diventeranno più comuni.

 

Si pensi all’instabilità globale causata dagli interventi militari sovietici e statunitensi durante la Guerra Fredda, dalla prima guerra per procura al contraccolpo sperimentato oggi in tutto il mondo. Moltiplichiamo per ogni Paese che attualmente punta a armi autonome di fascia alta.

 

Le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini e le atrocità di guerra: le leggi internazionali di guerra

Infine, le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini e le atrocità di guerra: le leggi internazionali di guerra.

 

Queste leggi, codificate in trattati che risalgono alla Convenzione di Ginevra del 1864, sono la sottile linea blu internazionale che separa la guerra con onore dal massacro. Si basano sull’idea che le persone possono essere ritenute responsabili delle proprie azioni anche in tempo di guerra, che il diritto di uccidere altri soldati durante il combattimento non dà il diritto di uccidere civili. 

 

Ma come possono essere ritenute responsabili le armi autonome?

 

Di chi è la colpa di un robot che commette crimini di guerra?

 

Chi verrebbe processato? L’arma? Il soldato?

 

I comandanti del soldato? La società che ha fabbricato l’arma?

 

Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome portino a un grave  divario di responsabilità

Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome portino a un grave  divario di responsabilità.

 

«Per ritenere un soldato penalmente responsabile del dispiegamento di un’arma autonoma che commette crimini di guerra, i pubblici ministeri dovrebbero provare sia actus reus che mens rea, termini latini che descrivono un atto colpevole e una mente colpevole» scrive il professore esperto in diritti umane James Dews.

 

«Questo sarebbe difficile dal punto di vista della legge, e forse ingiusto per una questione di moralità, dato che le armi autonome sono intrinsecamente imprevedibili. Credo che la distanza che separa il soldato dalle decisioni indipendenti prese dalle armi autonome in ambienti in rapida evoluzione sia semplicemente troppo grande».

 

La sfida legale e morale non è resa più facile spostando la colpa sulla catena di comando o tornando al luogo di produzione.

 

In un mondo senza regolamenti che impongono  un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili

In un mondo senza regolamenti che impongono  un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili.

 

La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolita.

 

«Proviamo a immaginare un mondo in cui militari, gruppi di insorti e terroristi nazionali e internazionali possano schierare una forza letale teoricamente illimitata a rischio teoricamente zero in tempi e luoghi di loro scelta, senza alcuna responsabilità legale risultante. È un mondo in cui il tipo di errori algoritmici inevitabili  che affliggono anche i giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città».

 

La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolita.

Il mondo non dovrebbe ripetere gli errori della corsa agli armamenti nucleari.

 

Intanto oggi, con la scusa delle «restrizioni COVID», alcuni robot autonomi sono stati schierati per le strade per far rispettare il distanziamento sociale tra cittadini e vigilare che indossino le mascherine oppure per proteggere le élite facoltose da una potenziale ribellione di massa.

 

Come riportato da Renovatio 21, la Cina disporrebbe già di sciami di droni suicidi esplosivi: i famosi slaughterbots tanto temuti dai teorici del pericolo delle armi autonome.

 

 

Il futuro è già qui.

 

I robot killer, pure.

 

Qualcuno vuole cominciare a discuterne seriamente?

 

È un mondo in cui il tipo di errori algoritmici inevitabili  che affliggono anche i giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città»

In effetti, ci sarebbe la fila: quando parleremo davvero delle armi biologiche, della manipolazione genetica gain of function, del CRISPR, del gene drive?

 

E quando parleremo della minaccia che pongono invece le armi cibernetiche?

 

Quando l’umanità si renderà conto dei rischi che corre a causa della tecnologia che essa stessa si ostina a creare al di fuori di qualsiasi legge morale?

 

 

 

 

 

 

Immagine di Tigersfather via Deviantart pubblicata su licenza Creative Commons Attribution-NonCommercial-NoDerivs 3.0 Unported (CC BY-NC-ND 3.0)

Continua a leggere

Intelligenza Artificiale

L’ascesa dell’AI avanzata potrebbe avere conseguenze catastrofiche: parla il CEO di Google DeepMind

Pubblicato

il

Da

Demis Hassabis, amministratore delegato di Google DeepMind, ha lanciato un monito sul cammino verso l’intelligenza artificiale generale (AGI), che potrebbe sfociare in «esiti catastrofici» quali cyberattacchi alle reti energetiche o idriche. Secondo lo Hassabis, l’AGI potrebbe concretizzarsi entro i prossimi dieci anni.

 

Durante il suo intervento all’Axios AI+ Summit della scorsa settimana a San Francisco, Hassabis ha delineato l’AGI come un sistema capace di manifestare «tutte le capacità cognitive» proprie dell’umanità, inclusa la propensione all’invenzione e alla creatività.

 

Egli ha rilevato che i modelli linguistici di grandi dimensioni odierni continuano a essere «intelligenze frastagliate», afflitte da deficit nel ragionamento, nella programmazione a lungo raggio e nell’apprendimento persistente. Nondimeno, ha ipotizzato che un’IA autenticamente intelligente possa emergere a breve, grazie a un potenziamento costante e «un paio di grandi innovazioni in più».

 

Al contempo, Hassabis ha ammesso che la fase propedeutica all’AGI sarà verosimilmente costellata da pericoli concreti e «risultati catastrofici», tra cui cyberattacchi alle infrastrutture energetiche o idriche.

 

«Probabilmente sta già quasi accadendo ora… forse non ancora con un’intelligenza artificiale molto sofisticata», ha osservato, indicandolo come «il vettore vulnerabile più ovvio». Ha proseguito evidenziando che attori malevoli, agenti autonomi e meccanismi che «deviano» dalle direttive iniziali esigono contromisure robuste. «È un rischio non nullo», ha concluso, in riferimento alla eventualità che apparati evoluti «scavalchino il guardrail».

 

Iscriviti al canale Telegram

Le apprensioni di Hassabis riecheggiano allarmi più estesi diffusi nel panorama tecnologico mondiale.

 

Come riportato da Renovatio 21,  missiva aperta diramata a ottobre, sottoscritta da luminari del settore e figure di spicco, ha sostenuto che entità «superintelligenti» potrebbero mettere a repentaglio la libertà umana o la stessa esistenza, proponendo una moratoria globale sullo sviluppo dell’IA sin quando non se ne assicuri la saldezza. Tra i sottoscrittori, il co-fondatore di Apple Steve Wozniak, i pionieri dell’IA Geoffrey Hinton e Yoshua Bengio, il magnate Richard Branson del gruppo Virgin, oltre a personalità di rilievo politico e culturale.

 

Un ulteriore appello a mettere in pausa lo sviluppo dell’Intelligenza Artificiale è stato firmato da un gruppo internazionale di medici e pubblicato dalla prestigiosa rivista medica BMJ Global Health. «Ci sono scenari in cui l’AGI [Intelligenza Artificiale Generale, ndr] potrebbe rappresentare una minaccia per gli esseri umani, e possibilmente una minaccia esistenziale» scrivono nell’appello i dottori di varie parti del mondo.

 

Più pessimista è l’esperto dei pericoli dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».

 

Altre voci, tuttavia, propendono per un’interpretazione più rosea.

 

Elone Musk, che pure fa parte degli apocalittici riguardo i rischi delle macchine pensanti,  ha dichiarato il mese scorso che gli avanzamenti dell’IA e della robotica potrebbero rendere il lavoro «facoltativo» tra 10-20 anni e che la moneta potrebbe rivelarsi «irrilevante» in un’economia IA-centrica, pur rammentando che occorrono ancora salti tecnologici sostanziali affinché tale orizzonte si materializzi.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

L’AI renderà il lavoro «facoltativo» e il denaro «irrilevante»: Musk come Marx e i sovietici

Pubblicato

il

Da

Secondo l’imprenditore americano Elon Musk, gli avanzamenti nell’intelligenza artificiale e nella robotica potrebbero trasformare il lavoro in una mera opzione anziché un imperativo nei prossimi vent’anni.   Il magnate ha espresso questa visione audace al Forum sugli investimenti tra Stati Uniti e Arabia Saudita, durante un dibattito sui risvolti a lungo termine di robotica e IA sulla manodopera.   «Non so bene cosa intenda per lungo termine, forse 10 o 20 anni, o roba del genere», ha dichiarato Musk. «La mia previsione è che il lavoro diventerà facoltativo».

Aiuta Renovatio 21

Elone ha proseguito spiegando che, in tale scenario, l’attività lavorativa verrebbe vista come un passatempo più che come un dovere, simile a chi decide di piantare ortaggi in giardino anziché acquistarli al supermercato.   «Sarà come praticare sport o dedicarsi a un videogioco, o simili», ha aggiunto. Musk ha inoltre ipotizzato che, in un’epoca dominata da IA sofisticata e robotica, il denaro potrebbe smarrire gran parte della sua centralità. «Credo che a un certo punto la valuta diventerà irrilevante», ha sostenuto.   Il Musk  ammesso, però, che resta «ancora tanto lavoro» da compiere affinché tecnologia e società si avvicinino anche solo vagamente a quel domani.   Parte del suo entusiasmo deriva dal progresso di Optimus, il robot umanoide bipede di Tesla concepito per assolvere mansioni monotone, fisiche e talora rischiose. La società immagina che Optimus possa operare un giorno in stabilimenti, depositi e persino abitazioni. Musk lo ha descritto come potenzialmente «la più grande industria o il prodotto più imponente di sempre, superiore persino ai telefonini».   Gli scettici, nondimeno, ritengono una scadenza di 10-20 anni troppo ottimistica, rammentando che svariate profezie passate di Musk – come l’avvento dei taxi autonomi entro il 2019 o una missione con equipaggio su Marte entro il 2024 – non si sono realizzate. Gli specialisti in robotica evidenziano pure che realizzare un umanoide versatile, capace di esecuzioni sicure e consistenti nel contesto reale, è infinitamente più arduo e oneroso rispetto a un automa specializzato.   Queste dichiarazioni irrompono in un frangente di allarme crescente su come IA e robotica stiano ridefinendo impiego ed economia. Negli anni recenti, le multinazionali hanno soppresso decine di migliaia di posizioni accentuando l’automazione.   Musk aveva parlato di un «High Universal Income» (Alto reddito universale) durante il suo ultimo incontro con il podcaster Joe Rogan. Da anni ritiene che il reddito universale sarà un passaggio necessario di una società automatizzata.    

Iscriviti al canale Telegram

  L’idea di una società sofisticata al punto da affrancare quasi totalmente  l’individuo dal lavoro per lasciare che si dedichi alle passioni è, in realtà, una vecchia idea comunista che discende direttamente da Marx ed Engles e filtrò, ovviamente fallendo, nell’Unione Sovietica.   Ne L’ideologia tedesca (1845) il duo scrive che nella società comunista evoluta «sarà possibile fare oggi una cosa, domani un’altra, cacciare al mattino, pescare il pomeriggio, allevare bestiame la sera, criticare dopo cena, secondo il mio desiderio, senza diventare né cacciatore, né pescatore, né pastore, né critico».   Lenin riprese questa visione nel suo testo Stato e rivoluzione (1917) dove scrive che nella fase superiore del comunismo il lavoro coatto sparirà, lo Stato si estinguerà e ognuno contribuirà «secondo le sue capacità» e riceverà «secondo i suoi bisogni».   Anche Nikita Khrushchev nel 1961 (XXII Congresso del PCUS) rilanciò ufficialmente tale visione avveniristica: entro il 1980 l’URSS avrebbe raggiunto il comunismo vero e proprio, con riduzione drastica dell’orario di lavoro (sarebbe sceso progressivamente a 5-6 ore, poi a 4), abbondanza materiale e possibilità per tutti di dedicarsi a studio, arte, sport, interessi personali.   Secondo lo slogan sovietico «Da ognuno secondo le sue capacità, a ognuno secondo i suoi bisogni»: la pianificazione e l’automazione industriale avrebbero quindi dovuto liberare l’essere umano dall’alienazione del lavoro. Tuttavia, l’orario di lavoro in URSS mai calò sotto le 7-8 ore, e il lavoro era obbligatorio per legge: c’era persino il reato di «parassitismo sociale»: chi non lavorava poteva finire in carcere o ai lavori forzati).   Negli anni ’70-’80 si parlava ancora teoricamente di «riduzione della giornata lavorativa», ma nei fatti si faceva l’opposto: turni supplementari, «sabati comunisti» volontari-obbligatori, e via dicendo. L’idea che il lavoro potesse diventare facoltativo o ridotto a poche ore rimase propaganda per tutto il periodo brežneviano e successivo.   Renovatio 21 ha notato, ad ogni modo, più interessanti tracce del pensiero muskiano sulla robotizzazione di cui la sua azienda è assoluta protagonista.   Nel corso della riunione plenaria di Tesla del primo trimestre del 2025, il CEO Elon Musk ha rivelato che l’azienda si sta preparando con l’obiettivo di iniziare la produzione degli Optimus quest’anno.   «Quest’anno, speriamo di riuscire a produrre circa 5.000 robot Optimus », ha detto Musk agli investitori Tesla. «Tecnicamente puntiamo ad avere abbastanza componenti per produrne 10.000, forse 12.000, ma dato che si tratta di un prodotto completamente nuovo, con un design completamente nuovo, direi che ci riusciremo se riusciremo a raggiungere la metà dei 10.000 pezzi».

Aiuta Renovatio 21

«Ma anche 5.000 robot, sono le dimensioni di una legione romana, per vostra informazione, il che è un pensiero un po’ spaventoso» ha continuato significativamente Elon. «Come un’intera legione di robot, direi “wow”. Ma penso che costruiremo letteralmente una legione, almeno una legione di robot quest’anno, e poi probabilmente 10 legioni l’anno prossimo. Penso che sia un’unità piuttosto interessante, sapete? Unità di legione. Quindi probabilmente 50.000 circa l’anno prossimo».   Il riferimento al concetto di legione e alla storia di Roma (passione nota dell’uomo più ricco del mondo) fa venire in mente altre considerazioni espresse dal Musk negli anni scorsi, peraltro proprio riguardo a Putin.   Quando tre anni fa ancora il suo networth era di circa 240 miliardi (ora è quasi il doppio) fu intervistato per un documentario della testata germanica Welt, dove corresse il giornalista che lo descriveva come l’uomo più ricco della Terra. «Io penso che Putin sia significativamente più ricco di me», alluse Elon. «Sì lo penso davvero. Io non posso andare ad invadere altri Paesi. Credo ci sia una vecchia citazione… forse da Crasso… non sei davvero ricco sino a che non puoi permetterti una legione».     Ora Musk le legioni se le sta costruendo da sé: legioni di robot che possono combattere, pure nello spazio: il fatto che per primi su Marte arriveranno non gli uomini, ma gli umanoidi automatici di Elon Musk dovrebbe far riflettere, almeno un pochino.   Il personaggio, torna a ripetere Renovatio 21potrebbe essere l’anticristo: e questo spiegherebbe il fatto che spesse volte vediamo il fascino di quel che fa. L’anticristo, dice la Scrittura, ingannerà tutti, e sarà servito da coloro «il cui nome non è scritto nel libro della vita fin dalla fondazione del mondo» (Ap, 17,8)…   Che San Giovanni stia parlando di legioni di umanoidi robotici? Che stia parlando di esseri umani creati in provetta (altra specialità personale di Musk)?  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Intelligenza Artificiale

Le autorità cinesi lanciano l’allarme sui robot umanoidi

Pubblicato

il

Da

Il settore cinese dei robot umanoidi è esposto al pericolo di una bolla speculativa, indotta dall’attuale euforia investitrice, ha ammonito la commissione di programmazione economica nazionale.

 

Giovedì, nel corso di una conferenza stampa a Pechino, Li Chao, portavoce della Commissione per lo sviluppo e le riforme (NDRC), ha rivelato che le istituzioni stanno agendo per arginare l’espansione incontrollata del comparto, affinché non sommerga il mercato.

 

«Le industrie all’avanguardia si sono da tempo scontrate con la difficoltà di armonizzare la rapidità dell’espansione con il pericolo di bolle finanziarie, una questione che ora assilla pure il campo dei robot umanoidi», ha precisato l’esponente.

 

In Cina operano oltre 150 imprese del ramo, tra cui Unitree, tra le leader del mercato. I suoi androidi in grado di danzare sono stati esibiti al Gala del Capodanno lunare all’inizio dell’anno.

 

Aiuta Renovatio 21

A febbraio, Unitree ha diffuso un filmato in cui il suo androide G1 pratica sequenze di arti marziali cinesi.

 

 

 

Altre realtà emergenti in ascesa fulminea, come AgiBot e Galbot, hanno svelato i loro umanoidi capaci di completare maratone, cimentarsi nel kickboxing e miscelare caffè, tra varie altre mansioni.

 

Iscriviti al canale Telegram

Le autorità di Pechino hanno designato questo comparto in espansione accelerata come uno dei sei nuovi pilastri per la crescita economica nel lustro venturo.

 

L’ondata recente di fervore ha propulso l’indice Solactive China Humanoid Robotics – che segue le quotazioni delle società robotiche – a un rialzo di circa il 30% nell’anno in corso.

 

Anche altri attori globali, tra cui i titani tech Tesla, Meta e OpenAI, si sono dedicati intensamente allo sviluppo di robot umanoidi negli ultimi anni.

 

Il mese scorso, lil CEO di Tesla, Elon Musk, secondo cui una «legione di robot» potrebbe materializzarsi in un orizzonte temporale prossimo.

 

L’umanoide di Tesla, Optimus, ha già debuttato in occasioni societarie compiendo operazioni basilari; una variante aggiornata, Optimus V3, è attesa per il primo trimestre del 2026.

 

Musk, che sostiene che in cinque anni i robot supereranno i chirurghi umani, ha sostenuto che questi automi potrebbero rivoluzionare la società, rilevando il lavoro manuale o rendendolo opzionale per l’umanità. Elone intende inoltre iniziare la colonizzazione di Marte a partire dai robot.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine screenshot da YouTube

Continua a leggere

Più popolari