Intelligenza Artificiale
Intelligenza artificiale assassina: le armi autonome potrebbero essere più destabilizzanti delle armi nucleari
L’era delle armi autonome è arrivata. I robot killer sono realtà. E uccidono vicino al nostro Paese.
Secondo un recente rapporto del Consiglio di sicurezza delle Nazioni Unite sulla guerra civile libica, i sistemi d’arma autonomi, comunemente noti come robot killer, potrebbero aver ucciso esseri umani per la prima volta in assoluto proprio lo scorso anno.
Gli storici non avrebbero quindi torto a identificare i robot killer libici come il punto di partenza della prossima grande corsa agli armamenti, quella che ha il potenziale per essere quella finale dell’umanità.
Gli apparati militari di tutto il mondo stanno investendo in maniera molto seria nella ricerca e lo sviluppo di armi autonome. Gli Stati Uniti da soli hanno stanziato 18 miliardi di dollari per armi autonome tra il 2016 e il 2020
I sistemi d’arma autonomi sono robot armati che possono operare in modo indipendente, selezionando e attaccando bersagli – il tutto, dettaglio importante che li separa dai più comuni droni da combattimento, senza che un essere umano sia coinvolto nelle decisioni.
Gli apparati militari di tutto il mondo stanno investendo in maniera molto seria nella ricerca e lo sviluppo di armi autonome. Gli Stati Uniti da soli hanno stanziato 18 miliardi di dollari per armi autonome tra il 2016 e il 2020.
Nel frattempo, le organizzazioni per i diritti umani stanno facendo a gara per stabilire regolamenti e divieti sullo sviluppo di tali armi.
In mancanza di un vero controllo su questa corsa agli armamenti (e senza un vero processo di elaborazione dell’opinione pubblica, che crede si tratti ancora di fantascienza) si pensa che le armi autonome possano destabilizzare le attuali strategie nucleari.
In mancanza di un vero controllo su questa corsa agli armamenti (e senza un vero processo di elaborazione dell’opinione pubblica, che crede si tratti ancora di fantascienza) si pensa che le armi autonome possano destabilizzare le attuali strategie nucleari
Ciò può avvenire sia perché potrebbero cambiare radicalmente la percezione del dominio strategico, aumentando il rischio di attacchi preventivi, sia perché potrebbero combinarsi con armi NBCR: nucleari, biologiche, chimiche, radiologiche.
Vi sono almeno quattro problemi sollevati dalle armi autonome.
Il primo è il problema dell’errata identificazione. Quando si seleziona un bersaglio, le armi autonome saranno in grado di distinguere tra soldati ostili e bambini che giocano con pistole giocattolo? Tra civili in fuga da un luogo di conflitto e insorti in ritirata tattica? Vedi il robot cattivo ED-209 – nel famoso film Robocop – che durante una dimostrazione dinanzi ai dirigenti, non sente cadere l’arma del volontario che si presta a fare da esca crivellandolo di colpi.
Quando si seleziona un bersaglio, le armi autonome saranno in grado di distinguere tra soldati ostili e bambini che giocano con pistole giocattolo?
L’esperto di armi autonome Paul Scharre usa la metafora della runaway gun, la «pistola in fuga» per spiegare questa sostanziale differenza. Una pistola in fuga è una mitragliatrice difettosa che continua a sparare dopo il rilascio del grilletto. L’arma continua a sparare fino all’esaurimento delle munizioni perché, per così dire, l’arma non sa che sta commettendo un errore. Le pistole in fuga sono estremamente pericolose, ma fortunatamente hanno operatori umani che possono interrompere il collegamento delle munizioni o cercare di puntare l’arma in una direzione sicura. Le armi autonome, per definizione, non hanno tale salvaguardia.
È importante sottolineare che l’Intelligenza Artificiale armata non deve nemmeno essere difettosa per produrre l’effetto della pistola in fuga. Come hanno dimostrato numerosi studi sugli errori algoritmici in tutti i settori, i migliori algoritmi, operando come previsto, possono generare risultati internamente corretti che tuttavia diffondono rapidamente errori terribili tra le popolazioni.
Ad esempio, una rete neurale progettata per l’uso negli ospedali di Pittsburgh ha identificato l’asma come un fattore di riduzione del rischio nei casi di polmonite; il software di riconoscimento delle immagini utilizzato da Google ha identificato gli afroamericani come gorilla e così via.
Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli
Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli. Il problema della scatola nera dell’Intelligenza Artificiale rende quasi impossibile immaginare uno sviluppo moralmente responsabile di sistemi d’arma autonomi.
I prossimi due pericoli sono i problemi della proliferazione di fascia bassa e di fascia alta.
Cominciamo con la fascia bassa. Le forze armate che stanno sviluppando armi autonome ora procedono partendo dal presupposto che saranno in grado di contenere e controllare l’uso di armi autonome. Ma se la storia della tecnologia delle armi ha insegnato qualcosa al mondo, è questa: le armi si diffondono.
Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di ciò che può essere considerato l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov, uno dei più venduti e diffusi al mondo: robot killer economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo.
Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di ciò che può essere considerato l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov, uno dei più venduti e diffusi al mondo: robot killer economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo.
Queste nuovi armamenti potrebbero finire nelle mani di persone al di fuori del controllo del governo, inclusi terroristi internazionali e nazionali.
Tuttavia, la proliferazione di fascia alta è altrettanto negativa.
Le Nazioni potrebbero competere per sviluppare versioni sempre più devastanti di armi autonome, comprese quelle in grado di montare armi chimiche, biologiche, radiologiche e nucleari – come la Skynet nella pellicola Terminator – portando il mondo a una specie di autodistruzione.
È probabile che le armi autonome di fascia alta portino a guerre più frequenti perché diminuiranno due delle forze primarie che storicamente hanno prevenuto e accorciato le guerre: la preoccupazione per i civili e le potenziali perdite dei propri soldati.
Con molta probabilità le guerre asimmetriche – ovvero le guerre condotte sul suolo di nazioni prive di tecnologie concorrenti – diventeranno più comuni.
Si pensi all’instabilità globale causata dagli interventi militari sovietici e statunitensi durante la Guerra Fredda, dalla prima guerra per procura al contraccolpo sperimentato oggi in tutto il mondo. Moltiplichiamo per ogni Paese che attualmente punta a armi autonome di fascia alta.
Le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini e le atrocità di guerra: le leggi internazionali di guerra
Infine, le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini e le atrocità di guerra: le leggi internazionali di guerra.
Queste leggi, codificate in trattati che risalgono alla Convenzione di Ginevra del 1864, sono la sottile linea blu internazionale che separa la guerra con onore dal massacro. Si basano sull’idea che le persone possono essere ritenute responsabili delle proprie azioni anche in tempo di guerra, che il diritto di uccidere altri soldati durante il combattimento non dà il diritto di uccidere civili.
Ma come possono essere ritenute responsabili le armi autonome?
Di chi è la colpa di un robot che commette crimini di guerra?
Chi verrebbe processato? L’arma? Il soldato?
I comandanti del soldato? La società che ha fabbricato l’arma?
Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome portino a un grave divario di responsabilità
Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome portino a un grave divario di responsabilità.
«Per ritenere un soldato penalmente responsabile del dispiegamento di un’arma autonoma che commette crimini di guerra, i pubblici ministeri dovrebbero provare sia actus reus che mens rea, termini latini che descrivono un atto colpevole e una mente colpevole» scrive il professore esperto in diritti umane James Dews.
«Questo sarebbe difficile dal punto di vista della legge, e forse ingiusto per una questione di moralità, dato che le armi autonome sono intrinsecamente imprevedibili. Credo che la distanza che separa il soldato dalle decisioni indipendenti prese dalle armi autonome in ambienti in rapida evoluzione sia semplicemente troppo grande».
La sfida legale e morale non è resa più facile spostando la colpa sulla catena di comando o tornando al luogo di produzione.
In un mondo senza regolamenti che impongono un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili
In un mondo senza regolamenti che impongono un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili.
La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolita.
«Proviamo a immaginare un mondo in cui militari, gruppi di insorti e terroristi nazionali e internazionali possano schierare una forza letale teoricamente illimitata a rischio teoricamente zero in tempi e luoghi di loro scelta, senza alcuna responsabilità legale risultante. È un mondo in cui il tipo di errori algoritmici inevitabili che affliggono anche i giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città».
La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolita.
Il mondo non dovrebbe ripetere gli errori della corsa agli armamenti nucleari.
Intanto oggi, con la scusa delle «restrizioni COVID», alcuni robot autonomi sono stati schierati per le strade per far rispettare il distanziamento sociale tra cittadini e vigilare che indossino le mascherine oppure per proteggere le élite facoltose da una potenziale ribellione di massa.
Come riportato da Renovatio 21, la Cina disporrebbe già di sciami di droni suicidi esplosivi: i famosi slaughterbots tanto temuti dai teorici del pericolo delle armi autonome.
Il futuro è già qui.
I robot killer, pure.
Qualcuno vuole cominciare a discuterne seriamente?
È un mondo in cui il tipo di errori algoritmici inevitabili che affliggono anche i giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città»
In effetti, ci sarebbe la fila: quando parleremo davvero delle armi biologiche, della manipolazione genetica gain of function, del CRISPR, del gene drive?
E quando parleremo della minaccia che pongono invece le armi cibernetiche?
Quando l’umanità si renderà conto dei rischi che corre a causa della tecnologia che essa stessa si ostina a creare al di fuori di qualsiasi legge morale?
Immagine di Tigersfather via Deviantart pubblicata su licenza Creative Commons Attribution-NonCommercial-NoDerivs 3.0 Unported (CC BY-NC-ND 3.0)
Intelligenza Artificiale
L’ascesa dell’AI avanzata potrebbe avere conseguenze catastrofiche: parla il CEO di Google DeepMind
Demis Hassabis, amministratore delegato di Google DeepMind, ha lanciato un monito sul cammino verso l’intelligenza artificiale generale (AGI), che potrebbe sfociare in «esiti catastrofici» quali cyberattacchi alle reti energetiche o idriche. Secondo lo Hassabis, l’AGI potrebbe concretizzarsi entro i prossimi dieci anni.
Durante il suo intervento all’Axios AI+ Summit della scorsa settimana a San Francisco, Hassabis ha delineato l’AGI come un sistema capace di manifestare «tutte le capacità cognitive» proprie dell’umanità, inclusa la propensione all’invenzione e alla creatività.
Egli ha rilevato che i modelli linguistici di grandi dimensioni odierni continuano a essere «intelligenze frastagliate», afflitte da deficit nel ragionamento, nella programmazione a lungo raggio e nell’apprendimento persistente. Nondimeno, ha ipotizzato che un’IA autenticamente intelligente possa emergere a breve, grazie a un potenziamento costante e «un paio di grandi innovazioni in più».
Al contempo, Hassabis ha ammesso che la fase propedeutica all’AGI sarà verosimilmente costellata da pericoli concreti e «risultati catastrofici», tra cui cyberattacchi alle infrastrutture energetiche o idriche.
«Probabilmente sta già quasi accadendo ora… forse non ancora con un’intelligenza artificiale molto sofisticata», ha osservato, indicandolo come «il vettore vulnerabile più ovvio». Ha proseguito evidenziando che attori malevoli, agenti autonomi e meccanismi che «deviano» dalle direttive iniziali esigono contromisure robuste. «È un rischio non nullo», ha concluso, in riferimento alla eventualità che apparati evoluti «scavalchino il guardrail».
Google Deepmind co-founder @demishassabis to @mikeallen on what about AI he fears most: “Bad actors using AI for harmful ends, or the AI itself as it gets closer to AGI … goes off the rails in some way that harms humanity.” #AxiosAISummit pic.twitter.com/bVmx4SNKIv
— Axios (@axios) December 5, 2025
Iscriviti al canale Telegram ![]()
Le apprensioni di Hassabis riecheggiano allarmi più estesi diffusi nel panorama tecnologico mondiale.
Come riportato da Renovatio 21, missiva aperta diramata a ottobre, sottoscritta da luminari del settore e figure di spicco, ha sostenuto che entità «superintelligenti» potrebbero mettere a repentaglio la libertà umana o la stessa esistenza, proponendo una moratoria globale sullo sviluppo dell’IA sin quando non se ne assicuri la saldezza. Tra i sottoscrittori, il co-fondatore di Apple Steve Wozniak, i pionieri dell’IA Geoffrey Hinton e Yoshua Bengio, il magnate Richard Branson del gruppo Virgin, oltre a personalità di rilievo politico e culturale.
Un ulteriore appello a mettere in pausa lo sviluppo dell’Intelligenza Artificiale è stato firmato da un gruppo internazionale di medici e pubblicato dalla prestigiosa rivista medica BMJ Global Health. «Ci sono scenari in cui l’AGI [Intelligenza Artificiale Generale, ndr] potrebbe rappresentare una minaccia per gli esseri umani, e possibilmente una minaccia esistenziale» scrivono nell’appello i dottori di varie parti del mondo.
Più pessimista è l’esperto dei pericoli dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».
Altre voci, tuttavia, propendono per un’interpretazione più rosea.
Elone Musk, che pure fa parte degli apocalittici riguardo i rischi delle macchine pensanti, ha dichiarato il mese scorso che gli avanzamenti dell’IA e della robotica potrebbero rendere il lavoro «facoltativo» tra 10-20 anni e che la moneta potrebbe rivelarsi «irrilevante» in un’economia IA-centrica, pur rammentando che occorrono ancora salti tecnologici sostanziali affinché tale orizzonte si materializzi.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
L’AI renderà il lavoro «facoltativo» e il denaro «irrilevante»: Musk come Marx e i sovietici
Aiuta Renovatio 21
Iscriviti al canale Telegram ![]()
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Le autorità cinesi lanciano l’allarme sui robot umanoidi
Il settore cinese dei robot umanoidi è esposto al pericolo di una bolla speculativa, indotta dall’attuale euforia investitrice, ha ammonito la commissione di programmazione economica nazionale.
Giovedì, nel corso di una conferenza stampa a Pechino, Li Chao, portavoce della Commissione per lo sviluppo e le riforme (NDRC), ha rivelato che le istituzioni stanno agendo per arginare l’espansione incontrollata del comparto, affinché non sommerga il mercato.
«Le industrie all’avanguardia si sono da tempo scontrate con la difficoltà di armonizzare la rapidità dell’espansione con il pericolo di bolle finanziarie, una questione che ora assilla pure il campo dei robot umanoidi», ha precisato l’esponente.
In Cina operano oltre 150 imprese del ramo, tra cui Unitree, tra le leader del mercato. I suoi androidi in grado di danzare sono stati esibiti al Gala del Capodanno lunare all’inizio dell’anno.
unitree g1 dancing pic.twitter.com/Sb8djxlceB
— Wenmeng Zhou (@zhouwenmeng) November 8, 2025
Aiuta Renovatio 21
A febbraio, Unitree ha diffuso un filmato in cui il suo androide G1 pratica sequenze di arti marziali cinesi.
Robots take the stage! 🕺🏼
Unitree Robotics just joined the cast of a Chinese dance drama, dressed in traditional attire, performing backflips and kung fu. 🧧
Robots from Unitree share the stage with human actors, mixing advanced robotics with Chinese cultural performance.… pic.twitter.com/uXSZyVCCyU
— Lukas Ziegler (@lukas_m_ziegler) October 25, 2025
Altre realtà emergenti in ascesa fulminea, come AgiBot e Galbot, hanno svelato i loro umanoidi capaci di completare maratone, cimentarsi nel kickboxing e miscelare caffè, tra varie altre mansioni.
激しく踊る二足歩行人型ロボットhttps://t.co/ywY811njIy
この動画を撮影した場所(屋内のラボ)に入れてもらったら、UnitreeのG1が床のあちらこちらに沢山転がっていて蹴とばしそうになった🦶#bipedal #humanoidrobot #Any2Track #RobotDance #dancing #EmbodiedIntelligence #Galbot pic.twitter.com/uy8UDM3DUf
— T.Yamazaki (@ZappyZappy7) November 2, 2025
Iscriviti al canale Telegram ![]()
Le autorità di Pechino hanno designato questo comparto in espansione accelerata come uno dei sei nuovi pilastri per la crescita economica nel lustro venturo.
L’ondata recente di fervore ha propulso l’indice Solactive China Humanoid Robotics – che segue le quotazioni delle società robotiche – a un rialzo di circa il 30% nell’anno in corso.
Anche altri attori globali, tra cui i titani tech Tesla, Meta e OpenAI, si sono dedicati intensamente allo sviluppo di robot umanoidi negli ultimi anni.
Il mese scorso, lil CEO di Tesla, Elon Musk, secondo cui una «legione di robot» potrebbe materializzarsi in un orizzonte temporale prossimo.
L’umanoide di Tesla, Optimus, ha già debuttato in occasioni societarie compiendo operazioni basilari; una variante aggiornata, Optimus V3, è attesa per il primo trimestre del 2026.
Musk, che sostiene che in cinque anni i robot supereranno i chirurghi umani, ha sostenuto che questi automi potrebbero rivoluzionare la società, rilevando il lavoro manuale o rendendolo opzionale per l’umanità. Elone intende inoltre iniziare la colonizzazione di Marte a partire dai robot.
Iscriviti alla Newslettera di Renovatio 21
Immagine screenshot da YouTube
-



Bioetica2 settimane faMons. Viganò loda Alberto di Monaco, sovrano cattolico che non ha ratificato la legge sull’aborto
-



Cremazione2 settimane faDonna trovata viva nella bara a pochi istanti dalla cremazione
-



Morte cerebrale2 settimane faLe ridefinizioni della morte da parte dell’industria della donazione di organi minacciano le persone viventi
-



Vaccini2 settimane faUn nuovo sondaggio rivela che 1 adulto su 10 è rimasto vittima di un grave danno da vaccino COVID
-



Salute2 settimane faI malori della 48ª settimana 2025
-



Spirito1 settimana fa«Rimarrà solo la Chiesa Trionfante su Satana»: omelia di mons. Viganò
-



Politica1 settimana faIl «Nuovo Movimento Repubblicano» minaccia i politici irlandesi per l’immigrazione e la sessualizzazione dei bambini
-



Persecuzioni1 settimana faFamosa suora croata accoltellata: possibile attacco a sfondo religioso













