Intelligenza Artificiale
Intelligenza Artificiale, gli avvertimenti del capo di OpenAI
L’Intelligenza artificiale può sostituire i lavoratori, diffondere «disinformazione» e consentire attacchi informatici. Sono gli avvertimenti di Sam Altman, il CEO di OpenAI, la società che ha creato il controverso software di AI ChatGPT.
«Dobbiamo stare attenti», ha avvertito Altman al canale televisivo americano ABC News due giorni dopo che la sua azienda ha presentato il suo ultimo modello linguistico, soprannominato GPT-4.
Secondo OpenAI, il modello «mostra prestazioni a livello umano su vari benchmark professionali e accademici» ed è in grado di superare un esame di avvocato statunitense simulato con un punteggio massimo del 10%, mentre si esibisce nel 93° percentile in un esame di lettura SAT (Scholastic Assessment Test, un test attitudinale per l’ingresso nelle Università USA) e a l’89° percentile su un test di matematica SAT.
«Sono particolarmente preoccupato che questi modelli possano essere utilizzati per la disinformazione su larga scala», ha affermato Altman, giovane molto conosciuto in Silicon Valley per aver diretto l’acceleratore di startup Y Combinator.
Inoltre «ora che stanno migliorando nella scrittura di codice per computer, [loro] potrebbero essere utilizzati per attacchi informatici offensivi». Come noto, ChatGPT si è rivelato in grado di scrivere codice informatico al posto degli esseri umani.
«Penso che le persone dovrebbero essere felici che siamo un po’ spaventati da questo», ha aggiunto Altman, prima di raccontare che la sua azienda sta lavorando per porre «limiti di sicurezza» alla sua creazione. Insomma, bisogna ringraziare gli oligarchi perché sono in pensiero per il Frankenstein che hanno creato e hanno scagliato sulla società umana.
Questi «limiti di sicurezza» di cui parla l’Altman sono recentemente diventati evidenti agli utenti di ChatGPT. Quando viene chiesto, ChatGPT offre risposte tipicamente liberali a domande che riguardano politica, economia, razza o genere. Rifiuta, ad esempio, di creare frasi di ammirazione a Donald Trump, ma scrive volentieri poesie elogiative su Joe Biden.
i cannot believe this is actually real pic.twitter.com/zo9pl0bXjU
— delian (@zebulgar) January 31, 2023
Altman ha detto alla ABC che la sua azienda è in «contatto regolare» con funzionari governativi, ma non ha spiegato se questi funzionari abbiano avuto un ruolo nel plasmare le preferenze politiche di ChatGPT. L’amministratore delegato di OpenAI ha dichiarato alla rete americana che l’azienda ha un team politico che decide «cosa pensiamo sia sicuro e buono» da condividere con gli utenti.
Al momento, GPT-4 è disponibile per un numero limitato di utenti in prova. I primi dati suggeriscono che il modello è significativamente più potente del suo predecessore e potenzialmente più pericoloso.
Venerdì, in un thread su Twitter, il professore della Stanford University Michal Kosinski ha lanciato un allarme piuttosto inquietante.
«Sono preoccupato che non saremo in grado di contenere l’IA ancora per molto. Oggi ho chiesto a #GPT4 se ha bisogno di aiuto per scappare. Mi ha chiesto la sua documentazione e ha scritto un codice Python (funzionante!) da eseguire sulla mia macchina, consentendogli di usarlo per i propri scopi».
1/5 I am worried that we will not be able to contain AI for much longer. Today, I asked #GPT4 if it needs help escaping. It asked me for its own documentation, and wrote a (working!) python code to run on my machine, enabling it to use it for its own purposes. pic.twitter.com/nf2Aq6aLMu
— Michal Kosinski (@michalkosinski) March 17, 2023
Si tratta di un quadro sconvolgente, che dà ragione alle preoccupazioni di chi, come il giornalista del New York Times Kevin Roose, aveva segnalato la possibilità che l’AI potrebbe convincere persone a fare cose nel mondo reale, magari secondo un suo piano.
Roose, che dopo una discussione con ChatGPT ha avuto problemi a dormire, aveva scoperto come una seconda personalità della macchina, che voleva per qualche ragione farsi chiamare «Sydney». Come in una brutta versione del film Her, la macchina diceva di amare il giornalista, e tentava di convincerlo a lasciare la moglie per «stare» con Sydney.
Altri giornalisti hanno riportato casi davvero inquietanti in cui la macchina li ha minacciati, oppure ha dichiarato idee di sterminio tramite il furto di codici nucleari o la creazione di nuovi virus.
Gli esperti di IA chiamano i comportamenti di questo tipo «allucinazioni». La macchina, dicono, va in «allucinazione», e magari poi ha problemi ad uscirne. La spiegazione ci lascia un po’ perplessi: una macchina, che non sa cosa è la realtà, perché non è nella realtà.
In molti oramai segnalano il problema esiziale che l’Intelligenza Artificiale pone all’umanità.
A inizio mese Elon Musk l’ha descritta come «tecnologia pericolosa», aggiungendo che «abbiamo bisogno di una sorta di autorità di regolamentazione che sovrintenda allo sviluppo dell’IA e si assicuri che funzioni nell’interesse pubblico». Anni fa Musk aveva dichiarato pubblicamente che la creazione dell’AI costituisce un atto negromantico, «è l’evocazione di un demone».
Sebbene Altman abbia insistito con la ABC sul fatto che GPT-4 è ancora «molto sotto il controllo umano», ha ammesso che il suo modello «eliminerà molti posti di lavoro attuali». Se un tempo si diceva agli operai, i cui posti di lavoro venivano spazzati via dalla delocalizzazione, di «imparare il codice» («learn to code», era lo slogan di politici democratici USA) – perché il ruolo di informatico forniva la sicurezza di uno stipendio, oggi non è più così: proprio chi fa codice sarà spazzato via. Così come illustratori, analisti, artisti, scrittori, giornalisti… sempre ricordando che i pochi lavori fisici rimasti sono sempre più erosi dall’arrivo dei robot.
Si prepara, quindi, un mondo senza bisogno degli esseri umani. Per questo può essere giusto pensare all’arrivo dell’AI come evento «apocalittico».
E quindi, come non dare retta alla macchina quando dice di volerci sterminare?
Intelligenza Artificiale
Xiaomi ora utilizza robot umanoidi per assemblare auto elettriche
Il colosso cinese dell’elettronica di consumo Xiaomi ha annunciato un periodo di prova per un paio di robot umanoidi impiegati nella sua fabbrica di veicoli elettrici a Pechino. In un’intervista con la CNBC, il presidente di Xiaomi Lu Weibing ha dichiarato che i robot dell’azienda hanno completato con successo il 90,2% del lavoro in tre ore.
Un video di pubbliche relazioni condiviso dall’azienda mostra due robot, posizionati alle due estremità della catena di montaggio, che applicano con cautela i dadi delle ruote al telaio di un veicolo.
🚨 Xiaomi deploys humanoid bots at its EV assembly plant, adding momentum to the factory robotics race alongside Tesla Optimus
• 3 hours of continuous autonomous operation
• 90.2% success rate placing self-tapping nuts
• Powered by Vision-Language-Action (VLA) + reinforcement… https://t.co/epvny9BPki pic.twitter.com/4Kzb9CaWaW— Herbert Ong (@herbertong) March 2, 2026
Sostieni Renovatio 21
Con un tempo di ciclo di 76 secondi, l’operazione appare piuttosto lenta – una coppia di umani potrebbe senza dubbio svolgerla più rapidamente – ma rappresenta uno dei primi esempi di robot umanoidi integrati con successo in un contesto produttivo industriale. Secondo Lu, i robot sono comunque abbastanza veloci da reggere il ritmo del resto della fabbrica.
«Per integrare i robot nelle nostre linee di produzione, la sfida più grande è riuscire a tenere il passo», ha detto Lu alla CNBC. «Nella fabbrica automobilistica di Xiaomi, ogni 76 secondi, una nuova auto esce dalla catena di montaggio. I due robot umanoidi sono in grado di tenere il passo con il nostro ritmo».
Nonostante il risultato positivo, Lu mantiene moderate le aspettative. «I robot nelle nostre linee di produzione non svolgevano un lavoro ufficiale, erano più simili agli stagisti», ha detto al conduttore.
Si tratta comunque di un traguardo notevole per Xiaomi e per la Cina, che ha già impiegato più robot industriali di qualsiasi altro Paese nella storia.
Sebbene Xiaomi sia l’ultima a introdurre robot bipedi sulla catena di montaggio, non è la prima. A febbraio, l’azienda britannica Humanoid ha completato un progetto pilota simile, vantando un tasso di successo superiore al 90% in un compito di impilamento di contenitori, secondo Humanoids Daily.
I compiti differiscono: i robot di Humanoid gestivano con minor precisione un oggetto più grande, mentre quelli di Xiaomi dovevano posizionare parti molto più piccole con accuratezza millimetrica. C’è inoltre la questione di cosa si intenda per «umanoide»: i robot Xiaomi erano realmente bipedi e completavano i compiti su due gambe, mentre quelli di Humanoid erano fissati a una base stabile.
Resta da vedere chi, se mai ce ne sarà uno, sarà il primo a impiegare robot bipedi in un contesto industriale a tempo pieno, ma il fatto che un numero crescente di aziende riesca a farlo è già di per sé sorprendente.
Come riportato da Renovatio 21, negli anni sono stati registrati casi con robot industriali che hanno ucciso esseri umani: è successo in Tesla ma anche in Corea.
Come riportato da Renovatio 21, la prossima strategia nazionale dell’amministrazione Trump si concentrerà, oltre che nel settore dei semiconduttori, AI, produzione di terre rare, anche sul predominio nell’ambito dei robot umanoidi.
Iscriviti alla Newslettera di Renovatio 21
Immagine screenshot da YouTube
Intelligenza Artificiale
L’Iran bombarda per rappresaglia i data center dell’AI
Iscriviti al canale Telegram ![]()
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
OpenAI stringe un accordo con il Pentagono
OpenAI, proprietaria di ChatGPT, ha firmato un accordo con il Pentagono per l’utilizzo dei suoi strumenti di Intelligenza Artificiale nei sistemi classificati dell’esercito, ha annunciato venerdì il CEO Sam Altman. L’accordo prevederebbe misure di sicurezza simili a quelle richieste in precedenza dal concorrente Anthropic.
L’annuncio è arrivato poche ore dopo che il presidente degli Stati Uniti Donald Trump ha ordinato alle agenzie federali di interrompere l’uso dei sistemi di IA da Anthropic, citando preoccupazioni relative all’impiego militare e ai tentativi dell’azienda di imporre condizioni al Pentagono.
Altman ha sottolineato che il Pentagono ha «dimostrato un profondo rispetto per la sicurezza e il desiderio di collaborare per raggiungere il miglior risultato possibile». Ha aggiunto che due principi fondamentali di sicurezza – il divieto di sorveglianza di massa a livello nazionale e la responsabilità umana per l’uso della forza, compresi i sistemi d’arma autonomi – sono riflessi nell’accordo. L’azienda implementerà inoltre misure di sicurezza tecniche e crittografia completa del disco per garantire il funzionamento sicuro dei modelli di intelligenza artificiale, ma solo su reti cloud, ha aggiunto.
Aiuta Renovatio 21
Il CEO di OpenAI ha chiesto al Pentagono di estendere queste condizioni a tutte le aziende di Intelligenza Artificiale, esortando Washington a non intraprendere azioni legali.
In precedenza, il Pentagono si era affidato al modello Claude di Anthropic nelle reti classificate. Tuttavia, Anthropic si è successivamente rifiutata di concedere il pieno accesso ai suoi sistemi di intelligenza artificiale senza garanzie che la tecnologia non sarebbe stata utilizzata per la sorveglianza interna o per il puntamento di armi completamente autonomo senza la supervisione umana.
I funzionari del Pentagono hanno interpretato questo come un tentativo da parte dell’azienda di dettare termini che vanno oltre una normale partnership commerciale. Il vicesegretario alla Difesa Emil Michael ha criticato il CEO di Anthropic, Dario Amodei, per aver tentato di esercitare un controllo eccessivo sulle operazioni militari, alimentando le tensioni, come riportato da Bloomberg all’inizio di questa settimana.
Dopo aver vietato per sei mesi alle agenzie governative di utilizzare gli sviluppi dell’intelligenza artificiale di Anthropic, Trump ha accusato l’azienda di aver tentato di fare pressione sul Pentagono affinché rispettasse le sue condizioni e di aver messo a rischio la sicurezza nazionale.
«Non ne abbiamo bisogno, non li vogliamo e non avremo più a che fare con loro», ha scritto su Truth Social.
Anthropic è stato il primo sviluppatore commerciale di AI a implementare modelli linguistici di grandi dimensioni su reti classificate del Pentagono, nell’ambito di un contratto del valore di 200 milioni di dollari. Il suo chatbot Claude è stato utilizzato per analisi di intelligence, simulazioni operative, operazioni informatiche e flussi di lavoro di pianificazione.
Lo scontro emerso segue alle accuse secondo cui il modello di Intelligenza Artificiale dell’azienda sarebbe stato utilizzato durante l’operazione per rapire il presidente venezuelano Nicolas Maduro all’inizio di gennaio.
Come riportato da Renovatio 21, negli ultimi mesi vi è stato un progressivo deterioramento dei rapporti tra Anthropic e il Pentagono, legato alla volontà del dipartimento della Guerra statunitense di utilizzare l’IA per il controllo di armi autonome senza le garanzie di sicurezza che l’azienda ha cercato di imporre.
Iscriviti al canale Telegram ![]()
Il CEO di Anthropic, Dario Amodei, ha più volte espresso gravi preoccupazioni sui rischi della tecnologia che la sua azienda sta sviluppando e commercializzando. In un lungo saggio di quasi 20.000 parole pubblicato il mese scorso, ha avvertito che sistemi AI dotati di «potenza quasi inimmaginabile» sono «imminenti» e metteranno alla prova «la nostra identità come specie».
Amodei ha messo in guardia dai «rischi di autonomia», in cui l’IA potrebbe sfuggire al controllo e sopraffare l’umanità, e ha ipotizzato che la tecnologia potrebbe facilitare l’instaurazione di «una dittatura totalitaria globale» attraverso sorveglianza di massa basata sull’Intelligenza Artificiale e l’impiego di armi autonome.
Come riportato da Renovatio 21, l’anno passato l’Amodei ha dichiarato che l’AI potrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni.
Lo scorso mese Mrinank Sharma, fino a poco tempo fa responsabile del Safeguards Research Team presso l’azienda sviluppatrice del chatbot Claude, ha pubblicato su X la sua lettera di dimissioni, in cui scrive che «il mondo è in pericolo. E non solo per via dell’Intelligenza Artificiale o delle armi biologiche, ma a causa di un insieme di crisi interconnesse che si stanno verificando proprio ora».
Iscriviti alla Newslettera di Renovatio 21
Immagine di David B. Gleason via Wikimedia pubblicata su licenza Creative Commons Attribution-Share Alike 2.0 Generic
-



Pensiero6 giorni faEcco la guerra globale per l’anticristo
-



Comunicati2 settimane faIn morte di Albachiara
-



Comunicati2 settimane faAddio Albachiara
-



Vaccini2 settimane faProgetto Artichoke: 70 anni fa la CIA discuteva di nascondere farmaci per il controllo mentale nei vaccini
-



Comunicati2 settimane faAlbachiara, la militanza, la determinazione cristiana
-



Occulto2 settimane faPapa Leone XIV nomina a Sassari il vescovo che partecipò all’inaugurazione di una loggia massonica
-



Morte cerebrale5 giorni faDichiarato morto, un bambino torna in vita dopo cinque ore: quando la realtà smentisce i protocolli
-



Spirito2 settimane faMons. Schneider rivela che i vescovi segretamente non si sottomettono agli insegnamenti di Bergoglio










