Intelligenza Artificiale
L’ex scienziato capo di OpenAI lancia SSI per concentrarsi sulla «sicurezza» dell’IA
Il co-fondatore ed ex capo scienziato di OpenAI, Ilya Sutskever, e l’ex ingegnere di OpenAI Daniel Levy hanno unito le forze con Daniel Gross, un investitore ed ex partner dell’acceleratore di startup Y Combinator, per creare Safe Superintelligence, Inc. (SSI). L’obiettivo e il prodotto della nuova azienda sono evidenti già dal nome.
SSI è una società statunitense con uffici a Palo Alto e Tel Aviv. Farà avanzare l’intelligenza artificiale (AI) sviluppando sicurezza e capacità in tandem, hanno affermato i tre fondatori in un annuncio online il 19 giugno.
«Il nostro focus unico non implica alcuna distrazione da parte delle spese generali di gestione o dei cicli di prodotto, e il nostro modello di business significa che la sicurezza, la protezione e il progresso sono tutti isolati dalle pressioni commerciali a breve termine» hanno dichiarato.
Iscriviti al canale Telegram ![]()
Sutskever ha lasciato OpenAI il 14 maggio. Era stato coinvolto nello strano licenziamento del CEO Sam Altman e ha svolto un ruolo ambiguo nella società dopo essersi dimesso dal consiglio dopo il ritorno di Altman. Daniel Levy è stato tra i ricercatori che hanno lasciato OpenAI pochi giorni dopo Sutskever.
Sutskever e Jan Leike erano i leader del team Superalignment di OpenAI creato nel luglio 2023 per considerare come «guidare e controllare i sistemi di intelligenza artificiale molto più intelligenti di noi». Tali sistemi sono indicati come intelligenza generale artificiale (AGI). OpenAI ha assegnato il 20% della sua potenza di calcolo al team di Superalignment al momento della sua creazione.
Anche Leike ha lasciato OpenAI a maggio ed è ora a capo di un team presso la startup di intelligenza artificiale Anthropic, sostenuta da Amazon. OpenAI ha difeso le sue precauzioni relative alla sicurezza in un lungo post X del presidente dell’azienda Greg Brockman, ma ha sciolto il team di Superalignment dopo la partenza dei suoi ricercatori a maggio.
Gli ex ricercatori di OpenAI sono tra i tanti scienziati preoccupati per la direzione futura dell’intelligenza artificiale.
Nel bel mezzo del turnover del personale di OpenAI co-fondatore di Ethereum Vitalik Butertin aveva definito AGI «rischioso».
Aveva tuttavia aggiunto che «tali modelli sono anche molto più bassi in termini di rischio catastrofico rispetto sia alla megalomania aziendale che ai militari».
«Questa azienda è speciale in quanto il suo primo prodotto sarà la superintelligenza sicura, e fino ad allora non farà nient’altro», dice Sutskever in un’intervista esclusiva a Bloomberg sui suoi piani.
«Sarà completamente isolato dalle pressioni esterne derivanti dal dover gestire un prodotto grande e complicato e dal dover rimanere bloccato in una corsa al successo competitiva”.
Il CEO di Tesla Elon Musk, considerabile come fondatore di OpenAI, e il co-fondatore di Apple Steve Wozniak erano tra gli oltre 2.600 leader e ricercatori tecnologici che hanno sollecitato la sospensione dell’addestramento dei sistemi di intelligenza artificiale per sei mesi mentre l’umanità rifletteva sul «profondo rischio» che rappresentavano.
Musk ha risposto a un post su X che evidenziava il potenziale che tutto questo andasse molto storto: «sulla base delle convenzioni di denominazione stabilite da OpenAI e StabilityAI, questa potrebbe essere la società di intelligenza artificiale più pericolosa mai vista».
Elon, che dice di non aver animosità nei confronti di Sutskever, ha rivendicato di averlo in pratica assunto lui al momento della fondazione di OpenAI, all’epoca società no-profit. Musk pochi giorni fa ha ritirato la causa intentata ad OpenAI.
Aiuta Renovatio 21
L’annuncio della SSI rileva che la società sta assumendo ingegneri e ricercatori.
«Per sicuro intendiamo sicuro come la sicurezza nucleare in contrapposizione a sicuro come “fiducia e sicurezza”», afferma Sutskever. Sutskever rifiuta di nominare i sostenitori finanziari di Safe Superintelligence o di rivelare quanto ha raccolto.
Come riportato da Renovatio 21, l’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità».
Nel 2022, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Intelligenza Artificiale
I chatbot AI sono pronti a pianificare le stragi di massa
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Chatbot AI mettono in pericolo gli escursionisti
Il sito Futurism riporta l’ennesima vicenda in cui l’Intelligenza Artificiale mette in pericolo gli esseri umani, che stupidamente si fidano di essa.
Qualche mese fa, due escursionisti che cercavano di affrontare una parete rocciosa di una montagna vicino a Vancouver, hanno dovuto chiamare una squadra di soccorso dopo che sono caduti nella neve. La coppia indossava solo scarpe da ginnastica a suola piatta, ignari che le altitudini più elevate di una catena montuosa potrebbero essere ancora innevate appena dopo l’inverno.
«Siamo saliti lassù con degli stivali per loro», ha detto al Vancouver Sun Brent Calkin, leader della squadra di ricerca e soccorso di Lions Bay. «Abbiamo chiesto loro le dimensioni dello scarpone e gli abbiamo portato scarponi e bastoni da sci».
Si scopre che per pianificare la loro sfortunata spedizione, gli escursionisti hanno seguito incautamente i consigli dati loro da Google Maps e dal chatbot AI ChatGPT.
Sostieni Renovatio 21
Ora, Calkin e il suo team di soccorso stanno avvertendo che non è prudente fare affidamento su app e chatbot AI per pianificare un’escursione complicata attraverso la natura selvaggia.
Con la quantità di informazioni disponibili online, è bene documentarsi bene prima di affrontare questo tipo di escursioni, ha sottolineato Calkin al Vancouver Sun. Un recente articolo di Mountain Rescue England e Wales ha accusato i social media e le cattive app di navigazione per le troppe chiamate alle squadre di soccorso, ha osservato il giornale.
Stephen Hui, autore del libro 105 Hikes, ha fatto eco a quell’avvertimento e ha ammonito che ottenere informazioni affidabili è una delle più grandi sfide presentate dai chatbot e dalle app AI. Con l’Intelligenza Artificiale in particolare, Hui ha detto al Vancouver Sun, non è sempre facile dire se ti le informazioni sono obsolete oppure recenti e affidabili.
Dal suo test di ChatGPT, Hui non è rimasto troppo colpito: può darti «direzioni decenti» sui sentieri più comuni e popolari, ma va in evidente difficoltà nel tracciare percorsi più impervi e meno battuti.
I chatbot AI faticano a fornire informazioni pertinenti in tempo reale.
«Il periodo dell’anno è un grosso problema» in British Columbia, ha detto Hui al Vancouver Sun. «La vista più ricercata è la cima della montagna, ma questo è davvero accessibile solo agli escursionisti da luglio a ottobre. In inverno, le persone potrebbero ancora cercare quelle viste e non rendersi conto che ci sarà neve».
C’è da dire che il tipo di persona che chiede a un chatbot consigli escursionistici probabilmente non conosce nemmeno le domande giuste da porre.
È di gran lunga più consigliato chiedere a un essere umano con esperienza della zona, ha suggerito Calkin, anziché affidarsi a queste nuove tecnologie che ancora, per troppe cose, risultano totalmente fuorvianti e inattendibili.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Xiaomi ora utilizza robot umanoidi per assemblare auto elettriche
🚨 Xiaomi deploys humanoid bots at its EV assembly plant, adding momentum to the factory robotics race alongside Tesla Optimus
• 3 hours of continuous autonomous operation • 90.2% success rate placing self-tapping nuts • Powered by Vision-Language-Action (VLA) + reinforcement… https://t.co/epvny9BPki pic.twitter.com/4Kzb9CaWaW — Herbert Ong (@herbertong) March 2, 2026
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Pensiero1 settimana faEcco la guerra globale per l’anticristo
-



Morte cerebrale1 settimana faDichiarato morto, un bambino torna in vita dopo cinque ore: quando la realtà smentisce i protocolli
-



Geopolitica6 giorni faQuesta è una guerra mondiale di religione: l’avvertimento di Tucker Carlson
-



Spirito2 settimane faMons. Schneider rivela che i vescovi segretamente non si sottomettono agli insegnamenti di Bergoglio
-



Occulto5 giorni faEsorcista dice che «la situazione per l’anticristo è ormai prossima»
-



Geopolitica2 settimane faLa dichiarazione di guerra di Trump all’Iran
-



Spirito1 settimana faI cardinali dell’«opposizione controllata» di Leone. Mons. Viganò contro i conservatori cattolici dinanzi alle Consacrazioni FSSPX
-



Geopolitica2 settimane faL’ayatollah Khamenei è morto: lo Stato iraniano conferma













