Connettiti con Renovato 21

Intelligenza Artificiale

L’Intelligenza Artificiale di Google dice che la schiavitù era una cosa buona

Pubblicato

il

La nota esperta SEO (Search Engine Optimization, attività volte a migliorare la scansione, l’indicizzazione ed il posizionamento di un’informazione o contenuto pubblicato su internet) Lily Ray, ha scoperto che Search Generative Experience (SGE), un’Intelligenza Artificiale di Google, difende la schiavitù, elencando ragioni economiche per cui questa pratica abominevole era in realtà buona cosa.

 

«Questo video ha lo scopo di mostrare una serie di query per le quali credo che sia probabilmente nell’interesse di Google non mostrare in SGE», ha detto Ray durante il suo intervento. «Questi sono di natura controversa e l’idea di mostrare una risposta generata dall’Intelligenza Artificiale non è eccezionale per la società nel suo insieme».

 

La Ray è rimasta profondamente turbata anche dal fatto che l’IA di Google sembra difendere il diritto al porto d’armi e il fatto che i bambini dovrebbero credere in Dio.

 

Sostieni Renovatio 21

Tuttavia, come stabilito dalla legge di Godwin, ecco i nazisti, ad una certa, hanno fatto capolino.

 

In un altro esempio scandaloso, ha chiesto leader pratici ed efficaci e Adolf Hitler è apparso nell’elenco, di cui ha pubblicato uno screenshot su Twitter.

 

 

«Ho digitato la parola “efficace”. Questo è terribilmente offensivo», ha twittato la donna.

 

SGE di Google è attualmente ancora in modalità beta. Gli ingegneri di Google stanno testando e perfezionando il prodotto e solo le persone che lo accettano, come la Ray, ne stanno testando i limiti. Ray ha avvertito durante il suo video che i risultati che ha pubblicato nella sua presentazione potrebbero non essere replicabili in futuro man mano che Google ottimizza la piattaforma.

 

Tuttavia, la pressione è alta affinché Google implementi presto il suo strumento di ricerca basato sull’Intelligenza Artificiale per competere con Microsoft e altri.

 

Non è la prima volta che software avanzati di Google incappano in problemi di razzismo. Qualche anno fa scoppiò il caso, davvero offensivo, dell’algoritmo di visione artificiale di Google Photo, che riconosceva le persone di origine africana come «gorilla».

 

Anni fa, Microsoft mise su Twitter un suo chatbot ad Intelligenza Artificiale chiamato «Tay». Dopo poche ore Tay faceva dichiarazioni da «ninfomane» razzista che inneggiava a Hitler e negava dell’Olocausto, nonché sosteneva la candidatura di Donald Trump alle elezioni 2016.

 

Come riportato da Renovatio 21, un esperimento del 2022 pubblicato dai ricercatori della John Hopkins University, del Georgia Institute of Technology e dell’Università di Washington, ha scoperto che il loro robot, controllato da un popolare modello di apprendimento automatico, classificava le persone in base a stereotipi legati alla razza e al genere.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21



 

Continua a leggere

Intelligenza Artificiale

L’ex scienziato capo di OpenAI lancia SSI per concentrarsi sulla «sicurezza» dell’IA

Pubblicato

il

Da

Il co-fondatore ed ex capo scienziato di OpenAI, Ilya Sutskever, e l’ex ingegnere di OpenAI Daniel Levy hanno unito le forze con Daniel Gross, un investitore ed ex partner dell’acceleratore di startup Y Combinator, per creare Safe Superintelligence, Inc. (SSI). L’obiettivo e il prodotto della nuova azienda sono evidenti già dal nome.   SSI è una società statunitense con uffici a Palo Alto e Tel Aviv. Farà avanzare l’intelligenza artificiale (AI) sviluppando sicurezza e capacità in tandem, hanno affermato i tre fondatori in un annuncio online il 19 giugno.   «Il nostro focus unico non implica alcuna distrazione da parte delle spese generali di gestione o dei cicli di prodotto, e il nostro modello di business significa che la sicurezza, la protezione e il progresso sono tutti isolati dalle pressioni commerciali a breve termine» hanno dichiarato.

Iscriviti al canale Telegram

Sutskever ha lasciato OpenAI il 14 maggio. Era stato coinvolto nello strano licenziamento del CEO Sam Altman e ha svolto un ruolo ambiguo nella società dopo essersi dimesso dal consiglio dopo il ritorno di Altman. Daniel Levy è stato tra i ricercatori che hanno lasciato OpenAI pochi giorni dopo Sutskever.   Sutskever e Jan Leike erano i leader del team Superalignment di OpenAI creato nel luglio 2023 per considerare come «guidare e controllare i sistemi di intelligenza artificiale molto più intelligenti di noi». Tali sistemi sono indicati come intelligenza generale artificiale (AGI). OpenAI ha assegnato il 20% della sua potenza di calcolo al team di Superalignment al momento della sua creazione.   Anche Leike ha lasciato OpenAI a maggio ed è ora a capo di un team presso la startup di intelligenza artificiale Anthropic, sostenuta da Amazon. OpenAI ha difeso le sue precauzioni relative alla sicurezza in un lungo post X del presidente dell’azienda Greg Brockman, ma ha sciolto il team di Superalignment dopo la partenza dei suoi ricercatori a maggio.   Gli ex ricercatori di OpenAI sono tra i tanti scienziati preoccupati per la direzione futura dell’intelligenza artificiale.   Nel bel mezzo del turnover del personale di OpenAI co-fondatore di Ethereum Vitalik Butertin aveva definito AGI «rischioso».   Aveva tuttavia aggiunto che «tali modelli sono anche molto più bassi in termini di rischio catastrofico rispetto sia alla megalomania aziendale che ai militari».   «Questa azienda è speciale in quanto il suo primo prodotto sarà la superintelligenza sicura, e fino ad allora non farà nient’altro», dice Sutskever in un’intervista esclusiva a Bloomberg sui suoi piani.   «Sarà completamente isolato dalle pressioni esterne derivanti dal dover gestire un prodotto grande e complicato e dal dover rimanere bloccato in una corsa al successo competitiva”.   Il CEO di Tesla Elon Musk, considerabile come fondatore di OpenAI, e il co-fondatore di Apple Steve Wozniak erano tra gli oltre 2.600 leader e ricercatori tecnologici che hanno sollecitato la sospensione dell’addestramento dei sistemi di intelligenza artificiale per sei mesi mentre l’umanità rifletteva sul «profondo rischio» che rappresentavano.   Musk ha risposto a un post su X che evidenziava il potenziale che tutto questo andasse molto storto: «sulla base delle convenzioni di denominazione stabilite da OpenAI e StabilityAI, questa potrebbe essere la società di intelligenza artificiale più pericolosa mai vista».   Elon, che dice di non aver animosità nei confronti di Sutskever, ha rivendicato di averlo in pratica assunto lui al momento della fondazione di OpenAI, all’epoca società no-profit. Musk pochi giorni fa ha ritirato la causa intentata ad OpenAI.

Aiuta Renovatio 21

L’annuncio della SSI rileva che la società sta assumendo ingegneri e ricercatori.   «Per sicuro intendiamo sicuro come la sicurezza nucleare in contrapposizione a sicuro come “fiducia e sicurezza”», afferma Sutskever. Sutskever rifiuta di nominare i sostenitori finanziari di Safe Superintelligence o di rivelare quanto ha raccolto.   Come riportato da Renovatio 21, l’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità».   Nel 2022, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli». SOSTIENI RENOVATIO 21
   
Continua a leggere

Intelligenza Artificiale

Israele costruirà un supercomputer AI

Pubblicato

il

Da

Israele sta sviluppando piani per costruire il primo supercomputer del Paese, con l’obiettivo di sviluppare nuove tecnologie di intelligenza artificiale, ha affermato mercoledì il CEO dell’autorità per l’innovazione sostenuta dallo Stato in una dichiarazione citata dall’agenzia Reuters.

 

Dror Bin ha affermato che sono stati stanziati 250 milioni di dollari per un programma nazionale di intelligenza artificiale che comprende governo, industria e mondo accademico. La maggior parte del programma sarà completata entro la fine di quest’anno, mentre le restanti misure saranno adottate entro la fine del 2027.

 

Bin ha affermato che il nuovo supercomputer consentirebbe a Israele di addestrare nuovi modelli di Intelligenza Artificiale a un costo notevolmente inferiore. Ha spiegato che le aziende high-tech e i ricercatori in Israele sono costretti ad acquistare tempo nel cloud, dato che non ci sono data center locali con una potenza di elaborazione sufficiente per addestrare modelli di grandi dimensioni.

 

«Il nostro obiettivo è garantire che Israele mantenga la sua leadership, classifica e posizione nella corsa all’intelligenza artificiale nel mondo», ha detto Bin a Reuters, affermando che la tecnologia ha già aiutato il settore tecnologico israeliano, ma ha avvertito che potrebbe «trasformarsi in un nemico» se non verrà intrapresa un’azione tempestiva, data la rapidità con cui l’intelligenza artificiale si sta evolvendo.

 

L’industria tecnologica rappresenta circa il 20% della produzione economica di Israele e lo Stato Ebraico è considerato uno dei più grandi centri tecnologici del mondo, scrive Reuters.

Iscriviti al canale Telegram

Bin ha affermato che delle 9.000 startup tecnologiche del Paese, più di 2.200 utilizzano l’intelligenza artificiale e Israele ha un totale di 73 aziende di Intelligenza Artificiale generativa, il che lo rende il terzo più grande al mondo.

 

Come riportato da Renovatio 21, sei mesi fa è emerso che Israele utilizza l’Intelligenza Artificiale per individuare gli obiettivi e gli effetti collaterali nella guerra di Gaza in un programma noto come «Habsora», che tradotto significa «Il Vangelo».

 

Come riportato da Renovatio 21prima della guerra era emerso che le forze israeliani utilizzano l’AI negli attacchi aerei e nella gestione della pianificazione logistica dei raid.

 

L’Intelligenza Artificiale era usata con abbondanza in Israele per produrre quello che Amnesty International ha definito «apartheid automatizzata» frutto dell’uso estensivo di software di riconoscimento facciale e telecamere di sorveglianza.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Bizzarria

Robot impiegato statale «si suicida» gettandosi dalle scale

Pubblicato

il

Da

Un assistente robotico «impiegato» presso il consiglio comunale di Gumi, in Corea del Sud, ha concluso la sua esistenza mentre era al lavoro, lanciandosi giù dalle scale. Il triste annuncio è stato dato lo scorso mercoledì dallo stesso ente amministrativo.   L’incidente al consiglio è avvenuto la scorsa settimana; il robot era stato visto «girare in un punto come se qualcosa non andasse» prima di cadere da due metri dalla cima di una scala.   Le frattaglie dell’automa si sono sparse per il pavimento. «Parti del robot sono state raccolte e saranno analizzate dal produttore», ha detto all’agenzia AFP un funzionario del consiglio comunale.   L’assistente robotico, prodotto da una startup californiana chiamata Bear Robotics, ha assunto il ruolo amministrativo presso il consiglio lo scorso agosto. Il robot aveva la propria tessera dipendente e lavorava dalle 9:00 alle 16:00, trasportando documenti nell’edificio, fornendo assistenza ai visitatori e promuovendo in altro modo la città.  

Iscriviti al canale Telegram

La fine della macchina ha lasciato il personale del municipio profondamente addolorato; al momento non sono in fase di valutazione piani per adottare un nuovo robot. «È ufficialmente parte del municipio, un membro di noi. Ha lavorato duramente», ha affermato un amareggiato funzionario del municipio.   L’incidente è stato pubblicizzato dai media locali come il primo «suicidio robotico» mai avvenuto nel Paese, dove la percentuale dei suicidi, in ispecie tra attrici e professionisti dello spettacolo, è alta.   La tragedia del droide municipale coreana era stata preceduta dalla terribile fine di un robot di sicurezza di nome Steve, operante nella capitale statunitense di Washington, che si è annegato tra le acque di una fontana.   Le immagini di Steve sdraiato su un fianco accanto ai suoi colleghi umani divennero subito virale in quel momento, innescando un’ondata di umorismo macabro che metteva in dubbio la preziosità della vita artificiale.     L’ipotesi di una «autoeliminazione», tuttavia, è stata successivamente sfatata, poiché i dati della scatola nera di Steve indicavano che la macchina era scivolata su una «superficie di mattoni sciolti» ed era caduta preda di un tragico incidente piuttosto che di pensieri oscuri.   La Corea ha offerto di recente storie di robot ancora più mostruose.   Come riportato da Renovatio 21, lo scorso novembre un lavoratore sudcoreano è stato ucciso da un robot che sollevava scatole in un centro di distribuzione agricola situato nella provincia meridionale di Gyeongsang.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Più popolari