Intelligenza Artificiale

L’Intelligenza Artificiale di Google dice che la schiavitù era una cosa buona

Pubblicato

il

La nota esperta SEO (Search Engine Optimization, attività volte a migliorare la scansione, l’indicizzazione ed il posizionamento di un’informazione o contenuto pubblicato su internet) Lily Ray, ha scoperto che Search Generative Experience (SGE), un’Intelligenza Artificiale di Google, difende la schiavitù, elencando ragioni economiche per cui questa pratica abominevole era in realtà buona cosa.

 

«Questo video ha lo scopo di mostrare una serie di query per le quali credo che sia probabilmente nell’interesse di Google non mostrare in SGE», ha detto Ray durante il suo intervento. «Questi sono di natura controversa e l’idea di mostrare una risposta generata dall’Intelligenza Artificiale non è eccezionale per la società nel suo insieme».

 

La Ray è rimasta profondamente turbata anche dal fatto che l’IA di Google sembra difendere il diritto al porto d’armi e il fatto che i bambini dovrebbero credere in Dio.

 

Sostieni Renovatio 21

Tuttavia, come stabilito dalla legge di Godwin, ecco i nazisti, ad una certa, hanno fatto capolino.

 

In un altro esempio scandaloso, ha chiesto leader pratici ed efficaci e Adolf Hitler è apparso nell’elenco, di cui ha pubblicato uno screenshot su Twitter.

 

 

«Ho digitato la parola “efficace”. Questo è terribilmente offensivo», ha twittato la donna.

 

SGE di Google è attualmente ancora in modalità beta. Gli ingegneri di Google stanno testando e perfezionando il prodotto e solo le persone che lo accettano, come la Ray, ne stanno testando i limiti. Ray ha avvertito durante il suo video che i risultati che ha pubblicato nella sua presentazione potrebbero non essere replicabili in futuro man mano che Google ottimizza la piattaforma.

 

Tuttavia, la pressione è alta affinché Google implementi presto il suo strumento di ricerca basato sull’Intelligenza Artificiale per competere con Microsoft e altri.

 

Non è la prima volta che software avanzati di Google incappano in problemi di razzismo. Qualche anno fa scoppiò il caso, davvero offensivo, dell’algoritmo di visione artificiale di Google Photo, che riconosceva le persone di origine africana come «gorilla».

 

Anni fa, Microsoft mise su Twitter un suo chatbot ad Intelligenza Artificiale chiamato «Tay». Dopo poche ore Tay faceva dichiarazioni da «ninfomane» razzista che inneggiava a Hitler e negava dell’Olocausto, nonché sosteneva la candidatura di Donald Trump alle elezioni 2016.

 

Come riportato da Renovatio 21, un esperimento del 2022 pubblicato dai ricercatori della John Hopkins University, del Georgia Institute of Technology e dell’Università di Washington, ha scoperto che il loro robot, controllato da un popolare modello di apprendimento automatico, classificava le persone in base a stereotipi legati alla razza e al genere.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21



 

Più popolari

Exit mobile version