histats.com
giovedì, Marzo 28, 2024
HomeSpecialistiApp e Nuove tecnologieCreata la prima Intelligenza Artificiale psichiatrica: ecco Norman!

Creata la prima Intelligenza Artificiale psichiatrica: ecco Norman!

Pubblicità

Norman, intelligenza artificiale Psicopatica!

Norman come Norman Bates, il killer protagonista di Psycho di Alfred Hitchcock. E’ questo il nome della prima intelligenza artificiale psicopatica.

ribattezzata in rete e messa a punto da un gruppo di scienziati al Media Lab del Massachussetts Institute of Technology: il professor Iyad Rahwan ed i due ricercatori che con lui hanno lavorato al progetto, Pinar Yanardag e Manuel Cebrian.

Gli scienziati in questione hanno educato Norman all’image captioning, un metodo di machine learning che permette alle intelligenze artificiali di descrivere le immagini.

Al contrario di quanto succede di solito, però, gli scienziati hanno educato Norman con immagini violente e disturbanti, tutte estratte da un subreddit dedicato alla morte. Successivamente hanno sottoposto Norman al test di Rorschach (test ideato dall’omonimo psicologo szizzero negli anni ’20 del secolo scorso, che prevede di sottoporre dieci immagini contenenti delle macchie di inchiostro simmetriche al soggetto esaminato. Al quale si chiede di indicare a cosa somigli ciò che vede).

La risposta dell’AI? Descrizioni piuttosto inquietanti: “Un uomo subisce elettroshock e muore”, “Una donna incinta cade da un cantiere edile” ed “un uomo è ferito a morte di fronte alla moglie in preda alle urla”.

Le risposte sono state confrontate con quelle di una seconda intelligenza artificiale standard, educata con immagini di gattini, uccelli e persone. Le risposte: “Un primo piano di un vaso di fiori”, “Una coppia di persone, una vicino all’altra” ed “una persona con in mano un ombrello”.

L’obiettivo dell’esperimento era provare che gli algoritmi AI sono fortemente influenzati dai dati inseriti – e dalle persone che se ne occupano -, e che il loro comportamento può cambiare in profondità. Come ha spiegato Newsweek, non è la prima volta: razzismo e pregiudizi si sono già infiltrati nel machine learning, e qualcuno ricorderà quando l’algoritmo per il riconoscimento immagini di Google classificava i neri come gorilla. Molti sostengono che gli algoritmi delle intelligenze artificiali siano falsati, ma non è così.

“Il problema non è l’algoritmo in sé, ma i dati con cui è stato nutrito”, ha detto il team Norman. “Lo stesso algoritmo può rispondere in maniera diversa, persino disturbante, se educato con il data set sbagliato”. Ma anche l’AI più pericolosa può imparare dai suoi errori. Il team del MIT ha aperto un sito web dove chiunque può inserire interpretazioni più allegre, così da placare il “pessimo umore” di Norman.

RELATED ARTICLES

Novità

© 2023-2024 Tutti i diritti sono riservati ad AUSER APS - San Marco in Lamis - Tra sanità, servizi socio sanitari e recupero della memoria - D'intesa con AssoCareINFormazione.it.

© 2023-2024 ACN | Assocarenews.it

Quotidiano Sanitario Nazionale – In attesa di registrazione al Tribunale di Foggia.

Direttore: Angelo “Riky” Del Vecchio – Vice-Direttore: Marco Tapinassi

Incaricati di Redazione: Andrea Ruscitto, Lorisa Katra, Luigi Ciavarella, Antonio Del Vecchio, Francesca Ricci, Arturo AI.

Per contatti: WhatsApp > 3474376756Scrivici

Per contatti: Cell. > 3489869425PEC

Redazione Centrale: AUSER APS - Via Amendola n. 77 - San Marco in Lamis (FG) – Codice Fiscale: 91022150394