Google kaže da njegova nova porodica modela umjetne inteligencije ima zanimljivu značajku: sposobnost “identifikacije” emocija.
Najavljeno u četvrtak, PaliGemma 2 porodica modela može analizirati slike, omogućujući umjetnoj inteligenciji da generira opise i odgovori na pitanja o ljudima koje “vidi” na fotografijama.
“PaliGemma 2 generira detaljne, kontekstualno relevantne opise za slike”, napisao je Google u postu na blogu koji je podijelio s TechCrunchom, “nadilazeći jednostavnu identifikaciju objekta kako bi opisao radnje, emocije i cjelokupni narativ scene.”
Prepoznavanje emocija ne radi odmah, a PaliGemma 2 mora biti fino podešena za tu svrhu. Uprkos tome, stručnjaci s kojima je TechCrunch razgovarao bili su zabrinuti zbog mogućnosti otvoreno dostupnog detektora emocija.
“Ovo me jako zabrinjava”, rekla je za TechCrunch Sandra Wachter, profesorica etike podataka i umjetne inteligencije na Oxford Internet Institute. “Problematično mi je pretpostaviti da možemo ‘čitati’ ljudske emocije. To je kao da pitate Magic 8 Ball za savjet.”
Godinama su startupi i tehnološki divovi pokušavali izgraditi umjetnu inteligenciju koja može detektirati emocije za sve, od treninga prodaje do sprječavanja nesreća, prenosi SEEbiz. Neki tvrde da su to postigli, ali znanost stoji na klimavim empirijskim temeljima.
Većina detektora emocija oslanja se na rane radove Paula Ekmana, psihologa koji je postavio teoriju da ljudi dijele šest zajedničkih temeljnih emocija: ljutnju, iznenađenje, gađenje, užitak, strah i tugu. Naknadna istraživanja dovela su u sumnju Ekmanovu hipotezu, međutim, pokazujući da postoje velike razlike u načinu na koji ljudi iz različitih sredina izražavaju kako se osjećaju.
“Detekcija emocija nije moguća u općenitom slučaju, jer ljudi doživljavaju emocije na složene načine”, rekao je za TechCrunch Mike Cook, znanstveni suradnik na King’s Collegeu u Londonu, specijaliziran za AI. “Naravno, mislimo da možemo reći što drugi ljudi osjećaju gledajući ih, a mnogi su ljudi tokom godina također pokušali, poput špijunskih agencija ili marketinških firmi. Siguran sam da je apsolutno moguće otkriti neke generičke označitelja u nekim slučajevima, ali to nije nešto što možemo u potpunosti ‘riješiti’.”
Nije iznenađujuća posljedica je da su sustavi za otkrivanje emocija skloni biti nepouzdani i pristrani prema pretpostavkama svojih dizajnera. U studiji MIT-a iz 2020., istraživači su pokazali da modeli koji analiziraju lice mogu razviti nenamjerne preferencije za određene izraze, poput osmijeha. Noviji radovi sugeriraju da modeli emocionalne analize pripisuju više negativnih emocija licima crnaca nego licima bijelaca.
Google kaže da je proveo “opsežna testiranja” kako bi procijenio demografske pristranosti u PaliGemmi 2 i otkrio “niske razine toksičnosti i vulgarnosti” u usporedbi s referentnim vrijednostima industrije. No firma nije dala potpuni popis mjerila koja je koristila, niti je naznačila koje su vrste testova provedene.
Jedino mjerilo koje je Google otkrio je FairFace, skup desetaka hiljada slika glava ljudi. Tvrtka tvrdi da je PaliGemma 2 postigla dobre rezultate na FairFaceu. No neki su istraživači kritizirali referentnu vrijednost kao metriku pristranosti, ističući da FairFace predstavlja samo nekoliko rasnih skupina.
“Tumačenje emocija prilično je subjektivna stvar koja se proteže izvan upotrebe vizualnih pomagala i snažno je ugrađena u osobni i kulturni kontekst”, rekla je Heidy Khlaaf, glavna znanstvenica za umjetnu inteligenciju na Institutu AI Now, neprofitnoj organizaciji koja proučava društvene implikacije umjetne inteligencije. . “Na stranu umjetna inteligencija, istraživanje je pokazalo da emocije ne možemo zaključiti samo na temelju crta lica.”
Sistemi za otkrivanje emocija izazvali su bijes regulatora u inozemstvu, koji su nastojali ograničiti upotrebu tehnologije u visokorizičnim kontekstima.
(24sata.info)