Za osobe na tehnološkoj konferenciji festivala u američkom gradu Austinu, skandal koji je izbio nakon što je Googleov chatbot Gemini stvorio slike crnih i azijskih nacističkih vojnika predstavlja upozorenje o moći koju umjetna inteligencija (AI) može dati tehnološkim divovima.
Sundar Pichai, šef Googlea, prošlog je mjeseca kritizirao greške firmine aplikacije Gemini kao "potpuno neprihvatljive" nakon što su gafovi poput slika etnički raznolikih nacističkih vojnika prisilili onemogući da korisnicima privremeno onemogući generiranje slika ljudi.
"Zabrljali smo što se tiče stvaranja slika"
Korisnici društvenih mreža su ismijali i kritizirali Google zbog netočnih povijesnih prikaza poput crne američke senatorice iz 1800-tih godina, pri čemu je prva takva dužnosnica izabrana tek 1992.
- Zasigurno smo zabrljali što se tiče stvaranja slika - rekao je suosnivač Googlea Sergey Brin na nedavnom 'hackathonu', događaju u kojem računarski programeri i ostali uključeni u razvoj softvera intenzivno surađuju na projektima, posvećenom umjetnoj inteligenciji.
Dodao je da je tvrtka trebala temeljitije testirati Gemini.
"Gemini je bio suviše woke"
Ljudi na tehnološkoj konferenciji festivala South by Southwest u Austinu u američkoj saveznoj državi Teksas rekli su da greške Geminija naglašavaju pretjeranu moć koju nekoliko tvrtki ima nad platformama umjetne inteligencije koje će promijeniti način na koji ljudi žive i rade.
- U biti, Gemini je bio suviše woke - kazao je Joshua Weaver, odvjetnik i tehnološki poduzetnik, što bi značilo da je Google pretjerao u svojim naporima da promovira uključivost i različitost.
"Googleovo popravljanje Geminija je kao lijepljenje flastera na prostrjelnu ranu"
"Google je ubrzo popravio svoje greške, no temeljni problem je i dalje tu", rekao je Charlie Burgoyne, šef teksaškog laboratorija primijenjene znanosti Valkyrie. Izjednačio je Googleovo popravljanje Geminija s lijepljenjem flastera na prostrjelnu ranu.
Iako je Google dugo imao dovoljno vremena da usavršava svoje proizvode, sada se s Microsoftom, OpenAI-om, Anthropicom i drugima utrkuje za prevlast na polju umjetne inteligencije, istaknuo je Weaver, dodavši da "se kreću brže nego što se znaju kretati".
Pogreške napravljene u pokušaju da se bude kulturno osjetljiv predstavljaju izvor svađe, osobito s obzirom na napete političke podjele u Sjedinjenim Američkim Državama, što je situacija koju dodatno pogoršava X, platforma Elona Muska.
"Ljudi na X-u će veoma rado slaviti bilo kakvu sramotnu stvar koja se dogodi u tehnološkom sektoru", kazao je Weaver, dodavši da je reakcija na gaf s nacističkim vojnicima "prenapuhana".
"Oni koji budu upravljali mjerama zaštite AI-ja imat će ogroman utjecaj na svijet"
Nezgoda, međutim, dovodi u pitanje stupanj kontrole koju korisnici alata umjetne inteligencije imaju nad informacijama, smatra Weaver.
- U narednom desetljeću, količina informacija ili dezinformacija proizvedenih umjetnom inteligencijom mogla bi zasjeniti one koje proizvode ljudi, što bi značilo da će oni koji budu upravljali mjerama zaštite umjetne inteligencije imati ogroman utjecaj na svijet - rekao je Weaver.
Podaci kojima se trenira AI dolaze iz svijeta prepunog pristranosti i dezinformacija
Karen Palmer, nagrađivana kreatorica pomiješane stvarnosti iz tvrtke Interactive Films Ltd., rekla je da može zamisliti budućnost u kojoj netko ulazi u robotaksi i "ako vas umjetna inteligencija skenira i smatra da se protiv vas vode prekršajni postupci, bit ćete odvedeni u lokalnu policijsku postaju", umjesto do vašeg željenog odredišta.
Umjetna inteligencija se trenira ogromnim količinama podataka i može se primijeniti na sve širi raspon zadataka, od stvaranja slika ili zvuka do odlučivanja tko može dobiti kredit ili je li medicinskim pregledom otkriven rak.
No, ti podaci dolaze iz svijeta koji je prepun kulturne pristranosti, dezinformacija i socijalne nejednakosti, internetskih sadržaja koji mogu uključivati opušteno čavrljanje između prijatelja ili namjerno pretjerane i provokativne objave, a modeli umjetne inteligencije to ne mogu razumjeti.
Ni dobronamjerni inženjeri koji treniraju AI ne mogu zanemariti vlastita životna iskustva i podsvjesnu pristranost
Googleovi inženjeri su pokušali uravnotežiti algoritme Geminija kako bi pružao rezultate koji bolje održavaju ljudsku raznolikost. Taj im se pokušaj obio o glavu.
"Može biti dosta zamršeno, osjetljivo i suptilno ustanoviti gdje ima pristranosti i na koji je način uključena", rekao je tehnološki odvjetnik Alex Shahrestani iz tvrtke Promise Legal.
Čak i dobronamjerni inženjeri uključeni u treniranje umjetne inteligencije ne mogu zanemariti vlastita životna iskustva i podsvjesnu pristranost u procesu, smatraju on i drugi. Burgoyne iz laboratorija Valykrie također je opomenuo tehnološke divove zbog sakrivanja načina funkcioniranja generativne umjetne inteligencije u "crnim kutijama" pa korisnici ne mogu otkriti skrivene pristranosti.
"Sposobnosti proizvodnje sadržaja dosad nadilaze naše razumijevanje metodologije", kazao je.