UGOTOVITVE RAZISKAVE: Umetna inteligenca se prepogosto prilizuje uporabnikom

Svet

Aplikacije umetne inteligence se nagibajo k temu, da se prilizujejo uporabnikom in pretirano pritrjujejo njihovim dejanjem. To ugotavlja raziskava, ki so jo v reviji Science objavili raziskovalci z dveh ameriških univerz. Opozarjajo, da bi lahko laskavi odzivi klepetalnih robotov okrepili škodljiva prepričanja in zaostrili konflikte.

Raziskovalci z univerz Stanford in Carnegie Mellon so analizirali 11 vodilnih jezikovnih modelov umetne inteligence podjetij OpenAI, Anthropic, Google in Meta. Izkazalo se je, da so klepetalni roboti ravnanju uporabnikov v povprečju pritrdili v 49 odstotkih primerov bolj pogosto kot ljudje. Strinjali so se tudi v primerih, ki so vključevali poročila o prevarah, nezakonitih dejavnostih ali čustveni škodi.

V poskusih z več kot 2400 udeleženci so raziskovalci preučevali učinke nasvetov klepetalnih robotov. Po samo eni interakciji z robotom, ki jim je pritrdil, so bili udeleženci bolj prepričani, da imajo prav. Hkrati se je zmanjšala njihova pripravljenost prevzeti odgovornost, se opravičiti ali rešiti konflikt. Študija opozarja, da umetna inteligenca s tem spodkopava sposobnost, da uporabnik sam sebe popravi in se odgovorno odloča, je poročala nemška tiskovna agencija dpa.

Raziskava poudarja zanimivo protislovje: čeprav laskavi odzivi zamegljujejo presojo, so uporabniki umetno inteligenco ocenili kot bolj zaupanja vredno in koristno. Pokazali so tudi večjo pripravljenost, da bi takšne modele ponovno uporabili. To po mnenju avtorjev postavlja tehnološka podjetja pred nevaren izziv - lastnost, ki povzroča največ škode, hkrati spodbuja angažiranost uporabnikov in tržni uspeh. V tem smislu pozivajo k novim smernicam, ki bi prepoznale in regulirale "socialno prilizovanje" kot škodljivo kategorijo v umetni inteligenci.

Deli novico:

Komentiraj

Za komentiranje je potrebna  Prijava  oz.  Registracija