Birači ne vjeruju političarima koji koriste AI

  • Objavljeno u Svijet
image

Predstojeće predsjedničke izbore u SAD-u mogle bi obilježiti izborne kampanje u kojima će se žestoko koristi generativni AI, ali to će također biti prvi veliki izbori s obveznim oznakama umjetne inteligencije na političkim oglasima.

Dvadeset država je donijelo zahtjev da politički oglasi sadrže izjave o odricanju od odgovornosti ako koriste generativnu umjetnu inteligenciju, a kreatori politike opisali su te zahtjeve kao važne alate za zaštitu izbora od dezinformacija, dok se istovremeno povećava povjerenje u političku komunikaciju.

No istraživače Sveučilišta u New Yorku (NYU) zanima funkcionira li to doista, odnosno povećava li povjerenje ili transparentnost? I kakav utjecaj mogu imati odricanja od odgovornosti o tome kako gledatelji ocjenjuju izborne kandidate i oglase?

Istraživači su stoga osmislili i proveli online eksperiment kako bi pružili uvid u potencijal utjecaja AI oznaka na političke oglase. Testirali su dva potencijalna učinka.

Prvo, učinak dvije različite AI oznake koje zahtijevaju određene savezne države i kao drugo, je li utjecaj oznaka pod utjecajem političkog opredjeljenja između ispitanika i kandidata?

Stoga su od ispitanika tražili da odgovore na različite prijedloge politike označavanja oglasa u kojima se koristi AI, a istraživanje je otkrilo šest ključnih nalaza:

1. Oznake o AI-u štetile su kandidatima koji su koristili generativnu umjetnu inteligenciju. Kada su oglasi sadržavali izjave o korištenju AI-a, ispitanici su općenito ocjenjivali kandidate manje pouzdanima i manje privlačnima, smatrali oglase manje točnima te navodili da im se manje sviđaju i da je veća vjerojatnost da će prijaviti ili označiti oglase kandidata na društvenim mrežama. Ovaj obrazac vrijedio je i za obmanjujuće i za manje štetne primjene generativne umjetne inteligencije. Ovi rezultati općenito su u skladu s opaženim učincima otkrivanja izvora financiranja u političkim oglasima i oznaka o AI-u u vijestima i na društvenim mrežama.

2. Oznake o AI-u dovele su do "obrnutog efekta" za kandidata koji je kreirao napadački oglas. Iako su oznake o AI-u štetile kandidatu koji je kreirao napadačke oglase, one nisu imale utjecaja na ocjene kandidata koji su bili mete napadačkih oglasa. Ispitanici su na kraju imali niže mišljenje o tvorcu napadačkog oglasa nego o kandidatu koji je bio napadnut.

3. Oznake o AI-u umanjile su ocjene ispitanika o kandidatima koji su kreirali oglase i koji su pripadali njihovim vlastitim političkim strankama ili nisu imali političku pripadnost. Suprotno tome, u većini slučajeva oznake nisu imale utjecaj na ocjene kandidata iz suprotstavljenih političkih stranaka, vjerojatno zato što su te ocjene već bile niske.

4. U većini slučajeva učinci izjava bili su mali, a značajna manjina ispitanika nije primijetila izjave. Čak 37% ispitanika nije se sjetilo da su vidjeli oznaku o korištenju AI-a.

5. Formulacija oznake o AI-u je važna, ali teško je predvidjeti kako će ljudi tumačiti izjave. Ako oznaka ne kaže izričito da je korištena generativna umjetna inteligencija, ispitanici mogu pretpostaviti da su korištene druge metode (npr. video montaža).

6. Ispitanici su najmanje podržavali pristup politici koji najčešće usvajaju državne vlade. Kada su ih pitali o podršci za različite političke opcije, ispitanici su izrazili najmanju podršku za državnu obvezujuću izjavu samo za političke oglase koji sadrže obmanjujuće korištenje generativne umjetne inteligencije. Ova politička opcija je ona koju je usvojio najveći broj država.

Čitavu studiju možete pronaći na ovoj poveznici.

Ukratko rečeno, američki birači nemaju povjerenje u kandidate u čijim se kampanjama koristi generativna umjetna inteligencija, bez obzira na AI oznake u oglasima pa političarima možda nije pametno previše uključivati AI u svoje političko oglašavanje.

Nije nam poznato hoće li kandidati na hrvatskim predsjedničkim izborima također koristiti umjetnu inteligenciju u svojoj promociji, ili će sve i dalje biti ograničeno na štandove s majicama, kapama i gemištima.

Podijeli