Transkripcijski alat halucinira u medicini
- Objavljeno u Svijet
OpenAI je prije dvije godine objavio AI alat pod nazivom Whisper, koji može transkribirati govor u tekst. Novo izvješće koje prenosi AP, tvrdi da je AI alat sklon halucinacijama i dodaje imaginarni tekst u transkripcijama, što je je vrlo zabrinjavajuće jer se alat koristi medicini u konzultacijama liječnika i pacijenta, gdje halucinacije mogu dodati potencijalno štetne informacije i dovesti u opasnost život pacijenta.
Citirajući intervjue s više softverskih inženjera, programera i akademskih istraživača, AP tvrdi da imaginarni tekst uključuje rasne opise, nasilje i medicinske tretmane i lijekove.
Razmjeri problema također su zabrinjavajući. Citirajući istraživača, publikacija tvrdi kako je otkriveno da osam od svakih 10 audio transkripcija sadrži izmišljeni tekst, a halucinacija se dogodila u "svakom od 26.000 transkripata stvorenih s Whisperom".
U svakom slučaju izgleda da transkriptima stvorenim umjetnom inteligencijom nikako ne bismo smjeli slijepo vjerovati, a posebice trebamo biti oprezni ako nismo stručnjaci za područje sadržaja koji se transkribira.