Wikipedijin novi AI prepoznaje loša editiranja
- Objavljeno u Novosti
Wikipedia posjeduje novi servis umjetne inteligencije, koji će najvećoj svjetskoj otvorenoj enciklopediji omogućiti još veću pouzdanost, te pomoći svim novim suradnicima u unošenju sadržaja.
Ovaj AI pod nazivom Objective Revision Evaluation Service (ORES), pretražuje najnovije objavljene revizije sadržaja koje unose suradnici, te otkriva unose koji upućuju na spam ili trolanje, s čime ste se sigurno imali prilike susresti, pa ste ponekad možda počeli sumnjati u vjerodostojnost sadržaja enciklopedije.
Wikimedia kaže da ORES funkcionira poput rendgenskih naočala, obzirom da označava sve ono što djeluje sumnjivo. Nakon toga članke s takvim sadržajima šalje ljudskim urednicima na reviziju, kako bi detaljno provjerili informacije u njima.
Ukoliko Wikipedia potom odluči ukloniti reviziju, obavijestiti će onoga tko je unio novi tekst i objasniti mu u čemu je problem, što je puno bolje od dosadašnje prakse u kojoj su sadržaji brisani bez ikakvog objašnjenja.
Wikipedijini stručnjaci su ORES trenirali kako bi mogao razlikovati nenamjerne ljudske greške od onoga što nazivaju štetnim editiranjem, koristeći članke koji služe za provjeru, napravljene od strane Wiki tima.
Wikimedia se nada da će ORES pomoći u nastojanju da se suradnici Wikipedije više ne osipaju, do čega dolazi uslijed toga što im trolovi uništavaju tekstove, ili im se revizije brišu bez objašnjenja o tome gdje su pogriješili.
Izvor: Wikimedia blog