Obuka LLM-a za samodetoksikaciju jezika

Kako se pokazalo, veliki jezični modeli ( LLM-ovi ), koji su obučeni na opsežnim, javnim skupovima podataka, često imaju pristranosti i otrovan jezik jer su se naučili od nas ljudi, a svi znamo da na internetu nema previše ustezanja od prljavog jezika i vulgarnosti pa se i AI modeli ponekad ponašaju na isti način u obraćanju nama.
Nova metoda MIT-a , MIT-IBM Watson AI Laba i IBM Researcha , nazvana samodisciplinirano autoregresivno uzorkovanje ( SASA ), omogućuje LLM-ima da "...
- Objavljeno u Znanost










