Pred nekaj dnevi je pohodnik iz Črne gore zataval v hrvaškem parku Medvednica. Nič zares tragičnega, a naredil je napako naših dni. Namesto da bi pogledal na zemljevid ali navigacijo, je ChatGPT vprašal, kako naj pride do civilizacije. Nekaj ur kasneje so ga, globoko v gozdu, k sreči našli reševalci.
To je opomin, da tako imenovana umetna inteligenca ni vedno zaupanja vredna.
In to postane razumljivo, če vemo, kako ti modeli pravzaprav delujejo. Analizirajo veliko količino besedil. Ko postavite vprašanje, model sploh ne pomisli, kaj bi bil celoten odgovor. Pogleda, katera bi bila glede na njegovo bazo podatkov statistično najbolj verjetna prva beseda, ki bi jo vseboval odgovor.
Že ena nepričakovana beseda lahko zgodbo zapelje v povsem nepričakovano smer – modeli sicer imajo filtre, ki to popravljajo, a je ne odpravijo povsem.
Sinoči sem ChatGPT vprašal, kdo je napisal Zdravljico? France Prešeren, je pravilno odgovoril, a ob tem dejal, da je bil on največji slovenski pesnik in pisatelj. Pisatelj seveda ni bil.
Noben model ni univerzalen. Modeli so recimo zelo uporabni, če hočemo preoblikovati besedilo. A vedno velja – človek naj vodi orodje, ne orodje človeka.





























Opozorilo: 297. členu Kazenskega zakonika je posameznik kazensko odgovoren za javno spodbujanje sovraštva, nasilja ali nestrpnosti.