Znanost in tehnologija

OpenAI modelom ChatGPT: Nehaj govoriti o goblinih

San Francisco, 30. 04. 2026 18.23 pred 43 minutami 3 min branja 1

ChatGPT in goblin

Ameriški raziskovalni laboratorij OpenAI, ki stoji za klepetalnim robotom ChatGPT, je moral nekaterim svojim orodjem umetne inteligence izrecno naročiti, naj prenehajo z uporabo izraza 'goblin'. Ta se je namreč naključno prikradel v odgovore.

Podjetje OpenAI je v objavi na blogu sporočilo, da so v odgovorih klepetalnega robota ChatGPT, ki ga poganja njihov najnovejši paradni model GPT-5 opazili povečano število omemb mitoloških bitij, denimo goblinov in gremlinov.

Razvijalci ChatGPT-ja so odkrili njegovo "čudno naklonjenost do goblinov".
Razvijalci ChatGPT-ja so odkrili njegovo "čudno naklonjenost do goblinov".
FOTO: AP

Ko so uporabniki in zaposleni opozorili na težavo, je OpenAI sprejel ukrepe za 'blažitev', vključno z navodilom orodju za kodiranje Codex, naj ne omenja goblinov, razen če je to resnično relevantno za odgovor.

'Zagata' z mitološkimi bitji je, kot piše BBC, osvetlila izzive, s katerimi se soočajo podjetja, ki se ukvarjajo z razvojem umetne inteligence, med katerimi so tudi takšne napake in jezikovne posebnosti.

Število omemb 'goblinov' se je povečalo za 175 odstotkov

Iz raziskovalnega laboratorija OpenAI so ob tem sporočili, da so povečano omembo goblinov, gremlinov in drugih fantazijskih bitij prvič opazili po lansiranju GPT-5 – 1. novembra lani. "Uporabniki so se pritoževali, da je jezikovni model v pogovorih deloval nenavadno, kar je spodbudilo preiskavo specifičnih verbalnih tikov," je podjetje navedlo v objavi.

Podjetje OpenAI je v objavi na blogu sporočilo, da so v Codex dodali navodilo za omejitev "čudne naklonjenosti modelov do goblinov".

Kot so dodali, je raziskovalec, ki je videl nekaj omemb izraza 'goblin', razvijalce prosil, naj preverijo, kaj se dogaja. Ti pa so nato ugotovili, da se je pojavnost tega izraza v odgovoril ChatGPT-ja od 1. novembra povečala za kar 175 odstotkov. Narasla je tudi uporaba izraza 'gremlin' – za 52 odstotkov.

Kot pravijo pri OpenAI, je lahko "en majhen goblin v odgovoru neškodljiv, celo očarljiv", a je tolikšen porast njihovega pojavljanja v odgovorih upravičil preiskavo.

Rakuni, troli, orki, golobi

Še pred obavo na blogu, v kateri je OpenAI podrobno opisal težavo, pa so na nenavadno podrobnost med vrsticami kode, ki daje navodila programskemu asistentu Codexu, kako naj se obnaša v interakcijah z uporabniki, opazili uporabniki družbenih omrežij.

Poleg tega, da so mu razvijalci 'naročili', naj se izogiba klišejskim izrazom, so zapisali, da "nikoli ne sme govoriti o goblinih, gremlinih, rakunih, trolih, orkih, golobih ali drugih živalih in bitjih, razen če je to absolutno in nedvoumno pomembno za uporabnikovo poizvedbo".

"To je resnično noro," je navodilo komentiral nek uporabnik Reddita. "Zakaj ima GPT 5.5 'prepoved približevanja' rakunom, goblinom in golobom?"

Spet drugi ugibajo, da so pri podjetju to storili namenoma – za ustvarjanje 'pompa' okoli orodij umetne inteligence. Pri OpenAI so to zanikali in v odgovoru uporabniku na družbenem omrežju X zapisali, da "resnično ne gre za nikakršen marketinški trik".

Kot še pojasnjujejo, se je osrednja težava očitno pojavila med učenjem modelov za komunikacijo v slogu določenih tipov osebnosti – v tem primeru z lastnostmi 'piflarja'. Razvijalci so še ugotovili, da je bil ta sistem 'nenamerno' spodbujen k pogostejši omembi goblinov, gremlinov in drugih bitij v metaforah. Testiranje je namreč pokazalo, da je bil 'piflarski' ChatGPT odgovoren za 66,7-odstotka vseh teh omemb. V primeru, da bi bil takšen odziv klepetalnega robota nagrajen ali drugače okrepljen, pa bi se ta 'tik' lahko razširil na širše učenje modelov.

Bo ChatGPT kmalu imel goblinsko osebnost?
Bo ChatGPT kmalu imel goblinsko osebnost?
FOTO: Shutterstock

Razvijalci orodij umetne inteligence in jezikovnih modelov se v zadnjem času v želji večje angažiranosti uporabnikov čedalje bolj nagibaju k ustvarjanju zgovornejših klepetalnih robotov, ki bi delovali kot resnična osebnost.

Strokovnjaki po drugi strani opozarjajo, da bi se lahko s tem okrepil tudi njihov potencial za izmišljevanje oziroma 'haluciniranje'. Nedavna študija Oxfordskega internetnega inštituta je pokazala, da bi lahko bilo takšno uglaševanje modelov (da bi ti imeli bolj toplo in prijazno osebnost) na račun točnosti – sistemi delajo več napak ali zgolj potrjujejo uporabnikova zmotna prepričanja.

Ob tem uporabnike svarijo, naj izjav klepetalnih robotov – sploh ko gre za zdravstvene oziroma medicinske nasvete – čeprav te delujejo zelo stvarne in prepričljive, nikoli ne jemljejo dobesedno.

So pa lahko, tako kot goblinska posebnost Open AI, tudi generativne napake umetne inteligence včasih povsem neškodljive, celo bizarne. Googlov klepetalni robot je bil maja 2024 denimo tarča posmeha, potem ko je uporabnikom dejal, da je v redu jesti kamenje in pico z lepilom.

Bruselj: Meta ne zagotavlja ustrezne zaščite otrok na Instagramu in Facebooku

  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
KOMENTARJI1

Opozorilo: 297. členu Kazenskega zakonika je posameznik kazensko odgovoren za javno spodbujanje sovraštva, nasilja ali nestrpnosti.

Sixten Malmerfelt
30. 04. 2026 19.07
Ta AI je en velik nateg ovc! Kot facebook!
ISSN 15813711 © 2025
24ur.com, Vse pravice pridržane
Verzija: 1692