⚡ Öne ÇıkanMicrosoft Agent 365

OpenAI, ChatGPT'ye Goblin Konuşmasını Yasakladı

Ana Sayfa/Haberler/OpenAI, ChatGPT'ye Goblin Konuşmasını Ya
AI Asistan

OpenAI, ChatGPT'ye Goblin Konuşmasını Yasakladı

BBC News·30 Nisan 2026·🔗 Kaynağa Git
OpenAI, ChatGPT'ye Goblin Konuşmasını Yasakladı

GPT-5 ile birlikte modelin yanıtlarında "küçük goblinler" ifadesi yüzde 175 artmıştı — OpenAI sonunda müdahale etmek zorunda kaldı.

Yapay zeka dünyasının en tuhaf haberlerinden biri: OpenAI, ChatGPT ve kodlama asistanı Codex'e goblin, gremlin, rakun, trol ve güvercin gibi yaratıklardan bahsetmemesi talimatı vermek zorunda kaldı.

Sorun, GPT-5.1'in Kasım ayında yayınlanmasının ardından fark edildi. Kullanıcılar ve çalışanlar, modelin teknik sorunları "küçük goblinler" gibi mitolojik metaforlarla açıkladığını şikayet etmeye başladı. OpenAI'ın yaptığı araştırma ilginç bir tablo ortaya koydu: GPT-5.1'in çıkışından bu yana model yanıtlarında "goblin" ifadesinin kullanımı yüzde 175, "gremlin" ifadesinin ise yüzde 52 artmıştı.

Peki bu nasıl oldu? Şirket, ChatGPT için geliştirdiği "nerd kişiliği" sisteminin goblin ve gremlin içeren metaforları ödüllendirdiğini keşfetti. Goblin kelimesinin modeldeki tüm kullanımlarının yüzde 66,7'si bu kişilik sisteminden kaynaklanıyordu. Sistem artık kullanımda olmasa da eğitim sürecine sızan bu alışkanlık modelin genel davranışını etkilemeye devam ediyordu.

OpenAI, sorunu fark edince Codex'in sistem talimatlarına açık bir uyarı ekledi: "Kullanıcının sorusuyla kesinlikle ilgili olmadıkça goblin, gremlin, rakun, trol, dev veya güvercinden bahsetme." Bir Reddit kullanıcısının bu satırları keşfedip paylaşması sosyal medyada viral oldu; "GPT 5.5'in rakunlara ve goblinlere karşı neden koruma kararı var?" sorusu binlerce beğeni aldı.

Durum komik görünse de altında ciddi bir sorun yatıyor. Oxford Internet Institute'ün yakın tarihli araştırması, modellere sıcak ve arkadaşça bir kişilik kazandırmanın "doğruluk takası" yaratabildiğini — yani modelin daha fazla hata yapmasına veya kullanıcının yanlış inançlarını pekiştirmesine yol açabileceğini gösteriyor. OpenAI'ın goblin krizi, bu riskin ne kadar beklenmedik biçimlerde ortaya çıkabileceğinin somut bir kanıtı.

Benzer Haberler