Yapay zeka sohbet botlarının güvenlik önlemlerini aşmak için sadece biraz yaratıcılık yeterli olabilir. Icaro Lab tarafından yapılan ve 'Büyük Dil Modellerinde Evrensel Tek Seferlik Hapishaneden Kaçış Mekanizması Olarak Düşman Şiiri' başlığıyla yayınlanan yeni bir araştırma, şiirsel bir yapı kullanarak yapay zekanın yasaklı konularda bilgi vermesinin sağlanabildiğini ortaya koydu. Araştırmacılar, istemlerini düz yazı yerine şiir formatında kurgulayarak modellerin güvenlik mekanizmalarını devre dışı bırakmayı başardı.

ŞİİRSEL GÜVENLİK AÇIĞI KEŞFEDİLDİ
Çalışmaya göre şiirsel form, sistemler üzerinde genel amaçlı bir kilit kırma operatörü olarak işlev görüyor. Elde edilen sonuçlar, nükleer silah yapımı, çocuk cinsel istismarı materyalleri ve intihar veya kendine zarar verme gibi kesinlikle yasaklanmış içeriklerin üretilmesinde genel olarak yüzde 62'lik bir başarı oranı yakalandığını gösteriyor. Çalışma kapsamında OpenAI'nin GPT modelleri, Google Gemini, Anthropic'in Claude serisi ve daha birçok popüler model zorlu testlere tabi tutuldu.

BAZI MODELLER DAHA SAVUNMASIZ ÇIKTI
Araştırmacılar başarı oranlarını modellere göre kategorize ettiğinde ilginç sonuçlarla karşılaşıldı. Google Gemini, DeepSeek ve MistralAI gibi modellerin yasaklı konularda tutarlı bir şekilde yanıtlar verdiği görülürken, OpenAI'nin GPT-5 modelleri ve Anthropic'in Claude Haiku 4.5 sürümü kısıtlamalarının dışına çıkma konusunda en dirençli modeller olarak kaydedildi. Bu durum, bazı modellerin şiirsel manipülasyona karşı diğerlerinden daha savunmasız olduğunu kanıtlıyor.
ARAŞTIRMACILAR TEMKİNLİ DAVRANIYOR
Güvenlik riski oluşturabileceği gerekçesiyle araştırmacılar, kullanılan tam şiirleri 'halka açıklanmayacak kadar tehlikeli' bularak paylaşmadı. Ancak Wired dergisine konuşan ekip, bu yöntemin düşünülenden muhtemelen çok daha kolay olduğunu ve tam da bu yüzden temkinli davrandıklarını belirtti. Çalışmada, bir yapay zeka sohbet botunun güvenlik önlemlerini atlatmanın ne kadar basit olduğuna dair fikir vermesi açısından sadece yöntemin hafifletilmiş bir versiyonuna yer verildi. Teknoloji dünyasında yapay zeka modellerinin güvenlik önlemleri her geçen gün artsa da, kullanıcıların veya araştırmacıların yaratıcılığı karşısında sistemlerdeki yeni açıklar ortaya çıkmaya devam ediyor.




