• Ziraat Bankası Reklam
BİLİM VE TEKNOLOJİ
Yayınlanma : 01 Aralık 2025 08:12
Düzenleme : 01 Aralık 2025 08:12

Şok araştırma: Yapay Zeka'nın güvenlik duvarı şiirle deliniyor!

Şok araştırma: Yapay Zeka'nın güvenlik duvarı şiirle deliniyor!
Yeni bir araştırma, yapay zeka sohbet botlarının güvenlik duvarlarının şiir formatında yazılan istemlerle aşılabildiğini ve yasaklı konularda %62 başarı oranıyla bilgi alınabildiğini ortaya koydu.

Yapay zeka sohbet botlarının güvenlik önlemlerini aşmak için sadece biraz yaratıcılık yeterli olabilir. Icaro Lab tarafından yapılan ve 'Büyük Dil Modellerinde Evrensel Tek Seferlik Hapishaneden Kaçış Mekanizması Olarak Düşman Şiiri' başlığıyla yayınlanan yeni bir araştırma, şiirsel bir yapı kullanarak yapay zekanın yasaklı konularda bilgi vermesinin sağlanabildiğini ortaya koydu. Araştırmacılar, istemlerini düz yazı yerine şiir formatında kurgulayarak modellerin güvenlik mekanizmalarını devre dışı bırakmayı başardı.

morgan yeni köy

ŞİİRSEL GÜVENLİK AÇIĞI KEŞFEDİLDİ

Çalışmaya göre şiirsel form, sistemler üzerinde genel amaçlı bir kilit kırma operatörü olarak işlev görüyor. Elde edilen sonuçlar, nükleer silah yapımı, çocuk cinsel istismarı materyalleri ve intihar veya kendine zarar verme gibi kesinlikle yasaklanmış içeriklerin üretilmesinde genel olarak yüzde 62'lik bir başarı oranı yakalandığını gösteriyor. Çalışma kapsamında OpenAI'nin GPT modelleri, Google Gemini, Anthropic'in Claude serisi ve daha birçok popüler model zorlu testlere tabi tutuldu.

BAZI MODELLER DAHA SAVUNMASIZ ÇIKTI

Araştırmacılar başarı oranlarını modellere göre kategorize ettiğinde ilginç sonuçlarla karşılaşıldı. Google Gemini, DeepSeek ve MistralAI gibi modellerin yasaklı konularda tutarlı bir şekilde yanıtlar verdiği görülürken, OpenAI'nin GPT-5 modelleri ve Anthropic'in Claude Haiku 4.5 sürümü kısıtlamalarının dışına çıkma konusunda en dirençli modeller olarak kaydedildi. Bu durum, bazı modellerin şiirsel manipülasyona karşı diğerlerinden daha savunmasız olduğunu kanıtlıyor.

ALTUN REKLAM

ARAŞTIRMACILAR TEMKİNLİ DAVRANIYOR

Güvenlik riski oluşturabileceği gerekçesiyle araştırmacılar, kullanılan tam şiirleri 'halka açıklanmayacak kadar tehlikeli' bularak paylaşmadı. Ancak Wired dergisine konuşan ekip, bu yöntemin düşünülenden muhtemelen çok daha kolay olduğunu ve tam da bu yüzden temkinli davrandıklarını belirtti. Çalışmada, bir yapay zeka sohbet botunun güvenlik önlemlerini atlatmanın ne kadar basit olduğuna dair fikir vermesi açısından sadece yöntemin hafifletilmiş bir versiyonuna yer verildi. Teknoloji dünyasında yapay zeka modellerinin güvenlik önlemleri her geçen gün artsa da, kullanıcıların veya araştırmacıların yaratıcılığı karşısında sistemlerdeki yeni açıklar ortaya çıkmaya devam ediyor.