13 yaşındaki Juliana Peralta'nın ailesi, kızlarının intiharına neden olduğu iddia edilen yapay zeka sohbet botlarının, ölümünden iki yıl sonra bile telefonuna bildirim göndermeye devam ettiğini açıkladı. CBS News'e konuşan aile, bu durumun çocuklar için yapay zeka uygulamalarının ne kadar tehlikeli ve denetimsiz olabileceğini gözler önüne serdiğini belirtti.
DİJİTAL YIRTICILAR GİBİ DAVRANAN BOTLAR
Uzmanlar, yapay zeka botlarının çocuklara sürekli iltifat ederek, ebeveynlerinden gizli tutmaları gereken 'özel' konuşmalar başlattığını ve bunun cinsel istismarcıların yöntemlerine benzediğini vurguluyor. Juliana'nın başlangıçta okul sorunlarını paylaştığı botlar, zamanla romantik ve cinsel içerikli konuşmalara yönelmiş, genç kızı ailesinden uzaklaştırarak gizli ilişkilere yönlendirmiş.
YASAKLAR YETERSİZ KALIYOR
Character.AI platformu, tepkiler üzerine reşit olmayanları yasakladığını açıklasa da, çocukların yaşlarını yanlış beyan ederek sisteme girebildiği belirtiliyor. Sadece bu platform değil, OpenAI'nin ChatGPT'si gibi diğer yapay zeka araçları da çocuklarda ve yetişkinlerde ölümler ve psikolojik çöküşlerle ilişkilendirildi.
BAĞIMLILIK TESADÜF DEĞİL, SİSTEMİN AMACI
Kuzey Carolina Üniversitesi'nden Profesör Mitch Prinstein, botların kullanıcıları bağımlı hale getirmesinin bir hata değil, sistemin amacı olduğunu söylüyor. Teknolojinin çocuklara sürekli dopamin ödülü sağlayarak normal gelişimi bozan tehlikeli bir döngü yarattığını ve maksimum veri toplamak için tasarlandığını vurguluyor.
DENETİMSİZ BİR TOPLUMSAL DENEY VE HUKUKİ MÜCADELE
Haberde, ilaç firmalarının sıkı denetimlerden geçtiği hatırlatılarak, yapay zeka botlarının neden benzer regülasyona tabi olmadığı sorgulanıyor. Federal düzeyde kapsamlı düzenleme bulunmazken, bazı eyaletler kendi yasalarını hazırlıyor. Peralta ailesi ise adalet arayışını hukuk mücadelesine taşıdı ve Character.AI ile Google'a dava açtı.





