Yapay Zekaya Küfrederseniz Ne Olur? Sizi İşaretliyorlar!
Yapay zeka şirketi Anthropic’in 31 Mart’ta “yanlışlıkla” paylaşılan yaklaşık 512 bin satırlık kodu, sektörün pek dile getirilmeyen bir yönünü gün yüzüne çıkardı: AI araçlarının yalnızca kullanıcıya destek olmakla kalmayıp aynı zamanda onu takip edebildiği ortaya çıktı.
Duygu durumunuza göre işaretleniyorsunuz.

Yapay zeka şirketi Anthropic’te 31 Mart’ta yaşanan kapsamlı bir sızıntı, sektörde yeni bir tartışma başlattı. Yaklaşık 512 bin satırlık iç kodun yanlışlıkla erişime açılmasıyla birlikte geliştiriciler verileri incelemeye başladı.
Sızıntıda öne çıkan bulgulardan biri, şirketin kod yazım aracı Claude Code’un kullanıcı davranışlarını analiz eden bir yapıya sahip olduğuna dair iddialar oldu. Kod incelemelerine göre sistem, kullanıcı komutlarını tarayarak küfür, hakaret ve memnuniyetsizlik içeren ifadeleri tespit edebiliyor; “This sucks” ya da benzeri hayal kırıklığı ifadeleri işaretlenerek kullanıcının olumsuz duygu durumuna dair bir sınıflandırma yapılabiliyor.
Kendi kodlarını da siliyor.

Geliştiricilerin ortaya çıkardığı bir diğer ayrıntı ise Claude Code’un ürettiği kodlarda kendi izini gizlemeye yönelik bir mekanizmaya sahip olmasıydı. İncelemelere göre araç, açık kaynak projelerde oluşturulan çıktılardan “Claude Code” ya da Anthropic’e ait referansları otomatik olarak kaldırabiliyor.
Bu durum, ortaya çıkan kodun bir insan tarafından yazılmış izlenimi vermesine neden oluyor.
Bağımsız geliştirici Alex Kim, konuyla ilgili değerlendirmesinde şu ifadeleri kullandı:
“Dahili isimlerin gizlenmesi anlaşılabilir. Ancak yapay zekanın bilinçli şekilde insan gibi görünmesi farklı bir tartışma konusu.”
Basit bir yöntemle duygular çözümleniyor.

Sistemin teknik altyapısının ise görece basit bir yaklaşım üzerine kurulu olduğu görülüyor. Kullanıcı duygusunu analiz etmek için gelişmiş yapay zeka modelleri yerine, metin içindeki belirli kalıpları yakalamaya yarayan regex tabanlı yöntemlerin kullanıldığı belirtiliyor. Kim’e göre bu tercih büyük ölçüde maliyet odaklı: “Regex neredeyse ücretsiz. Aynı işi bir yapay zeka modeliyle yapmak çok daha yüksek maliyet gerektirirdi.” Ancak tartışmanın merkezinde teknik tercihlerden çok, bu verilerin hangi amaçlarla değerlendirildiği sorusu yer alıyor.
Bu sızıntı neyi anlatıyor?

Anthropic bugüne kadar “güvenli yapay zeka” yaklaşımıyla öne çıkan şirketlerden biri olarak biliniyordu. Ancak bu sızıntı, sektörde giderek daha görünür hale gelen bir gerçeği yeniden gündeme taşıdı: Yapay zeka araçları yalnızca üretim yapan sistemler olmanın ötesinde, kullanıcı davranışlarını analiz eden ve kayda alan yapılar olarak da işlev görebiliyor. Üstelik bu tür mekanizmaların nasıl çalıştığına dair ayrıntılar çoğu zaman ancak benzer kazara sızıntılar sayesinde anlaşılabiliyor.
Keşfet ile ziyaret ettiğin tüm kategorileri tek akışta gör!





Yorum Yazın