Uzmanlar Dava Edilmemek İçin Yapay Zekaya Yanlış Bildiklerini Unutturmaya Çalışıyor
Uzmanlar Dava Edilmemek İçin Yapay Zekaya Yanlış Bildiklerini Unutturmaya Çalışıyor
İçeriğin Devamı Aşağıda
Reklam
Avustralyalı politikacı Brian Hood, ChatGPT'nin geçmişi hakkında yanıltıcı bilgiler içerdiğini fark ettiğinde bu durum yapay zekanın hataları düzeltme kapasitesine yönelik endişeleri artırdı.
İçeriğin Devamı Aşağıda
Reklam
Brian Hood, ChatGPT'nin yaratıcısı OpenAI'ı hakaret davası açmakla tehdit etti fakat bu durum sorunun çözümü için yeterli bir yol gibi görünmüyordu.
Yapay zekanın parametrelerini sıfırlamak da pratik bir çözüm değildi çünkü bu süreç hem uzun zaman alıyor hem de maliyetliydi.
Bu sorun "öğrenmeyi unutma" kavramının özellikle Avrupa'nın veri koruma mevzuatı bağlamında önem kazanmasına yol açtı.
Yazar Lisa Given veri tabanlarından verileri silme imkanının önemini vurguladı ancak yapay zekanın çalışma prensiplerine dair mevcut bilgi eksikliği, bu alanda daha fazla çaba gösterilmesi gerektiğini gösteriyordu.
İçeriğin Devamı Aşağıda
Reklam
Yapay zeka eğitiminde kullanılan devasa veri miktarı içinde mühendisler yanlış bilgilerin yayılmasını engellemek için spesifik çözümler arıyordu.
Amerikan şirketinden uzmanlar ChatGPT ve Bard gibi önemli dil modellerinde verileri silmeye yönelik bir algoritma yayımladı.
Kullanılan yöntem, yapay zekaya elde edilen bilgilerin bir kısmını göz ardı etmesini sağlayan, veri tabanını değiştirmeyen bir algoritma eklemeye dayanıyordu.
Birleşik Krallık'taki Warwick Üniversitesi'nden Meghdad Kurmanji, bu sürecin veri gizliliği yasaları kapsamındaki talepleri yönetmek için arama motorlarına büyük yardımı olabileceğini belirtti.
Yorumlar ve Emojiler Aşağıda
Reklam
Yorum Yazın