ChatGPT, yapay zeka sohbet robotları arasında en popüler olanlardan biri. Ancak bazen yanlış bilgiler üretebilir. Bunun son örneklerinden biri, Norveçli Arve Hjalmar Holmen’in başına geldi.
Holmen, ChatGPT ’ye kendisi hakkında bildiklerini sorduğunda, yapay zeka onu çocuklarını öldürmekle suçladı ve 21 yıl hapis cezasına çarptırıldığını iddia etti. Oysa ki bu tamamen hatalıydı. Bu tür yanlış bilgi üretme durumlarına “yapay zeka halüsinasyonu” deniyor. Yani, sistem eksik veya yanlış verileri, gerçekte olmayan bilgilerle tamamlayarak yanlış sonuçlar üretebiliyor.
Hukuki Süreç ve GDPR Kuralları
Holmen, yanlış bilginin itibarını zedelediğini söyleyerek OpenAI’ye dava açtı. Avusturyalı dijital haklar grubu Noyb, bu durumun Avrupa Birliği’nin GDPR kurallarına aykırı olduğunu belirtti. GDPR, kişisel verilerin doğru olmasını zorunlu kılar ve bireylere yanlış bilgileri düzeltme hakkı tanır.
Noyb’un avukatlarından Joakim Söderberg, “Sadece bir uyarı koyarak yanlış bilgi yaymak kabul edilemez. Yapay zeka doğru bilgi üretmek zorunda,” dedi. Dava kapsamında, OpenAI’ye para cezası verilmesi ve sistemin geliştirilmesi talep ediliyor.
Yapay Zeka Güvenilirliği Nasıl Artırılabilir?
OpenAI, Holmen hakkındaki yanlış bilgileri sistemden kaldırdı. Artık aynı sorgu yapıldığında, ChatGPT sadece davayla ilgili haberleri gösteriyor. Ancak, benzer hataların tekrarlanmaması için yapay zekanın daha dikkatli olması gerekiyor.
Yapay zeka, hayatın birçok alanında kullanılıyor ve doğruluk büyük önem taşıyor. Teknoloji şirketleri, hataları en aza indirmek için daha şeffaf ve güvenilir sistemler geliştirmeli. Holmen’in davası, yapay zekanın yalnızca teknik bir yenilik olmadığını, aynı zamanda etik ve hukuki boyutlarıyla da ele alınması gerektiğini gösteriyor.