Hava Durumu
Türkçe
English
Русский
Français
العربية
Deutsch
Español
日本語
中文
Türkçe
English
Русский
Français
العربية
Deutsch
Español
日本語
中文

Yapay zeka, var olmayan verileri gerçekte varmışçasına aktararak "halüsinasyon görüyor"

Yapay zeka destekli sohbet robotları, hatalı veya var olmayan bilgileri "gerçekte varmışçasına" sunarak bir nevi "halüsinasyon görüyor".

Haber Giriş Tarihi: 06.06.2025 11:37
Haber Güncellenme Tarihi: 06.06.2025 11:38
Kaynak: AA
Yapay zeka, var olmayan verileri gerçekte varmışçasına aktararak "halüsinasyon görüyor"

Gerçekte varmış gibi görünen ancak var olmayan algısal yanılsamalar halüsinasyon olarak biliniyor.

ChatGPT, DeepSeek ve Gemini gibi büyük dil modellerinin (LLM), kullanıcılara hatalı, çarpık veya asılsız çıktılar sunması, akıllara "Yapay zeka halüsinasyon görebilir mi?" sorusunu getiriyor.

Öğrenme, sorun çözme ve karar verme gibi insan zekasına özgü bazı işlevleri yerine getirebilen yapay zeka, bilinç yetisine sahip olmasa da bir insan gibi "halüsinasyon görebiliyor."

Daima "tarafsız ve doğru" bilgi aktardığı düşünülen yapay zekanın gerçek dışı ve hatalı verileri "gerçekte varmış gibi" üretmesi, güvenilirliğine ve şeffaflığına ilişkin endişeleri bir kez daha gün yüzüne çıkarıyor.

Yapay zeka destekli sohbet robotlarının, girilen komuttaki bağlama uygun akıcı yanıtlar sunması yapay zekanın "yanılmaz" olduğu algısı yaratsa da bir insan gibi "halüsinasyon görmesi" ciddi sonuçlara sebebiyet verebiliyor.

Uzmanlara göre, yapay zekanın girilen komutlara uygun yanıt üretmeyi hedeflerken yanlış ya da gerçek dışı bilgi aktarması, kullanıcıya her şekilde yarar sağlamayı amaçlamasından kaynaklanıyor.

Rochester Üniversitesi Bilgisayar Bilimleri Bölümünden Profesör Ehsan Hoque "yapay zekada halüsinasyon" kavramına, Washington Üniversitesi Dilbilimi Bölümünden Profesör Emily Bender de yapay zeka destekli sohbet robotlarının güvenilirliğine ilişkin AA muhabirine açıklamalarda bulundu.

Kaynak: AA

Yorum Ekle
Gönderilen yorumların küfür, hakaret ve suç unsuru içermemesi gerektiğini okurlarımıza önemle hatırlatırız!
Yorumlar (0)
logo
En son gelişmelerden anında haberdar olmak için 'İZİN VER' butonuna tıklayınız.