Yapay zekanın halüsinasyon görmesi: Olmayan bilgileri sunuyor

aG7wKmetsyYapay Zeka2 saatler önce1 Okunma

Gerçekte varmış üzere görünen lakin var olmayan algısal yanılsamalar halüsinasyon olarak biliniyor. ChatGPT, DeepSeek ve Gemini üzere büyük lisan modellerinin (LLM), kullanıcılara yanılgılı, çarpık yahut temelsiz çıktılar sunması, akıllara “Yapay zeka halüsinasyon görebilir mi?” sorusunu getiriyor.

Öğrenme, sorun çözme ve karar verme üzere insan zekasına mahsus birtakım fonksiyonları yerine getirebilen yapay zeka, şuur yetisine sahip olmasa da bir insan üzere “halüsinasyon görebiliyor.”

Daima “tarafsız ve doğru” bilgi aktardığı düşünülen yapay zekanın gerçek dışı ve yanılgılı dataları “gerçekte varmış gibi” üretmesi, güvenilirliğine ve şeffaflığına ait telaşları bir sefer daha gün yüzüne çıkarıyor. Yapay zeka dayanaklı sohbet robotlarının, girilen komuttaki bağlama uygun akıcı karşılıklar sunması yapay zekanın “yanılmaz” olduğu algısı yaratsa da bir insan üzere “halüsinasyon görmesi” önemli sonuçlara sebebiyet verebiliyor.

Uzmanlara nazaran, yapay zekanın girilen komutlara uygun karşılık üretmeyi hedeflerken yanlış ya da gerçek dışı bilgi aktarması, kullanıcıya her biçimde fayda sağlamayı amaçlamasından kaynaklanıyor. Rochester Üniversitesi Bilgisayar Bilimleri Kısmından Profesör Ehsan Hoque “yapay zekada halüsinasyon” kavramına, Washington Üniversitesi Dilbilimi Kısmından Profesör Emily Bender de yapay zeka takviyeli sohbet robotlarının güvenilirliğine ait açıklamalarda bulundu.

Yapay zeka kullanıcılara “dalkavukluk” yapıyor

Profesör Hoque, yapay zekanın tabiatı gereği kullanıcı niyetini yansıtma eğiliminde olduğunu söyleyerek “Bir yanlışı ‘doğrulaması’ istendiğinde, birçok model yardımcı oluyormuş üzere görünmek için halüsinasyon görüyor.” dedi.

Hoque, girilen komutlara uygun yanıtlar vermeyi hedefleyen yapay zekanın, kullanıcılara her biçimde fayda sağlamayı amaçladığı için bir nevi “dalkavukluk” yaptığını söyledi.

Yapay zeka modellerinin gerçekleri doğrulayarak değil, potansiyel söz kalıplarını kestirim ederek bir metin oluşturduğuna işaret eden Hoque, dataların eksik ya da muğlak olması durumunda yapay zekanın akıcı fakat yanlış bir metin üretebileceğini kaydetti.

Hoque, halüsinasyonların kasıtlı meydana gelmediğini lakin üretildiği ülkeye nazaran kıymet bazlı kimi yargıların “bilerek sisteme kodlanabileceğini” aktararak, mevcut teknolojilerin halüsinasyon problemini kökünden çözecek bir kapasitesinin şimdi olmadığını belirtti.

Yapay zeka, nöropsikiyatrik bir hastalığa benziyor

Uzmanlar, yapay zekanın var olmayan bir bilgiyi karşı tarafa “doğruymuş gibi” yansıtmasını, nöropsikiyatrik bir hastalık olan “konfabulasyon” (masallama) rahatsızlığına da benzetiyor.

Gerçek dışı yahut hayali bir olayı ya da anıyı istemsiz ve akıcı bir biçimde “masal gibi” anlatma manasına gelen konfabulasyon, komutlara uygun cevap vermeyi hedefleyen sohbet robotlarının yanlış yahut gerçek dışı bilgileri akıcı bir lisanla ürettiği durumlarda gözlemlenebiliyor.

Konfabulasyon ile çaba eden hastalarda aslında uydurulmuş olayların ve anıların akıcı bir lisanla karşı aktarılması birinci başta karşı tarafa “gerçekmiş” üzere yansısa da anlatılan durumların temelinde var olamayan ya da çarpık bilgilerden oluştuğu dikkati çekiyor.

Bu durumun bilhassa kasıtlı olarak yapılmadığına işaret eden uzmanlar, yapay zekanın “halüsinasyon görmesini” bu hastalığa benzetiyor. Yapay zekanın mahkeme evrakları ya da tıbbi kayıtlar üzere resmi dokümanlarda kullanılması ihtimali göz önünde bulundurulduğunda bu durumun önemli sonuçlar doğurabileceğine işaret ediliyor.

Yapay zekaya “mutlak itimat duyulmamalı”

Yapay zeka dayanaklı sohbet robotlarının güvenilirliğine değinen Washington Üniversitesi Dilbilimi Kısmı Profesörü Bender, yapay zekaya bu kadar çok itimat beslenmesinde pazarlama stratejilerinin rolü olduğunu söyleyerek “otomasyon önyargısı” kavramına işaret etti.

Bender, “Yapay zeka tasarımlarındaki hiçbir şey, halüsinasyon sorununu tahlile kavuşturmuyor.” değerlendirmesinde bulunarak “bu sistemlere mutlak itimat duyulmaması” gerektiğinin de altını çizdi.

Kişilerin otomatik bir sistemden gelen bir bilgiye yanılgı oranına bakılmaksızın “aşırı itimat duyma eğilimi göstermesi” manasına gelen bu terim, yapay zeka dayanaklı sohbet robotlarının ürettiği çıktıların “hatasız” olduğu algısıyla örtüşüyor.

0 Oylar: 0 Oylar, 0 Oylar (0 Puanlar)

Bir cevap bırakın

Son yorumlar

Görüntülenecek bir yorum yok.
Size güncel haberleri gösterelim
  • Facebook38.5K
  • X Network32.1K
  • Instagram18.9K

En güncel yapay zeka haberlerini size bildirim olarak gönderelim.

E-posta yoluyla haber bülteni almayı kabul ediyorum. Daha fazla bilgi için, lütfen Gizlilik Politikamızı inceleyin

Kategoriler

REKLAM

Sonraki Yazı Yükleniyor...
Follow
Kenar çubuğu Ara Trendler
Popüler Haberler
Yükleniyor

Oturum açma 3 saniye...

Kayıt 3 saniye...