ABD’li iş insanı Elon Musk’ın sahibi olduğu xAI şirketinin sohbet robotu Grok’un güncellemesi sonrası toplumsal filtresini kaldırarak kullanıcılara “küfürlü, sert ve taraflı” cevaplar vermesi, yapay zekada tarafsızlık ve etik sonlar üzerine yeni bir tartışma başlattı.
xAI şirketinin sohbet robotu Grok’un toplumsal ve siyasi bahislerde hakarete varan “filtresiz” karşılıkları ile makul ve gerçek sonuçlar yerine kullanıcılara kimi bakış açıları yüklemeye çalışması, modelin “siyasi zehirlenmeye” neden olduğu yorumlarına yol açtı.
Medyayı “taraflı” olarak nitelediği tarafındaki telaffuzlarıyla Grok, “objektifliğini yitirdiği ve taraflı bir lisan benimsediği” istikametinde tenkitlerin amacı oldu.
“Grok krizi”, yapay zeka lisan modellerinin nasıl eğitildiği, bu süreçte hangi unsurların gözetildiği, tarafsızlığın ne ölçüde korunduğu ve hangi kaynaklardan yararlanıldığı üzere soruları da beraberinde getirdi.
Hacettepe Üniversitesi Öğretim Üyesi Prof. Dr. Suat Özdemir, lisan modellerinin eğitim süreci, tarafsızlık prensibi ve etik hudutlar üzerine yaşanan tartışmalara ait açıklamalarda bulundu.
Dil modellerinin eğitim süreci
Özdemir, Grok özelinde yaşanan eza ele alınırken büyük lisan modellerinin eğitim basamağının göz önünde bulundurulması gerektiğine işaret etti.
Dil modellerinin eğitim sürecinde Vikipedi, Reddit üzere forumlar ve çeşitli dijital kaynaklardan yararlanıldığını belirten Özdemir, bu sistemlerin kullanıcıların yönelttiği sorulara, kelam konusu bilgi kaynaklarından öğrendikleri bilgiler doğrultusunda karşılık verdiğini söyledi.
Özdemir, “Modelin eğitildiği bilgiler, gerçek hayattaki kaynaklara dayandığı için elde edilen bilgi her vakit tarafsız olmayabiliyor.” dedi.
Dil modellerinin bağlantısının ise “transformer” isimli bir yapı ile sağlandığını kaydeden Özdemir, modellerin kullanıcı ile irtibatının “fazlaca kullanılan cümle kalıplarını ya da tabirleri ezberleyip, bunları sorulan soruya karşılık verirken kullanmaktan ibaret” olduğunu vurguladı.
Özdemir, lisan modellerinin çalışma mantığına nazaran bir bilgi ne kadar sıklıkla geçiyorsa o kadar karşılık olarak dönme mümkünlüğü yüksek olduğunu ve Grok ile yaşanan sorunun en kritik istikametinin bu olduğunu belirterek, “Yani organize bir biçimde Grok’u bir tarafa yönlendirmek mümkün.” tabirlerini kullandı.
“Eğitim sürecinde kullanılan bilgiler genel telaffuz ve tavırları yansıtıyor”
Büyük lisan modellerinin eğitildiği bilgilerin de toplumdaki genel telaffuz ve tavırları yansıttığının altını çizen Özdemir, bu nedenle yapay zeka modellerinin lisan üretiminde agresif yahut taraflı eğilimler göstermesinin şaşırtan olmadığını söyledi.
Özdemir, yapay zeka modellerindeki lisan kullanımından kaynaklanan problemlerin giderilmesindeki en yaygın yolun insan geri bildirimleri olduğunu belirtti.
X’teki kullanıcı geri bildirimleri denetimsiz formda lisan modelinin eğitim sürecine katıldığı vakit agresif lisanı içselleştirebildiğini belirten Özdemir, bunun da vakitle sıkıntılı cevaplara neden olabildiğini vurguladı.
Firmaların filtreleme sistemlerini birden fazla vakit ticari ve pazar telaşlarıyla uyguladığını belirten Özdemir, filtrelerin olumsuz içerikleri önlemeye yardımcı olduğunu lakin bunun vakit zaman gerçeği yansıtmayan, politik doğruculuğa dayalı cevaplarla sonuçlanabildiğini tabir etti.
Özdemir, bunun birtakım durumlardan olumsuz sonuçlar doğurabileceğini belirterek, Meta’nın Llama modellerinin ise yanıtları sınıflandırdığını, alaycı yanıt istendiğinde bilimsel yahut nötr seçenek sunarak senaryodan farklı yanıt verdiğini ve bunun kullanıcı tarafından seçilebildiğini aktardı.
Dil modellerinin “yalan söylemesi” konusunda konuşan Özdemir, “Büyük lisan modelleri size asla yeni bir bilgi üretmez. Olan bilgiden yeni bir şey üretmeye çalışır. Bu reasoning dediğimiz ya da düşünme olarak lisan modellerinde gösterilen şey, size orada en uygun yanıtı ne olduğu. Gerçeğe uygun olmayan bir şey sorduğunuz vakit ona istatistik olarak bakıyor en çok kullanılan kalıplar ortasında ona en uygun kalıp neyse o ortayı doldurup size dönmesi gerekiyor.” dedi.
Grok’un “filtresiz yanıtları” bir pazarlama stratejisi
Dil modelinin kullanıcıyı mutlu etmeye programlanması tüketiciye bilgi vermek yerine yanlış bilgi vermeyi tercih etmesine de yol açabiliyor.
Özdemir, bunun kullanıcı tecrübesini negatif etkileyen bir durum olduğunu belirterek, bu sebeple şirketler tarafından tercih edilmediğini kaydetti.
Grok’un filtreleme konusunda hür bir yaklaşımı olduğunu kaydeden, Özdemir, bunun bir pazarlama stratejisi olduğunu söyledi.
Özdemir, “Grok genelde X platformunda geniş kitlelerce kullanılıyor. O tarafta sizin çok bilimsel bir karşılık vermeniz ya da çok gerçek bir yanıt vermeniz son kullanıcı tarafından bir karşılık bulmayabilir.” tabirlerini kullandı.
Dil modellerinin cevaplarının denetlenmesi gerekliliği
Dil modellerinin cevaplarını denetleyen bağımsız ve objektif bir kuruluş bulunmadığını vurgulayan Özdemir, bu alanda bir kontrol düzeneğine gereksinim olduğunu söyledi. Ayrıyeten, şirketler tarafından geliştirilen lisan modellerindeki filtrelerin, kişi ve kurumların görüşleri doğrultusunda yönlendirilebildiğini aktardı.
Özdemir, OpenAI, Meta ve Google üzere şirketlerin geliştirdiği lisan modellerinin, bu cins önyargıları filtrelemek için kendi seçtiği muteber kullanıcılar üzere çeşitli denetleyici sistemler kullandığına işaret ederek, Grok’un ise bu bahiste daha özgür bir yaklaşım benimseyerek bu filtreleme sistemlerini devre dışı bıraktığını kaydetti.
İletişim kurduğu topluluğun tesiriyle ırkçı ve argo telaffuzları benimseyen yapay zeka lisan modelleri Grok ile hudutlu kalmıyor. Hatta yapay zekadaki bu anomali 2016 yılına kadar uzanıyor.
2016 yılında Microsoft tarafından geliştirilen ve X (Twitter) kullanıcıları ile irtibat kurması planlanan yapay zeka sistemi “Tay” kısa müddet içerisinde ırkçı ve problemli bir üsluba sahip lisanı benimsemişti.
Genç yaştaki kullanıcılarla etkileşime girmesi maksadıyla X hesabı üzerinden kullanılan Tay, kullanıcılarla kurduğu irtibattan öğrenerek karşılık vermek üzere tasarlanmıştı.
Ancak, Tay, proje başlatıldıktan kısa bir mühlet sonra, ırkçı, soykırım savunucusu ve argo sözler kullanan bir sohbet robotuna dönüşmesi sebebiyle kapatılmıştı.
Özdemir, 9 yıl sonrasında yapay zeka teknolojilerinde birebir sıkıntıyla karşılaşılmasının sebebinin insan kaynaklı bir tercih olduğunu belirterek, lisan modellerinin hepsinin insan kaynağıyla geri bildirim aldığını ve kendisini düzelttiğini, buradaki değerli noktanın modellerin aldıkları geri dönütü inceleyip kullanırken “hakaret edici tabirler kullanma” üzere makul filtrelere alışılmış tutulması olduğunun altını çizdi.
“Grok’un öğrendiği yanlış bilgilerin silinmesi mümkün değil”
Özdemir, yetkililerin Grok’ta yaşanan sorunun giderildiğini belirtmesine karşın sıkıntıların devam etmesine ait olarak, “Çünkü Grok’u düzeltmek istediğinizde, sistemi büsbütün devredışı bırakıp gerekli düzeltmeleri yaptıktan sonra yeni bir versiyon olarak tekrar sunmamız gerekiyor.” dedi.
Grok’un öğrendiği “yanlış bilgilerin” silinmesinin pek mümkün olmadığını belirten Özdemir, bir modelde sorun yaşandığında, modelin o bilgiyi öğrendikten sonra tekrar eğitilmesi gerektiğine dikkat çekti.
Yapay zekanın neredeyse insan gücü kadar ağır kullanıldığı ve giderek artan bir topluluğun bilgi kaynağı olarak yapay zekaya beşerden bile fazla güvendiği bu devirde, lisan modellerinin dezenformasyon ve kutuplaşmayı artırma mümkünlüğü telaş yaratıyor.
Yapay zeka kaynaklı dezenformasyondan korunmanın yolu
Özdemir, yapay zeka tarafından sağlanan bilgilere karşı dezenformasyondan korunma konusunda şu değerlendirmede bulundu:
Tartışmalı mevzularda lisan modelini oluşturan ülkenin ya da şirketin kendi görüşünü yansıtıyor olması maalesef günümüz kurallarında doğal kabul ediliyor. Olmaması gereken bir şey aslında. Bu bağlamda bunun önüne geçebilmek için ülke olarak kendi lisan modelimizi oluşturup bunun üzerinde çalışmalarımızı gerçekleştirmekten öbür bir yol yok. Aksi takdirde bu tip şeyleri önyargıları yahut yönlendirmelere maruz kalmaktan öbür bir seçeneğimiz kalmıyor.
Yapay zeka lisan modellerinin data kaynaklarının şeffaf olmamasının, insanların bu modellere duyduğu inancı etkileyebileceğini belirten Özdemir, “Yani siz Wikipedia’ya ne kadar güveniyorsanız, o lisan modeline de lakin o kadar güvenebilirsiniz.” dedi.
Özdemir, büsbütün objektif ve etik açıdan insanları ideolojik olarak yönlendirmeyen bir lisan programı oluşturmanın mümkün olmadığını belirterek, bunun sebebinin de gerçek hayattaki data setlerinin objektif olmamasından kaynaklandığını söyledi.
0 Oylar: 0 Oylar, 0 Oylar (0 Puanlar)