TBMM Yapay Zeka Araştırma Kurulu toplantısında sunum yapan ABD merkezli Yapay Zeka ve Dijital Politika Merkezi Başkanı Merve Hickok, “Yapay zeka sistemleri; bayanlara, yaşlılara, engellilere, etnik ve dini azınlıklara karşı daha ön yargılı ve negatif kararlar veriyor. Yapay zeka sistemleri, yüz tanıma sistemleri koyu derili beşerler için hala büyük yanlışlar yapmaya eğilimli ve bu durum anlaşılmadığı için güvenlik kuvvetleri tarafından kullanıldığında insanların haksız yere tutuklanmasına yol açabiliyor. Denetimli ve inançlı olmadan kullanılan yapay zeka sistemleri hasta tedavilerinde önemli teşhis farklarına yol açabiliyor” dedi.
ABD merkezli Yapay Zeka ve Dijital Politika Merkezi Başkanı Merve Hickok, TBMM Yapay Zeka Araştırma Komitesi toplantısında sunum yaptı. Hickok, yapay zeka sistemlerinin insan hayatının her alanına dokunduğunu ve sistemlerin yasal çerçeveye uymaları gerektiğini söyledi. Hickok, “Yapay zekanın vaatlerinden hepimiz yararlanmak istiyoruz; fakat bunun için sistemi yanlışsız anlamamız gerekiyor. Bunun neden kıymetli olduğunu göstermek için son birkaç yıldır öne çıkan manşetleri bir ortaya getirdim. Mesela yapay zeka sistemleri; bayanlara, yaşlılara, engellilere, etnik ve dini azınlıklara karşı daha ön yargılı ve negatif kararlar veriyor. Yapay zeka sistemleri, yüz tanıma sistemleri koyu derili beşerler için hala büyük kusurlar yapmaya eğilimli ve bu durum anlaşılmadığı için güvenlik kuvvetleri tarafından kullanıldığında insanların haksız yere tutuklanmasına yol açabiliyor. Denetimli ve inançlı olmadan kullanılan yapay zeka sistemleri hasta tedavilerinde önemli teşhis farklarına yol açabiliyor. Devletlerin kullandığı birtakım yapay zeka sistemleri insanların hayatlarını altüst edebiliyor. Bunun bir örneği Hollanda’da yaşandı. Hollanda Vergi Kurumu tarafından kullanılan bir algoritma binlerce insanı, tartıyla göçmenleri kazara vergi kaçakçısı olarak işaretledi. Binlerce insan bu nedenle iflas etti, aileleri parçalandı ve bu skandal sonunda Hollanda Hükümetinin de istifasına kadar gitti. Emsal skandalları ABD, Avustralya, İsveç ve Fransa’nın kamu kurumlarında da görüyoruz” diye konuştu.
”YAPAY ZEKA ŞUURUNUN OLMAYACAĞINI DÜŞÜNÜYORUM”
Hickok, üretken yapay zeka sistemlerine bakmak gerektiğini söyleyerek, “Mesela ChatGPT kullanıyorsanız ve bir soru soruyorsunuz, size verdiği karşılık aslında sorunuzu anladığı için değil ya da verdiği karşılığın sorumluluğunu, nüansını, hususun genel manasını anladığı için değil; aslında art planda verdiği yanıt, bir sonraki kelimeyi nasıl varsayım ederim. Cümleyi çok süratli bir halde oluşturuyor; fakat art planda yaptığı, o cümleyi oluşturacak sözlere karar vermek. Örneğin, ‘Bugün hava güzel’ dediğinde, ‘Bugün’ sözünü kullandıktan sonra, ‘Hava’ sözünü, sonra, ‘Güzel’ sözünü tek tek varsayım ederek yapıyor. Sistem verdiği karşılığın manasını, sonuçlarını ya da hususun genel manasını biz beşerler üzere anlayabilecek bir noktada değil. Halihazırdaki en gelişmiş yapay zeka mimarisi; OpenAl, DeepSeek, Claude tüm bunların hepsi emsal teknolojileri kullanıyor ve bir sonraki kelimeyi kestirim ediyorlar. O yüzden şuurları yok; lakin çok süratli bir formda karşılık verdikleri için ve büyük data setlerini kullandıkları için anlıyormuş üzere yanıt veriyorlar. Çok önemli kapasiteye sahipler; lakin ben şahsen yapay zekanın, şu andaki mimariyle, teknik yaklaşımlarıyla şuurunun olmayacağını düşünüyorum” değerlendirmesinde bulundu.
”BU SİSTEMLER YASAKLANSIN”
Bazı yapay zeka sistemlerinin yasaklanması gerektiğini aktaran Hickok, bu sistemlerin; insanların yüz, göz, parmak, yürüyüş biçimi yahut politik, sosyoekonomik, dini ya da kimlikleri ile ilgili kararlar verebildiğini kaydetti. Hickok, “Bunun en bilinen uygulaması Çin’in Uygur vatandaşları üzerinde kullandığı, ‘Biometric categorisation’ sistemleri. Yüz ve hareket datalarına bakarak, ‘Uygur mudur değil midir’, ‘Tehlikeli midir değil midir’, ‘Çin’e karşı mıdır değil midir’, ‘Politik niyeti nedir’ üzere, bu şekil kararlar veren sistemler var. Biz bunun yasaklanması gereken bir sistem olduğunu düşünüyoruz. Emsal halde, ‘Emotion analysis’ dediğimiz; yüz ve fizikî bilgilerinize bakarak sonlu misiniz, agresif misiniz, memnun musunuz, aklınıza gelebilecek rastgele bir duyguyu tahlil etmeye çalışan sistemler var. Her iki sistem, bilimsel bazlı olmayan sistemler. Büsbütün şirketlerin ya da devletlerin berbat niyetle kullanılabileceği, insanları baskı altında tutmak için kullanabileceği sistemler. Mesela biz yıllardır, ‘Bu sistemler yasaklansın’ diyoruz. Avrupa Birliği, bu iki sistemi yasakladı ve önemli formda engelledi. Benzeri halde, Birleşmiş Milletler Eğitim, Bilim ve Kültür Teşkilatı (UNESCO) tavsiyelerine baktığımızda birebir yasaklar öne plana çıkıyor. Şayet 4-5 sene evvel bize, ‘Yasaklar hakkında milletlerarası bir konsensüs olacak mı?’ diye sorsaydınız, ‘Hayır’ derdik; ancak beşerler yapay zeka sistemlerinin negatif tesirlerini, şirketlerin ve birtakım ülkelerin bunları nasıl makus emelli kullanabileceğini görüyor. O yüzden, artık bu yasaklarla ilgili daha fazla ortak anlayış var” diye konuştu.
0 Oylar: 0 Oylar, 0 Oylar (0 Puanlar)