Yapay zekayla oluşturulan geçersiz görseller ve sesler “yeni kuşak silah”

aG7wKmetsyYapay ZekaŞimdi2 Okunma

Yapay zeka tehdit tespit platformu Sensity AI şirketinin araştırmalarına nazaran, Rusya-Ukrayna Savaşı’nda Ukraynalı siyasetçiler ve askerler, deepfake görüntülerle “teslim olmaya çağıran” ya da “savaş kabahati işlediğini itiraf eden” şahıslar üzere gösteriliyor.

Tayvan’da seçim devirlerinde, siyasetçilerin düzmece konuşmaları, uydurma skandalları ve gafa benzeyen sahneleri üzere Çin kaynaklı yapay zeka içerikleri toplumsal medyada yayılarak aykırı görüşlü adaylar maksat alınıyor.

Japonya’da ise yapay zekayla üretilmiş düzmece doğal afet imajları, nükleer kaza yahut sel felaketi üzere kurgular halkta panik yaratmak için kullanılıyor.

Bu tıp olaylar, yapay zeka araçlarının bilinçsizce ve denetimsizce “yeni jenerasyon silahlar” olarak kullanılması durumunda doğurabileceği tehlikeleri bir sefer daha gündeme getiriyor.

“Yapay zeka eserlerini tanımak imkansız hale geldi”

Sensity AI’nin kurucu ortağı Francesco Cavalli, yapay zekayla oluşturulan görseller, görüntüler ve seslerin tesir ve tehlikelerine ait değerlendirmelerde bulundu.

Cavalli, yapay zeka araçları geliştikçe neyin gerçek neyin olmadığını anlamanın daha zorlaştığını söyledi.

Yapay zekayla üretilen içerikleri anlamak için yüzde tutarsız ışıklandırma, çok pürüzsüz cilt dokusu, görüntülerde yapay göz kırpma ya da ağız hareketlerine bakılması tavsiye ediliyor.

Cavalli, “Yapay zeka içerikleri, bilhassa düşük çözünürlüklü yahut sıkıştırılmış formatlarda insan gözüyle tespitten kaçabiliyor. Yapay zekayla oluşturulmuş sesler insan için artık tanınması imkansız hale geldi.” dedi.

Yapay zekayla manipülasyon

Halihazırda yapay zekayla taklit edilen seslerin bu alandaki en yüksek riski oluşturduğu belirtiliyor.

Yapay zeka kullanarak Dışişleri Bakanı Marco Rubio’yu taklit eden bir dolandırıcı, ABD’li politikler tarafından sıkça kullanılan “Signal” isimli iletileşme uygulamasında Rubio ismine düzmece bir hesap oluşturarak üç farklı ülkenin dışişleri bakanları, bir Kongre üyesi ve bir vali ile temas kurdu.

Seslerin kullanımın kolay ve tespitinin de gecikmeli olduğunu lisana getiren Cavalli, taklit seslerin telefonda konuşulan kişinin güvenilen biri olduğuna inandırmak için kullanıldığını tabir etti.

Midjourney ve Runway üzere araçlar geliştikçe gerçekle yapayı dengeli biçimde ayırt etmekte zorlaşıyor.

Cavalli bahse ait, “Üretici araçlar geliştikçe, eğitimli gözler bile kolaylıkla kandırılabiliyor.” diye konuştu.

“Seçim müdahalesinde kullanılan yapay zeka üretimi medya, dolandırıcılık platformlarını tanıtan düzmece basın toplantıları yapan siyasetçiler ve kamuoyunu manipüle etmek için paylaşılan yapay zeka üretimi savaş imgelerini belgeledik.” diyen Cavalli, bu görsellerin ekseriyetle uydurma haber siteleri, toplumsal medyadaki reklamlarla yayıldığını anlattı.

Cavalli, Çin, Japonya, Tayvan’da yapay zeka kullanımına ait şirketinin incelediği hadiselere atıfta bulunarak, “Tüm bu örneklerde, yapay zeka takviyeli propaganda yalnızca deneysel bir tehdit değil, algıyı manipüle etmek, toplumları istikrarsızlaştırmak ve yumuşak güç uygulamak için çeşitli çatışmalarda faal olarak kullanılan global bir silahtır.” değerlendirmesinde bulundu.

Teknoloji şirketleri ve platformlara yapay zeka tabanlı görsel dezenformasyonla çaba konusunda harekete geçmeleri tarafında davetler yapılıyor.

Platformların ise bu bahse odaklandığı lakin birçoklarının “yapay medyayı geniş ölçekte tespit edebilecek sağlam isimli inceleme sistemlerine sahip olmadığı” söz ediliyor.

Cavalli, “Bazıları dolandırıcılık kampanyalarından şuurlu formda kar ediyor. Lakin dış baskı olunca müdahale ediyor. Tespit teknolojisi sağlayıcılar, platformlar ve düzenleyiciler ortasında daha güçlü işbirliği kaide.” dedi.

Yapay zekayla üretilen içeriklerin “etiketlenmesinin” gerçek yol olmadığını düşündüğünü aktaran Cavalli, şunları söyledi:

Yapay zekayla oluşturulmuş içerik bizatihi ziyanlı değil, kullanım formu ve yeri değerli. Örneğin, toplumsal medya platformlarının, deepfake dolandırıcılık reklamları için ağlarını kontrolsüz kullandırmasına ağır yaptırımlar uygulanmalı. Kullanıcı şikayetlerine dayanmak yerine, proaktif tedbirler almaları mecburî olmalı.

“Görmek artık inanmak demek olmayacak”

Sensity’nin geliştirdiği sistemler yüz manipülasyonun belirlenmesi, büsbütün yapay zekayla üretilmiş görsellerin tespiti, taklit ses tahlili ve isimli incelemeyi kapsayan dört etaplı bir tahlil sürecinden geçiyor.

Bu tahlillerin raporları ise resmi soruşturmalarda ve mahkemelerde kullanılabiliyor.

Cavalli, görsel medyaya olan inancın gitgide azaldığına işaret ederek bu bahiste farkındalığın artması gerektiğini vurguladı.

İnsanların yapay zekayla üretilen görsel ve seslerin risklerine karşı eğitilmesi, şirketlerin, gazetecilerin ve araştırmacıların isimli araçlarla donatılması gerektiğinin altını çizen Cavalli, “Görmek artık inanmak demek olmayacak.” sözünü kullandı.

0 Oylar: 0 Oylar, 0 Oylar (0 Puanlar)

Bir cevap bırakın

Son yorumlar

Görüntülenecek bir yorum yok.
Size güncel haberleri gösterelim
  • Facebook38.5K
  • X Network32.1K
  • Instagram18.9K

En güncel yapay zeka haberlerini size bildirim olarak gönderelim.

E-posta yoluyla haber bülteni almayı kabul ediyorum. Daha fazla bilgi için, lütfen Gizlilik Politikamızı inceleyin

Kategoriler

REKLAM

Sonraki Yazı Yükleniyor...
Follow
Kenar çubuğu Ara Trendler
Popüler Haberler
Yükleniyor

Oturum açma 3 saniye...

Kayıt 3 saniye...