Yapay zekâ üretimleri bilgi manipülasyonunda artan risk oluşturuyor
Yapay zekâ ile oluşturulan fotoğraflar, taklit sesler ve deepfake videolar, savaş alanlarından seçim kampanyalarına kadar geniş bir yelpazede bilgi manipülasyonu ve dolandırıcılık aracı olarak kullanılıyor. Sensity AI şirketinin araştırmaları, bu içeriklerin farklı ülkelerde siyasi, sosyal ve güvenlik boyutunda somut etkiler yarattığını gösteriyor.
Uluslararası vakalar: Rusya-Ukrayna, Tayvan, Japonya
Sensity AI’nin raporlarına göre, Rusya-Ukrayna Savaşı sırasında Ukraynalı siyasetçiler ve askerler deepfake videolarla "teslim olmaya çağıran" veya "savaş suçu işlediğini itiraf eden" kişiler gibi gösterildi. Tayvan’da seçim dönemlerinde Çin kaynaklı yapay zekâ içerikleri, politikacıların sahte konuşmaları ve uydurma skandallarıyla muhalif adayları hedef aldı. Japonya’da ise sahte doğal afet görüntüleri, nükleer kaza veya sel gibi kurgularla halkta panik yaratılmaya çalışıldı.
"Yapay zekâ ürünlerini tanımak imkansız hale geldi"
Sensity AI’nin kurucu ortağı Francesco Cavalli, AA muhabirine yaptığı değerlendirmede gelişen yapay zekâ araçlarıyla neyin gerçek neyin üretim olduğunu ayırt etmenin zorlaştığını belirtti. Cavalli, yapay zekâyla üretilen içerikleri anlamak için yüzde tutarsız ışıklandırma, aşırı pürüzsüz cilt dokusu ve videolarda yapay göz kırpma veya ağız hareketlerine dikkat edilmesi gerektiğini söyledi.
Cavalli, "Yapay zekayla oluşturulmuş sesler insan için artık tanınması imkansız hale geldi." ifadesiyle taklit seslerin tespitinin güçleştiğini vurguladı.
Ses taklidi ve dolandırıcılık
Raporlarda taklit edilen seslerin şu anki en yüksek risk kaynaklarından biri olduğu belirtiliyor. Örnek olarak, yapay zekâ kullanılarak Marco Rubio taklit edilmiş ve bu sahte sesle Signal uygulaması üzerinden çeşitli diplomatlarla ve siyasetçilerle temas kurulduğu kaydedildi. Cavalli, seslerin kullanımının kolay ve tespitinin gecikmeli olması nedeniyle telefon dolandırıcılıklarında güveni sağlamak için kullanıldığını aktardı.
Midjourney ve Runway gibi üretim araçlarının gelişmesiyle gerçek ile yapay arasındaki farkın tutarlı şekilde ayırt edilmesinin zorlaştığını belirten Cavalli, "Üretici araçlar geliştikçe, eğitimli gözler bile kolayca kandırılabiliyor." dedi.
Propaganda, dolandırıcılık ve platform sorumluluğu
Cavalli, şirketinin incelediği örneklerde yapay zekâ destekli medyanın seçim müdahalesi, sahte basın toplantıları ve kamuoyunu manipüle eden savaş görüntüleri şeklinde yayıldığını, bu görsellerin genellikle sahte haber siteleri ve sosyal medya reklamlarıyla dağıtıldığını anlattı. Cavalli, "Tüm bu örneklerde, yapay zekâ destekli propaganda sadece deneysel bir tehdit değil, algıyı manipüle etmek, toplumları istikrarsızlaştırmak ve yumuşak güç uygulamak için çeşitli çatışmalarda aktif olarak kullanılan küresel bir silahtır." değerlendirmesinde bulundu.
Proaktif denetim ve işbirliği gerekliliği
Teknoloji şirketlerine ve platformlara, yapay zekâ tabanlı görsel dezenformasyonla mücadelede harekete geçme çağrısı yapılıyor. Cavalli, birçok platformun "yapay medyayı geniş ölçekte tespit edebilecek sağlam adli inceleme sistemlerine sahip olmadığını" belirterek, tespit teknolojisi sağlayıcıları, platformlar ve düzenleyiciler arasında daha güçlü işbirliği gerektiğini söyledi.
Cavalli, yapay zekâyla oluşturulmuş içeriklerin otomatik olarak zararlı olmadığını ancak kullanım biçimi ve bağlamının belirleyici olduğunu vurgulayarak, sosyal medya platformlarının deepfake dolandırıcılık reklamları gibi kötüye kullanımlara karşı ağlarını denetimsiz bırakmamaları gerektiğini ifade etti. Cavalli, "Kullanıcı şikayetlerine dayanmak yerine, proaktif önlemler almaları zorunlu olmalı." dedi.
Sensity AI’nin adli analiz süreci ve sonuçları
Sensity tarafından geliştirilen sistemler, yüz manipülasyonunun belirlenmesi, tamamen yapay üretilmiş görsellerin tespiti, taklit ses analizi ve adli incelemeyi kapsayan dört aşamalı bir analiz sürecine sahip. Bu analiz raporları resmi soruşturmalarda ve mahkeme süreçlerinde kullanılabiliyor.
Cavalli, görsel medyaya olan güvenin azalmakta olduğuna dikkat çekerek, insanların yapay zekâyla üretilen görsel ve seslerin risklerine karşı eğitilmesi ve şirketlerin, gazetecilerin ile araştırmacıların adli araçlarla donatılması gerektiğini belirtti. Cavalli son olarak, "Görmek artık inanmak demek olmayacak." ifadesini kullandı.