Yapay zekâyla oluşturulan sahte görseller ve sesler “yeni nesil silah” niteliği taşıyor

Yapay zekâyla üretilmiş fotoğraflar, taklit sesler ve deepfake videolar, savaş alanlarından seçim meydanlarına kadar dünyanın dört bir yanında “bilgi manipülasyonunun ve dolandırıcılığın en etkili ve tehlikeli” araçları haline geliyor.

Yapay zekâ tehdit tespit platformu Sensity AI şirketinin araştırmalarına göre, Rusya-Ukrayna Savaşı’nda Ukraynalı siyasetçiler ve askerler, deepfake videolarla “teslim olmaya çağıran” ya da “savaş suçu işlediğini itiraf eden” kişiler gibi gösteriliyor.

Tayvan’da seçim dönemlerinde, politikacıların sahte konuşmaları, uydurma skandalları ve gafa benzeyen sahneleri gibi Çin kaynaklı yapay zekâ içerikleri sosyal medyada yayılarak karşıt görüşlü adaylar hedef alınıyor.

Japonya’da ise yapay zekâyla üretilmiş sahte doğal afet görüntüleri, nükleer kaza veya sel felaketi gibi kurgular halkta panik yaratmak için kullanılıyor.

Bu tür olaylar, yapay zekâ araçlarının bilinçsizce ve kontrolsüzce “yeni nesil silahlar” olarak kullanılması durumunda doğurabileceği tehlikeleri bir kez daha gündeme getiriyor.

“Yapay zekâ ürünlerini tanımak imkansız hale geldi”

Sensity AI’nin kurucu ortağı Francesco Cavalli, yapay zekâyla oluşturulan görseller, videolar ve seslerin etki ve tehlikelerine ilişkin değerlendirmelerde bulundu.

Cavalli, yapay zekâ araçları geliştikçe neyin gerçek neyin olmadığını anlamanın daha zorlaştığını söyledi.

Yapay zekâyla üretilen içerikleri anlamak için yüzde tutarsız ışıklandırma, aşırı pürüzsüz cilt dokusu, videolarda yapay göz kırpma ya da ağız hareketlerine bakılması tavsiye ediliyor.

Cavalli, “Yapay zekâ içerikleri, özellikle düşük çözünürlüklü veya sıkıştırılmış formatlarda insan gözüyle tespitten kaçabiliyor. Yapay zekâyla oluşturulmuş sesler insan için artık tanınması imkansız hale geldi.” dedi.

Yapay zekâyla manipülasyon

Halihazırda yapay zekâyla taklit edilen seslerin bu alandaki en yüksek riski oluşturduğu belirtiliyor.

Yapay zekâ kullanarak Dışişleri Bakanı Marco Rubio‘yu taklit eden bir dolandırıcı, ABD’li siyasiler tarafından sıkça kullanılan “Signal” isimli mesajlaşma uygulamasında Rubio adına sahte bir hesap oluşturarak üç farklı ülkenin dışişleri bakanları, bir Kongre üyesi ve bir vali ile temas kurdu.

Seslerin kullanımın kolay ve tespitinin de gecikmeli olduğunu dile getiren Cavalli, taklit seslerin telefonda konuşulan kişinin güvenilen biri olduğuna inandırmak için kullanıldığını ifade etti.

Midjourney ve Runway gibi araçlar geliştikçe gerçekle yapayı tutarlı şekilde ayırt etmekte zorlaşıyor.

Cavalli konuya ilişkin, “Üretici araçlar geliştikçe, eğitimli gözler bile kolayca kandırılabiliyor.” diye konuştu.

“Seçim müdahalesinde kullanılan yapay zekâ üretimi medya, dolandırıcılık platformlarını tanıtan sahte basın toplantıları yapan politikacılar ve kamuoyunu manipüle etmek için paylaşılan yapay zekâ üretimi savaş görüntülerini belgeledik.” diyen Cavalli, bu görsellerin genellikle sahte haber siteleri, sosyal medyadaki reklamlarla yayıldığını anlattı.

Cavalli, Çin, Japonya, Tayvan’da yapay zekâ kullanımına ilişkin şirketinin incelediği vakalara atıfta bulunarak, “Tüm bu örneklerde, yapay zekâ destekli propaganda sadece deneysel bir tehdit değil, algıyı manipüle etmek, toplumları istikrarsızlaştırmak ve yumuşak güç uygulamak için çeşitli çatışmalarda aktif olarak kullanılan küresel bir silahtır.” değerlendirmesinde bulundu.

Proaktif denetim ve işbirliği şart

Teknoloji şirketleri ve platformlara yapay zekâ tabanlı görsel dezenformasyonla mücadele konusunda harekete geçmeleri yönünde çağrılar yapılıyor.

Platformların ise bu konuya odaklandığı ancak çoğunun “yapay medyayı geniş ölçekte tespit edebilecek sağlam adli inceleme sistemlerine sahip olmadığı” ifade ediliyor.

Cavalli, “Bazıları dolandırıcılık kampanyalarından bilinçli şekilde kar ediyor. Ancak dış baskı olunca müdahale ediyor. Tespit teknolojisi sağlayıcılar, platformlar ve düzenleyiciler arasında daha güçlü işbirliği şart.” dedi.

Yapay zekâyla üretilen içeriklerin “etiketlenmesinin” doğru yol olmadığını düşündüğünü aktaran Cavalli, şunları söyledi:

“Yapay zekâyla oluşturulmuş içerik kendiliğinden zararlı değil, kullanım şekli ve yeri önemli. Örneğin, sosyal medya platformlarının, deepfake dolandırıcılık reklamları için ağlarını denetimsiz kullandırmasına ağır yaptırımlar uygulanmalı. Kullanıcı şikayetlerine dayanmak yerine, proaktif önlemler almaları zorunlu olmalı.”

“Görmek artık inanmak demek olmayacak”

Sensity’nin geliştirdiği sistemler yüz manipülasyonun belirlenmesi, tamamen yapay zekâyla üretilmiş görsellerin tespiti, taklit ses analizi ve adli incelemeyi kapsayan dört aşamalı bir analiz sürecinden geçiyor.

Bu analizlerin raporları ise resmi soruşturmalarda ve mahkemelerde kullanılabiliyor.

Cavalli, görsel medyaya olan güvenin gittikçe azaldığına işaret ederek bu konuda farkındalığın artması gerektiğini vurguladı.

İnsanların yapay zekâyla üretilen görsel ve seslerin risklerine karşı eğitilmesi, şirketlerin, gazetecilerin ve araştırmacıların adli araçlarla donatılması gerektiğinin altını çizen Cavalli, “Görmek artık inanmak demek olmayacak.” ifadesini kullandı. (AA)

 

Related Posts

Altın saatlerde kurtarıcı: Yapay zeka destekli afet iletişimi

5G ve 6G teknolojileri, yapay zeka ve hassas konum tespitiyle birleşerek afet anlarında iletişimin kesintisiz ve hızlı olmasını sağlıyor. İlk 72 saatte hayat kurtaran teknolojik çözümler artık Türkiye’de de test ediliyor.

Küresel elektrikli araç satışları ocak-temmuz döneminde 10,7 milyon oldu

Dünyada ocak-temmuz döneminde satılan elektrikli araç sayısı 10,7 milyona ulaşırken, bu dönemde satışlar yıllık bazda yüzde 27 arttı.

Aracın fiyatı 250 bin liradan satışa çıktı: Her iki dakikada bir sipariş geliyor

Çin’de 1,7 milyonuncu Mini EV model aracın üretim hattından çıktığını duyurdu. Şirket aracın her iki dakikada bir satıldığını duyurdu.

Instagram’da gizlilik krizi: Ayarlarınızı hemen kontrol edin

Dünyaca ünlü sosyal medya platformu Instagram’ın kullanıma sunduğu “Instagram Map” özelliği, kullanıcıların konumlarını paylaşmasına ve harita üzerinden içerik keşfetmesine olanak tanıyor. Ancak sosyal medyada, özelliğin “otomatik açık” olduğu iddiaları tartışma yarattı.

SMS dolandırıcılığında Magic Cat bitti Magic Mouse geldi

Geçen yıl ortaya çıkan Magic Cat yazılımı, masum bir kedi profil fotoğrafının arkasına saklanarak milyonlarca kişiyi hedef alan devasa bir SMS dolandırıcılığı operasyonunu tetiklemişti. Norveç merkezli güvenlik firması Mnemonic ile NRK, Bayerischer …

ChatGPT ‘bol bol tüket’ dedi, tavsiyeye uyan adam komaya girdi

ABD’de yaşanan tüyler ürpertici bir olay, yapay zekâdan alınan sağlık tavsiyelerinin tehlikeli sonuçlarını gözler önüne serdi. ChatGPT’den diyet önerisi alan bir adam, yapay zekânın “alternatif tuz” olarak önerdiği sodyum bromürü üç ay boyunca tüketince zehirlenmeye bağlı psikoz geçirdi.