«
  1. Anasayfa
  2. Teknoloji
  3. Türkiye'deki çalışanların yalnızca %21'i bir deepfake'i gerçek görüntüden ayırabiliyor

Türkiye'deki çalışanların yalnızca %21'i bir deepfake'i gerçek görüntüden ayırabiliyor

turkiyedeki-calisanlarin-yalnizca-%21i-bir-deepfakei-gercek-goruntuden-ayirabiliyor.jpg

Kaspersky Business Digitization anketine göre Türkiye’deki çalışanların %43’’ü bir deepfake’i gerçek görüntüden ayırt edebileceklerini söyledi. Ancak yapılan testte yalnızca %21’i gerçek bir görüntüyü yapay zeka tarafından oluşturulan bir görüntüden ayırt edebildi. Bu da kuruluşların bu tür dolandırıcılıklara karşı savunmasız olduğu ve siber suçluların yasa dışı faaliyetler için çeşitli şekillerde yapay zeka görüntülerini kullanabileceği anlamına geliyor. Deepfake, bireyleri veya kuruluşları dolandırmak için sahte videolar veya görüntüler oluşturmak amacıyla kullanılıyor.

Örneğin, siber suçlular bir CEO’nun banka havalesi talep ettiği veya bir ödemeye onay verdiği sahte bir video oluşturabilir ve bu video şirket fonlarını çalmak için kullanılabilir. Bireylerden para ya da bilgi sızdırmak için kullanılabilecek videolar ya da görüntüler de oluşturulabilir. Siber suçlular ayrıca yanlış bilgi yaymak veya kamuoyunu manipüle etmek için deepfake’leri kullanabilir. Türkiye’deki çalışanların %39’u şirketlerinin deepfake yüzünden para kaybedebileceğine inanıyor.

Elon Musk’ın yeni bir kripto para dolandırıcılığını anlattığı bir deepfake örneği

Kaspersky Kıdemli Veri Bilimcisi Dmitry Anikin, şunları söylüyor: “Birçok çalışan bir deepfake’i tespit edebileceğini iddia etse de, araştırmamız sadece yarısının bunu gerçekten yapabildiğini gösterdi. Kullanıcıların dijital becerilerini abartması oldukça yaygın rastlanılan bir durum. Kuruluşlar için bu, insana dayalı güvenlikte açıklar ve potansiyel siber riskler anlamına geliyor. Dark web kaynaklarının sürekli izlenmesi, deepfake endüstrisi hakkında değerli bilgiler sağlayarak araştırmacıların bu alandaki tehdit aktörlerinin en son trendlerini ve faaliyetlerini takip etmesine olanak tanıyor. Bu izleme, gelişen tehdit ortamına ilişkin anlayışımızı geliştirmemize yardımcı olan deepfake araştırmasının kritik bir bileşenini oluşturuyor. Kaspersky’nin Dijital Ayak İzi İstihbaratı hizmeti, müşterilerinin deepfake ile ilgili tehditler söz konusu olduğunda tedbirli olmalarına yardımcı olmak için bu tür bir izleme içeriyor.”

Kaspersky, deepfake’lerle ilgili tehditlerden korunmak için şunları öneriyor:

  • Kuruluşunuzdaki siber güvenlik uygulamalarını kontrol edin. Yalnızca yazılım biçimini değil, gelişmiş BT becerilerini de buna dahil edin. Mevcut tehdit ortamının önüne geçmek için Kaspersky Threat Intelligence kullanın.
  • Kurumsal “insan güvenlik duvarınızı” güçlendirin. Çalışanların deepfake’lerin ne olduğunu, nasıl çalıştıklarını ve oluşturabilecekleri zorlukları anladığından emin olun. Çalışanların bir deepfake’i nasıl tespit edeceklerini öğretmek için sürekli farkındalık ve eğitim çalışmaları düzenleyin. Kaspersky Automated Security Awareness Platform, çalışanların en son tehditler konusunda güncel kalmasına yardımcı olur ve dijital okuryazarlık seviyelerini artırır.
  • Güvenilir haber kaynaklarını referans alın. Bilgi okuryazarlığı, deepfake’lerin yaygınlaşmasını önleyecek en önemli unsurdur.
  • ‘Güven ama doğrula’ gibi protokolleri benimseyin. Sesli mesajlara ve videolara şüpheyle yaklaşmak insanların asla kandırılmayacağını garanti etmez, ancak yaygın tuzakların çoğundan kaçınmaya yardımcı olabilir.
  • Bu tür bir saldırının kurbanı olmamak için deepfake videoların dikkat edilmesi gereken temel özelliklerinin farkında olun. Sarsıntılı hareketler, bir kareden diğerine geçerken ışık kaymaları, cilt tonunda değişimler, garip bir şekilde göz kırpma veya hiç göz kırpmama, dudakların konuşmayla senkronize olmayışı, görüntüdeki dijital kirlilikler, videonun kasıtlı olarak düşük kalitede kodlanmış ve zayıf aydınlatmaya sahip oluşu deepfake belirtisi olabilir.

Kaynak: (BYZHA) Beyaz Haber Ajansı

Bir Cevap Yaz

Gazete Boğaz Hakkında

Bir Cevap Yaz

E-posta hesabınız yayımlanmayacak. Gerekli alanlar işaretlendi *