enflasyonemeklilikötvdövizakpartichpmhp
DOLAR
34,5516
EURO
36,1838
ALTIN
2.984,52
BIST
9.367,77
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Yağmurlu
18°C
İstanbul
18°C
Yağmurlu
Cumartesi Az Bulutlu
9°C
Pazar Az Bulutlu
10°C
Pazartesi Hafif Yağmurlu
9°C
Salı Parçalı Bulutlu
12°C

Türkiye’deki çalışanların yalnızca %21’i bir deepfake’i gerçek görüntüden ayırabiliyor

Kaspersky Business Digitization anketine göre Türkiye’deki çalışanların %43’’ü bir deepfake’i gerçek görüntüden ayırt edebileceklerini söyledi. Ancak yapılan testte yalnızca %21’i gerçek bir görüntüyü yapay zeka tarafından oluşturulan bir görüntüden ayırt edebildi. Bu da kuruluşların bu tür dolandırıcılıklara karşı savunmasız olduğu ve siber suçluların yasa dışı faaliyetler için çeşitli şekillerde yapay zeka görüntülerini kullanabileceği anlamına geliyor.

Türkiye’deki çalışanların yalnızca %21’i bir deepfake’i gerçek görüntüden ayırabiliyor
11.01.2024
5
A+
A-

Kaspersky Business Digitization anketine göre Türkiye’deki çalışanların %43’’ü bir deepfake’i gerçek görüntüden ayırt edebileceklerini söyledi. Ancak yapılan testte yalnızca %21’i gerçek bir görüntüyü yapay zeka tarafından oluşturulan bir görüntüden ayırt edebildi. Bu da kuruluşların bu tür dolandırıcılıklara karşı savunmasız olduğu ve siber suçluların yasa dışı faaliyetler için çeşitli şekillerde yapay zeka görüntülerini kullanabileceği anlamına geliyor. Deepfake, bireyleri veya kuruluşları dolandırmak için sahte videolar veya görüntüler oluşturmak amacıyla kullanılıyor.

Örneğin, siber suçlular bir CEO’nun banka havalesi talep ettiği veya bir ödemeye onay verdiği sahte bir video oluşturabilir ve bu video şirket fonlarını çalmak için kullanılabilir. Bireylerden para ya da bilgi sızdırmak için kullanılabilecek videolar ya da görüntüler de oluşturulabilir. Siber suçlular ayrıca yanlış bilgi yaymak veya kamuoyunu manipüle etmek için deepfake’leri kullanabilir. Türkiye’deki çalışanların %39’u şirketlerinin deepfake yüzünden para kaybedebileceğine inanıyor.

Elon Musk’ın yeni bir kripto para dolandırıcılığını anlattığı bir deepfake örneği

Kaspersky Kıdemli Veri Bilimcisi Dmitry Anikin, şunları söylüyor: “Birçok çalışan bir deepfake’i tespit edebileceğini iddia etse de, araştırmamız sadece yarısının bunu gerçekten yapabildiğini gösterdi. Kullanıcıların dijital becerilerini abartması oldukça yaygın rastlanılan bir durum. Kuruluşlar için bu, insana dayalı güvenlikte açıklar ve potansiyel siber riskler anlamına geliyor. Dark web kaynaklarının sürekli izlenmesi, deepfake endüstrisi hakkında değerli bilgiler sağlayarak araştırmacıların bu alandaki tehdit aktörlerinin en son trendlerini ve faaliyetlerini takip etmesine olanak tanıyor. Bu izleme, gelişen tehdit ortamına ilişkin anlayışımızı geliştirmemize yardımcı olan deepfake araştırmasının kritik bir bileşenini oluşturuyor. Kaspersky’nin Dijital Ayak İzi İstihbaratı hizmeti, müşterilerinin deepfake ile ilgili tehditler söz konusu olduğunda tedbirli olmalarına yardımcı olmak için bu tür bir izleme içeriyor.”

Kaspersky, deepfake’lerle ilgili tehditlerden korunmak için şunları öneriyor:

  • Kuruluşunuzdaki siber güvenlik uygulamalarını kontrol edin. Yalnızca yazılım biçimini değil, gelişmiş BT becerilerini de buna dahil edin. Mevcut tehdit ortamının önüne geçmek için Kaspersky Threat Intelligence kullanın.
  • Kurumsal “insan güvenlik duvarınızı” güçlendirin. Çalışanların deepfake’lerin ne olduğunu, nasıl çalıştıklarını ve oluşturabilecekleri zorlukları anladığından emin olun. Çalışanların bir deepfake’i nasıl tespit edeceklerini öğretmek için sürekli farkındalık ve eğitim çalışmaları düzenleyin. Kaspersky Automated Security Awareness Platform, çalışanların en son tehditler konusunda güncel kalmasına yardımcı olur ve dijital okuryazarlık seviyelerini artırır.
  • Güvenilir haber kaynaklarını referans alın. Bilgi okuryazarlığı, deepfake’lerin yaygınlaşmasını önleyecek en önemli unsurdur.
  • ‘Güven ama doğrula’ gibi protokolleri benimseyin. Sesli mesajlara ve videolara şüpheyle yaklaşmak insanların asla kandırılmayacağını garanti etmez, ancak yaygın tuzakların çoğundan kaçınmaya yardımcı olabilir.
  • Bu tür bir saldırının kurbanı olmamak için deepfake videoların dikkat edilmesi gereken temel özelliklerinin farkında olun. Sarsıntılı hareketler, bir kareden diğerine geçerken ışık kaymaları, cilt tonunda değişimler, garip bir şekilde göz kırpma veya hiç göz kırpmama, dudakların konuşmayla senkronize olmayışı, görüntüdeki dijital kirlilikler, videonun kasıtlı olarak düşük kalitede kodlanmış ve zayıf aydınlatmaya sahip oluşu deepfake belirtisi olabilir.

Kaynak: (BYZHA) Beyaz Haber Ajansı

ETİKETLER: , , , ,
Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.