enflasyonemeklilikötvdövizakpartichpmhp
DOLAR
32,4375
EURO
34,7411
ALTIN
2.439,70
BIST
9.915,62
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Az Bulutlu
17°C
İstanbul
17°C
Az Bulutlu
Pazar Az Bulutlu
18°C
Pazartesi Hafif Yağmurlu
18°C
Salı Az Bulutlu
19°C
Çarşamba Az Bulutlu
20°C
SON DAKİKA
09:06 MEB müfredatı erişime açtı
08:37 Narkoçelik’le 321 zehir taciri yakalandı!
08:36 “Netanyahu Gazze kasabıdır”
23:56 Aliağa Belediyesi’nde Yeni Dönem Görev Dağılımı Belli Oldu
23:55 Jeoloji Festivali’nin açılışını Başkan Tugay yaptı İzmir depreme bilimin ışığında hazırlanacak
19:33 Aydın Büyükşehir Belediyesi, il genelinde yol yapım ve yenileme çalışmalarını aralıksız sürdürmeye devam ediyor
19:32 Başkan Cemil Tugay, Çin’in Gansu Eyaleti heyetini ağırladı
19:31 Sivas Belediye Başkanı Dr. Adem Uzun, saha gezileri kapsamında Şeyh Şamil Spor Kompleksi ve Fatih Kültür Merkezi’ni ziyaret etti
19:29 Duayen iş insanı Yücel Kurttepeli, hayatını kaybetti…
19:28 Bayrampaşa’daki parklarda bahar temizliği ve bakım çalışması yapılıyor
19:19 Milas Belediyesi personelleri tarafından bulunan para, sahibinin belirlenmesinin ardından teslim edildi
19:17 Başkan Altay Örnek Davranışıyla Sosyal Medyada Büyük Beğeni Toplayan Liseli Gençle Buluştu
19:16 Zabıtadan okul kantinlerinde denetim
19:15 Kemer’de “Exhibition Türkiye 2024” workshop gerçekleştirildi
19:14 Edremit Belediyesi Ali Ekber Çiçek’i andı
19:13 Ödemiş Belediyesi ve STK işbirliği ile kent estetiğine dokunuşlar
19:11 İnegöl Hayvan Pazarının Kotra İhale Tarihi Belli Oldu
19:09 Bayrampaşa Belediyesi’nden öğrencilere geri dönüşüm eğitimi
18:50 Kurumların beyan ve ödeme süreleri uzadı
18:46 Başkan Altay Hacıveyiszade Camii’nde Vatandaşlarla Buluştu
TÜMÜNÜ GÖSTER →

Türkiye’deki çalışanların yalnızca %21’i bir deepfake’i gerçek görüntüden ayırabiliyor

Kaspersky Business Digitization anketine göre Türkiye’deki çalışanların %43’’ü bir deepfake’i gerçek görüntüden ayırt edebileceklerini söyledi. Ancak yapılan testte yalnızca %21’i gerçek bir görüntüyü yapay zeka tarafından oluşturulan bir görüntüden ayırt edebildi. Bu da kuruluşların bu tür dolandırıcılıklara karşı savunmasız olduğu ve siber suçluların yasa dışı faaliyetler için çeşitli şekillerde yapay zeka görüntülerini kullanabileceği anlamına geliyor.

Türkiye’deki çalışanların yalnızca %21’i bir deepfake’i gerçek görüntüden ayırabiliyor
11.01.2024
3
A+
A-

Kaspersky Business Digitization anketine göre Türkiye’deki çalışanların %43’’ü bir deepfake’i gerçek görüntüden ayırt edebileceklerini söyledi. Ancak yapılan testte yalnızca %21’i gerçek bir görüntüyü yapay zeka tarafından oluşturulan bir görüntüden ayırt edebildi. Bu da kuruluşların bu tür dolandırıcılıklara karşı savunmasız olduğu ve siber suçluların yasa dışı faaliyetler için çeşitli şekillerde yapay zeka görüntülerini kullanabileceği anlamına geliyor. Deepfake, bireyleri veya kuruluşları dolandırmak için sahte videolar veya görüntüler oluşturmak amacıyla kullanılıyor.

Örneğin, siber suçlular bir CEO’nun banka havalesi talep ettiği veya bir ödemeye onay verdiği sahte bir video oluşturabilir ve bu video şirket fonlarını çalmak için kullanılabilir. Bireylerden para ya da bilgi sızdırmak için kullanılabilecek videolar ya da görüntüler de oluşturulabilir. Siber suçlular ayrıca yanlış bilgi yaymak veya kamuoyunu manipüle etmek için deepfake’leri kullanabilir. Türkiye’deki çalışanların %39’u şirketlerinin deepfake yüzünden para kaybedebileceğine inanıyor.

Elon Musk’ın yeni bir kripto para dolandırıcılığını anlattığı bir deepfake örneği

Kaspersky Kıdemli Veri Bilimcisi Dmitry Anikin, şunları söylüyor: “Birçok çalışan bir deepfake’i tespit edebileceğini iddia etse de, araştırmamız sadece yarısının bunu gerçekten yapabildiğini gösterdi. Kullanıcıların dijital becerilerini abartması oldukça yaygın rastlanılan bir durum. Kuruluşlar için bu, insana dayalı güvenlikte açıklar ve potansiyel siber riskler anlamına geliyor. Dark web kaynaklarının sürekli izlenmesi, deepfake endüstrisi hakkında değerli bilgiler sağlayarak araştırmacıların bu alandaki tehdit aktörlerinin en son trendlerini ve faaliyetlerini takip etmesine olanak tanıyor. Bu izleme, gelişen tehdit ortamına ilişkin anlayışımızı geliştirmemize yardımcı olan deepfake araştırmasının kritik bir bileşenini oluşturuyor. Kaspersky’nin Dijital Ayak İzi İstihbaratı hizmeti, müşterilerinin deepfake ile ilgili tehditler söz konusu olduğunda tedbirli olmalarına yardımcı olmak için bu tür bir izleme içeriyor.”

Kaspersky, deepfake’lerle ilgili tehditlerden korunmak için şunları öneriyor:

  • Kuruluşunuzdaki siber güvenlik uygulamalarını kontrol edin. Yalnızca yazılım biçimini değil, gelişmiş BT becerilerini de buna dahil edin. Mevcut tehdit ortamının önüne geçmek için Kaspersky Threat Intelligence kullanın.
  • Kurumsal “insan güvenlik duvarınızı” güçlendirin. Çalışanların deepfake’lerin ne olduğunu, nasıl çalıştıklarını ve oluşturabilecekleri zorlukları anladığından emin olun. Çalışanların bir deepfake’i nasıl tespit edeceklerini öğretmek için sürekli farkındalık ve eğitim çalışmaları düzenleyin. Kaspersky Automated Security Awareness Platform, çalışanların en son tehditler konusunda güncel kalmasına yardımcı olur ve dijital okuryazarlık seviyelerini artırır.
  • Güvenilir haber kaynaklarını referans alın. Bilgi okuryazarlığı, deepfake’lerin yaygınlaşmasını önleyecek en önemli unsurdur.
  • ‘Güven ama doğrula’ gibi protokolleri benimseyin. Sesli mesajlara ve videolara şüpheyle yaklaşmak insanların asla kandırılmayacağını garanti etmez, ancak yaygın tuzakların çoğundan kaçınmaya yardımcı olabilir.
  • Bu tür bir saldırının kurbanı olmamak için deepfake videoların dikkat edilmesi gereken temel özelliklerinin farkında olun. Sarsıntılı hareketler, bir kareden diğerine geçerken ışık kaymaları, cilt tonunda değişimler, garip bir şekilde göz kırpma veya hiç göz kırpmama, dudakların konuşmayla senkronize olmayışı, görüntüdeki dijital kirlilikler, videonun kasıtlı olarak düşük kalitede kodlanmış ve zayıf aydınlatmaya sahip oluşu deepfake belirtisi olabilir.

Kaynak: (BYZHA) Beyaz Haber Ajansı

ETİKETLER: , , , ,
Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.