enflasyonemeklilikötvdövizakpartichpmhp
DOLAR
32,2020
EURO
35,0069
ALTIN
2.504,53
BIST
10.643,58
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Az Bulutlu
22°C
İstanbul
22°C
Az Bulutlu
Pazartesi Az Bulutlu
22°C
Salı Açık
25°C
Çarşamba Az Bulutlu
23°C
Perşembe Az Bulutlu
22°C
SON DAKİKA
19:37 Düzce’de trafikte yarış kazayla sonuçlandı!
19:36 Bursa Gemlik’te TOKİ’deki üniversitelilere tahliye şoku!
19:22 TBMM’de kanun teklifi görüşmeleri sürecek
18:50 Fırat Kalkanı’nda 5 terörist etkisiz
18:36 İzmir’i dünyaya, dünyayı İzmir’e bağlamada havadan yeni hedef
17:06 Cumhurbaşkanı Erdoğan’ın milli sporcu ile güldüren diyalogu
15:50 Konut fiyatlarında yüzde 52 artış
15:42 Başkan Tugay Samsun’da Bandırma Vapuru’nu ziyaret etti
15:40 Başkan Tugay: “İzmir ve Samsun kadersel olarak bağlı iki şehir”
15:39 LÖSEV’in iyileşmiş gençleri, 19 Mayıs’ta büyük önder Mustafa Kemal Atatürk’ü anmak ve saygılarını iletmek amacıyla Ulus’ta Atatürk Anıtı’na çelenk koydu
15:28 19 Mayıs Atatürk’ü Anma, Gençlik ve Spor Bayramı’nın 105. Yıl dönümü, 19 Mayıs 2024 Pazar günü Malkara’da düzenlenen tören ve etkinlikler ile coşkuyla kutlandı
15:27 Başkan Özarslan Samsun’dan Gelen Türk Bayrağını ve Toprağı Teslim Aldı
15:20 878 milyon TL’lik SED ödemeleri tamamlandı
14:40 Çiğlili Bisikletseverler 19 Mayıs için Pedal Çevirdi
14:39 Dönem Sonu Toplantısını Yapan Konya Büyükşehir Çocuk Meclisi Üyeleri Beyşehir’de Kamp Yaptı
14:38 19 Mayıs Atatürk’ü Anma Gençlik ve Spor Bayramı tüm yurtta olduğu gibi Karaman’da da törenle kutlandı
14:36 Türkiye yüksek hızlı trenlerle taşındı
14:27 Tohum Takas Şenliği’ne “tasarruf tedbiri” iptali
14:26 İzmir’de 19 Mayıs coşkusu Cumhuriyet Meydanı rengarenk
14:25 Kartepe Dağ Deresi Islah Çalışmalarında Son Aşamaya Gelindi
TÜMÜNÜ GÖSTER →

Geçmişten Günümüze: Sesli Deepfake Araçlarıyla Siber Dolandırıcılıkta Nasıl Kandırılıyoruz?

Beatles, geçenlerde yapay zeka (AI) sayesinde eski bir kaydın parçalarını birleştirerek ve aynı zamanda ses kalitesini geliştirerek yeni bir şarkı yayınladı ve dünyanın dört bir yanındaki milyonlarca hayranını bir kez daha sevindirdi.

Geçmişten Günümüze: Sesli Deepfake Araçlarıyla Siber Dolandırıcılıkta Nasıl Kandırılıyoruz?
14.11.2023
0
A+
A-
Geçmişten Günümüze: Sesli Deepfake Araçlarıyla Siber Dolandırıcılıkta Nasıl Kandırılıyoruz?

 

Beatles, geçenlerde yapay zeka (AI) sayesinde eski bir kaydın parçalarını birleştirerek ve aynı zamanda ses kalitesini geliştirerek yeni bir şarkı yayınladı ve dünyanın dört bir yanındaki milyonlarca hayranını bir kez daha sevindirdi. Ancak grubun yeni başyapıtından dolayı duyulan sevinci bir tarafa bırakırsak, yapay zekanın sahte sesler ve görüntüler yaratmak için kullanılmasının karanlık tarafları da var.

Neyse ki bu tür derin sahteler ve bunları yapmak için kullanılan araçlar şimdilik çok gelişmiş veya yaygın değil. Yine de dolandırıcılık alanında kullanılma potansiyelleri son derece yüksek ve teknoloji de yerinde durmuyor.

Derin ses sahtekarlığıyla neler yapılabilir?

Open AI kısa süre önce gerçekçi insan konuşması ve sesli giriş metni sentezleyebilen bir Audio API modeli sergiledi. Bu Open AI yazılımı, şimdilik gerçek insan konuşmasına en yakın olan şey.

Gelecekte bu tür modeller saldırganların elinde yeni bir araç haline gelebilir. Ses API’si belirtilen metni yeniden seslendirirken, kullanıcılar metnin önerilen ses seçeneklerinden hangisiyle telaffuz edileceğini seçebilir. Open AI modeli mevcut haliyle deepfake sesler yaratmak için kullanılamasa da, ortaya koyduğu nitelikler ses üretme teknolojilerinin hızla geliştiğinin bir göstergesi niteliğinde.

Günümüzde gerçek insan konuşmasından ayırt edilemeyen yüksek kaliteli derin sahte ses üretebilen neredeyse hiçbir cihaz mevcut değil. Ancak son birkaç ay içinde insan sesi üretmeye yönelik daha fazla araç piyasaya sürüldü. Önceleri bunları kullanabilmek için kullanıcıların temel programlama becerilerine ihtiyacı vardı, ancak gün geçtikçe bunları kullanmak çok daha kolay hale geliyor. Yakın gelecekte hem kullanım kolaylığını hem de kaliteli sonuçları bir araya getirecek modeller görmemiz pekala mümkün.

Yapay zeka kullanarak dolandırıcılık yapmak nadir görülen bir durum. Ancak halihazırda “başarılı” vaka örnekleri mevcut. Ekim 2023’ün ortalarında Amerikalı risk sermayedarı Tim Draper, Twitter takipçilerini dolandırıcıların sesini kullanabileceği konusunda uyardı. Tim, sesiyle yapılan para taleplerinin her geçen gün daha akıllı hale gelen yapay zekanın bir sonucu olduğunu paylaştı.

Kendinizi bundan nasıl koruyabilirsiniz?

Şimdiye dek toplumda ses taklitleri olası bir siber tehdit olarak algılanmamış olabilir. Kötü niyetle kullanıldıkları çok az vaka var. Bu nedenle korunmaya yönelik teknolojilerinin ortaya çıkışı da yavaş seyrediyor.

Şimdilik bu durumdan kendinizi korumanın en iyi yolu, arayan kişinin telefonda size söylediklerini dikkatle dinlemekten geçiyor. Eğer kayıt kalitesizse, arada gürültüler varsa ve ses robotik geliyorsa, bu duyduğunuz bilgilere güvenmemeniz için yeterli sebep.

Karşınızdakinin “insanlığını” test etmenin bir başka iyi yolu da alışılmışın dışında sorular sormak. Örneğin sizi arayan bir ses modeliyse, en sevdiği renkle ilgili soracağınız bir soru genellikle karşılaşmayı beklediği türden bir şey olmadığı için onu şaşkına çevirebilir. Saldırgan bu noktada manuel olarak çevirip cevabı oynatsa bile, yanıttaki zaman gecikme kandırıldığınızı açıkça ortaya koyar.

Bir diğer güvenli seçenek de güvenilir ve kapsamlı bir güvenlik çözümü kullanmak. Bunlar deepfake sesleri yüzde 100 tespit edemeseler de, tarayıcıları koruyarak ve bilgisayardaki tüm dosyaları kontrol ederek kullanıcıların şüpheli web sitelerinden, ödemelerden ve kötü amaçlı yazılım indirmelerinden kaçınmalarına yardımcı olabilirler.

Kaspersky Kıdemli Veri Bilimcisi Dmitry Anikin, şunları söylüyor: “Şu an genel tavsiyemiz, tehdidi abartmamak ya da var olmadıkları yerde ses taklitlerini tanımaya çalışmamak yönündedir. Şimdilik mevcut teknolojinin insanların ayırt edemeyeceği kalitede bir ses yaratacak kadar güçlü olması pek olası değil. Yine de olası tehditlerin farkında olmanız ve yakın gelecekte yeni bir gerçeklik haline gelecek olan gelişmiş deepfake dolandırıcılığına hazırlıklı olmanız gerekiyor.”

Kaynak: (BYZHA) Beyaz Haber Ajansı

ETİKETLER: ,
Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.