enflasyonemeklilikötvdövizakpartichpmhp
DOLAR
34,6481
EURO
36,3304
ALTIN
2.924,69
BIST
9.636,12
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Çok Bulutlu
12°C
İstanbul
12°C
Çok Bulutlu
Çarşamba Az Bulutlu
12°C
Perşembe Parçalı Bulutlu
14°C
Cuma Parçalı Bulutlu
16°C
Cumartesi Az Bulutlu
14°C

Amazon Alexa yakında ölen kişinin dahi sesini taklit edebilecek

Amazon, ülkemizde henüz kullanılmayan dünyaca ünlü sesli asistanı Alexa için ilginç bir güncelleme yayınlamayı planlıyor. Kullanıcılar yeni …

Amazon Alexa yakında ölen kişinin dahi sesini taklit edebilecek
23.06.2022
98
A+
A-

Amazon, ülkemizde henüz kullanılmayan dünyaca ünlü sesli asistanı Alexa için ilginç bir güncelleme yayınlamayı planlıyor. Kullanıcılar yeni gelecek güncelleme ile birlikte Alexa’yı aile ya da arkadaşlarından birinin sesini taklit edecek şekilde kullanabilecek.

Amazon’un kıdemli başkan yardımcısı Rohit Prasad, şirketin Çarşamba günü Las Vegas’ta düzenlediği bir konferansta, kullanıcıların Alexa’nın bir dakikadan daha az bir ses duyduktan sonra herhangi bir sesi taklit etmesine izin verecek bir sistem geliştirmeyi başardıklarını söyledi. Prasad, hedefin pandemi sırasında “pek çoğumuzun sevdiğimiz birini kaybettikten” sonra “anılarını kalıcı kılmak” olduğunu belirtti.

Amazon, sistemin hazır olduğunu söylemesine rağmen kullanıcılara bu özelliğin ne zaman sunulacağı ile ilgili bir tarih vermekten kaçındı. Muhtemelen bu tarz bir güncelleme muadilleri arasında ilk defa sunulacağından Amazon tarafından gerekli izinlerin alınması için çalışmalar yürütülüyor.

SAHTEKARLIKLARIN ARTMASINA NEDEN OLABİLİR

Bu tarz projeler her ne kadar Amazon tarafından ilk defa duyurulsa da ilk örnek değil. Benzer projeler birçok fayda sağlayabiliyor ancak suistimallerin de yaşanmasına neden oluyor. Microsoft, sunduğu yapay zekâ teknolojilerinde sesin taklit edilmesini kısıtladı. Microsoft’un ses taklit özelliği konuşma bozukluğu veya başka sorunları olan insanlara yardım etmeyi amaçlıyordu. Ancak birçok uzmanın bunun politik derin sahtekarlıkları yaymak için kullanılabileceğinden endişe etmesi üzerime Microsoft bu özelliği kısıtlamayı tercih etti.

Amazon, konferansta yeni Alexa’nın arkadaşlık vizyonunu da paylaştı. Bir video tanıtımda, “Alexa, büyükannem bana Oz Büyücüsü’nü okumayı bitirebilir mi?” şeklinde soru bir çocuk tarafından Alexa’ya yöneltiliyor. Daha sonra Alexa komutu onayladı ve sesini değiştirdi. Masal anlatan Alexa, daha az robotik, görünüşte çocuğun gerçek hayattaki büyükannesi gibi konuşuyordu. 

Proje ne kadar masum görünse de ses taklit uygulamaları Deepfake gibi teknolojiler ile birleştirildiğinde sahtekarlıkların önünü daha da açabilir. 

KAYNAK: REUTERS, HABER7
Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.