Meta ve Austin’deki Texas Üniversitesi’nden bir grup araştırmacı, Metaverse için ortak bir çalışma başlattılar. Meta Yapay Zeka Araştırma …
Meta ve Austin’deki Texas Üniversitesi’nden bir grup araştırmacı, Metaverse için ortak bir çalışma başlattılar.
Meta Yapay Zeka Araştırma Direktörü Kristen Garuman’ın açıklamasına göre artırılmış ve sanal gerçeklik (AR ve VR) için birlikte çalışacak bu ekip, sanal manzaraların gerçek hayattan ayırt edilemeyecek şekilde görünmesi için özellikle ses üzerine yoğunlaşacak. Garuman, yaptığı açıklamada bunun nedenini “ses, içinde bulunduğu ortam tarafından şekillendirilir” diyerek açıkladı. Ayrıca bir odanın geometrisi, söz konusu odada ne olduğu ve birinin bir kaynaktan ne kadar uzakta olduğu gibi şeylerin ses ile anlaşılabileceğini belirtti.
Meta bu amaçla hem sesi hem de videoyu tek bir yerden ileten AR gözlükleri kullanmayı, ardından bir dizi yapay zeka modelini kullanarak kaydı dönüştürmeyi ve optimize etmeyi hedefliyor. Böylece bir video oynatıldığında olaylar hemen önünüzde gerçekleşiyor gibi hissedebileceksiniz. Evde dar bir alanda dahi olsanız yapay zeka modelleri bulunduğunuz odayı hesaba katacak ve hemen çevreye uyum sağlayarak size görüntüyü aktaracak.
Meta’nın uzun zamandır AR gözlüklerine odaklandığı biliniyor. Geçtiğimiz günlerde Mark Zunckerberg tarafından bazı gözlüklerin prototipleri de tanıtılmıştı.
Meta, bu projesiyle Metraverse’de konser gibi bir ortamın görüntülerini ve seslerini aktararak bizzat oradaymışsınız gibi hissetmenizi sağlayacak.
GERÇEKLİK İÇİN YAPAY ZEKADAN YARARLANILACAK
Meta, “Görsel Akustik Eşleştirme modeli” ya da kısa adıyla AViTAR yöntemini kullanarak bu hedefinde başarıya ulaşmayı hedefliyor. AViTAR, sesi yeni bir ortama uyacak şekilde dönüştürmek için yapay zekadan yararlanıyor.
Meta, ilerleyen zamanlarda ise herkesin bir çift AR gözlükle video kaydederek anıların her zaman canlı kalacağı bir proje üzerinde çalışıyor. AR gözlükle kayıt altına alınan videolar daha sonra yeniden izlendiğinde yapay zeka yardımıyla o anlar tekrar yaşanabilecek.