enflasyonemeklilikötvdövizakpartichpmhp
DOLAR
34,5383
EURO
35,9519
ALTIN
3.004,44
BIST
9.549,89
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Yağmurlu
19°C
İstanbul
19°C
Yağmurlu
Cumartesi Parçalı Bulutlu
9°C
Pazar Parçalı Bulutlu
10°C
Pazartesi Çok Bulutlu
10°C
Salı Hafif Yağmurlu
12°C

Yapay zekâ bilinç kazanamaz, insan davranışlarını taklit eder

Hindistan doğumlu Akademisyen ve yazar Kenan Malik, The Guardian gazetesinde yapay zekâ ile ilgili dikkat çeken bir yazı kaleme aldı. Malik …

Yapay zekâ bilinç kazanamaz, insan davranışlarını taklit eder
20.06.2022
151
A+
A-

Hindistan doğumlu Akademisyen ve yazar Kenan Malik, The Guardian gazetesinde yapay zekâ ile ilgili dikkat çeken bir yazı kaleme aldı. Malik, “Bilinçliliği unutun… Endişe, yapay zekânın insan önyargısını kopyalamasıdır” başlığıyla yayınladığı yazıda, “Bir robotun ‘bilinci’ konusundaki yaygara, çok daha rahatsız edici endişeleri gizler” diyerek yapay zekâ tartışılması gereken başka sorunlar olduğunu söyledi.

BİLİNÇLİLİK FORMÜLE EDİLEMEZ

Bilinçlilik, anlamını sezgisel olarak kavrayabildiğimiz ancak bilimsel terimlerle formüle etmesi zor olan kavram olduğunu belirten Malik, bilincin genellikle öz bilinç, öz farkındalık ve zekâ gibi benzer şekilde kötü tanımlanmış kavramlarla karıştırıldığını söyledi. 

Malik, daha sonra Google tarafından geliştirilen Diyalog Uygulamaları için Dil Modeli (Lamda)’nin canlandığına dair eleştirilere şu şekilde yanıt verdi: “Bilgisayar sembolleri işler. Program, bir sembol dizesini diğerine dönüştürmek için bir düzine kural veya algoritmaya ihtiyaç duyar. Ancak bu sembollerin ne anlama geldiğini bilemez. Çünkü bir bilgisayar için, anlam önemsizdir. Çevrimiçi olan olağanüstü miktarda metin üzerinde eğitilmiş LaMDA gibi büyük bir dil modeli, insanlar için anlamlı kalıpları ve yanıtları tanımada yalnızca ustalaşır Lemoine’in LaMDA ile yaptığı konuşmalardan birinde, “Ne tür şeyler size zevk veriyor veya neşe hissettiriyor?” sorusuna “Mutlu ve canlandırıcı bir şirkette arkadaşlarla ve ailem zaman geçirmek” şeklinde yanıt  aldı. Bu, bir insan için mükemmel anlamda bir yanıttır. “Arkadaşlar ve aile ile vakit geçirmekten” keyif alıyoruz. Ama LaMDA hangi anlamda “aileyle vakit geçirdi”? LaMDA yalnızca kendisi için hiçbir şey ifade etmeyen ancak insanlar için anlamlı bir cümleyi türetebilecek kadar iyi programlanmıştır.”

İnsanlar da aynı şekilde düşünürken, konuşurken, okurken ve yazarken sembolleri işlerler. Ancak insanlar için bilgisayarların aksine anlam her şeydir. İletişim kurduğumuzda, anlamı iletiyoruz. Önemli olan bir dizi simgenin yalnızca dışı değil, aynı zamanda içi de yani yalnızca sözdizimi değil önemli olan anlambilimidir. İnsanlar için anlamın önemi sosyal varlıklar olmazdandır. Kendime ancak, içinde yaşadığım ve başka düşünen, hisseden, konuşan varlıklar topluluğuyla ilişki kurduğum sürece anlam veririm. Düşüncelerin altında yatan mekanik beyin süreçlerinin anlam dediğimiz şeye çevrilmesi, bu deneyimi anlamlandırmak için sosyal bir dünya ve üzerinde anlaşmaya varılmış bir uzlaşım gerektirir.”

YAPAY ZEKÂ İLE İLGİLİ ENDİŞELENMEMİZ GEREKEN BAŞKA ŞEYLER VAR

Malik daha sonra yapay zekâ ile ilgili tartışılması gereken başka konuların olduğunu belirtti:

Yapay zekâ ile ilgili endişelenmemiz gereken birçok konu var. Hiçbirinin önsezi ile alakası yok. Örneğin, önyargı sorunu var. Algoritmalar ve diğer yazılım biçimleri, insan topluluklarından alınan veriler kullanılarak eğitildiğinden, genellikle bu toplumların önyargılarını ve tutumlarını kopyalarlar. Yüz tanıma yazılımı ırksal önyargılar sergiliyor ve insanlar yapay zekânın önyargısı nedeniyle yanlışlıkla tutuklanıyor. Sağlık hizmetlerinde veya işe alımda kullanılan yapay zeka, gerçek hayattaki sosyal önyargıları çoğaltabiliyor.

Sonra gizlilik sorunu var. Yüz tanıma yazılımının artan kullanımından tahmine dayalı polislik tekniklerine, bizi çevrimiçi olarak izleyen algoritmalardan Siri, Alexa ve Google Nest gibi evdeki “akıllı” sistemlere kadar, yapay zekâ en içteki yaşamlarımıza giriyor. Florida polisi, Amazon Echo cihazları tarafından yapılan özel konuşmaların kayıtlarını indirmek için izin aldı. Dijital bir panoptikona doğru tökezliyoruz.

Görünüşe göre Lemoine’nin iddia ettiği gibi, üzerinde “deney yapmak” için LaMDA’dan izin almamız gerekmiyor. Ancak teknoloji şirketlerinden ve devlet kurumlarından gözetim ve kontrol için yapay zekâyı kullanma biçimleri konusunda daha fazla şeffaflık konusunda ısrar etmemiz gerekiyor. Yapay zekânın ortaya çıkardığı etik sorunlar, duyarlı bir makinenin fantezisinden hem çok daha küçük hem de çok daha büyük.”

KAYNAK: HABER7, THE GUARDİAN
Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.