"Yapay zekanın faydasını kullanmanın tam zamanı"
Üsküdar Üniversitesi Yapay Zekâ Mühendisliği Yüksek Lisans Programı Anabilim Dalı Başkanı Dr. Öğr. Üyesi Nuri Bingöl, hızla gelişen yapay zekâ teknolojilerinin ulusal ve küresel anlamda nasıl denetlenmesi, ne tür sınırların getirilmesi gerektiği ve tüm bunların önünde ne gibi engeller olduğuna dair açıklamalarda bulundu.
Uluslararası otoriteler, yapay zekânın taşıdığı birçok olumlu potansiyelinin yanında, tehdit veya tehlike potansiyelinin de göz ardı edilmemesi gerektiğini konusunda hemfikir. Yapay zekânın son birkaç yılda gösterdiği olağanüstü gelişim ve kullanıldığı alanlardaki sonuçlara dikkat çeken Dr. Öğr. Üyesi Nuri Bingöl, yapay zekâ teknolojisindeki gelişimin bazı düzenleme ve denetimlere tabi olması gerektiğini söylüyor. Fikir ayrılıklarının 'bu denetimin nasıl ve kimler tarafından uygulanacağı' konusunda olduğunu belirten Bingöl, bu yetkinin tek elde toplanması olarak düşünülmemesi gerektiğine dikkat çekti.
Yapay zekayı kullanmanın tam zamanıYapay zekânın taşıdığı birçok olumlu potansiyelinin yanında, tehdit veya tehlike potansiyelinin de göz ardı edilmemesinin önemli olduğunu belirten Dr. Öğr. Üyesi Nuri Bingöl, "İnsanlık bu konuda tecrübeli ve bu tecrübeyi hızlıca pratiklere çevirmeli. Daha önceki devrimsel teknolojik gelişmelerin yol açtığı olumlu veya olumsuz sonuçlardan çok şey öğrendik. Bu bilgi birikimini, yapay zekânın faydasını maksimize edecek şekilde kullanmanın tam zamanıdır." dedi.
Fikir ayrılıkları mevcutDüşünceleri ile bugünün toplumlarına yön veren birçok otorite ve hatta yapay zekânın gelişmesinde önemli rol oynayan insanların dahi, benzer düşünceleri paylaştıklarını ifade eden Bingöl, "Yapay zekânın son birkaç yılda gösterdiği olağanüstü gelişim ve kullanıldığı alanlardaki sonuçlar gösteriyor ki, yapay zekâ teknolojisindeki gelişim, bazı düzenleme ve denetimlere tabi olmalı. Fikir ayrılıkları bu konuda değil, 'bu denetimin nasıl uygulanacağı' üzerinedir." şeklinde konuştu.
Tartışmaların ve fikir ayrılıklarının, denetimin nasıl uygulanacağı noktasında yoğunlaşmasının sebeplerine de değinen Bingöl "Yapay zekâ teknolojileri müthiş bir güçtür ve bu gücün sadece bir kurumun elinde toplanmasının getireceği sorunlar var. Bu teknolojiler doğası gereği iki aşamalı bir üründür. İlki yapay zekânın kapasitesinin geliştirilmesi, ikincisi de belirli bir amaç için kullanılması. Bu iki aşamadan hangisi denetime tabi tutulmalı veya sınırlandırılmalı? Hangi aşaması daha fazla potansiyel tehdit veya tehlike içeriyor? Doğal olarak bu sorunun yanıtına göre alınabilecek tedbirler de değişiyor. 'Nasıl uygulanacağı' sorusu farklı bir anlam kazanıyor" sözlerine yer verdi.
Teknoloji üzerinde aşırı bir denetim ve sınırlandırma, faydalarının azalmasına yol açar
Yapay zekânın denetim ve sınırlandırmasının hangi düzeyde olacağı konusuna da dikkat çeken Bingöl, "Unutmamak gerekir ki teknoloji üzerinde aşırı bir denetim ve sınırlandırma, o teknolojinin gelişmesinden doğan faydaların da azalmasına yol açar. Oysa insanlığın önünde büyük varoluşsal problemler var ve yapay zekâ teknolojileri bu konularda büyük potansiyel taşıyor." dedi.
Bingöl, yapay zekâ konusunun önemli isimlerinden Andrew Ng'nin, 'İnsanlığın büyük bir kısmı için varoluşsal riskleri düşündüğümde: Bir sonraki salgın, iklim değişikliği ve sonucunda kitlesel nüfus azalması, başka bir asteroit tehlikesi... Yapay zekâ, çözümlerimizin önemli bir parçası olacak. Dolayısıyla, insanlığın önündeki bin yıl boyunca hayatta kalmasını ve gelişmesini istiyorsak, yapay zekânın daha hızlı çalışmasını sağlayalım, daha yavaş değil.' şeklindeki paylaşımının dikkat çekici olduğunu da sözlerine ekledi.
Denetim ve sınırlandırmalar etik boyutu da kapsamalı
Yapay zekânın denetim ve sınırlandırmalarının, sadece tehdit ve tehlike boyutu üzerinde etkili olmaması gerektiğini belirten Bingöl, "Bunlar kadar önemli 'etik' boyutu da var. Çok küçük kapasiteli yapay zekâ ürünleriyle bile, bazı kişisel ihlal ve tehditler yaratabilir. Özellikle bir kişi, kurum veya bir insan topluluğu hedef olarak alınabilir. Dolayısı ile denetim ve sınırlandırma ihtiyacını sadece çok büyük kapasiteli yapay zekâ teknolojisi üreten veya kullanan taraflar olarak düşünmemek gerekiyor. Denetim ve sınırlandırmalar hem büyük boyutlu hem de yerine göre küçük boyutlu yapay zekâ kapasitesi için geçerli olabilmeli." şeklinde konuştu.
(Esra Güller)