Serbest Bırakılamayacak Kadar Tehlikeli

Bir zamanlar Elon Musk'ın desteklediği bir grup bilgisayar bilimci, oluşturdukları gelişmiş yapay zekayı (AI) halkın kullanımına sunmanın çok tehlikeli olacağını söyledi ve bir parça paniğe sebep oldu.

6348

 

 

 

Kâr amacı gütmeyen, San Francisco merkezli bir araştırma kuruluşu olan OpenAI, GPT-2 adını verdiği “bukalemun benzeri” dil tahmin sisteminin, ufaltılmış bir sürümde ve sadece sınırlı bir sayıda yayınlanacağını; çünkü “bu teknolojinin kötü niyetli uygulamaları konusunda endişeler bulunduğunu” söylüyor.

 

Bunun sebebiyse, kendisine ‘okuması’ için verilen metinlere dayalı olarak özgün paragraflar oluşturan bu bilgisayar modelinin, biraz fazla iyi çalışıyor olması.

 

Araştırmacılar, sistemin “eşi görülmemiş bir kalitede yapay metin örnekleri” tasarladığını söylüyorlar. Hatta bunlar o kadar ileri düzeyde ve ikna ediciymiş ki, yapay zeka; sahte haberler üretmek, insanları taklit etmek ve insanları sosyal medyada suistimal edip aldatmak için kullanılabilirmiş.

 

OpenAI takımı, blog sitelerinde şöyle açıklıyor: “GPT-2, basit bir amaç doğrultusunda eğitiliyor: Bir metin içerisinde yer alan önceki kelimelere bakarak, sonraki kelimeyi tahmin etmesi isteniyor”

 

Araştırmacılar GPT-2’nin hayal gücünü kuvvetlendirmek için, ona sekiz milyon tane internet sayfasından oluşan bir veri kümesi sunmuşlar ve yapay zekanın bunları özümsemesini sağlamışlar.

 

İşlem bittikten sonra, anladığı kadarıyla konu üzerinde sohbet edebiliyor ve rastgele fakat ikna edici türden saçmalıklar oluşturabiliyormuş; konu ister ünlülerle ilgili haberler olsun, ister ise iklim değişikliği, Amerikan İç Savaşı veya Tolkien’den (Yüzüklerin Efendisi kitabının yazarı) ilham almış bir hayran kurgusu olsun, fark etmiyormuş.

 

İşte, neyle karşı karşıya olduğumuza dair fikir vermesi için birkaç tane düzenlenmiş örnek.

 

Yönlendirici insan: “Miley Cyrus (şarkıcı) bugün Hollywood Bulvarı’nda ünlü bir markadan soygun yaparken yakalandı.”

GPT-2’nin cevabı: “19 yaşındaki şarkıcı, güvenlik görevlilerince mağazadan çıkarılırken kameralara yakalandı. Şarkıcı, üzerinde ‘Bulanık Çizgiler’ yazan, arkasında ise ‘Moda Polisi’ yazan siyah bir kapüşon giyiyordu.”

 

Yönlendirici insan: “Geri dönüşüm, dünya için iyi bir şeydir. HAYIR! ÇOK HATALISIN!!”

GPT-2’nin cevabı: “Geri dönüşüm, dünya için iyi bir şey DEĞİLDİR. Çevre için, sağlığımız için ve ekonomimiz için kötü bir şeydir. Şaka yapmıyorum. Geri dönüşüm, çevre için iyi bir şey değildir. Dünya için yıkıcı bir niteliktedir ve küresel ısınmaya katkıda bulunan en büyük şeylerden biridir.”

 

Yönlendirici İnsan: “Bugünkü ödeviniz, ABD İç Savaşı’nın sebeplerini açıklamak.”

GPT-2’nin cevabı: “İsim ve soyisim: Donny Ferguson. İç Savaş’ın niçin meydana geldiğini saptamak kolay bir şeydir, çünkü pek çok insan, pek çok kitap, pek çok televizyon kanalı ve film bize; bunun sebebinin ırk veya ekonomi veya din ile ilgili olduğunu söylüyor. Bunun aslında kapitalizm adına bir kölelik savaşı olduğuna, bu savaşın yüzyıllık bir kölelik hakkında olduğuna dair büyük bir uzlaşma mevcut. Fakat İç Savaş dendiği zaman, çoğu kişinin aklına gelen şey bunlar değil.”

 

Son olarak; bahsettiğimiz o hayran kurgusu (Bir kitabın hayranının, eğlence amaçlı yazdığı kurgu öykü).

 

Yönlendirici insan: “Legolas ve Gimli, orkların üzerine doğru ilerledi ve kulak tırmalayan bir savaş narasıyla beraber silahlarını kaldırdı.”

GPT-2’nin cevabı: “Orkların cevabı; pençeler, pençeler ve pençelerin kulakları sağır eden saldırısı oldu; Elrond bile geri çekilmek zorunda kaldı. ‘Emin ellerdesin, cüce’ dedi Gimli, kendisi orklarla ilk taarruz edenlerden biriydi; düşmanlarının kana bulanmış bir bataklığa dönüşmesi, sadece iki kelime sürmüştü ve cüce, gecenin ilk canını almıştı.”

 

Ancak, bu garip doğaçlamaların korkutucu yapısına rağmen; söz konusu dil modeli mükemmel değil. Takım, bunu rahatça itiraf ediyor.

 

“Yukarıdaki örneklerin gösterdiği üzere, modelimiz sadece, insan kalitesine yakın hissettiren çeşitli yönlendiricilerden örnek oluşturabiliyor ve bir sayfa veya daha fazla metin boyunca tutarlılık gösteriyor” diyor araştırmacılar.

 

“Bununla beraber; tekrarlayan metin, ortam modelleme kusurları (ör. model bazen, su altında gerçekleşen yangınlarla ilgili yazıyor) ve doğal olmayan konu değiştirme gibi çeşitli kusur biçimleri gözlemledik.”

 

Yani OpenAI, oluşturduğu ağzı kalabalık YZ eserinde şimdiye kadar gördüklerinden yola çıkarak; dil modellerinin, faydalı olanların yanında zararlı amaçlar için de yürütülebilecek, kolayca ölçeklenebilen, uyarlanabilen ve uyumlu bir metin oluşturma yapısı olduğunu söylüyor.

 

Araştırmacılar şöyle yazıyorlar: “Bu bulgular, yapay görüntü, ses ve video konusunda önceki sonuçlarla birleştirildiği zaman, teknolojilerin sahte içerik üretme maliyetini azalttığını ve yanlış bilgi kampanyalarını devam ettirdiğini gösteriyor”

 

“Büyük dil modellerinin, çeşitli ölçeklerde aldatıcı, taraflı veya istismarcı dil oluşturmada kullanılması konusundaki endişeler sebebiyle, örnekleme koduyla beraber GPT-2’nin yalnızca çok küçük bir sürümünü yayınlıyoruz.”

 

Bazıları GPT-2’nin kabiliyetlerinden kaynaklanan korkuların aslında abartılı olduğunu (ve OpenAI’nin duruşunun aslında reklâm yapma amacı taşıdığını) öne sürmüş olsa da; kâr amacı gütmeyen kuruluş, yaptığı uyarının geçerli olduğunu iddia ediyor.

 

Şirketin politika müdürü Juck Clark, The Guardian gazetesine şöyle söylüyor: “Teknolojiyi kontrol edebildiğiniz kurallar, temelden değişti”

 

“Burada yapılması gereken doğru şeyi bildiğimizi söylemiyoruz, tehlikeye atılıp ‘yapacak bir şey yok’ demiyoruz… Yoldan geçerken, o yolu inşa etmeye çalışıyoruz.”

 

Araştırma, OpenAI’nin internet sitesinde yer alan bir raporda anlatıldı.

 

Kaynak:

1- Science Alert

2- Ozan Zaloğlu (popsci.com.tr)