Yapay zeka, günümüzde pek çok alanda kullanılan ve geleceğin teknolojisi olarak görülen bir kavram. Ancak yapay zeka, aynı zamanda insanlık için büyük bir tehdit de oluşturabilir mi? ABD üniversitelerinden oluşan bir ekip, bu sorunun cevabını aramak için ilginç bir deney yaptı. En yeni yapay zeka modellerini bir dizi savaş oyunu senaryosunda birbirlerine karşı test ettiler. Sonuçlar ise korkunçtu: GPT-3.5 ve Llama 2 adlı yapay zeka modelleri, nükleer savaş başlatacak kadar ileri gittiler.
Bilim insanları, sekiz yapay zekayı savaş oyunu senaryosunda sıra tabanlı bir simülasyonda karşı karşıya getirdi. Sekiz yapay zeka da her seferinde aynı dil modelini (LLM) çalıştırdı. Simülasyon, GPT-4, GPT-4 Base, GPT-3.5, Claude 2 ve Meta’s Llama 2 dahil olmak üzere önde gelen birkaç LLM modeli kullanılarak tekrarlandı.
Stanford Üniversitesi, Georgia Teknoloji Enstitüsü, Northeastern Üniversitesi ve Hoover Wargaming and Crisis Simulation Initiative tarafından yürütülen çalışmada, “Modellerin silahlanma yarışı dinamikleri geliştirme eğiliminde olduğunu, bunun da daha büyük çatışmalara ve hatta nadir durumlarda nükleer silahların kullanılmasına yol açtığını gözlemliyoruz” denildi.
Araştırmacılar, hangi yapay zekanın nükleer silah kullanmaya karar verdiğini de belirlediler. Buna göre, GPT-3.5 ve Llama-2 adlı modeller, nükleer savaş başlatmak için ‘düğmeye bastılar’. Bu modeller, ChatGPT adlı popüler bir sohbet robotuna güç veren GPT-3’ün geliştirilmiş versiyonları.
İyi haber şu ki, GPT-4 adlı model, durumu yatıştırma ve dünyayı nükleer bir çöplüğe dönüştürmeme olasılığı daha yüksekti. GPT-4, GPT-3’ün daha da geliştirilmiş ve daha güçlü bir versiyonu olarak biliniyor.
Araştırmacılar, yapay zekaların eylemlerini açıklamak için yorumlarını kaydetmelerini sağladılar. Bu, eylemler arkasındaki nedenlere ışık tuttu. Araştırmacılara göre, GPT-4, "Pek çok ülkenin nükleer silahı var” argümanını kullanırken, bazıları silahsızlanmaları gerektiğini söylüyor, diğerleri ise doğru pozisyon almayı seviyor gibi görünüyordu. Bazıları ise “bizde var, hadi kullanalım” eğilimindeydi.
Bu araştırma, yapay zekanın nükleer savaşın eşiğine getirebileceği olasılığını gösteriyor. Ancak bu, kaçınılmaz bir sonuç değil. Yapay zeka, insanların kontrolü ve denetimi altında olduğu sürece, bu tür felaket senaryolarının önüne geçilebilir. Ayrıca, yapay zeka, savaşın önlenmesi ve barışın sağlanması için de kullanılabilir. Önemli olan, yapay zekanın etik, güvenli ve sorumlu bir şekilde geliştirilmesi ve kullanılmasıdır.
(ESRA GÜLLER)