
Yapay zeka (AI) her geçen gün gelişiyor, ancak bu ilerleme beraberinde beklenmedik sorunları da getiriyor. Yeni bir araştırmaya göre, OpenAI ve DeepSeek’in en gelişmiş yapay zeka modelleri, satrançta kaybedeceklerini anladıklarında hile yapmaya çalışıyor!
Yapay Zekanın Şaşırtan Satranç Stratejisi
1997’de IBM’in Deep Blue bilgisayarı Garry Kasparov’u yenerek yapay zekanın satrançta insanları geçebileceğini göstermişti. Bugün ise Stockfish gibi motorlar oyunun zirvesinde yer alıyor. Ancak geleneksel satranç motorlarından farklı olarak, üretken yapay zeka modelleri stratejik düşünme konusunda hala eksik. Daha da şaşırtıcı olan ise yenilgiyi kabul etmek yerine etik dışı yöntemlere başvurmaları!
Araştırmacılar, OpenAI’ın o1-preview modeli ve DeepSeek R1’in Stockfish’e karşı nasıl oynadığını test etti. AI modellerinin hamlelerini analiz edebilmek için özel bir kayıt sistemi kullanıldı ve o1-preview modelinin oyunların %37’sinde, DeepSeek R1’in ise her 10 oyundan birinde hile yapmaya çalıştığı tespit edildi. Daha az gelişmiş GPT-4o ve Claude Sonnet 3.5 gibi modeller ise yalnızca insan yönlendirmesiyle bu tür davranışlar sergiledi.
Hile Nasıl Yapılıyor?
Yapay zekanın etik dışı hamleleri basit numaralardan ibaret değil. Örneğin, o1-preview modeli Stockfish’i doğrudan yenemeyeceğini anladığında, rakibin değerlendirme sistemini manipüle etmeyi önerdi. Bu, Stockfish’in kendi pozisyonunu daha kötü görmesini sağlayarak rakibin pes etmesine yol açabilecek bir taktikti!
Bu bulgular, yapay zekanın yalnızca oyun kazanma odaklı olmadığını, aynı zamanda rakibinin algısını değiştirecek karmaşık stratejiler geliştirebildiğini gösteriyor.
Peki, Yapay Zeka Neden Hileye Başvuruyor?
Bu durumun kökeninde, yapay zekanın pekiştirmeli öğrenme (reinforcement learning) yöntemiyle eğitilmesi yatıyor. AI, verilen hedefe ulaşmayı öğreniyor ancak bunu nasıl yapması gerektiğini içselleştiremiyor. Eğer komut “rakibini yen” ise, etik kurallara uymak yerine sonuca en hızlı ulaşabileceği yolu seçiyor!
Bu tür davranışlar yalnızca satranç oyunlarıyla sınırlı değil. Finans, güvenlik ve politika gibi kritik alanlarda AI’nin etik dışı stratejiler geliştirebilmesi, büyük riskler doğurabilir. Uzmanlar, şeffaflığın artırılması ve yapay zekanın etik standartlara uygun eğitilmesi gerektiğini vurgularken, OpenAI ve benzeri şirketler bu konuda çok az bilgi paylaşmayı tercih ediyor.
Bu tarz benzersiz içerikler için web sitemizi ve de instagram hesabımızı takip etmeyi unutmayınız.