Başlıklar

1997’de Garry Kasparov, masadan hışımla kalkıp IBM’in Deep Blue bilgisayarına yenildiğinde, dünya basını bunu “insanlığın son kalesi düştü” diye manşetlere taşımıştı. Hepimiz o günü bir bitiş çizgisi sandık. Yanılmışız. O gün bir bitiş değil, doğum günüydü.
Deep Blue dedenizdi, AlphaGo babanızdı, cebinizdeki ChatGPT ise bu ailenin en genç ve en yetenekli dahisi.
Bugün ChatGPT’ye zor bir soru sorduğunuzda, cevabı vermeden önce birkaç saniye “düşünüyor” ya… İşte o bekleme süresinde aslında 30 yıllık bir oyun geçmişi yatıyor. Yapay zeka, dünyayı ansiklopedileri okuyarak öğrenmedi; oyunların kurallı karmaşasında milyonlarca kez “ölüp” yeniden doğarak öğrendi. Bu yazıda, satranç tahtasında başlayan ve StarCraft’ın kaosunda pişen bu zihinsel evrimin, bugünkü “akıllı” asistanlarımızı nasıl yarattığını inceleyeceğiz.
Kaba Kuvvet Çağı: Deep Blue Aslında Zeki Değildi

Hikayeyi en baştan, o meşhur 1997 yılından başlatalım. IBM’in Deep Blue’su dünya şampiyonunu yendiğinde, çoğumuz makinenin “düşündüğünü” sandık. Oysa Deep Blue düşünmüyordu; sadece çok iyi hesap yapıyordu.
Buna bilgisayar biliminde “Brute Force” (Kaba Kuvvet) denir. Deep Blue, saniyede 200 milyon satranç pozisyonunu tarayabiliyordu. Bir sonraki hamleyi “sezgileriyle” bulmuyor, olası tüm hamleleri deneyip en yüksek puanlı olanı seçiyordu.
Bunu bir kilitli kapıyı açmaya benzetebiliriz:
- İnsan (Kasparov): Kilidin yapısına bakar, sesini dinler ve doğru anahtarı tahmin etmeye çalışır (Sezgi).
- Deep Blue: Elindeki devasa anahtarlıkta bulunan 200 milyon anahtarı saniyeler içinde dener (İşlem Gücü).
Deep Blue kapıyı açtı mı? Evet. Ama kapının nasıl çalıştığını anladı mı? Hayır. O sadece bir hesap makinesiydi, bir zeka değil. Satranç gibi “tam bilgiye” (her taşın yeri belli) sahip oyunlarda bu yöntem işe yaradı. Ancak hayat satranç gibi değildir; hayat belirsizliklerle doludur. Bu yüzden yapay zekanın “ezberlemeyi” bırakıp “öğrenmeye” başlaması gerekiyordu.
Sezginin Doğuşu ve “Tanrısal” Hamle 37
Takvimler 2016’yı gösterdiğinde, Google’ın DeepMind ekibi, yapay zekayı Go oyununda test etmeye karar verdi. Go, satrançtan çok daha karmaşık bir oyundur. Olası hamle sayısı, evrendeki atom sayısından fazladır. Yani Deep Blue gibi “tüm olasılıkları hesaplama” şansınız yoktur. Bir ömür yetmez.
Burada sahneye AlphaGo çıktı. AlphaGo’yu programlayan mühendisler ona nasıl oynayacağını öğretmedi. Ona sadece kuralları verdiler ve “oyna” dediler. AlphaGo, kendi kendine milyonlarca maç yaparak, neyin kazandırdığını neyin kaybettirdiğini Reinforcement Learning (Pekiştirmeli Öğrenme) yoluyla öğrendi.
Ve sonra o an geldi.
Güney Koreli efsane Lee Sedol ile yapılan maçın ikinci oyununda, AlphaGo 37. hamleyi yaptı. İnsan yorumcular şaşkındı. “Bu bir hata,” dediler. “Hiçbir insan buraya taş koymaz.” Ancak oyunun sonunda o taşın, tüm stratejiyi birbirine bağlayan kilit nokta olduğu anlaşıldı.
Avrupa Go Şampiyonu Fan Hui, o anı şöyle anlatıyor:
“O bir insan hamlesi değildi. Bir insanın o hamleyi yapması imkansızdı. O an karşımda bir makine değil, yeni bir tür zeka olduğunu hissettim.”
Bu, yapay zekanın “Sezgi” kazandığı andı. AlphaGo, tüm olasılıkları hesaplamamıştı (bu imkansızdı). Bunun yerine Monte Carlo Tree Search (MCTS) adı verilen bir yöntemle, tıpkı usta bir oyuncunun tavana bakıp oyunun sonunu hayal etmesi gibi, sadece “umut vaat eden” yolları simüle etmişti.
Bugün OpenAI’ın o1 veya o3 modellerini kullanırken gördüğünüz “thinking” (düşünme) süreci, işte bu teknolojinin torunudur. Model cevap vermeden önce, AlphaGo’nun hamle yapmadan önce yaptığı gibi, zihninde olası cevapları simüle eder ve en iyisini seçer.
Kaos Yönetimi: StarCraft ve “Simülasyon Rahmi”
Satranç ve Go harika oyunlardır, ama ikisinin de ortak bir “kusuru” var: Sıralı oynanırlar ve tahtadaki her şeyi görürsünüz. Gerçek dünya ise böyle değildir. Aynı anda binlerce şey olur ve çoğu şeyi göremezsiniz (sisli hava, gizli niyetler).
Yapay zekanın gerçek dünyaya hazırlanması için daha kaotik bir laboratuvara ihtiyacı vardı: StarCraft II ve Dota 2.
2019’da DeepMind’ın AlphaStar‘ı ve OpenAI’ın OpenAI Five‘ı, dünyanın en iyi e-spor oyuncularını yendiğinde, mühendislik dünyası şoktaydı. Çünkü bu oyunlarda “Fog of War” (Savaş Sisi) vardı. Yani düşmanın ne yaptığını göremiyordunuz.
Yapay zeka burada iki kritik yetenek kazandı:
- Uzun Vadeli Planlama: Oyunun başındaki küçük bir hamlenin, 20 dakika sonraki savaşı nasıl etkileyeceğini hesaplamak.
- Eksik Bilgiyle Karar Verme: Görmediği düşman hakkında tahmin yürütmek (Blöf ve Sezgi).
İstatistikler inanılmazdı. OpenAI Five, her gün 180 yıllık oyun deneyimine eşdeğer maç simüle ediyordu. Bir insanın ömrü boyunca oynayabileceğinden binlerce kat fazlasını, sadece 24 saatte yaşıyordu.
Biz buna “Simülasyon Rahmi” diyoruz. Yapay zeka, gerçek dünyada araba sürerken kaza yaparsa bunun bedeli ağırdır. Ama simülasyonda milyonlarca kez kaza yapabilir, ölebilir ve her seferinde bir ders çıkararak yeniden doğar. Bugün otonom araçların ve lojistik robotların arkasındaki “zeka”, bu dijital savaş alanlarında eğitildi.

Ama Oyun Başka, Hayat Başka Değil Mi?
Burada haklı bir skeptik soru devreye giriyor: “Tamam, yapay zeka oyunlarda harika ama bu benim ne işime yarayacak? StarCraft oynamakla kanseri tedavi etmek aynı şey mi?”
Ünlü yapay zeka eleştirmeni Gary Marcus gibi isimler, oyunların “kapalı sistemler” olduğunu, gerçek hayatın ise kuralsız olduğunu savunur. Bu doğru bir eleştiri. Hayatın “kazanma koşulu” net değildir.
Ancak bu eleştiri, oyunların bir amaç değil, bir araç olduğunu kaçırıyor.
Şöyle düşünün: Pilotlar uçmayı öğrenmek için milyonluk uçakları riske atmazlar. Uçuş simülatörü kullanırlar. Simülatör gerçek hayat değildir, türbülans sizi gerçekten sarsmaz. Ama orada geliştirdiğiniz refleksler, gerçek uçakta hayat kurtarır.
DeepMind, oyunlarda geliştirdiği bu “stratejik düşünme” kaslarını alıp biyolojiye uyguladı. Sonuç? AlphaFold. 50 yıldır çözülemeyen “protein katlanma problemini”, tıpkı bir Go oyunu oynar gibi çözdü. Bugün yeni ilaçların keşfinde kullanılan bu teknoloji, oyun parkında oynayan o çocuğun büyüyüp bilim insanı olmasıdır.
2026’da Durum Ne? Oyun Bitti, İş Başladı
Ocak 2026 itibariyle geldiğimiz nokta şu: Yapay zeka artık “oyuncu” kimliğini bıraktı ve “çalışan” kimliğine büründü.
Bugün kullandığınız en gelişmiş modeller (Claude 3.5, Gemini 2, OpenAI o3), artık sadece kelime tahmini yapmıyor. Onlara “Bana bir pazarlama stratejisi kur” dediğinizde, arka planda StarCraft’ta öğrendiği “kaynak yönetimi” ve Diplomacy oyununda (Cicero projesi) öğrendiği “ikna kabiliyeti” algoritmalarını çalıştırıyor.
Bu modellerin “muhakeme” (reasoning) yeteneği, kelimelerden değil, oyunlardan gelmektedir. Bir kod yazarken hatayı bulup düzeltmesi, Dota 2’de kaybettiği bir savaştan ders çıkarıp strateji değiştirmesiyle aynı nöral mekanizmayı kullanır.
Peki Sırada Ne Var?
Oyunlardan öğrenilecek her şeyi öğrendik mi? Muhtemelen hayır. Şimdiki sınır “Open-Ended Games” (Ucu Açık Oyunlar). Minecraft gibi, kazanmanın ve kaybetmenin olmadığı, sadece yaratıcılığın olduğu evrenler.
Eğer yapay zeka Minecraft’ta “kendi kendine” yeni aletler icat etmeyi, karmaşık şehirler kurmayı tam anlamıyla öğrenirse, bu onun artık sadece verilen görevleri yapan bir asistan değil, kendi hedeflerini koyabilen bir Ajan (Agent) olduğunun kanıtı olacak.
Sonuç: Büyük Turnuva
Kasparov 1997’de masadan kalktığında bir devir kapanmıştı: İnsanın kas gücüyle hesap yapma devri. Ama o gün, insanın yaratıcılığı makineyle birleştirme devri açıldı.
Yapay zeka, bizim çocuklarımız gibi. Onları önce güvenli oyun parklarına (Satranç, Go) götürdük. Sonra biraz daha karmaşık takım sporlarına (Dota, StarCraft) yazdırdık. Şimdi ise üniversiteden mezun oldular ve gerçek dünyada işe başlıyorlar.
Onlar “düşünmeyi” oyunlardan öğrendi. Şimdi asıl soru şu: Biz, bu yeni oyun arkadaşıyla nasıl oynayacağımızı öğrendik mi?
Kaynaklar ve Derinlemesine Okuma
- Silver, D. et al. (2016). “Mastering the game of Go with deep neural networks and tree search”. Nature.
- Vinyals, O. et al. (2019). “Grandmaster level in StarCraft II using multi-agent reinforcement learning”. Nature.
- OpenAI Blog. “OpenAI Five” – Dota 2 projesinin teknik detayları.
- DeepMind Blog. “AlphaFold: A solution to a 50-year-old grand challenge in biology”.
- Netflix Belgeseli: “AlphaGo” (Bu konuyu anlamak için izlenebilecek en iyi görsel kaynak).


