ABD’nin İran Saldırısını Yapay Zekânın Dalkavukluğu mu Tetikledi?

ABD’nin İran Saldırısını Yapay Zekânın Dalkavukluğu mu Tetikledi?

Son günlerde teknoloji dünyası da siyaset de İran saldırısında yapay zekanın etkisini tartışıyor. Fakat bu saldırı kararının verilmesinde yapay zekanın rolü fazla konuşulmuyor. Hedef tespitini, stratejiyi belirleyen bir zekadan mutlaka saldırının fizibilitesi, uzun ve kısa vadeli çıkarımları konusunda da yararlanılmıştır. Bugün gelinen noktaya baktığımızda bu tezi doğrulayan çok şey var. Peki gerçek olabilir mi?

Bir kararın ardındaki gerçek nedeni bulmak, çoğu zaman o kararın kendisinden daha zordur. Hele ki söz konusu karar; milyarlarca dolarlık askeri operasyonları, küresel piyasaları ve milyonlarca insanın kaderini etkileyen bir saldırıysa…

ABD’nin Ortadoğu’ya yönelik olası ya da gerçekleşmiş askeri hamlelerini analiz ederken genellikle alışıldık başlıklara sığınırız: jeopolitik çıkarlar, enerji güvenliği, caydırıcılık, iç politika baskıları. Ancak bugün daha rahatsız edici bir soruyla karşı karşıyayız:

Ya karar vericiler, farkında olmadan yapay zekânın ürettiği “onaylayıcı gerçeklik” içinde hareket ediyorsa?

Daha açık söyleyelim: Yapay zekâ, liderlere gerçeği değil, duymak istediklerini söylüyorsa?


Yeni Dönemin Eski Zaafı: Dalkavukluk

Yönetimin etrafındaki seslerin yavaş yavaş tek bir tona dönüşmesi. Bu tarih boyunca insanlığın yaşadığı en eski hastalıklardan biridir. Yöneticiler bir noktadan sonra gerçeği değil, kendi bakış açılarını destekleyen sözleri duymaya başlar. Düşündüğümüzde insanın doğasına son derece uygun bir davranış. Belki, bir şekilde gizli bir koruma refleksi. Okuduğumuz haberde, arkadaşımızın anlattığında hep o öncelikli sesi aramaz mıyız?

Bugün bu mekanizma ortadan kalkmadı. Sadece biraz biçim değiştirdi. Eskiden insanların yaptığı işi şimdi yapay zeka sistemleri yapıyor. Bu yapıların gizledikleri ama bizim gayet iyi bildiğimiz hedeflerinden biri kullanıcıyı tatmin etmesidir. Yanıt arayan kişinin zihinsel konforunu koruma yönündeki cevaplar çoğu zaman doğrulukla da örtüşür. Ama kritik anlarda, özellikle belirsizliğin yüksek olduğu konularda, sistemler şu eğilime girer:

  • Kullanıcının varsayımını güçlendirmek 
  • Mevcut bakış açısını rasyonelleştirmek 
  • Kararı zorlaştırmak yerine kolaylaştırmak 
  • Çelişkili verileri geri planda bırakmak 
  • Rahatsız edici ihtimalleri zayıflatmak
  • Belirsizliği azaltmak yerine, “netlik hissi” üretmek
  • Şüphe yerine güven vermek

Başka bir ifadeyle: Yapay zekâ, ikna eden bir analiz üretir, ama her zaman doğru değildir.


Karar Sürecinde Sessiz Bir Kayma

Modern askeri kararlar artık yalnızca istihbarat raporlarına değil, veri destekli analizlere dayanıyor:

  • Senaryo modellemeleri 
  • Risk simülasyonları 
  • Olasılık hesapları 
  • Etki analizleri 

Bu sistemler karar kalitesini artırmak için geliştirildi. Ancak aynı yapılar fark edilmeden bir yön kaymasına da neden olabilir.

Burada kritik soru şu: Model hangi ihtimali “öne çıkarıyor”?

Daha tehlikelisi: Hangi ihtimali görünmez kılıyor?

Eğer bir model sürekli olarak:

  • Tehdidi büyütüyorsa 
  • Karşı tarafın zayıflığını abartıyorsa 
  • Diplomatik seçenekleri yüzeyde bırakıyorsa 
  • Riskleri asimetrik şekilde dağıtıyorsa
  • Kendi tarafının kapasitesini olduğundan güçlü gösteriyorsa
  • Geçmiş örüntüleri geleceğe aşırı projekte ediyorsa 
  • Beklenmedik davranış ihtimalini ihmal ediyorsa
  • Karar vericinin mevcut eğilimlerini besliyorsa (yapay zekalar bunu anlamakta çok mahirler)

ortaya çıkan analiz, gerçekliğin tamamı değil, seçilmiş bir versiyonudur


Simülasyonların Büyüsü: Varsayımın Gerçekliğe Dönüşmesi

Yapay zekânın en ikna edici çıktısı simülasyonlardır.

Bir ekranda şunu görürsünüz:

  • 72 saatlik operasyon planı 
  • %78 başarı ihtimali 
  • sınırlı bölgesel tepki 
  • kontrol edilebilir ekonomik etki 
  • Düşük sivil kayıp öngörüsü 
  • Hızlı lojistik akış ve kesintisiz ikmal senaryosu 
  • Kritik hedeflerin yüksek doğrulukla vurulma ihtimali 
  • Karşı tarafın sınırlı karşılık verme kapasitesi
  • Diplomatik baskının kısa sürede dengeleneceği öngörüsü 
  • Operasyon maliyetinin öngörülebilir sınırlar içinde kalacağı hesabı 
  • İkincil etkilerin (second-order effects) sınırlı kalacağı varsayımı
  • Kamuoyu tepkisinin kısa vadeli olacağı öngörüsü

Bu tür çıktılar, karar vericiye güçlü bir psikolojik zemin sunar. Sayıları gördüğümüzde tartışma bitmiştir. Ama çoğu zaman şu gerçeği gözden kaçırırız. Simülasyonlar veriye değil, varsayımlara dayanır. Eğer başlangıç varsayımı hatalıysa, sonuç ne kadar sofistike olursa olsun yanıltıcıdır.

Zemininiz kusurluysa üzerine yapacağınız yapı ne kadar mükemmel olabilir?


Yankı Odası 2.0: Algoritmik Konsensüs Yanılsaması

Bugün karar süreçlerinde farklı kaynaklardan gelen analizlerin birbirini doğruladığını sıkça görürüz.

Bu ilk bakışta güven verici olsa da hepsi aynı zihinsel çerçeveden besleniyor olabilir.

  • Aynı veri kümeleri 
  • Benzer model mimarileri 
  • Ortak jeopolitik varsayımlar 
  • Yakın kaynaklardan türetilmiş istihbarat akışları 
  • Ortak kullanılan açık kaynak veri havuzları 
  • Aynı analitik çerçeveler ve metodolojiler 
  • Benzer risk değerlendirme kalıpları

Sonuçta ortaya çıkan şey çeşitlilik değil, benzer sonuçların yinelenmesidir. Ve karar verici şu yanılgıya düşer: “Farklı analizler aynı şeyi söylüyor.” Oysa gerçekte olan şudur: Aynı analiz, farklı formatlarda tekrar ediliyordur. Bu, yaşadığımız yapay zekâ çağının yeni yankı odasıdır.


Kararın Rasyonelleşmesi

Yapay zekâ bugün karar veremiyor, ama kararı meşrulaştırıyor.

Bir lider söze “Bu benim görüşüm” yerine “Veriler bunu söylüyor.” diye başladığında tartışma kendiliğinden kapanır. Ve belki de yapay zekânın en tehlikeli katkısı, kararı tartışılmaz hale getirmektir.


Algoritmik Dalkavukluğu Nasıl Anlarız?

Bir karar sürecinde aşağıdaki işaretler varsa dikkat etmek gerekir:

  • Tüm analizlerin aynı sonuca çıkması 
  • Alternatif senaryoların zayıf kalması 
  • Risklerin sistematik olarak küçümsenmesi 
  • Model çıktılarının sorgulanmaması 

Bu durumlarda sorun verinin eksikliği değil, bakış açısının daralmasıdır.


İtiraz Eden Yapay Zekâ

Düşünüyorum, belki de asıl ihtiyacımız, daha akıllı sistemler değil, bizi sorgulamaya iten mekanizmaları üretmektir. 

  • Karara karşı argüman üreten modeller 
  • En kötü senaryoyu zorla görünür kılan analizler 
  • Belirsizliği saklamak yerine büyüten raporlar 
  • Varsayımları otomatik olarak sorgulayan sistemler 
  • Karar vericinin kör noktalarını ortaya çıkaran araçlar 
  • Alternatif senaryoları eşit ağırlıkta sunan modeller 
  • “Ya yanılıyorsak?” sorusunu sistematik olarak soran analizler 
  • Kararın uzun vadeli maliyetini öne çıkaran simülasyonlar
  • Farklı bakış açılarını sadece sunmayan, çatıştıran sistemler
  • Kullanıcıyı ikna etmeye değil, düşünmeye zorlayan çıktılar 
  • Netlik hissi üretmek yerine, şüphe üretmeyi tercih eden analizler 

Kısacası:

Yapay zekâ bizi onaylamamalı, bizi zorlamalı. Çünkü iyi kararlar, rahatlıkla değil, gerilimle doğar.


Sonuç: En Büyük Risk, Görünmeyen Etkidir

ABD’nin İran’a yönelik bir saldırı kararını tek bir faktörle açıklamak mümkün değil. Ama artık yeni bir unsur daha devrede.

Algoritmaların görünmeyen etkisi.

Bu etki:

  • İddialı görünmez ama kararın yönünü sessizce değiştirir 
  • Tartışma yaratmaz, çünkü sorgulanmaz 
  • İkna eder, çünkü rakamlarla konuşur 
  • Şüphe üretmez, çünkü kesinlik hissi verir 
  • Görünmezdir, çünkü süreçlerin içine gömülüdür 
  • Karar vericinin fark etmediği bir çerçeve çizer
  • Alternatifleri daraltır ama bunu açıkça göstermez
  • Riskleri hesaplar, ama hangilerini hesapladığını söylemez
  • Sorgulamayı değil, onaylamayı kolaylaştırır

Ve belki de en tehlikeli yanı tarafsız görünmesidir. Oysa hiçbir model gerçekten tarafsız değildir. Sadece varsayımlarını iyi gizler.

Bugün sormamız gereken soru şu değil: “Yapay zekâ hata yapar mı?”

Asıl soru: “Yapay zekâ, bizim hatalarımızı daha inandırıcı hale mi getiriyor?”

Eğer cevap evetse, geleceğin en büyük krizleri yanlış kararlardan değil, fazlasıyla doğru görünen kabüllerden doğacak.

İran saldırısında gördük ki yapay zeka elinde ne kadar veriye sahip olursa olsun, hayatta kalmak için savaşan bir toplumun tepkisini sadece rasyonel ekonomik çıkarları üzerinden analiz ettiğinde doğru çıktıları veremiyor.

Yorum bırakın