Yapay Zekâ ve Savaş: Katil Robotlar mı Barış Melekleri mi?
2020 yılında “Katil Robotlar” başlıklı bir yazı yazmıştım. Bu yazım da onun devamı niteliğinde…
Uzay Yolu'nun fantastik dünyasından fırlamış bir senaryo gibi görünse de yapay zekâ ve savaş çağımızın en önemli konularından biri hâline geldi.
Peki, yapay zekâlı robotlar gerçekten de savaş alanlarında insanlığı tehdit eden katil makinalara mı dönüşecek, yoksa barışın koruyucuları mı olacak?
Çin ve Rusya'nın yapay zekâlı uçakları ordularına entegre etmeye başlaması, ABD'yi harekete geçirdi. DARPA'nın hava savaşı yarışması ve Pentagon'un etik ilkeleri bu alandaki rekabetin ve endişelerin boyutunu gösteriyor.
ABD’nin Savunma Eski Bakanı Mark Esper, yapay zekânın ulusal güvenlik için kritik önem taşıdığını ve müttefiklerle iş birliği yapılması gerektiğini vurgulamıştı.
Fakat bu iş birliğinin temelinde ne yatacak?
Ortak kurallar mı, yoksa güç gösterisi mi?
Savaş ya da barış zamanında yapay zekâlı robotların yaptığı hatalardan kim sorumlu olacak?
Robotlar mı, yoksa onları programlayan ve kullanan insanlar mı?
"Roma'yı kim yaktı?" sorusunun modern versiyonu kulaklarımıza çalınıyor.
ABD Hava Kuvvetleri Bakanı Frank Kendall'ın Vista (yapay zekâ kontrolündeki F16) ile yaptığı deneme uçuşu yapay zekânın hava muharebelerindeki potansiyelini gözler önüne seriyor.
Kendall, yapay zekâya savaşta ateş etme konusunda güvendiğini söylüyor.
Fakat bu güven ne kadar doğru? Yapay zekânın hata yapma ihtimali yok mu?
Amerikan Hava Kuvvetleri'nin 2028'e kadar binlerce yapay zekâlı insansız savaş uçağı filosu kurma planı ise adeta bir distopik senaryoyu andırıyor.
Silah kontrol uzmanları ve insani yardım kuruluşları bu fikre karşı çıkarken, Uluslararası Kızıl Haç Komitesi, "Ölüm kalım kararlarının sensörlere ve yazılımlara bırakılması konusunda yaygın ve ciddi endişeler var" diye uyarıyor.
Kendall, sistemde her zaman insan gözetiminin olacağını ve yapay zekâlı jetlerin "gelecek" olduğunu savunuyor.
Fakat bu gelecek insanlığın hayrına mı olacak yoksa felaketine mi?
Vista'nın it dalaşlarında pilotları geride bıraktığı söyleniyor. Bu durum yapay zekânın bir gün insan yeteneğini aşacağı ve kontrolden çıkacağı korkusunu besliyor.
Peki, o zaman ne olacak?
Yapay zekâ insanlığın kaderini mi belirleyecek?
Yapay zekâ ve savaş arasındaki karmaşık ilişki etik ve politik açıdan birçok soru işareti barındırıyor.
Sorulara acil cevaplar bulmamız gerekiyor. Yoksa yapay zekâlı katil robotlar, Uzay Yolu'ndan fırlayan fantastik bir senaryodan öte gerçek birer kâbusa dönüşebilir.
Yapay zekâlı robotların savaşta kullanımı etik açıdan pek çok karmaşık sorunu da beraberinde getiriyor.
Robotların insan hayatı almasına izin verilecek mi?
Hangi durumlarda ve ne şekilde kullanılabilecekler?
Sorumluluk kimde olacak?
Sorularına net ve uluslararası alanda kabul görmüş cevaplar bulmamız gerekiyor.
Uluslararası hukuk da bu alanda yetersiz kalıyor. Mevcut yasalar yapay zekâlı robotların savaşta kullanımıyla ilgili net hükümler içermiyor. Bu durum insan hakları ihlallerine yol açabilir.
Yapay zekânın savaş alanlarında sadece tehlike yaratmayacağını da belirtmek gerekir.
Yapay zekâlı sistemler; savaşların önlenmesi, barışın korunması ve insani yardımların daha etkili bir şekilde ulaştırılması için de kullanılabilir.
Örneğin, istihbarat toplamak, sınırları izlemek ve potansiyel çatışmaları önceden tespit etmek için kullanılabilir. Böylece savaşların önlenmesi ve masum insanların hayatlarının korunması mümkün olabilir.
Ayrıca yapay zekâlı sistemler; doğal afetler veya insani krizler gibi durumlarda afetzedelere yardım ulaştırmak için de kullanılabilir.
Örneğin, zorlu arazilerde arama kurtarma faaliyetlerine yardımcı olabilir veya gıda ve tıbbi malzemelerin ihtiyaç duyulan bölgelere daha hızlı ve etkin bir şekilde ulaştırılmasını sağlayabilir.
Kısacası yapay zekânın askerî alanda kullanımı konusunda endişeler haklı olmakla birlikte, barışın sağlanması ve korunmasında da faydalı olabileceği unutulmamalıdır.
Önemli olan yapay zekâyı nasıl kullanacağımıza dair doğru kararlar vermek ve bu kararların uluslararası toplum tarafından ortaklaşa alınmasıdır.
Yapay zekânın askerî alanda kullanımı konusundaki en büyük endişelerden biri sistemlerin programlanma şekli ve karar verme süreçlerindeki bağımsızlığın artmasıdır.
Eğer yapay zekâlı robotlara kendi başlarına hedef seçme ve saldırı emri verme yetkisi verilirse, bu durum felaketlerle sonuçlanabilir.
Yapay zekâlı silahların geliştirilmesi ve kullanımı aşamasında insan denetimi ve gözetimi her zaman en üst seviyede tutulmalıdır. Silah sistemlerinin karar verme süreçlerinde insan faktörünün rolü asla azaltılmamalıdır.
Ayrıca yapay zekâlı silahların geliştirilmesi ve kullanımıyla ilgili olarak uluslararası bir çerçeve oluşturulması gerekmektedir. Yapay zekâlı silahların yasaklanması veya kısıtlanması gibi seçenekleri de içerebilir.
Yapay zekânın askerî alanda kullanımı konusunda kamuoyu farkındalığı artırılmalı ve sivil toplum kuruluşlarının çalışmaları da desteklenmelidir.
Yalnızca askerî yetkililerin ve hükûmetlerin değil, toplumun tüm kesimlerinin bu tartışmaya dâhil olması ve sorumlu bir şekilde hareket edilmesi gerekmektedir.
Medya kuruluşlarının yapay zekâ teknolojisi ve savaş arasındaki ilişkiyi tarafsız bir şekilde ele almaları ve kamuoyunu doğru bilgilendirmeleri de son derece önemlidir.
Aksi takdirde yanlış bilgi ve spekülasyonlar yapay zekâya karşı gereksiz bir korku ortamının oluşmasına yol açabilir.