İnsansız yani vicdansız geleceğe dair ipuçları gelmeye başladı. Gazze’de öldürülen 53 bin kişinin ölümüne bir makine karar verdi. Çin’deki yapay zekalı dijital adalet sistemi, kararları pek de hukuk insanlarına bırakmıyor. Makineyi insan kontrolü olmadan kullanmamamız gereken durumları düşünmek için iyi bir zaman
Ayşegül İLDENİZ
Hedefleri saptayıp sonra füze atan yapay zeka artık literatüre giriverdi. Yasa yapıcılar ve toplum, bazı kararların mutlaka insan tarafından verilmesi gerektiğine dair yeterince ses çıkarmıyor diye korkuyorum. Bu iş yine biz teknolojistlere kalacak, konu arada kaynayacak diye endişe ediyorum.
Daha birkaç hafta önce Dario Amodei insan onayı olmadan silah kullanımına izin vermeyeceklerini söylediği için Pentagon’dan aforoz edilmişti. Tetiği çekenin mutlaka insan olması gerektiği fikrinin bile tartışmaya açılması öyle tüylerimi ürpertti ki, bence insan denetiminin en kritik olduğu iki alanı; adalet ve güç kullanımını sizlerle paylaşmak istedim.
Savaşta düğmeye basan insan mı?
Hem Amerika hem de İsrail’in otonom sistemleri savaşta yaygın şekilde kullandıklarını biliyoruz. Daha önce rastlamadığımız hızda hedef belirleyip operasyonlar yürütüyorlar. Kendi kendine hedef belirleyip yok eden Lavender adlı sistemin Gazze’de yaygın şekilde kullandığına şahit olduk. İsrail ordusunun kendi değerlendirmesine göre sistem yüzde 90 başarılı. Yani yapay zekanın terörist olarak teşhis ettiği ve öldürülmesi kararını desteklediği 53 bin kişinin yüzde 10’u yanlışlıkla öldürülmüş. Oysa veriler bize bu 53 bin kişinin sadece yüzde 17’sinin sivil olmadığını, en az yarısının kadın ve çocuk olduğunu söylüyor. Sistem için bir insanı yok etmenin en kolay ve verimli (evet verimli, yani ucuz!) yolu, akşam evde ailesinin yanındayken vurmak. Yani ölenlerin büyük çoğunluğu, “terörist” diye nitelenen kişilerin çoluk çocuğu.
Yapay zeka, “aranan” ya da “şüpheli” kişileri teşhis ediyor, daha sonra yasa gereği bir insanın bomba ya da füze düğmesine basması gerekiyor. İnsanın makinenin verdiği kararı sorgulama süresi yaklaşık 20 saniye olmuş. Karar verici bu 20 saniye içinde teşhis edilen kişinin sadece erkek olup olmadığını değerlendirebiliyor. Erkek olduğuna kanaat getirince de düğmeye basıyor. Yani sorgulama, değerlendirme yapılmıyor.
Özetle, bir insanın yaşayıp yaşamayacağına 20 saniyelik bir inceleme hariç bir makine karar veriyor. Bu karara uygulayıcılar neredeyse yüzde yüz güveniyor. Hata payını ise göz ardı ediyorlar. Etiği, uluslararası yasaları bırakın, yerel yasaları bile uygulamaktan kaçınan sistemin artık yepyeni bir canavarı oldu…
Mahkemede kararı veren yargıç mı?
Benzer bir dönüşüm adalet sisteminde de görülüyor. Çin’de yeni kurulan dijital destekli mahkemelerde dava dosyalarını yapay zeka değerlendiriyor ve yargıçlara karar önerileri sunuyor. 206/Şangay isimli yapay zeka sistemi ceza davalarında delil analizi yapıyor. Geçmiş davalara bakarak ceza öneriyor. Ayrıca mahkemelerin bir kısmı akıllı mahkemelere çevrilmiş, davalar internet üzerinden görülüyor. Yani adalet sisteminin bir kısmı otomasyon sürecine geçmiş.
Bu uygulamada çeşitli sorunlar ortaya çıkmış. Çinli araştırmacılar 2018 ile 2022 arasında yapay zeka kullanılarak verilen hükümleri değerlendirince, neredeyse yüzde yüz oranda yapay zekanın önerdiği ceza aralığına sadık kalındığını gözlemlemişler. Savunma tarafı çoğu zaman sistemin hangi delile dayanarak karar verdiğini öğrenemiyor. Bu bağlamda savcılık ve savunma arasında bir eşitsizlik meydana geliyor. Diğer bir problem ise, yapay zeka sistemi devreye girmeden önce yani 2021’de milyonlarca dava sonucu açık veri tabanından kaldırılmış. Yapay zekanın eksik ya da özel seçilmiş verilerle eğitilmesi sistemin şeffaflığını tartışmalı hale getiriyor. Bunun yanında devletin hoşuna gitmeyen geçmiş kararları görmezden geldiğine dair spekülasyon da doğuruyor, tüm adalet sistemini sorgulatıyor.
İnsan yargısını istatistiksel bir modele dönüştürme tehlikesi ile karşı karşıyayız. Bu sistem, insanı devreden çıkararak aslında nesnel bir süreç yaratıyormuş gibi görünebilir. Ama aslında önyargılar ve politik etkileri içeren kararlar alınmasına yol açıyor.
Olması gereken ne?
İnsanın sorguladığı, anladığı ve müdahale edebildiği bir sistem kurulmalı. Özellikle ceza verme ve ölümcül güç kullanma gibi durumlarda, gerçek karar vericinin insan olma zorunluluğu getirilmesi ve bu karar için insana yeterli zaman tanınması çok önemli. Ayrıca sistemlerin şeffaf ve denetlenebilir olması, en önemlisi de bugün yapay zekada yeterince bulunmayan açıklanabilirlik özelliğinin kazandırılması gerekiyor. Bunun yanında hakimler, savcılar ve askerlerin yapay zekanın neleri göz ardı edebileceği, hangi önyargılar ya da eksik verilerle kararlara varabileceği konusunda çok iyi eğitilmeleri gerekecek. Bireylerin hukuki olarak itiraz edebilmesi ve tüm yapay zeka kararlarını sorgulayabilmesi de son derece önemli.
Sonuç
Konu insanın tamamen sistemden çıkarılması değil, insanın sistem içinde etkisiz hale gelmesi. Adaletin gelecekte bürokratik bir otomasyona dönüşmesi, savaşta ise şiddetin normalleşmesi, vicdanın öldürülen insan sayısının gölgesinde kalması riskini doğuruyor. Bu kararlar bir şirket ya da kuruma bırakılabilecek teknik seçimler olmamalı. Aksine bir yönetişim zorunluluğu haline gelmeli. İnsanların bu kadar büyük sonuçlar doğuran eylemlerde karar alma süreçlerinin sorumluluğunu makinelere bırakmaması, vicdani sorumluluğu ellerine almaları şart.
Konu teknik değil etik
“Human in the loop”, yani insanın karar süreçlerine dahil olması, yapay zeka üreticilerinin tasarım sırasında en baştan düşünmesi, her aşamada izlemesi gereken bir süreç aslında. Konu hiç de teknik değil. Programı tasarlayan şirketin ya da kurumun etik bir yaklaşım geliştirmesi ve sergilemesi gerekiyor.
Eğitim sürecinden karar anına, hatta ajanların aksiyon alması istenen noktaya kadar, nerede insanın devreye gireceği, kararların hangi kriter ve kurallar bağlamında verileceği son derece teknik konular. Hepsinin düşünülmesi ve bir etik çerçeve ve politika içinde yanıt verilmesi gerekiyor.
Canavar yaratıp parmaklıklar arkasında tutmak: Yeni dünyanın kaosu
Yaşadığımız kaotik dünyayı her gün damarlarınızda hissediyorsunuz, biliyorum. Kaosun ne kadar büyüdüğüne dair bir örneği kucağınıza bırakacağım.
ABD hükümetinin yasakladığı Anthropic, stratejik ve kritik her çeşit altyapıdaki siber güvenlik açıklarını bulan “Mythos” adlı yeni bir versiyon geliştirdiğini açıkladı. Yapay zeka alanında net bir yasal çerçeve olmadığı için de Mythos’u kamuya açmak yerine sadece 30 şirketle paylaşacağını duyurdu.
Mythos şimdilik bizlere sunulmayacak çünkü tarihin en güçlü yazılım açıklarını bulabilme kapasitesine sahip. Sistem bankacılıktan enerjiye, havayolu sistemlerinden ticarete, sağlıktan lojistiğe aklınıza gelebilecek her çeşit hayati altyapıdaki yazılım açıklarını bulup çökertme gücüne sahip. ABD Maliye Bakanı, Merkez Bankası Başkanı ve en büyük bankaların yöneticileri toplanıp tehlikelere karşı uyarı yayınladılar bile. Anthropic ise tamamen kendi inisiyatifiyle dünyayı uyardı ve erişimi kısıtlıyor.
Anthropic ve ABD davalık oldu
Hatırlarsınız, aynı şirket yakın zamanda Pentagon ile birbirine girdi ve devlet tarafından sakıncalı ilan edildi. Nedeni de basit: Anthropic, ürünlerinde insan kararı olmaksızın ölümcül güç kullanımına izin vermemiş ve kitlesel gözetleme için kullanmasına karşı çıkmıştı. Şu an şirket ve devlet mahkemelik. Bu çatışma teorik olarak Anthropic’in sonunu getirebilir, çünkü iş ortaklarının da şirketin yapay zeka modellerini kullanması yasaklanacak. Yine hatırlarsınız, ABD’nin son zamanlardaki tüm savaş ve saldırılarında Claude kullandığı ortaya çıktı.
Özetle, bir yandan dünyanın en gelişmiş teknolojilerden birini geliştiriyorsunuz, diğer yandan kullanımını sınırlamaya, hatta ortadan kaldırmaya çalışıyorsunuz.
Çin ya da başka bir ülkeye karşı ya da onlar tarafından kullanılabilecek bu kadar önemli bir teknolojiyi var eden şirketi yasaklamaya çalışıyorsunuz.
Kural olmaz ise kim sorumlu olur?
Ben soruları sıralayayım. İşin içinden siz çıkın.
• Şirketler milli güvenlik ya da insan yaşamıyla ilgili çok kritik ve stratejik değerlere sahip olursa bu şirketler hâlâ özel sektörde kalabilir mi yoksa devlete mi geçmeli?
• Şirketin ürettiği stratejik ve kritik değerin kullanım ve yönetişim kurallarını kendileri mi yoksa yasama mı belirlemeli?
• Herhangi bir kural olmazsa (bugünkü durum, ABD’de yapay zekaya dair spesifik herhangi kural ya da yönetmelik bulunmuyor) sonuçlardan kim sorumlu olur?
• Bir şirket geliştirdiği kritik bir teknolojinin devlet tarafından kullanılmasına engel olma hakkına sahip midir? Yoksa devlet şirketi şu anda yapmaya çalıştığı gibi milli güvenliğe aykırı ilan edebilir mi?
• Toplumun yararı ve çıkarını gözetmek bu durumda kimin görevi?
Teknoloji, yasalar ve kurumlardan daha hızlı koşuyor. Bununla başa çıkmak yerine başımızı kurumlar olarak kuma gömüyoruz. Kural olmayan yerde yasaklama devreye girer. Şaşırdık mı?
(Oksijen O2, 17-23 Nisan 2026)


Bu Yazıya Hiç Yorum Yapılmadı.
SİZ DE YORUM YAZIN