앤트ropic(Anthropic) CEO’su Dario Amodei(Dario Amodei), ABD Savunma Bakanlığı ve Beyaz Saray’ın aldığı kararlara sert şekilde karşı çıktı. Savunma Bakanlığı ile çalışan savunma sanayi yüklenicilerine Anthropic ürünlerinin kullanılmaması yönünde talimat gitmesinin ardından Amodei, şirketinin ‘büyük ölçekli yurtiçi gözetim’ ve ‘tam otonom ölümcül silahlar’da yapay zekâ kullanımına karşı duruşunu yineleyerek bunun “‘cezalandırıcı’ ve ‘emsalsiz’ bir karar” olduğunu söyledi.
ABD’li CBS News’e göre Amodei, 1’inde (yerel saatle) verdiği röportajda Anthropic’in sivillere yönelik geniş kapsamlı gözetim projelerinde ve insan müdahalesi olmadan ateşleme kararı verebilen tam otonom silah platformlarında kullanılmaya net bir şekilde karşı çıktığını anlattı. Amodei, ABD hükümetinin masaya getirdiği farklı kullanım senaryoları arasında sorun gördükleri alanların yalnızca ‘gözetim’ ve ‘tam otonom silahlar’ olduğunu vurguladı.
Amodei, hükümetten ‘gözetlenmeme hakkı’nı talep etmenin ve savaşla ilgili kararları bizzat komutanların vermesinin ABD’liler için temel bir değer olduğunun altını çizerek, “Bu kararı bütünüyle makinelere bırakamayız” dedi. Yapay zekânın yayılma hızının, düzenleyici çerçevenin ve hukuk sisteminin güncellenme hızını geride bıraktığını da belirtti. Amodei, Kongre’nin, yurtiçinde uygulanacak büyük ölçekli gözetim programlarında yapay zekâ kullanımını sınırlayacak ‘guardrails’ (güvenlik bariyerleri) niteliğinde önlemler alması gerektiğini savundu.
Tartışmanın fitilini ateşleyen gelişme ise ABD Savunma Bakanlığı’nın Anthropic’i bir ‘tedarik zinciri riski’ (supply chain risk) olarak sınıflandırması oldu. Bu kategoriye giren şirketlerin ürünleri, bakanlıkla çalışan yüklenici ve taşeronlar tarafından savunma sözleşmelerinde kullanılamıyor. Amodei, bu kararı “emsali olmayan (unprecedented) ve cezalandırıcı (punitive)” sözleriyle nitelendirdi.
Yine de Amodei, daha sonra yaptığı açıklamalarda, “Yabancı ordular ileride tam otomatik silah sistemlerini yaygın biçimde kullanmaya başlarsa, bu teknolojinin geliştirilmesine kategorik olarak karşı çıkmıyorum” diyerek pozisyonunu bir miktar yumuşattı. Şu anda asıl sorunun, askeri ortamlarda insan müdahalesi olmadan tamamen otonom biçimde çalışacak yapay zekâ sistemlerinin güvenilirliğinin yeterince kanıtlanmamış olması olduğunu da ekledi.
ABD hükümetinin bu tutumu, rakip şirket OpenAI(OpenAI) için hızlı bir fırsata dönüştü. Haber kaynaklarına göre ‘Savaş Bakanı’ (Secretary of War) Pete Hegseth(Pete Hegseth), 28’inde (yerel saatle) Anthropic’i “ulusal güvenlik açısından bir tedarik zinciri riski” olarak tanımladı ve kararın derhal yürürlüğe girdiğini, ABD ordusuyla çalışan hiçbir yüklenici, tedarikçi ya da iş ortağının Anthropic ile ticari faaliyet yürütemeyeceğini açıkladı.
Birkaç saat içinde OpenAI, Savunma Bakanlığı ile anlaşma imzalayarak yapay zekâ modellerini askeri ağ genelinde konuşlandırma kararı aldı. OpenAI CEO’su Sam Altman(Sam Altman) anlaşmayı duyurduktan sonra çevrimiçi ortamda tepkiler çoğaldı. Bazı kullanıcılar ve eleştirmenler, yapay zekânın geniş çaplı yurtiçi gözetim amacıyla kullanılmasının, bireysel mahremiyeti geri dönülmez biçimde zedeleyebileceği uyarısını yaparak bunu bir ‘kırmızı çizgi’ olarak nitelendirdi.
Yapay zekâ, savunma ve iç güvenlik alanlarına hızla yayılırken ‘tedarik zinciri riski’ gibi ulusal güvenlik kavramlarının, belirli şirketlerin pazara erişimini sınırlamak için kullanılabileceği endişesi de büyüyor. Bir yandan da gözetim ve otonom silahlar gibi yüksek riskli kullanım alanlarının hangi sınırlar içinde kabul edilebilir olduğuna dair toplumsal bir uzlaşı sağlanmadan, teknoloji rekabetinin düzenleme boşluğunu derinleştiren bir paradoksa dönüşebileceği yorumları yapılıyor.
Yorum 0