오늘(yerel saatle) ABD’de savunma ve istihbarat altyapısını çevreleyen yapay zeka(AI) alanında ‘güvenlik’ tartışması büyüyor. ABD Savunma Bakanlığı’nın 앤트로픽(Anthropic)’i ‘tedarik zinciri riski’ olarak tanımlamasının hemen ardından, 오픈AI(OpenAI) gizli askeri ağa kendi modellerini yerleştirmeyi içeren bir anlaşma imzaladı. Aynı dönemde Wall Street devi Morgan Stanley(MS), kripto para saklama, alım-satım ve staking faaliyetlerini kapsayan banka lisansı sürecini resmen başlattı. AI düzenlemeleri ve ulusal güvenlik gündemi sertleşirken, geleneksel finansın dijital varlık entegrasyonu da belirgin biçimde hızlanıyor.
Yapay zeka şirketi 앤트로픽’in CEO’su 다리오 아모데이(Dario Amodei), ABD hükümetinin şirketi ‘tedarik zinciri riski(supply chain risk)’ kategorisine almasına açıkça itiraz etti. Amodei, ilgili kararın açıklanmasının ardından yaptığı değerlendirmede, bunu ‘kelime’kararın eşi benzeri görülmemiş’unprecedented’’kelime’ bir adım olarak niteledi ve savunma alanında AI kullanımına ilişkin ‘güvenlik’ ve ‘kontrol’ ilkelerinin bu şekilde zedelenebileceğini savundu. ‘yorum’Burada Amodei, konunun yalnızca ticari bir tercih değil, doğrudan anayasal haklar ve savaş hukuku pratiğiyle bağlantılı olduğunu vurguluyor.‘yorum’
Amodei, Anthropic’in ABD Savunma Bakanlığı ile şimdiye kadar önemli bir iş ortağı olarak çalıştığını, bakanlığın AI kullanımına ilişkin sunduğu örneklerin büyük bölümüne katıldıklarını belirtti. Ancak ‘tam otonom silah platformları’ ve ‘ülke içi geniş çaplı gözetim’ alanlarında net bir kırmızı çizgi çektiklerini açıkladı. CBS News’e konuşan Amodei, “Hükümet tarafından izlenmeme hakkı ve savaş konusunda kararları bizzat askeri komutanların alma hakkı gibi, Amerikalılar için temel sayılabilecek değerler söz konusu” ifadelerini kullandı.
Bu kararın arka planı ve hangi kriterlere dayanarak alındığı, çevrimiçi tartışmaları da alevlendirdi. Savunma yetkilisi Pete Hegseth(Pete Hegseth), Anthropic’i ulusal güvenlik açısından ‘tedarik zinciri riski’ kategorisine soktuklarını duyurdu. Devamında, savunma sanayi yüklenicilerinden Anthropic modellerini kullanmadıklarını belgelemelerini isteyen bir doğrulama mekanizmasının gündeme gelmesi, tartışmayı daha da büyüttü. Özellikle bu tür risk etiketlerinin çoğunlukla ‘düşman’ statüsündeki yabancı aktörlere uygulandığı hatırlatılarak, ‘kelime’ABD merkezli bir şirkete benzer muamelenin yapılması’kelime’ tepki çekti. Buna karşılık bazı çevreler de ‘kelime’nazik savunma alanlarında çok daha sert bir inceleme ve seçicilik gerektiğini’kelime’ savunarak kararı destekledi.
Bu gelişmelerin hemen ardından 오픈AI(OpenAI), ABD Savunma Bakanlığı ile anlaşma yaparak kendi AI modellerini ‘gizli askeri ağlarda’ görevlendirme kararı aldı. Şirket CEO’su 샘 올트먼(Sam Altman), cuma gecesi X(Eski adıyla Twitter)’te paylaştığı mesajda, modellerinin bakanlığın ‘kelime’gizli ağları(classified network)’kelime’ içinde kullanılacağını açıkladı. Altman, Savunma Bakanlığı’nın ‘güvenlik’ konusuna yüksek hassasiyet gösterdiğini ve OpenAI’nin kendi ‘guardrail’leri yani operasyonel sınırlamaları çerçevesinde iş birliği yapmaya istekli olduğunu vurguladı.
Sektörde bu anlaşma, yoğun geçen bir haftanın zirve noktası olarak görülüyor. Aynı günün erken saatlerinde Hegseth’in Anthropic’i ‘ulusal güvenlik açısından tedarik zinciri riski’ kategorisine alması ve savunma yüklenicilerine bu şirketin modellerini kullanmadıklarını kanıtlama zorunluluğu getirmesi dikkat çekmişti. Benzer risk sınıflandırmalarının çoğunlukla düşman veya rakip ülkelerle bağlantılı kurumlara uygulandığı düşünüldüğünde, bu kararın iç pazarda yarattığı dalga daha da büyüdü.
Buna paralel olarak Başkan Trump, tüm federal kurumlara Anthropic teknolojisinin kullanımını ‘kelime’derhal durdurma’kelime’ talimatı verdi; hâlihazırda Anthropic sistemlerini kullanan kurumlara ise 6 aylık bir geçiş süresi tanındı. Böylece federal tedarik ve operasyon ortamında şirketler arası ‘kelime’güvenlik yeterliliği’kelime’, pazar payını belirleyen temel bir unsur haline geldi. ‘yorum’Artık AI sözleşmeleri yalnızca teknik üstünlük veya fiyat rekabetiyle değil, doğrudan ulusal güvenlik ve politika riskleriyle şekillenen bir alan olarak görülüyor.‘yorum’
Finans cephesinde ise Morgan Stanley(MS) dijital varlık hamlesini hızlandırdı. Banka, müşteri varlıklarını dijital ortamda saklama(kelime’custody’kelime), alım-satım, takas(swap), transfer ve staking gibi işlemleri tek çatı altında yapabilmek için bir ‘trust bank’ lisansı başvurusunda bulundu. Bu adım, genişleme stratejisini ‘kelime’düzenleyici çerçevenin içine yerleştirme’kelime’ ve belirsizliği azaltma hamlesi olarak değerlendiriliyor.
ABD Para Birimi Denetleme Ofisi(OCC) kayıtlarına göre Morgan Stanley, ‘Morgan Stanley Digital Trust, National Association’ adıyla 18 Şubat’ta ulusal düzeyde faaliyet gösterecek yeni(de novo) bir ‘national trust bank’ lisans başvurusunu iletti. Bloomberg ve Forbes’un aktardığı belgelere göre, bu bağlı ortaklık belirli dijital varlıkları saklamayı, müşterilerin yatırım faaliyetlerini desteklemek amacıyla alım-satım, swap ve transfer işlemlerini yürütmeyi ve ayrıca kripto para staking hizmeti vermeyi planlıyor.
Piyasada bu başvuru, hem ‘kelime’kurumsal yatırımcı talebinin anlamlı biçimde büyüdüğüne dair bir sinyal’kelime’ hem de ‘kelime’düzenleyici kurumlarla daha yakın çalışarak iş modeli risklerini azaltma, yani lisanslı ve gözetim altındaki yola geçiş tercihi’kelime’ olarak yorumlanıyor. Öte yandan asıl kritik noktanın, lisans onaylanırsa Morgan Stanley’nin hangi dijital varlıkları listeleyeceği, saklama mimarisini nasıl kuracağı ve risk yönetimi çerçevesini hangi seviyeye taşıyacağı olduğu vurgulanıyor.
AI alanında ‘kelime’ulusal güvenlik’kelime’ merkezli sert bir süzgeç gündeme otururken, kripto para ekosisteminde ise büyük finansal kurumların ‘kelime’düzenleyici uyum temelli yeni bir altyapı yarışı’kelime’ başlattığı görülüyor. ‘yorum’Bu iki eğilim birleştiğinde, hem yapay zeka hem de dijital varlık piyasalarında bir sonraki büyüme dalgasının, devlet gözetimi ve regülasyonla çok daha sıkı iç içe geçmiş bir zeminde şekilleneceğine dair beklenti güçleniyor.‘yorum’
Yorum 0