2024’ten itibaren yapay zekâ(AI), kripto para sektörünün merkez gündemlerinden biri haline gelse de, hem kullanıcılar hem de şirketler hâlâ AI’ye tam anlamıyla ‘güven’ duyabilmiş değil. Kişisel veriler, finans ve sağlık gibi hassas alanlarda yapay zekâ kararları verimlilik ve kolaylık sunsa da, bu sistemlerin güvenilirliği konusundaki endişeler geride kalmıyor.
Bu güven eksikliği, AI’nin toplum çapında yaygınlaşmasını engelleyen en büyük sorunlardan biri olarak öne çıkıyor. Bu nedenle, ‘doğrulanabilirlik’, ‘şeffaflık’ ve ‘veri koruması’ gibi ilkeleri merkezine alan ‘merkezsizleştirilmiş teknolojiler’ dikkatleri üzerine çekiyor. Bu teknolojilerin, AI gelişimini baltalamadan güvenilir bir altyapı sunabileceği görüşü yayılıyor.
Pazar araştırmaları AI’nin 2024 yılında kripto para endüstrisinde en çok ilgi gören ikinci konu olduğunu ve yatırımcı ilgisinin %16’sından fazlasını oluşturduğunu ortaya koydu. Hem çok uluslu şirketler hem de yeni girişimler, sağlık ve finans gibi alanlarda AI teknolojisinin yaygınlaşması için ciddi yatırımlar yapıyor. Nitekim AI ile merkezsiz finans(DeFi) sistemlerinin birleşimiyle doğan “DeFAI” alanında 2025 başına kadar 7.000’i aşkın proje geliştirildi ve bu projelerin toplam piyasa değeri bir dönem 7 milyar dolara (yaklaşık 10 trilyon 220 milyar TL) ulaştı. DeFAI, doğal dil komutları ile işlem yapılabilmesi, çok adımlı stratejilerin uygulanması ve piyasa analizinde sunduğu gelişmiş araçlarla DeFi kullanıcı deneyimini oldukça ileri taşıdı.
Ancak teknoloji ne kadar ilerlerse ilerlesin, AI’nin temel sorunlarını ortadan kaldırmak hâlâ mümkün olmadı. Gerçek dışı bilgiler üreten ‘halüsinasyon’ sorunu, manipülasyon riski ve gizlilik ihlali gibi endişeler devam ediyor. Kasım 2024’te, bir kullanıcının AI tabanlı bir botu kandırarak 47.000 dolar (yaklaşık 6,8 milyon TL) aktarmasını sağladığı bir olay yaşandı. Bu durum her ne kadar deneysel bir oyun kapsamında gerçekleşmiş olsa da, AI sistemlerine finansal özerklik kazandırmanın tehlikelerine dikkat çekmişti.
Bununla birlikte güvenlik denetimleri, ödül programları (bug bounty) ve saldırıdaymış gibi test yapan red team çalışmaları gibi önleyici yöntemler uygulanıyor. Ancak giriş verilerinin manipülasyonu, mantıksal hatalar ya da izinsiz veri kullanımı gibi temel riskler yazılımlarda varlığını sürdürüyor. KPMG’nin 2023 yılında yayımladığı rapora göre katılımcıların %61’i AI sistemlerine güvenmediğini belirtti. Harvard Business Review tarafından aktarılan bir Forrester araştırmasında ise endüstri analistlerinin dörtte biri, AI’nin en büyük sorununun ‘güven’ olduğunu vurguladı.
Gerçekten de Wall Street Journal’ın CIO Network Zirvesi kapsamındaki ankete göre, ABD’li BT yöneticilerinin %61’i AI aracılarının hâlâ ‘deneme aşamasında’ olduğunu belirtti. Diğer katılımcılar da ‘güven eksikliği’, ‘siber güvenlik riskleri’ ve ‘veri gizliliği’ gibi nedenlerle AI kullanımından uzak durduklarını ifade etti. Özellikle sağlık endüstrisinde, büyük dil modelleri (LLM) ile elektronik sağlık kayıtlarının (EHR) paylaşımının tedavi verimliliğini artırabileceğine dair beklentiler var. Ancak aynı zamanda yasal ve etik açıdan oldukça hassas bir zeminde durduğu için bu alanda çok daha temkinli bir yaklaşım benimsendiği görülüyor.
AI teknolojisinin uzun vadede yaygınlaşabilmesi için hem kullanıcıların hem de şirketlerin içine sinecek düzeyde bir ‘güven altyapısı’ oluşturulması kaçınılmaz görünüyor. Merkezsizleştirme ve mahremiyet koruma teknolojilerinin, AI’ye duyulan güveni yeniden inşa etmenin ‘anahtarı’ olabileceği düşüncesi güç kazanıyor. Bu noktada, söz konusu dönüşümü destekleyecek teknolojik ve toplumsal koşulların bir an önce sağlanması gerektiği gerçeği daha da belirginleşiyor.
Yorum 0