AI teknolojisindeki ilerlemelerin insanlık üzerindeki etkisi tartışmasız bir biçimde hissediliyor. Özellikle *oluşturucu modeller* ve doğal dil işleme temelli *büyük dil modelleri (LLM)* birkaç yıl içinde hem piyasa yapısını hem de endüstri stratejilerini köklü bir şekilde değiştirdi. Ancak bu teknolojinin mitolojik Prometheus’un ateşi gibi *‘çifte taraflı bir kılıç’* olduğunu belirten eleştiriler de giderek artıyor. 24’ünde (yerel saatle) yayınlanan bir rapora göre, blokzincir araştırma şirketi Four Pillars(포필러스), AI teknolojilerinin beraberinde getirdiği temel tehditlerden biri olarak *veri gizliliği ihlali*ni gösterdi ve bu tehdide karşı blokzincir temelli çözümlerin bir alternatif olabileceğini öne sürdü.
Raporda, AI sektörünün şu ana kadar sağladığı olumlu etkilerden çok, teknolojinin hızlı gelişimine karşın yetersiz kalan *veri yönetim altyapısı* ve bunun doğurabileceği *kişisel veri sızıntısı* tehlikesi ön plana çıkarıldı. Zira büyük ölçekli yapay zeka modelleri çok miktarda veriye ihtiyaç duyuyor ve bu veriler arasında kaçınılmaz olarak *hassas kullanıcı bilgileri* de yer alıyor. Her ne kadar birçok AI şirketi bu verilerin kullanımına dair *şeffaf politika*lar geliştirmeye çalışsa da, kullanıcıların büyük kısmı verdikleri bilgilerin *nerede ve nasıl kullanıldığını* tam anlamıyla bilmiyor.
Buna örnek olarak 2018’deki *Cambridge Analytica* olayıyla, 2023 yılında yaşanan *ChatGPT veri sızıntısı* vakası gösterildi. İlk olayda milyonlarca Facebook kullanıcısının verileri izinsiz şekilde toplanarak siyasi kampanyalarda kullanılmıştı. İkinci olayda ise sistemsel bir hata, çok sayıda kullanıcının sohbet geçmişlerini ve ödeme bilgilerini açığa çıkardı. Bu örnekler, AI teknolojilerinin kontrolsüz gelişmesinin yalnızca bireyler için değil, tüm toplumlar açısından *güvenlik ve güven krizlerine* yol açabileceğini gösteriyor.
Bu noktada Four Pillars, yenilikçi bir çözüm olarak *‘Blind Computing (Görünmez Hesaplama)’* yöntemini öneriyor. Blind Computing, verileri tamamen şifrelenmiş biçimde işleyerek, bilgiye doğrudan erişim olmadan sonuca ulaşmayı sağlayan bir teknoloji olarak tanımlanıyor. Bu alanda dikkat çeken örneklerden biri *Nillion* adlı proje. Nillion, blokzincir ile entegre çalışan *dağıtık hesaplama altyapısı* sayesinde, verilerin ifşa olmadan yapay zeka eğitimi ve çıkarım için kullanılabildiği bir sistem sunmayı hedefliyor.
Nillion sadece bir teknoloji deneyi değil; Four Pillars’ın raporuna göre, bu proje AI endüstrisi için özel olarak tasarlanmış bir altyapı katmanı kurarak internet üzerinde *‘görünmez hesaplama katmanı (blind computing layer)’* oluşturmayı amaçlıyor. Bu sayede büyük teknoloji firmalarının elindeki veri ve işlem gücü tekeline karşı bir *merkezsizleşme* sağlanırken, kullanıcıların verilerini *gönüllü ve ödüllü biçimde* kullanabileceği yeni bir dijital ekonomi ekosistemi oluşturulması hedefleniyor.
OpenAI’nin yakın zamanda gerçekleştirdiği yaklaşık *40 milyar dolarlık yeni yatırım turu* gibi gelişmeler, AI endüstrisinin hız kesmeden büyümeye devam ettiğini gösteriyor. Ancak bu büyüme, gereken *etik ve güvenlik önlemleri* alınmadığı takdirde teknolojik ilerlemenin yanında yeni krizleri de beraberinde getirebilir. Veri gizliliği meselesi artık yalnızca şirket içi bir sorun değil, *küresel yönetişim* ve hatta ulusal güvenlik açısından ele alınması gereken bir başlık haline geliyor.
Sonuç olarak Four Pillars, AI’nın bu baş döndürücü gelişme hızına karşı insanlığın daha bilinçli ve akıllı bir tutum sergilemesi gerektiğini vurgularken, Nillion gibi *merkezsiz çözümlerin* bu sürece yön verebileceğine dikkat çekiyor. Modern çağın ‘Prometheus ateşini’ kontrol edebilmek için, eski yöntemlerin dışında yepyeni *teknoloji paradigmaları*na ihtiyaç duyuluyor.
Yorum 0