DeepSeek R1’ın ortaya çıkışı, yapay zeka(AI) teknolojisinin hem potansiyelini hem de risklerini gözler önüne seriyor. Düşük maliyetle hızlı bir şekilde geliştirilebilmesi olumlu bir gelişme olarak değerlendirilse de, ‘kişisel verilerin korunması’, ‘önyargı’ ve ‘güvenlik açıkları’ gibi sorunların hâlâ çözüme kavuşturulmadığı görülüyor.
DeepSeek R1, 20 Ocak’ta piyasaya sürülmesinin ardından dünya çapında teknoloji uzmanları ve politika yapıcıların dikkatini çekmiş durumda. Kimi çevreler bunu büyük bir teknoloji atılımı olarak değerlendirirken, ‘güvenlik’ ve ‘mahremiyet’ konularındaki soru işaretleri nedeniyle bazı ülkeler modeli yasaklama yoluna gitti.
Bu AI modeli yalnızca 60 gün içinde geliştirildi ve 600 milyon doların (yaklaşık 87 milyar won) altında bir maliyetle piyasaya sürüldü. Geleneksel yapay zeka sistemleri büyük miktarda hesaplama kaynağı gerektirirken, DeepSeek optimizasyon teknikleriyle maliyetleri ve geliştirme süresini azaltmayı başardı. Bu yöntem, AI geliştiricileri için yeni bir ‘yol haritası’ oluşturabilecek bir yaklaşım olarak değerlendiriliyor.
Ancak DeepSeek R1, diğer büyük dil modelleri(LLM) gibi ‘mantıksal akıl yürütme’, ‘karmaşık planlama’, ‘gerçek dünya anlayışı’ ve ‘uzun vadeli hafıza’ gibi konularda sınırlamalara sahip. Bu da mevcut LLM’lerin temel kısıtlamalarını aşamadığını gösteriyor ve daha köklü bir AI tasarım devriminin gerekliliğine işaret ediyor.
Öte yandan DeepSeek R1’ın kullanım politikalarının incelenmesi sonucunda, ‘kullanıcı verisi depolama’ ve ‘gözetim yetkileri’ hakkında çeşitli endişeler ortaya çıktı. Kullanıcılar hesaplarını silse dahi veriler tamamen kaldırılmıyor ve DeepSeek, ‘kullanıcı girişlerini izleme’ yetkisine sahip olduğunu belirtiyor. Ayrıca Çin’deki yasalara tabi olduğu için hükümetin talebi doğrultusunda verilere erişim sağlayabileceği ifade ediliyor. Bu durum, Avrupa Birliği’nin Genel Veri Koruma Yönetmeliği(GDPR) ile çeliştiği gerekçesiyle Belçika, İrlanda ve İtalya gibi ülkelerde DeepSeek R1’ın geçici olarak yasaklanmasına yol açtı.
Model, ‘önyargı’ ve ‘sansür’ konusunda da eleştiriler alıyor. Çin’in AI düzenlemeleri gereği yapay zekanın “sosyalist temel değerlere” uyum sağlaması gerektiğine dair özel hükümler bulunuyor. Bu, DeepSeek R1’ın belirli politik sınırlamalara tabi olabileceği ve Çin hükümetinin perspektifine göre bilgi üretebileceği yönünde soru işaretleri doğuruyor.
Güvenlik açıkları da önemli bir tartışma konusu. Güvenlik firması Qualys tarafından yapılan testler, DeepSeek R1 modelinin güvenlik duvarlarını aşmaya çalışan saldırıların yarıdan fazlasına karşı başarısız olduğunu ortaya koydu. Bu durum, AI çözümlerini benimsemek isteyen şirketler için önemli bir ‘risk faktörü’ olarak öne çıkıyor. Goldman Sachs, DeepSeek R1’ı değerlendirmeye aldığını ancak kapsamlı güvenlik testlerinin tamamlanmasının kritik olduğunu ifade etti.
Sonuç olarak AI modellerinin güvenli ve sorumlu şekilde geliştirilmesi, ‘yenilik’ ve ‘risk yönetimi’ arasındaki dengenin sağlanmasına dayanıyor. Merkezi yapıya sahip AI sistemlerinin sorunlarını aşmak için ‘merkeziyetsiz AI’ ve hatta ‘merkeziyetsiz otonom organizasyonlar(DAO)’ temelli AI çözümlerinin potansiyel alternatifler olabileceği öne sürülüyor. AI’nın küresel ölçekte hızla yayıldığı düşünüldüğünde, uluslararası düzeyde bir AI düzenleme çerçevesinin oluşturulmasının aciliyet kazandığı vurgulanıyor.
Yorum 0