Kripto para projesi Cardano(ADA)’nun kurucusu Charles Hoskinson(Charles Hoskinson), ‘taldecentralizasyon’ ve bulut altyapısına bağımlılık tartışmasının merkezine yerleşti. Hong Kong’da düzenlenen Consensus etkinliğinde Google Cloud ve Microsoft Azure gibi hiperskalerlerin blokzincir ekosistemine ‘tehdit olmadığı’nı savundu. Ancak sektörde, ‘gelişmiş kriptografi veriyi gizleyebilir ama altyapı üzerindeki güç asimetrisini silemez’ görüşü güçlü şekilde dile getiriliyor.
Şubat ayındaki Consensus Hong Kong sahnesinde Hoskinson, büyük blokzincir projelerinin hiperskaler altyapısını kullanmasının kaçınılmaz olduğunu anlattı ve tekil hata noktası(SPOF) konusunda abartılı endişelere gerek olmadığını söyledi. İleri seviye kriptografinin saldırıları nötralize edebileceğini, çok taraflı hesaplama(MPC) ile anahtarların dağıtılacağını ve gizli hesaplama tekniklerinin de kullanım halindeki veriyi görünmez kılacağını öne sürdü. Özetle, ‘bulut servis sağlayıcısı veriyi göremiyorsa sistemi de kontrol edemez’ iddiasını ortaya koydu.
Hoskinson’ın savunmasında en kritik unsurlar MPC ve gizli hesaplama. MPC, özel anahtar gibi hassas bilgileri birden fazla katılımcıya bölerek saklıyor, böylece tek bir düğüm ele geçirildiğinde bile tüm sırrın yeniden oluşturulmasını engelliyor. Bu yaklaşım, tek bir anahtar saklayıcıya duyulan güven baskısını azaltma konusunda etkili. Ancak bu, tüm risklerin yok olduğu anlamına gelmiyor. Anahtarı tek elde tutmak yerine ‘koordinasyon’ katmanına bağımlılık artıyor. Katılımcı düğümler arasındaki iletişim kanalları, operasyonel süreçler, yönetişim yapısı ve protokolün doğru uygulanması yeni kritik risk alanları olarak öne çıkıyor. Yani tekil hata noktası ortadan kalkmıyor; daha çok ‘dağıtık’ bir güven yüzeyine dönüşerek genişleyebiliyor.
Gizli hesaplama tarafında, özellikle güvenli yürütme ortamları(TEE) da benzer tartışmaların odağında. TEE, çalışmakta olan veriyi şifreleyerek barındırma hizmeti veren şirketin içerikleri görmesini engellemeyi hedefliyor. Buna karşın bu modeller, donanım tarafında belirli varsayımlara dayanıyor. Mikro mimari izolasyon, ürün yazılımı(firmware) bütünlüğü ve uygulama kalitesi gibi faktörlere bağımlı bir yapı söz konusu. Ayrıca yan kanal saldırıları gibi yapısal zafiyetler düzenli biçimde gündeme geliyor. Standart bulut altyapısına kıyasla güvenlik sınırlarını daraltmak mümkün olsa da, ‘mutlak güvenlik’ iddiasından hâlâ uzak.
Daha temel sorun ise MPC ve TEE tabanlı çözümlerin çoğu kez hiperskalerlerin altyapısı üzerinde çalışması. Veriye doğrudan erişim kriptografiyle engellense bile, altyapıyı sunan şirketler donanıma fiziksel erişim, bant genişliği ve kullanılabilir bölge(region) kontrolü gibi önemli kaldıraçlara sahip olmaya devam ediyor. İşlem kapasitesinin kısılması, planlı ya da plansız hizmet kesintileri ve politik müdahaleler gibi ‘altyapı seviyesi’ riskleri, yalnızca kriptografik yöntemlerle bertaraf edilmesi zor unsurlar olarak kalıyor.
Hoskinson ayrıca hiçbir birinci katman(L1) blokzincirin küresel ölçekteki tüm işlem ve hesaplama talebini tek başına karşılayamayacağını da vurguluyor. Trilyonlarca dolar yatırımla inşa edilen veri merkezi kapasitesine atıf yaparak, uzun vadede hiperskaler altyapının kaçınılmaz hale geleceği mesajını veriyor. L1’in temel rolünün ‘konsensüs’, durum geçişlerinin doğrulanması ve veri erişilebilirliği sağlamak olduğu düşünülürse, bu argüman belirli ölçüde tutarlı. L1 zincirler, yapay zeka eğitimi, yüksek frekanslı alım satım motorları veya kurumsal veri analitiği gibi yoğun iş yüklerini doğrudan zincir üzerinde çalıştırmak için tasarlanmış değil.
Buna karşın, kripto altyapı dünyasında giderek güçlenen eğilim şu yönde: Önemli olan ham işlem gücü değil, ‘doğrulanabilirlik’. Ağır hesaplama işlerinin blokzincir dışına taşındığı, ancak sonuçların zincir üzerinde kanıtlanıp doğrulandığı mimariler yaygınlaşıyor. Rollup çözümleri, sıfır bilgi(Zero-Knowledge) sistemleri ve doğrulanabilir hesaplama odaklı ağlar bu anlayışın üzerinde yükseliyor. Bu perspektiften bakıldığında, kilit soru ‘L1 küresel ölçekteki hesaplamayı yapabilir mi?’ değil; ‘zincir dışı hesaplama ve depolamayı besleyen altyapıyı kim kontrol ediyor?’ haline geliyor. Hesaplama bulut üzerinde yapılsa bile, merkezi altyapıya aşırı bağımlılık, merkezi arıza senaryolarını sisteme yeniden taşıyabiliyor. Zincirdeki mutabakat süreci dağıtık görünse de, geçerli durum geçişlerini üreten yollar birkaç büyük servis sağlayıcıda toplanabiliyor.
Hoskinson’ın vurguladığı ‘kriptografik tarafsızlık’ kavramı da bu tartışmanın önemli bir boyutu. Güçlü kriptografi, protokol kurallarının keyfi biçimde değiştirilmesini zorlaştırıyor, gizli arka kapılar eklemeyi imkansız hale getiriyor ve matematiksel olarak ‘adil’ kurallar oluşturmaya çalışıyor. Ancak bu kurallar, nihayetinde somut donanım üzerinde çalışıyor. Kimlerin katılım gösterebileceği, hangi maliyetlerle bu sisteme dahil olabileceği ve kimlerin dışarıda kalacağı gibi sorular, işlem hacmi ve gecikme sürelerini belirleyen ‘fiziksel katman’ tarafından cevaplanıyor. Donanımın üretimi, dağıtımı ve barındırılması birkaç oyuncu etrafında yoğunlaşmışsa, protokol ne kadar tarafsız görünürse görünsün, katılıma ilişkin ekonomik ‘eşikler’ ortaya çıkabiliyor.
Yüksek performanslı hesaplama gerektiren sistemlerde donanım, oyun kurucu konumuna yerleşiyor. Maliyet yapıları, ölçeklenebilirlik sınırları ve sansür baskısına karşı dayanıklılık, doğrudan bu katman tarafından belirleniyor. Bu nedenle, ‘adil kurallar’ın tek başına ‘adil katılım’ı garanti etmeyeceği sıkça dile getiriliyor. Kriptografik tarafsızlığa ek olarak ‘donanım sahipliğinin de dağıtık’ olması gerektiği, ancak bu şartla sistemin aşırı baskı ve stres dönemlerinde de ayakta kalabileceği öne sürülüyor.
Hesaplama pazarının yapısına bakıldığında, hiperskalerlerle rekabeti sadece ölçek meselesi olarak görmek de yanıltıcı olabilir. Hiperskalerler, binlerce farklı iş yükünü aynı anda yönetebilecek ‘genel amaçlı’ altyapıya odaklanıyor. Sanallaştırma, orkestrasyon, kurumsal uyumluluk ve esnek ölçeklenme gibi avantajlar sunuyorlar. Ancak bu unsurlar aynı zamanda ek maliyet katmanları yaratıyor. Buna karşın sıfır bilgi ispatları veya doğrulanabilir hesaplama gibi alanlarda işler çok daha ‘özelleşmiş’ durumda. Bu tip iş yükleri deterministik, yüksek hesaplama yoğunluğuna sahip, hafıza bant genişliğiyle sınırlı ve boru hattı(pipeline) verimliliğine aşırı duyarlı. Bu nedenle, ‘belirli bir amaca özel’ tasarımlar verimlilikte büyük sıçramalar sağlayabiliyor.
Amaç odaklı ispat ağları, bir dolar başına üretilen ispat miktarı, bir watt başına ispat kapasitesi ve belirli gecikme süreleri içinde tamamlanan iş sayısı gibi metriklerle rekabet ediyor. Donanım, ispatlayıcı yazılımları, devre tasarımı ve toplulaştırma mantığını uçtan uca birleştiren dikey entegrasyon, verimliliği bileşik şekilde artırabiliyor. Fiyatlama modeli de farklılaşıyor. Hiperskalerler, kurumsal kâr marjları ve çok değişken talep yapısına uygun şekilde fiyat belirliyor. Buna karşılık, protokol teşvikleriyle hizalanmış özel ağlar, donanım maliyetini bambaşka biçimde yayabiliyor; kiralama mantığı yerine sürekli yüksek kullanım oranına göre ayarlanmış performans optimizasyonlarına gidebiliyor. Yarışın ekseni de ‘kim daha büyük?’ sorusundan ‘belirli iş yüklerinde kim yapısal olarak daha verimli?’ sorusuna kayıyor.
Tüm bu tartışmaların odağında ise şu soru yer alıyor: Hiperskalerler bir ‘tehdit’ mi, yoksa sadece dikkatle yönetilmesi gereken birer ‘bağımlılık’ mı? Sağlam tasarlanmış bir mimari, büyük bulut sağlayıcıları ani trafik artışlarında, bölgesel yedeklilikte veya uç(Edge) dağıtımlarda kullanabilir. Ancak temel fonksiyonların birkaç oyuncuda ‘demirlenmesi’(anchoring), politika değişimi, geniş çaplı kesinti ya da pazardan çıkış gibi faktörlerin tüm sistemi sarsmasına yol açabilir.
Bu yüzden, nihai mutabakat, son doğrulama süreçleri ve bu doğrulamanın dayandığı kritik çıktıların erişilebilirliği; belirli bir bulut bölgesinin devre dışı kalmasından, bir sağlayıcının pazardan çekilmesinden veya regülasyon ortamının değişmesinden etkilenmeyecek şekilde tasarlanmalı. Bu çerçevede dağıtık depolama ve dağıtık hesaplama altyapıları öne çıkan ‘alternatif’ler olarak görülüyor. İspat çıktılarının, geçmiş kayıtların ve doğrulama için gerekli giriş verilerinin tek bir şirketin insiyatifine bağlı olarak geri çekilememesi veya engellenememesi hedefleniyor.
Özetle, hiperskalerler kripto ekosistemi için güçlü bir ‘hızlandırıcı’ olabilir, ancak sistemin ‘temeli’ haline gelmemeli. Belirli bir sağlayıcı ortadan kalktığında ağın tamamen durması değil, sadece bir miktar yavaşlaması kabul edilebilir olmalı. Bu tartışma, blokzincirlerin taldecentralizasyon özelliğinin yalnızca protokolün matematiksel özelliklerine değil, aynı zamanda altyapı sahipliğinin dağılımına ve genel sistem tasarımına da bağlı olduğunu açıkça ortaya koyuyor.
Yorum 0