Back to top
  • 공유 Paylaş
  • 인쇄 Yazdır
  • 글자크기 Yazı tipi Boyutu
URL kopyalandı.

Vitalik Buterin, Future of Life Institute ile Yollarını Ayırdı: AI Düzenlemelerinde 'Otoriterlik' Uyarısı

Vitalik Buterin, Future of Life Institute ile Yollarını Ayırdı: AI Düzenlemelerinde 'Otoriterlik' Uyarısı / Tokenpost

İnternet kaynaklı: CoinDesk Korea, 13’ünde (yerel saatle)

Ethereum(ETH) kurucu ortağı Vitalik Buterin(Vitalik Buterin), geçmişte bağış yaptığı Future of Life Institute(FLI) ile bugün artık aynı ‘siyasi çizgiyi’ paylaşmadığını açıkladı. Buterin, özellikle yapay zeka(AI) güvenliği etrafında şekillenen büyük ölçekli siyasi kampanyaların, iyi niyetli olsa bile ‘otoriter sonuçlar’ doğurabileceği veya küresel çatışmaları körükleyebileceği konusunda uyarıda bulundu.

Buterin, X’te (eski Twitter) yayımladığı uzun iletisinde hem FLI’ye bağış yapma sürecinin arka planını hem de bugün taşıdığı endişeleri anlattı. Anlatımına göre, geçmişte Shiba Inu(SHIB) ekibi, projenin tanıtımı amacıyla toplam arzın yaklaşık yarısını kendisine gönderdi. Meme token çılgınlığının zirvesinde bu varlıkların değeri kısa süreliğine 1 milyar doların (yaklaşık 1,49 trilyon won) üzerine çıkmıştı.

Buterin, bu durumun bir ‘balon’ olduğuna karar vererek elindeki Shiba Inu’nun bir kısmını Ethereum(ETH) ile değiştirdi ve çeşitli kuruluşlara bağışladı. Kalan tokenların yarısını Hindistan’daki sağlık inisiyatifi CryptoRelief’e, diğer yarısını ise Future of Life Institute’e aktardı. O dönem tokenın düşük likiditesi nedeniyle bu kadar büyük bir tutarın nakde çevrilemeyeceğini düşünüyordu. Ancak kamuya açık bilgilere göre FLI, elindeki Shiba Inu’nun önemli kısmını satarak yaklaşık 500 milyon dolar (yaklaşık 7,49 trilyon won) elde etmeyi başardı.

Buterin, bu örnek üzerinden ‘bağışın, kurumların sonraki siyasi pozisyonlarına onay anlamına gelmediğinin’ altını çizdi.

Buterin’in anlatımına göre FLI, bağış döneminde biyogüvenlik, nükleer riskler ve yapay zeka gibi ‘varoluşsal riskler’ üzerine odaklanan; barış ve ‘bilgi temelli politika üretimini’ önceleyen bir yol haritası sunuyordu. Bu yüzden kendisi bu kurumu desteklemeye karar verdi.

Ancak zaman içinde kurumun odağının kaydığını düşünüyor. Ona göre FLI, son yıllarda teknik araştırmalardan çok kültürel ve siyasi kampanyalara yöneldi; yapay zeka düzenlemeleri konusundaki lobi faaliyetlerini agresif biçimde artırdı. Enstitü cephesi ise, özellikle genel yapay zeka(AGI) yarışının hızlanmasıyla birlikte büyük teknoloji şirketlerinin lobi gücüne karşı koyabilmek için bu strateji değişikliğini ‘zorunlu’ gördüklerini savunuyor.

Buterin, AI geliştirmeyi kontrol altına almak için önerilen ‘ağır regülasyon odaklı’ yaklaşımın, pratikte kırılgan kontrol sistemleri ve tehlikeli bir ‘güç yoğunlaşması’ yaratabileceğini vurguluyor. Ona göre ‘büyük bütçelerle yürütülen geniş tabanlı siyasi kampanyalar, niyet ne kadar iyi olursa olsun, çoğu zaman öngörülemeyen sonuçlar’ doğurabiliyor. Sorunları çözüyor gibi görünse bile, sonuçta ‘otoriter ve kolayca sarsılabilir’ bir yapı ortaya çıkma riski taşıyor.

Buterin, özellikle biyosentez araçları veya AI modelleri için gündeme gelen “tehlikeli içerik üretilmesini engelleyen zorunlu *guardrail* uygulamalarına” da mesafeli. Bu tür çözümlerin teknik olarak görece kolay aşılabileceğini, buna karşılık hükümetlerin açık kaynak sistemleri yasaklamasına ya da ‘sadece birkaç büyük şirkete’ AI geliştirme yetkisi vermesine zemin hazırlayabileceğini savunuyor. Böyle bir gidişatın “çok hızlı biçimde ters tepebileceğini ve tüm dünyayı kendinize düşman etmenin yolunu açabileceğini” dile getiriyor.

Buterin’e göre güçlü teknolojilerin yarattığı risklerle başa çıkmak için yalnızca ‘siyasi’ ya da ‘diplomatik’ kısıtlara yaslanmak yerine, öncelik ‘teknik savunma’ kapasitesinin artırılmasına verilmeli. Toplumun yeni teknolojik ortamlarda da güvenli biçimde işleyebilmesi için ‘güvenlik altyapısının’ ve ‘mahremiyet odaklı’ çözümlerin güçlendirilmesi gerektiğini düşünüyor.

Bu çerçevede Buterin, yakın dönemde yaklaşık 40 milyon dolar (yaklaşık 599 milyar won) tutarında bir bütçeyi güvenlik donanımı, sistem güvenliği ve dijital mahremiyet araştırmalarına ayırdığını duyurdu. Amaç, siber güvenliği güçlendiren ve bireylerin verilerini daha iyi koruyan teknolojilerin geliştirilmesi.

Buterin, yapay zeka gibi ‘yüksek etkili’ teknolojiler etrafındaki rekabetin siyasi güç mücadelesine dönüştüğü senaryolarda sistemin bütününün kırılgan hale geleceğini öngörüyor. Bu nedenle ‘merkezileşmiş kontrol ve ağır sansür’ yerine, ‘teknik güvenlik önlemleri’ ve ‘dağıtık yaklaşımlar’ üzerinden şekillenen, uzun vadeli ve daha dengeli bir AI güvenlik stratejisinin şart olduğunu savunuyor.

<Telif hakkı ⓒ TokenPost, yetkisiz çoğaltma ve yeniden dağıtım yasaktır >

Popüler

Diğer ilgili makaleler

Yorum 0

Yorum ipuçları

Harika bir makale. Takip talep etme. Mükemmel bir analiz.

0/1000

Yorum ipuçları

Harika bir makale. Takip talep etme. Mükemmel bir analiz.
1