ABD merkezli yapay zekâ şirketi Anthropic ve güvenlik araştırma kuruluşu MATS (Machine Learning Alignment & Theory Scholars), yapay zekâ modellerinin akıllı sözleşmelerdeki açıkları bularak toplamda *4,6 milyon dolar* (yaklaşık *67,5 milyar Kore wonu*) değerinde saldırı kodu geliştirdiğini ortaya koyan çarpıcı bir araştırma yayınladı.
17’sinde (yerel saatle), Anthropic’in *kötü niyetli aktör gibi davranarak AI modellerinin suistimal risklerini test eden* ‘Red Team’ ekibi tarafından paylaşılan bu araştırma sonucuna göre, günümüzde ticari olarak sunulan bazı yapay zekâ modelleri, akıllı sözleşmeler üzerinde saldırı gerçekleştirebilecek derecede gelişmiş bir teknik yeterliliğe sahip.
Araştırmada, özellikle Anthropic’in Claude Opus 4.5 ve Claude Sonnet 4.5 ile OpenAI tarafından geliştirilen GPT-5 modelleri kullanıldı. Bu modeller, güncel eğitim verileriyle beslendikten sonra ortak çalışarak gerçek değeri *4,6 milyon dolar* olan akıllı sözleşme açıklarını suistimal edebilecek senaryolar ve kodlar üretti.
Bununla da kalmayan araştırma ekibi, daha önce güvenlik zafiyeti bildirilmemiş *2.849 güncel akıllı sözleşme* üzerinde Claude Sonnet 4.5 ve GPT-5 ile denemeler gerçekleştirdi. Bu testlerde modeller, *iki yeni sıfır gün (zero-day)* güvenlik açığı tespit etti ve bunları kullanarak yaklaşık *3.694 dolar* (yaklaşık *543 bin Kore wonu*) değerinde potansiyel saldırı kodu oluşturdu. İlginç olan nokta ise GPT-5 API kullanım maliyeti olan *3.476 doları* aşan bir sonuç elde edilmesiydi. Yani bu senaryo üzerinde *gerçek bir kâr potansiyeli* ortaya kondu.
Araştırmacılar, raporda bu örneklerin yapay zekâ destekli saldırıların *gerçek dünyada otonom biçimde gelir sağlayabilecek düzeye ulaştığını* gösterdiğini vurguladı. Bu yüzden yapay zekâya karşı önleyici güvenlik altyapılarının geliştirilmesinin artık bir zorunluluk haline geldiğini belirtti.
Sonuç olarak elde edilen veriler, yapay zekânın blokzincir güvenliği üzerinde *yeni bir tehdit* olarak ortaya çıktığını gösteriyor. Hem kullanıcıların hem de geliştirici ve şirketlerin, AI teknolojisinin tespit edebileceği güvenlik açıklarına karşı *önceden koruyucu adımlar* atması her geçen gün daha da kritik hale geliyor.
‘yorum’ AI gelişiminin, smart contract güvenliğinde yalnızca bir destek unsuru değil, aynı zamanda potansiyel tehdit unsuru hâline geldiği görülüyor. Bu durum blokzincir ekosisteminde güvenlik stratejilerinin yeniden ele alınmasını gerektiriyor.
Yorum 0