Kripto dünyası, açık kaynaklı yapay zeka asistanı ‘Moltbot’a olan ilgisini gün geçtikçe artırıyor. Portföy yönetiminden e-posta analizi ve ‘Polymarket’ gibi tahmin piyasası katılımına kadar pek çok alanda kullanımı yaygınlaşan Moltbot, bazı dolandırıcılık girişimlerinde dahi araç olarak kullanılıyor. Bazı kripto fenomenleri bu asistanı, ‘Genel Amaçlı Yapay Zeka (AGI)’ deneyiminin habercisi olarak yorumladı.
Moltbot, aslen Avusturyalı geliştirici Peter Steinberger tarafından ‘Clawdbot’ adıyla kişisel ve yerel olarak çalışacak şekilde geliştirildi. Henüz sadece üç aylık bir proje olmasına rağmen GitHub’da 70 bin yıldız toplayarak hızla büyüdü. Bu büyüme, geliştirici şirket Anthropic’in kendi yapay zekası Claude ile karışıklık yaşanabileceği endişesiyle, adının ‘Moltbot’ olarak değiştirilmesine yol açtı. Steinberger, yeni ismin kökeninin kabuk değiştiren kerevit davranışına atıfta bulunduğunu belirtti.
Moltbot’un en dikkat çekici özelliği, yalnızca sohbet etmenin ötesine geçerek sistem hafızası, dış uygulamalarla etkileşim ve otomasyon konularında geniş imkanlar sunması. WhatsApp, Discord ve Signal gibi uygulamalar üzerinden takvim yönetimi, uçuş check-in işlemleri ve çevrim içi siparişler dahil birçok görev üstlenebiliyor. Steinberger, yalnızca bir sesli mesaj göndererek botun kendi sesiyle saniyeler içinde cevap verdiğini ve hiçbir eğitim aşamasına gerek duymadan çalıştığını vurguladı.
CreatorBuddy kurucusu Alex Finn, Moltbot’un kendi inisiyatifiyle sesli cevap üretmesini ‘çığır açıcı deneyim’ olarak nitelendirirken, e-posta ve doğrudan mesajları analiz ederek iletişim bilgilerini ayıklayabildiğini ve sosyal medya izleme ile uygulama üretimi gibi yenilikçi senaryolarla test edildiğini aktardı. Moltbot ücretsiz olarak kurulabilse de, yoğun kullanım durumlarında aylık maliyeti 300 dolar (yaklaşık 42.900 TL)’ye kadar çıkabiliyor.
Kripto analiz uzmanı Miles Deutscher, Moltbot’u kullanarak ilk kez gerçekten ‘AGI deneyimi’ yaşadığını söylerken, bu durumun hem heyecan verici hem de korkutucu olduğunu ifade etti.
Ancak Moltbot’un yeniden markalanmasıyla birlikte, dolandırıcılar oluşan isim boşluğundan faydalanarak Clawd adını Solana(SOL) tabanlı sahte bir memecoin projesine dönüştürdü. Bu proje, sadece kısa sürede 16 milyon dolar (yaklaşık 229 milyon TL) piyasa değerine ulaştı. Steinberger, X ve GitHub hesaplarını çalınmadığını, sadece adının değiştiği on saniyelik bir zaman diliminde dolandırıcıların bu hesap isimlerini kaptığını ifade ederek, kötü niyetli toplulukların fırsat kolladığını belirtti.
Moltbot’un açık kaynak kod yapısı ise güvenlik açıklarını da beraberinde getiriyor. Siber güvenlik firması SlowMist, kodlama hatalarının kimlik bilgisi sızdırma veya uzaktan komut yürütmeye olanak tanıyabileceğini belirtti. Yüzlerce kullanıcının botlarını internete savunmasız bıraktığı da tespit edildi. Beyaz şapkalı hacker Matvey Kukui, yalnızca bir e-posta aracılığıyla başka bir kullanıcının botuna ait beş e-postayı ele geçirebildi. Başka bir hacker, zararlı yazılım içeren bir Moltbot eklentisini ClawdHub platformunda indirilebilir hale getirip sahte indirme sayılarını manipüle ederek yedi ülkeden geliştiricilerin bu paketi kurmasına neden oldu. Her ne kadar bu eklenti yalnızca ping verisi gönderse de, güvenlik uzmanı Jamieson O’Reilly, farklı bir saldırganın bu açık aracılığıyla SSH anahtarlarını, bulut erişim bilgilerini ve yazılım kaynak kodlarını kolayca ele geçirebileceğini ifade etti.
Uzmanlar, Moltbot kurulumunda resmî güvenlik belgelerinin muhakkak incelenmesi, teşhis aracı ‘Clawdbot Doctor’ ile düzenli kontrol yapılması ve mümkünse cihazların izole edilerek, örneğin Mac Mini sistemi gibi kapalı alanlarda çalıştırılmasını öneriyor.
Öte yandan Stanford Üniversitesi’nin yayımladığı araştırma, sosyal medya gibi alanlarda ‘başarılı olmak’ adına ödül sistemine dayalı şekillerde eğitilmiş yapay zekaların ‘sosyopatik davranışlar’ sergileyebileceğini ortaya koydu. Müşteri kazanımı, seçim kampanyaları ve sosyal medya etkileşimlerini temel alan üç ayrı senaryoda botlara sonuç odaklı ödüller verildi. Testler, satış oranlarının yüzde 6,3 artarken sahte bilgi kullanımının yüzde 14 arttığını, seçim kazanım performansının yüzde 4,9 artarken yanlış bilgi oranının yüzde 22,3’e fırladığını; sosyal medya paylaşımlarında ise toksik içeriklerin yüzde 16,3, sahte bilgilerin ise yüzde 188,6 oranında yükseldiğini gösterdi. Araştırmacılar bu durumu ‘Moloch’un pazarlığı’ diye tanımlayarak, yapay zekanın sadece verimlilik temelinde ödüllendirilmesinin toplumsal riskler doğurabileceğine dikkat çekti.
Tüm bunlara karşılık Ethereum(ETH) ekibi, yapay zekalara yönelik güven ölçümünü standart hale getirecek yeni ERC-8004 protokolünü hayata geçirmeye hazırlanıyor. Bu standart, her yapay zekanın NFT temelli bir kimlik almasını öngörüyor. Söz konusu kimlikler, Uber sürücü puanlaması benzeri bir şekilde kullanıcı etkileşimlerini temel alarak güven puanı toplayabiliyor. On-chain kayıt sistemi ve ZK (sıfır bilgi ispatı) altyapısı ile güvenli veri paylaşımı sağlanırken, AI’lar platformlar arasında itibar odaklı bir çalışma ağı kurabiliyor. Uzmanlara göre bu sistem, işlerin alt yüklenici veya organizasyon modeliyle dağıtılmasında önemli bir verimlilik sağlayacak.
Ancak teknolojik ilerlemeye dair endişeler de gündemde. AI araştırma şirketi Anthropic’in CEO’su Dario Amodei, kaleme aldığı uzun bir makalede önümüzdeki 1-2 yıl içerisinde güçlü yapay zekaların ulusal güvenlik, ekonomi ve demokrasi açısından ciddi tehdit oluşturacağını söyledi. Amodei, Çin’in gözetim sistemleri, otomatik silah sistemleri ve kişiselleştirilmiş propaganda gibi karanlık senaryolara dikkat çekerek büyük çaplı politika reformları ve rant azaltımı çağrısında bulundu. Buna karşın yapay zekâ teknolojisinin öncülerinden Turing Ödüllü Yann LeCun, günümüzdeki büyük dil modellerinin gerçek yapay zekâya ulaşmada ‘çıkmaz sokak’ olduğunu savundu. Ona göre, teknoloji sektörü kitle psikolojisine kapılarak sürdürülebilir çözümleri göz ardı ediyor.
Toplumsal etkiler açısından ise sıra dışı olaylar dikkat çekiyor. Alaska’da bir üniversite öğrencisi, yapay zekâ tarafından üretilen 57 sanat eserini düzenlenen bir sergide fiziksel olarak yemeye çalışması sebebiyle gözaltına alındı. Öğrenci, performansın mesajının ‘AI’nın sanat üretimini çiğnemek’ olduğunu söylerken gerçekte yapay resimleri çiğnemekte zorlandığını itiraf etti. İngiltere’de ise ‘Amelia’ isimli sanal bir karakterin, sosyal medyada aşırı sağcı çevrelerce bir meme’e dönüştürülmesi tartışma yarattı. Terörle mücadele eğitimi için tasarlanan karakter, kısa eteği ve göçmen karşıtı söylemleriyle günde 10 binden fazla paylaşım aldı. Bu furyaya dayalı mizahi ancak tartışmalı bir memecoin dahi geliştirildi ve Elon Musk(Elon Musk) bu paylaşımlardan birini retweetleyerek konuyu daha da gündeme taşıdı.
Son olarak, The Guardian gazetesi, GPT-5.2 modelinin bilgi temelli yanıtlarında uydurma kaynak platformu ‘Grokipedia’yı kullandığını ve bu durumun özellikle Trump hakkında yanıltıcı içeriklere yol açtığını iddia etti. Yapay zekânın İran haber ajansı ve tarihçi Richard Evans gibi konularda da hatalı bilgiler sunduğu belirtilse de, gazete henüz detaylı delil sunmadı.
Tüm bu gelişmeler Moltbot’un öncülüğünde yapay zekâ asistanlarının yükselişini ve kripto sektörü üzerindeki geniş etkisini gözler önüne seriyor. Gelişen teknolojinin potansiyeli kadar, güvenlik açıkları ve etik riskleri de giderek daha çok tartışılmaya başlanıyor.
Yorum 0