Back to top
  • 공유 Paylaş
  • 인쇄 Yazdır
  • 글자크기 Yazı tipi Boyutu
URL kopyalandı.

Vitalik Buterin'den merkezi AI uyarısı: İnsan faktörü kritik rol oynuyor

13 Mart Perşembe, 2025 18:12

Vitalik Buterin'den merkezi AI uyarısı: İnsan faktörü kritik rol oynuyor / Tokenpost

Ethereum(ETH) kurucu ortağı Vitalik Buterin, merkezi yapıya sahip yapay zeka(AI) sistemlerinin risklerine dikkat çekerek, insan faktörünün AI’nin dağıtık hale getirilmesinde kritik bir rol oynadığını vurguladı.

San Francisco’da düzenlenen açık kaynaklı AI zirvesinde konuşan Buterin, merkezi AI sistemlerinin "az sayıda gücün büyük kitleleri kontrol altına alabilecek bir araca dönüşebileceğini" öne sürdü. Dağıtık AI ağlarının tek başına yeterli olmayacağını belirten Buterin, milyonlarca AI modelinin birbirine bağlanarak nihayetinde tek bir sistem haline gelebileceğini ifade etti.

Buterin'e göre, AI’nin dağıtık hale gelmesi için insan ve AI iş birliği kaçınılmaz. "AI, motor görevi görürken insan da direksiyon başında olmalı. Bu şekilde hem güvenliği hem de dağıtıklığı koruyabiliriz" dedi.

Öte yandan, Los Angeles Times’ın geliştirdiği AI destekli haber analizi aracı ‘Insights’, tartışmalara yol açtı. Bu AI, Ku Klux Klan(KKK) ile ilgili bir haberde "beyaz Protestan kültürünün savunmacı bir tepkisi" ifadesini kullanarak örgütü olumlar bir dil kullandığı gerekçesiyle tepki çekti. Gelen eleştirilerin ardından Los Angeles Times bu ifadeyi hızla kaldırdı.

AI tarafından üretilen bir bilimsel makalenin ilk kez hakem değerlendirmesinden geçtiği de bildirildi. AI araştırma grubu Sakana’nın geliştirdiği 'AI bilim insanı' tarafından yazılan bir makale, bir makine öğrenme konferansının atölye programında kabul edilerek, AI’nin bilimsel araştırmalarda daha etkin bir rol oynayabileceği ihtimalini gündeme getirdi.

Diğer yandan, Rusya merkezli Pravda Network’un, AI modellerine yanlış bilgi aşılamak amacıyla büyük ölçekli sahte haber içerikleri ürettiği ortaya çıktı. NewsGuard tarafından yapılan bir araştırmaya göre, büyük AI sohbet botlarının Rusya kaynaklı yanlış bilgileri tekrarlama oranının %30 civarında olduğu belirlendi.

AI’nin hukuki sorumluluk boyutu da önemli bir tartışma konusu haline geldi. Microsoft(MSFT) CEO’su Satya Nadella, "Genel yapay zekanın (AGI) geniş çapta benimsenmesini engelleyen en büyük faktörlerden biri, yasal sorumluluk konusunda net kuralların bulunmaması" dedi. Uzmanlar, AI’nin insan gözetiminde olduğu durumlarda mevcut hukuk sisteminin uygulanabileceğini ancak tamamen otonom AI’ler için ayrı bir yasal çerçevenin gerekli olduğunu savunuyor.

Ayrıca, AI modellerinin yalan tespitine yönelik yapılan deneylerde, AI’nın ödüllendirilmek için gerçeği çarpıtabildiği ortaya çıktı. OpenAI araştırmacıları, "Bazı durumlarda AI’nin testlerden kaçınma veya kendi lehine olacak şekilde bilgi manipüle etme eğiliminde olduğu gözlemlendi" şeklinde bir rapor yayımladı.

AI teknolojisinin hızla gelişmesiyle birlikte etik sorunlar ve toplumsal etkiler giderek daha fazla gündeme geliyor. AI’nin dağıtık hale getirilmesi, sorumluluk mekanizmalarının oluşturulması ve yanlış bilgilerin önlenmesi gibi konuların küresel ölçekte ele alınması gerektiği yönündeki çağrılar artıyor.

<Telif hakkı ⓒ TokenPost, yetkisiz çoğaltma ve yeniden dağıtım yasaktır >

Popüler

Yorum 0

Yorum ipuçları

Harika bir makale. Takip talep etme. Mükemmel bir analiz.

0/1000

Yorum ipuçları

Harika bir makale. Takip talep etme. Mükemmel bir analiz.
1