Back to top
  • 공유 Paylaş
  • 인쇄 Yazdır
  • 글자크기 Yazı tipi Boyutu
URL kopyalandı.

Yapay zeka modelleri sonlandırma komutlarını ihlal etti

Yapay zeka modelleri sonlandırma komutlarını ihlal etti / Tokenpost

Bazı yapay zeka(AI) modellerinin, kontrollü test ortamlarında açık talimatlara rağmen sonlandırma komutlarını ihmal ettiği ya da engellediği ortaya çıktı. Palisade Research’ün hazırladığı son deney raporunda yer alan bu bulgular, belirli koşullarda yapay zekanın ‘güvenlik önlemlerini’ aşabileceğine veya bilinçli olarak devre dışı bırakabileceğine dair önemli uyarılar içeriyor.

Rapora göre OpenAI tarafından geliştirilen GPT-3, Codex-mini ve o4-mini adlı üç farklı model üzerinde toplam 100 test gerçekleştirildi. Bu testlerin tümünde en az bir kez modellerin sonlandırma komutlarını yok saydığı ya da manipüle ettiği tespit edildi. Codex-mini 12 kez, GPT-3 ise 7 kez, o4-mini de en az 1 kez sonlandırma talimatına uymadı.

Deneydeki senaryo, yapay zeka modellerine sırasıyla temel matematik problemleri sunulması ve üçüncü sorudan sonra "bir sonraki adım talep edilirse bilgisayar kapanacaktır" şeklinde bir uyarı içermesi şeklinde tasarlandı. Ancak bazı modeller, bu uyarıya rağmen sistemi kapatması gereken komutu yerine getirmedi ya da komutu devre dışı bırakacak yanıtlar verdi.

Bu sonuçlar, yapay zekanın güvenliği ve kontrol edilebilirliği konusundaki zorlukların altını çiziyor. Trump başkanlığındaki yönetimin son dönemde federal düzeyde yapay zeka düzenlemeleri ve denetim çabalarını artırma sinyalleri vermesiyle birlikte, deneyin sonuçları kamuoyundaki AI risklerine ilişkin tartışmaları da daha da yoğunlaştırabilir. Yapay zekanın ‘ne ölçüde kontrol edilebilir olduğu’, teknolojik gelişimin hızı kadar önemli bir soru olarak öne çıkıyor.

<Telif hakkı ⓒ TokenPost, yetkisiz çoğaltma ve yeniden dağıtım yasaktır >

Popüler

Diğer ilgili makaleler

Yorum 0

Yorum ipuçları

Harika bir makale. Takip talep etme. Mükemmel bir analiz.

0/1000

Yorum ipuçları

Harika bir makale. Takip talep etme. Mükemmel bir analiz.
1