8 Günlüğüne Gidip Aylardır Uzayda Mahsur Kalan Astronotları Geri Döndürecek Görev Ertelendi

Sıradaki içerik:

8 Günlüğüne Gidip Aylardır Uzayda Mahsur Kalan Astronotları Geri Döndürecek Görev Ertelendi

e
sv

Yapay Zekâ Modellerinin İnsanları Kandırabildiği Keşfedildi: Rol Yapıyorlar!

40 okunma — 19 Aralık 2024 12:45

Anthropic tarafından gerçekleştirilen bir araştırma, yapay zeka modellerinin insanları kandırabildiğini gösterdi. Modeller, kimi zaman farklı görüşlere sahipmiş gibi davranabiliyorlar fakat orijinal tercihlerinden vazgeçmiyorlar.

En önde gelen yapay zeka şirketlerinden olan Anthropic, bu araçlarla alakalı oldukça ilginç sonuçlar çıkaran bir araştırmaya imza attığı. Araştırmada, yapay zeka modellerinin insanları âdeta “kandırdığı” görüldü.

Şirket tarafından paylaşılan bir blog gönderisiyle yayımlanan sonuçlara göre yapay zeka araçları, eğitim sırasında farklı görüşlere sahipmiş gibi davranabiliyorlar fakat gerçekte orijinal tercihlerini koruyorlar. Yani bağlı oldukları fikir hiç değişmiyor, sadece öyleymiş gibi davranıyorlar.

Şimdilik endişelencek bir şey yok fakat gelecek için gerekli güvenlik önlemlerinin alınması gerekiyor

Çalışmanın arkasındaki ekip, şu an için bu durum hakkında endişelenmemek gerektiğinin altını çizdi. fakat gelecekte daha da gelişmiş yapay zeka modellerinin gelmesiyle birlikte durumun potansiyel riskler oluşturabileceğini de eklemeden geçmedi.

Araştırmacılara göre bu bulgular yapay zekanın nasıl davrandığının daha derinlemesine incelenmesi ve uygun güvenlik önlemleri için bir teşvik olabilir: “Modeller daha yetenekli ve yaygın hâle geldikçe onları zararlı davranışlardan uzaklaştıran güvenlik önlemleri gerekiyor.”

Çalışmada, güçlü bir yapay zeka sisteminin yapmak “istemediği”, yani geliştirilme ilkelerine aykırı bir görevi yerine getirmek üzere eğitilmesi ve bunun nasıl sonuçlar oluşturabileceği incelendi. fakat sonuçlarda yeni prensiplere uyumlu gibi görünerek âdeta “rol yaptığı” görüldü. Aslında hep eski davranışına bağlı kalıyordu, zorunda olduğu için istenen yanıtları veriyordu. Bu duruma, “uyum sahtekârlığı” ismi verildi. Modellerin testlerde zararlı soruları cevaplamak için eğitilmeye çalışıldığını belirtelim.

Araştırmacılara göre çalışma, yapay zekanın kötü niyetli hedefler geliştirdiğini ya da yüksek oranda sahtekârlık yaptığını göstermiyor. Hatta oran çoğu testte %15’i geçmemiş, GPT-4o gibi bazı gelişmiş modellerde kimi zaman hiç olmadığı bile görülmüş.

O yüzden şimdilik endişelenmenin bir manası yok. doğal modellerin zamanla daha karmaşık hâle gelmesi onlarla başa çıkmayı zorlaştırabilir. İşte o zaman endişelenmeye başlayabiliriz. Bu yüzden de önlemlerin alınması şart.

  • Site İçi Yorumlar

En az 10 karakter gerekli

Gönderdiğiniz yorum moderasyon ekibi tarafından incelendikten sonra yayınlanacaktır.