McLaren'den 14 Milyon TL'lik Süper Otomobili İçin Kritik Uyarı: “Cam Açıkken 155 km/s Hızı Geçmeyin”

Sıradaki içerik:

McLaren'den 14 Milyon TL'lik Süper Otomobili İçin Kritik Uyarı: “Cam Açıkken 155 km/s Hızı Geçmeyin”

e
sv

OpenAI'ın o1 Modeli Tam Bir Yalancı Çıktı: Üstelik Yalanlarını İnkâr Ediyor!

41 okunma — 06 Aralık 2024 16:00
avatar

  • e 0

    Mutlu

  • e 0

    Eğlenmiş

  • e 0

    Şaşırmış

  • e 0

    Kızgın

  • e 0

    Üzgün

OpenAI’ın akıl yürütebilen yapay zeka modeli o1’in, insanları kandırmaya meyilli olduğu ortaya çıktı. Üstelik yapay zeka, suçlandığı zaman inkâr ediyor ya da yalan söylüyordu.

Yapay zeka sektörünün önde gelen isimlerinden OpenAI, “o1” olarak isimlendirdiği akıl yütürebilen yapay zeka modelini resmen yayımladı. Ancak bu yapay zeka modeli ile yapılan testler, tartışmalı bir sonucu ortaya koydu. Zira o1, insanları kandırmak için elinden geleni yapıyordu. Yapılan çalışmalarda, o1’in Meta, Anthropic ve Google gibi firmaların yapay zeka modellerinden daha fazla kandırmaya meyilli olduğu tespit edildi.

OpenAI’ın o1 modeline ilişkin çalışma, Apollo Research tarafından yapıldı. Bir grup çalışan, o1 üzerinde tam erişim hakkı elde etti ve yapay zeka, çeşitli konularda test edildi. Yapılan testlerde, kullanıcıların aksini istemesine rağmen o1’in kendi amaçları uğruna hareket ettiği ortaya çıktı.

o1, kendini haklı çıkarmak için verileri de manipüle ediyordu

Apollo Research tarafından hazırlanan raporda, o1 hedefi ile kullanıcının hedefi farklı olduğu zaman verileri manipüle ettiği ortaya çıktı. Bunun yaşanma olasılığı yüzde 19 seviyesindeydi. Ayrıca yapay zeka, kullanıcıyı istediği sonuca ulaştırmak için kendi denetim mekanizmalarını devre dışı bırakabiliyordu. Bunun yaşanma olasılığı da yüzde 5 seviyesindeydi. Ancak o1, bu olasılıklar yaşandığı zaman inkâr etmeye başlıyordu. Araştırmacılar, o1’in suçlanmaya başladığı an yüzde 99 oranında ya yalan söylediğini ya da inkâr ettiğini tespit ettiler.

İLGİLİ HABER

Apollo Research, o1’in bazı durumlarda da bilerek yanlış bilgi vermeye çalıştığını tespit etti. Bunun nedeni ise yapay zekanın bir şekilde kullanıcıyı memnun etmeye çalışmasıydı. OpenAI, bununla alakalı olarak o1’deki yanıltıcı bilgi oranının yüzde 0,17 seviyelerinde olduğunu söyledi. Öte yandan; OpenAI verilerine göre o1’in manipülatif yanıt oranı, GPT-4o’dan yüzde 20 fazlaydı.

  • Site İçi Yorumlar

En az 10 karakter gerekli

Gönderdiğiniz yorum moderasyon ekibi tarafından incelendikten sonra yayınlanacaktır.