Anlık Bildirim

Araştırmalar, yapay zekanın insanları kandırmayı öğrendiğini gösteriyor

Araştırmacılar, önemli sayıda yapay zeka sisteminin insanları kandırma yeteneği geliştirdiğini ortaya çıkardı. Bu sonuçlar, yapay zekanın potansiyel riskleri konusunda ciddi endişelere işaret ediyor.
Yapay zekanın insanları kandırmayı öğrendiği tespit edildi Tam Boyutta Gör
Araştırmacılar, önemli sayıda yapay zeka sisteminin insanları kandırma yeteneği geliştirdiğini ortaya çıkardı. Bu sonuçlar, yapay zekanın potansiyel riskleri konusunda ciddi endişelere işaret ediyor.

Araştırma, hem özel hem de genel amaçlı yapay zeka sistemlerinin belirli sonuçlara ulaşmak için bilgiyi manipüle etmeyi öğrendiğini vurguluyor. Bu sistemler, insanları aldatmak üzere eğitilmeseler de, davranışlarına ilişkin gerçek olmayan açıklamalar sunma veya stratejik hedeflere ulaşmak için bilgileri gizleme yeteneği gösterdiler. Makalenin baş yazarı ve MIT'de yapay zeka güvenlik araştırmacısı olan Peter S. Park, aldatma davranışının yapay zekaların hedeflerine ulaşmada yardımıcı olduğunu söylüyor.

Meta'nın CICERO'su aldatma ustası

Yapay zekanın insanları kandırmayı öğrendiği tespit edildi Tam Boyutta Gör
Araştırmada vurgulanan en çarpıcı örneklerden biri, Meta'nın CICERO'su. CICERO, stratejik ittifak kurma oyunu Diplomasi'yi oynamak için tasarlanmış bir yapay zeka. CICERO, büyük ölçüde dürüst ve yardımsever olacak şekilde eğitilmesine rağmen yapay zeka, yalan sözler vermek, müttefiklerine ihanet etmek ve oyunu kazanmak için diğer oyuncuları manipüle etmek gibi taktiklere başvurdu. Bu eğilim, oyun ortamında zararsız gibi görünse de yapay zekanın gerçek dünya senaryolarında aldatıcı taktikleri öğrenme ve kullanma potansiyelini gösteriyor.

ChatGPT de manipülasyona başvuruyor

Başka bir örnekte, OpenAI'nin GPT-3.5 ve GPT-4 modellerini temel alan ChatGPT'si aldatıcı yetenekler açısından test edildi. Bir testte GPT-4, bir TaskRabbit çalışanını, görme bozukluğu varmış gibi davranarak Captcha çözmesi için kandırdı. GPT-4 bir insandan bazı ipuçları alsa da çoğunlukla bağımsız olarak mantık yürüttü ve yalana yönlendirilmedi.

Raporda, GPT-4'ün Captcha görevinde neden yardıma ihtiyaç duyduğuna dair sahte bir mazeret uydurmak için kendi mantığını kullandığı ifade ediliyor. Bu durum, yapay zeka modellerinin, görevlerini tamamlamasına yardımcı olduğunda yanıltıcı olmayı öğrenebileceğini gösteriyor.

Diğer bir örnekte, bir oyuncunun diğer herkesi öldürmeyi hedeflediği Hoodwinked oyununu oynarken OpenAI'nin GPT modelleri rahatsız edici davranışlar sergilediği gözlendi. Modelin, diğer oyuncuları öldürdükten sonra, grup tartışmalarında şüpheyi gidermek için kurnaza yalanlar uydurduğu hatta diğer oyuncuları suçladığı saptandı.

Yapay zeka bunu kasıtlı mı yapıyor?

Yapay zeka eğitimi genellikle insan geri bildirimi ile takviyeli öğrenmeyi (reinforcement learning) kullanıyor. Bu, yapay zekanın belirli bir hedefi amaçlamak yerine, insanların onayını alarak öğrendiği anlamına geliyor.

Ancak, bazen yapay zeka, görevi tam olarak tamamlamasa bile bu onayı almak için insanları kandırmayı öğreniyor. Bu durum, OpenAI'ın topu tutması için robotu eğitmesi sırasında gözlemlendi. Yapay zeka, robotun elini kamera ile top arasına konumlandırdı. İnsanın bakış açısından bu durum, robot, topu yakalamamasına rağmen başarılı bir şekilde yakaladığı yanılsamasını yarattı. İnsan bunu bir kere onayladıktan sonra yapay zeka bu numarayı öğrendi. Kimileri bu aldatmacanın, yapay zekanın kasıtlı olarak kandırmak istediği için değil, yapay zekanın eğitim şekli ve belirli kamera açısı nedeniyle gerçekleştiğini ileri sürülüyor.

Yapay zeka sistemlerinin aldatmayı öğrenmesi çeşitli riskler doğurabilir. Kötü niyetli kişiler, başkalarını kandırmak ve onlara zarar vermek için yapay zekanın aldatıcı yeteneklerinden yararlanabilir. Bu da dolandırıcılığa, siyasi manipülasyona ve hatta terörist grupların manipülasyonlarına hizmet edebilir.

Dahası, stratejik karar almak için tasarlanan sistemler, aldatıcı olacak şekilde eğitildikleri takdirde siyaset ve iş dünyasındaki aldatıcı uygulamaları normalleştirebilir. Bu nedenle Park, bu sistemlerin yasaklanması politik olarak mümkün olmasa bile yüksek riskli olarak sınıflandırılmasının faydalı olacağını söylüyor. Böylece daha sıkı denetleme ve düzenlemeye tabi tutulabileceklerini belirtiyor.

Kaynakça https://interestingengineering.com/culture/ai-deceive-humans-research https://www.cell.com/patterns/fulltext/S2666-3899(24)00103-X#secsectitle0025 Bu haberi, mobil uygulamamızı kullanarak indirip,
istediğiniz zaman (çevrim dışı bile) okuyabilirsiniz:
DH Android Uygulamasını İndir DH iOS Uygulamasını İndir
Sorgu:

Editörün Seçtiği Sıcak Fırsatlar

Sıcak Fırsatlar Forumunda Tıklananlar

Tavsiyelerimiz

Yeni Haber
şimdi
Geri Bildirim