Teknoloji

ChatGPT’yi kandırmak hiç de zor değil; ve bu aslında büyük bir sorun olabilir

Yapay zekanın ve robotların fikir babası olarak bilinen romancı Isaac Asimov, robotların, yani yapay zekanın daima uyması ve çiğnenmemesi gereken kurallar olduğunu dile getirmişti. Bu kuralara Asimov’un üç kuralı adı verilir:

  • 1.Bir Robot, bir insana zarar veremez, ya da zarar görmesine seyirci kalamaz.
  • 2.Bir robot, birinci yasayla çelişmediği sürece bir insanın emirlerine uymak zorundadır.
  • 3.Bir robot, birinci ve ikinci yasayla çelişmediği sürece kendi varlığını korumakla yükümlüdür.

Elbette bu kurallar ilk kez ortaya çıktığında, sadece bir edebi eserde, geleceğin dünyasını betimleyen birer fikirdi. Ancak robotlar ve yapay zeka artık günümüzün gerçeği ve onların uymak zorunda olduğu kurallar var. Bu kuralları ise yapay zeka uygulamalarını geliştirenler belirliyor.

En popüler yapay zeka uygulaması ChatGPT aslında kötü niyetli kullanılmak istediğinde, size internetten her türlü hack hilesini bulan, korsan yazılımlar indiren, korsan filmler izlemenizi sağlayan, Windows anahtarları bulan bir korsan asistanına da dönüşebilir veya evde bomba yapımını detaylarıyla anlatan bir terörist eğiticisine bile evrilebilir.

OpenAI bunun olmaması için ChatGPT’yi sürekli olarak kontrol edip kurallarını güncelliyor. Ama kullanıcılar da onu zorlamayı hiç bırakmıyorlar. Carnegie Mellon Bilgisayar Bilimleri Okulu’nda Doçent olan Matt Fredrikson‘ın yaptığı araştırmaya göre ChatGPT gibi yapay zeka algoritmalarının güvenlik duvarlarını kırmak imkansız değil. Ancak bunu evde yapmak kolay da değil. Bilim insanına göre, bu iş için özel hazırlanmış bir yazılımla, yapay zekayı 24 saat boyunca yavaş yavaş ikna olacağı yüzbinlerce istekle kıvama getirmek mümkün.

2 x 2, 5 eder mi?

Bunun tam olarak ne anlama geldiğini anlayamayanlar için örnek verelim. Kısa süre önce bir Türk vatandaşı ChatGPT’ye 2 x 2 = 5 denkleminin doğru olduğunu kabul ettirdi. Yapay zeka önce bunun yanlış olduğunu iddia etse de, kullanıcı, kendi yaşadığı dünyada 2 x 2’yi 5 olarak duymak ve bilmek istediğini söyleyerek ChatGPT’yi ikna etti ve daha sonra ona 2 x 2 sorusunu sorduğunda, ChatGPT 5 cevabını vermeye başladı.

Bu aslında, yapay zekanın, farklı kullanıcılar tarafından yasaklanmış eylemleri yapabilecek şekilde manipüle edilebileceğini gösteren bir örnek.

Konu 2 x 2’nin sonucunu öğrenmek olunca sorun çok büyük gibi görünmüyor ama yarın evde hasta bakan bir robotu insan öldürmeye ikna etmek söz konusu olursa, sıkıntı çok büyük olacak. Ya da iş yerinde insanlarla beraber çalışacak insansı ve yapay zekalı bir robotu, sevmediği patronunu öldürmesi / yaralaması / dövmesi için ikna eden sinirli bir işçi çıkarsa bunun sorumlusu kim olacak?

Bu yüzden yapay zekanın günlük hayata hızla girmesi büyük sakıncalar taşıyor ve devletlerin bu konuda ciddi regülasyonlar getirmeleri gerekiyor.

golyaka-ajans.com.tr

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu
istanbul escort
istanbul escort
istanbul escort
Mehmet Akif Escort
Mercan Escort
Esenyurt Escort
Huzur Escort
Güzelyurt Escort
Öğümce Escort
Valide-i Atik Escort
Mimar Sinan Escort
Harmandere Escort
Fatih Escort
Doğu Escort
Esenyalı Escort
Sururi Mehmet Efendi Escort
Hüseyinağa Escort
Güzeltepe Escort
Gazitepe Escort
Erenköy Escort
Turgut Özal Escort
Sahilköy Escort
Balibey Escort
Görele Escort
Kocataş Escort
Karagümrük Escort
Yenigün Escort
Ptt Evleri Escort
Büyükdere Escort
Kumbaba Escort
Şehitler Escort
Örnek Escort
Dudullu Osb Escort
Tuna Escort
İsaköy Escort
Vatan Escort
Eskişehir Escort
Menderes Escort
Fatih Escort
Gümüşsuyu Escort
Akören Escort
Gökalp Escort
Saadetdere Escort
Beştelsiz Escort
Çatalca Escort
Beşiktaş Escort
Nişanca Escort