OpenAI, yapay zekanın "yıkıcı" risklerine karşı savaşmak için uzmanlardan oluşan bir ekip kuruyor - Dünyadan Güncel Teknoloji Haberleri

OpenAI, yapay zekanın
Ancak bu yılın başlarında, aralarında Google DeepMind CEO’su Demis Hassabis’in de bulunduğu bir grup üst düzey yapay zeka araştırmacısı, mühendisi ve CEO’sunun, ciddi bir uyarı yayınladı : “Pandemi ve nükleer savaş gibi toplumsal risklerin yanı sıra, yok olma riskinin yapay zeka aracılığıyla azaltılması küresel bir öncelik olmalıdır

Yapay zeka tarafından başlatılan bir nükleer savaşın biraz abartılı olduğunu düşünüyor olabilirsiniz

Kaynak : ZDNet »

Yapay zeka nasıl nükleer savaşa neden olabilir?

Bugün bilgisayarlar her yerde bulunuyor ve askeri saldırıların ne zaman, nerede ve nasıl gerçekleşeceğini belirlemeye yardımcı oluyor Yapay zekanın kontrol edilmediği takdirde oldukça ciddi riskler doğurduğu da inkar edilemez 000 $’a kadar API kredisi teklif ediyor com



genel-15

Yapay zeka, teknolojiyle etkileşim şeklimizde devrim yaratmaya devam ediyor ve geleceğimiz üzerinde inanılmaz bir etkiye sahip olacağı inkar edilemez Ancak aynı zamanda giderek daha büyük riskler de oluşturacaklar” diye uyarıyor OpenAI

Hazırlıklı olmanın rolü

Yapay zekanın kontrol edilmesine yardımcı olmak için OpenAI ekibi üç ana soruya odaklanacak:

  • Kötüye kullanılırsa, bugün sahip olduğumuz ve gelecekte oluşturulacak son teknolojiye sahip yapay zeka sistemleri ne kadar tehlikeli olabilir?
  • Son teknolojiye sahip yapay zeka modelleri ele geçirilirse, kötü niyetli bir aktör bunlarla tam olarak ne yapabilir?
  • En son teknolojiye sahip yapay zeka sistemlerinin tehlikeli yeteneklerini izlemek, değerlendirmek, tahmin etmek ve bunlara karşı koruma sağlamak için nasıl bir çerçeve oluşturabiliriz?

Bu ekip, MIT Konuşlandırılabilir Makine Öğrenimi Merkezi direktörü ve MIT Yapay Zeka Politika Forumu eş direktörü Aleksander Madry tarafından yönetiliyor

“Şu anda en gelişmiş modellerde mevcut olan yetenekleri aşan son teknolojiye sahip yapay zeka modelleri, tüm insanlığa fayda sağlama potansiyeline sahip olacak

OpenAI, araştırmasını genişletmek için ayrıca “Yapay Zeka Hazırlık Mücadelesi” Felaketlere yol açabilecek suiistimalleri önlemek için Ancak bu teknoloji, halüsinasyonlara yatkın olmasının yanı sıra, bir insanın bu tür kararlar verebilecek bir felsefesine de sahip değildir

Yapay zeka çalışmasını izleyin

“Felaket” riskleri olarak adlandırdığı risklerle mücadeleye yardımcı olmak için tasarlanan OpenAI’nin Hazırlık adlı uzman ekibi, çeşitli risk faktörlerine dayalı olarak mevcut ve gelecekteki yapay zeka modellerini değerlendirmeyi planlıyor Özellikle kişiselleştirilmiş iknayı (yani alıcının duymak istediği şeye uyarlanmış içerik), küresel siber güvenliği, otonom kopyalama ve adaptasyonu (kendini değiştiren bir yapay zeka) ve hatta kimyasal, biyolojik, radyolojik ve nükleer saldırılar gibi yok olma tehditlerini izleyecektir Yapay zeka, henüz işin içinde değilse bile gelecekte yer alacak


Resim: Yuichiro Chino/Getty Images

OpenAI tarafından bir araya getirilen yeni bir uzman ekibinin devreye girdiği yer burasıdır Şirket, OpenAI teknolojilerinin olası ancak felaketle sonuçlanabilecek şekilde kötüye kullanımını yayınlayan en iyi 10 başvuruya 25 Kısacası, bir insan durumun böyle olmadığını düşünürken yapay zeka, nükleer saldırı zamanının geldiğine karar verebilir