Yapay zekâyla ilintili bir felaketi önlemek: Sorun profili
Bu bağlantı gönderisi https://efektifaltruizm.org/makaleler/yapay-zekayla-ilintili-bir-felaketi-onlemek-sorun-profili içindir.
80,000 Hours olarak, en uzun vadeli ve detaylı sorun profilimizi yakın zamanda yayımladık; yapay zekâdan kaynaklanan varoluşsal riskleri azaltmaya odaklanıyor.
Profili buradan okuyabilirsiniz.
Bu gönderinin geri kalanıysa profilin geçmişine dair bilgilere ek olarak bir özet ve içindekiler listesi içeriyor.
İçeriğimizin çoğunda olduğu gibi bu profil de 80,000 Hours’un internet sitesinde biraz zaman geçirmiş fakat bunun dışında EA’e aşina olmayan bir kitleyi hedef alıyor - dolayısıyla giriş seviyesinde. Bununla birlikte, bu profilin EA topluluğu üyeleri için de faydalı ve aydınlatıcı olmasını umuyoruz.
Söz konusu profil öncelikle (Benjamin Hilton olarak) benim görüşlerimi temsil etse de (internet sitesi direktörümüz) Arden Koehler tarafından düzenlendi ve (CEO’muz) Howie Lempel tarafından gözden geçirildi; her ikisi de profilin çıkarımlarına genel hatlarıyla katılıyor.
Bu profili, konuyla yeni tanışan insanlar için olabildiğince faydalı kılmak adına birkaç girişimde bulunmaya çalıştım:
Ek olarak, geri bildirim sağlamak isterseniz ve bunu açık bir gönderide paylaşmaya yeğlerseniz bir geri bildirim formu da bulunuyor.
Bu gönderi makaledeki özeti ve bir içindekiler listesi içerir.
Önümüzdeki birkaç 10 yılda yapay zekâ alanında önemli bir gelişim bekliyoruz; potansiyel olarak, makinelerin — hepsi olmasa bile — birçok görevde insanlardan daha iyi performans sergileyebildiği bir noktadan söz etmek mümkün. Bu durum çok büyük faydalar sağlayarak günümüzde kolay baş edilemeyen küresel sorunların çözümüne yardım etmekle birlikte ciddi riskler de doğurabilir. Bu riskler kazara (örneğin yapay zekâ sistemlerinin güvenliğine dair endişelere teknik çözümler bulmazsak) veya kasten (örneğin yapay zekâ sistemleri jeopolitik çatışmayı kötüleştirebilir) ortaya çıkabilir. Bu riskleri azaltmak için çok daha fazla çalışma yapılması gerektiğine inanıyoruz.
İleri yapay zekâdan kaynaklanan bu risklerden bazıları varoluşsal olabilir; yani insan ırkının yok olmasına ya da insanlığın eşit şekilde kalıcı ve ciddi anlamda yetki kaybetmesine neden olabilir.a Bu, hızla yaklaşan, dönüştürücü teknolojinin güvenli bir şekilde nasıl geliştirilip toplumumuza entegre edileceğine dair (aşağıda alınacak olan) endişelere henüz tatmin edici bir yanıt verilmiş değil. Bu endişelere yanıt arama çabası sıklıkla göz ardı ediliyor ve belki daha çözülebilir olabilir. Dünya çapında, doğrudan bu konu üzerinde çalışan 300’e yakın kişi olduğunu tahmin ediyoruz.b Dolayısıyla, yapay zekâyla ilintili felaket olasılığı dünyanın en ivedili sorunu olabilir — katkıda bulunabilecek kişilerin yönelebileceği en iyi çalışma alanlarından biri.
Bu sorun üzerinde çalışmaya dair gelecek vadeden seçenekler arasında güvenli yapay zekâ sistemleri yaratmaya dair teknik araştırma, yapay zekânın neden olabileceği spesifik sebeplere dair stratejik araştırma ve şirketler ile hükümetlerin bu riskleri nasıl hafifletebileceğine dair politika araştırması yer alıyor. Zahmete değer politikalar geliştirilirse, bu politikaları yürürlüğe alıp uygulayacak insanlara ihtiyacımız olacak. Çok çeşitli tamamlayıcı roller (örneğin operasyon yönetimi, gazetecilik, bağışlamak için kazanmak ve kimilerini aşağıda listelediğimiz daha birçoğu) aracılığıyla büyük bir etki yaratmak için de birçok fırsat mevcut.
Üzerinde çalışılması gereken en ivedili sorunlar arasında yer alıyor.
Yapay zekâ çok çeşitli etkilere sahip olacak ve yüksek oranda fayda sağlama potansiyeline sahip. Fakat biz son derece kötü neticelerin, bilhassa varoluşsal bir felaket olasılığına eğiliyoruz. Son derece tereddütlü olmakla birlikte, çeşitli yöntemler kullanan diğer oyuncuların değerlendirmelerini temel aldığımızda genel tahminimiz, önümüzdeki 100 yıl içerisinde yapay zekânın sebep olduğu varoluşsal bir felaket ihtimalinin %10 civarında seyrettiği. Bu sayı daha çok araştırmayla önemli ölçüde değişiklik gösterebilir; kimi uzmanlar bunun %0,5 kadar düşük veya %50’den çok daha fazla olduğunu düşünüyor, biz de her iki tarafın da haklı olabileceği fikrine açık bakıyoruz. Genel anlamda mevcut görüşümüz, yapay zekâ gelişiminin, bildiğimiz diğer tüm meselelere kıyasla, insanlığın uzun vadeli ilerleyişi açısından çok daha büyük bir tehdit oluşturduğu.
2020 yılında, yapay zekâ kaynaklı en kötü risklerin azaltılması için yaklaşık 50 milyon dolar, yapay zekâ kabiliyetlerinin geliştirilmesi içinse milyarlarca dolar harcandı.c Yapay zekâ uzmanlarının endişelerinin arttığı görsek de yapay zekâ ilintili varoluşsal bir felaket ihtimalini azaltmaya dair doğrudan çalışma yapan insan sayısı 300 civarında.2 Bunların yaklaşık üçte ikisi teknik yapay zekâ güvenliği üzerinde çalışırken geri kalanların strateji (ve politika) araştırması ve savunuculuğu arasında ayrıştığı düşülüyor.
Yapay zekâ kaynaklı bir felaketi engelleme konusunda ilerleyiş göstermek zor görünebilir fakat daha fazla araştırma için birçok konu bulunuyor ve alan henüz oldukça genç. Dolayısıyla bir dereceye kadar çözülebilir olduğunu düşünsek de fazlasıyla emin olamıyoruz. Tekrar söylemek gerekirse, yapay zekâyı güvenli kılmanın çözülebilirliğine dair değerlendirmeler büyük ölçüde farklılık gösteriyor.
Makaleyi değerlendirdikleri veya son derece düşünceli ve faydalı yorumları ile sohbetleri için Joel Becker, Tamay Besiroglu, Jungwon Byun, Joseph Carlsmith, Jesse Clifton, Emery Cooper, Ajeya Cotra, Andrew Critch, Anthony DiGiovanni, Noemi Dreksler, Ben Edelman, Lukas Finnveden, Emily Frizell, Ben Garfinkel, Katja Grace, Lewis Hammond, Jacob Hilton, Samuel Hilton, Michelle Hutchinson, Caroline Jeanmaire, Kuhan Jeyapragasan, Arden Koehler, Daniel Kokotajlo, Victoria Krakovna, Alex Lawsen, Howie Lempel, Eli Lifland, Katy Moore, Luke Muehlhauser, Neel Nanda, Linh Chi Nguyen, Luisa Rodriguez, Caspar Oesterheld, Ethan Perez, Charlie Rogers-Smith, Jack Ryan, Rohin Shah, Buck Shlegeris, Marlene Staib, Andreas Stuhlmüller, Luke Stebbing, Nate Thomas, Benjamin Todd, Stefan Torges, Michael Townsend, Chris van Merwijk, Hjalmar Wijk ve Mark Xu’ya büyük teşekkürler. (Bu, söylediğim her şeyle aynı fikirde oldukları anlamına gelmiyor; hatta makalenin yorum bölümünde birçok hararetli fikir ayrılığı yaşadık!)
Bu çalışma Creative Commons Attribution 4.0 International License kapsamında lisanslıdır.