Yapay zekâyla ilintili bir felaketi önlemek: Sorun profili
Bu bağlantı gönderisi https://efektifaltruizm.org/makaleler/yapay-zekayla-ilintili-bir-felaketi-onlemek-sorun-profili içindir.
80,000 Hours olarak, en uzun vadeli ve detaylı sorun profilimizi yakın zamanda yayımladık; yapay zekâdan kaynaklanan varoluşsal riskleri azaltmaya odaklanıyor.
Profili buradan okuyabilirsiniz.
Bu gönderinin geri kalanıysa profilin geçmişine dair bilgilere ek olarak bir özet ve içindekiler listesi içeriyor.
Geçmişe bakış
İçeriğimizin çoğunda olduğu gibi bu profil de 80,000 Hours’un internet sitesinde biraz zaman geçirmiş fakat bunun dışında EA’e aşina olmayan bir kitleyi hedef alıyor - dolayısıyla giriş seviyesinde. Bununla birlikte, bu profilin EA topluluğu üyeleri için de faydalı ve aydınlatıcı olmasını umuyoruz.
Söz konusu profil öncelikle (Benjamin Hilton olarak) benim görüşlerimi temsil etse de (internet sitesi direktörümüz) Arden Koehler tarafından düzenlendi ve (CEO’muz) Howie Lempel tarafından gözden geçirildi; her ikisi de profilin çıkarımlarına genel hatlarıyla katılıyor.
Bu profili, konuyla yeni tanışan insanlar için olabildiğince faydalı kılmak adına birkaç girişimde bulunmaya çalıştım:
- En büyük mesele olarak gördüğüm şeye odaklanıyorum: Joe Carlsmith’in sunduğu üzere, gelişmiş kabiliyetlere ve stratejik bilinçe sahip planlama sistemlerinde güç arayan yapay zekânın riskleri
- Konuyu daha somutlaştırmaya çalıştım ve yapay zekâ kökenli felaketin neye benzeyeceğini incceleyen ayrı bir makale de yayımladım. (Bu makale Carlsmith’in raporunun yanı sıra Christiano’nun What failure looks like adlı gönderisine ve Bostrom’un Superintelligence kitabına çok şey borçlu.)
- (Yine kendi gözlemlerime dayanarak) profilin geçmişine dair önemi bilgileri paylaşıyorum; örneğin yapay zekâ riskine dair makine öğrenimi deneylerinin anket sonuçları veya yapay zekâ alanında yakın dönem atılımlarına ve ölçekleme yasalarına genel bir bakış
- Sunduğum argümanın neden yanlış olabileceğine dair en güçlü sebepleri dürüstçe açıklamaya gayret ediyorum.
- Yapay zekâ riski alanında çalışmaya sunulabilecek genelgeçer itirazları kapsayan ve bunlara güçlü yanıtlar verdiğini düşündüğüm uzun bir SSS listesi ekledim.
Ek olarak, geri bildirim sağlamak isterseniz ve bunu açık bir gönderide paylaşmaya yeğlerseniz bir geri bildirim formu da bulunuyor.
Bu gönderi makaledeki özeti ve bir içindekiler listesi içerir.
Özet
Önümüzdeki birkaç 10 yılda yapay zekâ alanında önemli bir gelişim bekliyoruz; potansiyel olarak, makinelerin — hepsi olmasa bile — birçok görevde insanlardan daha iyi performans sergileyebildiği bir noktadan söz etmek mümkün. Bu durum çok büyük faydalar sağlayarak günümüzde kolay baş edilemeyen küresel sorunların çözümüne yardım etmekle birlikte ciddi riskler de doğurabilir. Bu riskler kazara (örneğin yapay zekâ sistemlerinin güvenliğine dair endişelere teknik çözümler bulmazsak) veya kasten (örneğin yapay zekâ sistemleri jeopolitik çatışmayı kötüleştirebilir) ortaya çıkabilir. Bu riskleri azaltmak için çok daha fazla çalışma yapılması gerektiğine inanıyoruz.
İleri yapay zekâdan kaynaklanan bu risklerden bazıları varoluşsal olabilir; yani insan ırkının yok olmasına ya da insanlığın eşit şekilde kalıcı ve ciddi anlamda yetki kaybetmesine neden olabilir.a Bu, hızla yaklaşan, dönüştürücü teknolojinin güvenli bir şekilde nasıl geliştirilip toplumumuza entegre edileceğine dair (aşağıda alınacak olan) endişelere henüz tatmin edici bir yanıt verilmiş değil. Bu endişelere yanıt arama çabası sıklıkla göz ardı ediliyor ve belki daha çözülebilir olabilir. Dünya çapında, doğrudan bu konu üzerinde çalışan 300’e yakın kişi olduğunu tahmin ediyoruz.b Dolayısıyla, yapay zekâyla ilintili felaket olasılığı dünyanın en ivedili sorunu olabilir — katkıda bulunabilecek kişilerin yönelebileceği en iyi çalışma alanlarından biri.
Bu sorun üzerinde çalışmaya dair gelecek vadeden seçenekler arasında güvenli yapay zekâ sistemleri yaratmaya dair teknik araştırma, yapay zekânın neden olabileceği spesifik sebeplere dair stratejik araştırma ve şirketler ile hükümetlerin bu riskleri nasıl hafifletebileceğine dair politika araştırması yer alıyor. Zahmete değer politikalar geliştirilirse, bu politikaları yürürlüğe alıp uygulayacak insanlara ihtiyacımız olacak. Çok çeşitli tamamlayıcı roller (örneğin operasyon yönetimi, gazetecilik, bağışlamak için kazanmak ve kimilerini aşağıda listelediğimiz daha birçoğu) aracılığıyla büyük bir etki yaratmak için de birçok fırsat mevcut.
Genel görüşümüz
Önerilen — en yüksek öncelikli
Üzerinde çalışılması gereken en ivedili sorunlar arasında yer alıyor.
Ölçek
Yapay zekâ çok çeşitli etkilere sahip olacak ve yüksek oranda fayda sağlama potansiyeline sahip. Fakat biz son derece kötü neticelerin, bilhassa varoluşsal bir felaket olasılığına eğiliyoruz. Son derece tereddütlü olmakla birlikte, çeşitli yöntemler kullanan diğer oyuncuların değerlendirmelerini temel aldığımızda genel tahminimiz, önümüzdeki 100 yıl içerisinde yapay zekânın sebep olduğu varoluşsal bir felaket ihtimalinin %10 civarında seyrettiği. Bu sayı daha çok araştırmayla önemli ölçüde değişiklik gösterebilir; kimi uzmanlar bunun %0,5 kadar düşük veya %50’den çok daha fazla olduğunu düşünüyor, biz de her iki tarafın da haklı olabileceği fikrine açık bakıyoruz. Genel anlamda mevcut görüşümüz, yapay zekâ gelişiminin, bildiğimiz diğer tüm meselelere kıyasla, insanlığın uzun vadeli ilerleyişi açısından çok daha büyük bir tehdit oluşturduğu.
İhmal edilme
2020 yılında, yapay zekâ kaynaklı en kötü risklerin azaltılması için yaklaşık 50 milyon dolar, yapay zekâ kabiliyetlerinin geliştirilmesi içinse milyarlarca dolar harcandı.c Yapay zekâ uzmanlarının endişelerinin arttığı görsek de yapay zekâ ilintili varoluşsal bir felaket ihtimalini azaltmaya dair doğrudan çalışma yapan insan sayısı 300 civarında.2 Bunların yaklaşık üçte ikisi teknik yapay zekâ güvenliği üzerinde çalışırken geri kalanların strateji (ve politika) araştırması ve savunuculuğu arasında ayrıştığı düşülüyor.
Çözülebilirlik
Yapay zekâ kaynaklı bir felaketi engelleme konusunda ilerleyiş göstermek zor görünebilir fakat daha fazla araştırma için birçok konu bulunuyor ve alan henüz oldukça genç. Dolayısıyla bir dereceye kadar çözülebilir olduğunu düşünsek de fazlasıyla emin olamıyoruz. Tekrar söylemek gerekirse, yapay zekâyı güvenli kılmanın çözülebilirliğine dair değerlendirmeler büyük ölçüde farklılık gösteriyor.
Tüm içindekiler listesi
- [Giriş]
- 1. Birçok yapay zekâ uzmanı, yapay zekânın soy tükenmesi kadar kötü neticelere yol açma ihtimalinin göz ardı edilemez olduğunu düşünüyor
- 2. Yapay zekâ alanında son derece hızlı ilerlemeler kaydediyoruz
-
3. Güç arayan yapay zekâ insanlık açısından varoluşsal bir tehdit teşkil edebilir
- Gelişmiş planlama sistemleri geliştirmemiz olası görünüyor
- Gelişmiş planlama sistemlerinin tehlikeli derecede “uyumlanmamış” olma ihtimali bulunuyor
- Yapay zekâ sistemleri tarafından yetkisiz bırakılmak varoluşsal bir felakete yol açar
- İnsanlar riske rağmen uyumlanmamış yapay zekâ sistemlerini uygulayabilir
- Tüm bunlar kulağa çok soyut geliyor. Yapay zekâ kaynaklı varoluşsal bir felaket neye benzerdi?
- 4. Güç arayan yapay zekâdan kaçınmanın bir yolunu bulsak bile şu konularda hâlâ risk söz konusu
- Peki, yapay zekâ kaynaklı bir felaketin yaşanma ihtimali nedir?
- 5. Şu risklerle mücadele edebiliriz
- 6. Bu çalışma fazlasıyla göz ardı edilmiş
- Hatalı olduğumuza dair en iyi argümanlar bizce neler?
- Kuvvetli yanıtlar aldığını düşündüğümüz, yapay zekâ riskine dair çalışmalara karşı çıkan argümanlar
- Yardımcı olmak için somut anlamda ne yapabilirsiniz?
- Daha fazla bilgi edinmek için en iyi kaynaklar
- Teşekkür
Teşekkür
Makaleyi değerlendirdikleri veya son derece düşünceli ve faydalı yorumları ile sohbetleri için Joel Becker, Tamay Besiroglu, Jungwon Byun, Joseph Carlsmith, Jesse Clifton, Emery Cooper, Ajeya Cotra, Andrew Critch, Anthony DiGiovanni, Noemi Dreksler, Ben Edelman, Lukas Finnveden, Emily Frizell, Ben Garfinkel, Katja Grace, Lewis Hammond, Jacob Hilton, Samuel Hilton, Michelle Hutchinson, Caroline Jeanmaire, Kuhan Jeyapragasan, Arden Koehler, Daniel Kokotajlo, Victoria Krakovna, Alex Lawsen, Howie Lempel, Eli Lifland, Katy Moore, Luke Muehlhauser, Neel Nanda, Linh Chi Nguyen, Luisa Rodriguez, Caspar Oesterheld, Ethan Perez, Charlie Rogers-Smith, Jack Ryan, Rohin Shah, Buck Shlegeris, Marlene Staib, Andreas Stuhlmüller, Luke Stebbing, Nate Thomas, Benjamin Todd, Stefan Torges, Michael Townsend, Chris van Merwijk, Hjalmar Wijk ve Mark Xu’ya büyük teşekkürler. (Bu, söylediğim her şeyle aynı fikirde oldukları anlamına gelmiyor; hatta makalenin yorum bölümünde birçok hararetli fikir ayrılığı yaşadık!)
Bu çalışma Creative Commons Attribution 4.0 International License kapsamında lisanslıdır.