Uzun dönemci yapay zekâ yönetişiminin görünümü: Basit bir özet

yazar Sam Clarke
Dönüştürücü yapay zekaYapay zeka güvenliğiYapay zeka yönetişimi

Amaç: uzun dönemci yapay zekâ yönetişimi alanındaki gelişmelerin basit bir özetini sunmak.

Hedef kitle: uzun vadeci yapay zekâ yönetişimine sınırlı oranda aşinalığı olan ve konuyu daha iyi anlamak isteyenler. Bu yazının alanla tanışıklığı olanlara fayda sağlamasını beklemiyorum. Ek düzelti: Alana hâlihazırda aşina olan bazı kişiler de bu yazıyı faydalı buldu.

Bu gönderi uzun dönemci yapay zekâ yönetişimin alanındaki farklı çalışmaların ana hatlarını sunar. Her çalışma türü için açıklama yapacak, örnekler verecek, olumlu bir etkisi olabileceği birkaç senaryo sunacak ve günümüzde bu alanda çalıştığını bildiğim aktörlerin bir listesini sağlayacağım.⁠a

Öncelikle birkaç tanımla başlayalım:

  • Yapay zekâ yönetişimi; yapay zekâ sistemlerinin geliştirilmesi ve yayılmasından ileri gelecek sosyal neticeleri etkileyecek yerel ve küresel kuralların, prensiplerin, kanunların, süreçlerin, politikaların ve kurumların (yalnızca hükümetlerin değil) oluşturulması anlamına gelir.⁠b

  • Uzun dönemci yapay zekâ yönetişimi ise, yapay zekânın hayli uzun vadeli etkilerine gösterilen alakadan öne çıkan bu çalışmaların bir alt kümesidir. Bu konu, dönüştürücü yapay zekâyı idare etmeyi hedefleyen çalışmalarla önemli ölçüde örtüşür.

Uzun dönemci yapay zekâ yönetişimi alanının son derece küçük olduğunu belirtmek gerekir. Tahminime göre, hayli uzun vadeli etkilere gösterilen alakadan ileri gelen yapay zekâ idares, alanında yaklaşık 60 kişinin çalışıyor.

Kısa özet

Üst düzeyde, temel ve uygulamalı çalışmalar arasında bir spektrum bulunduğunu göz önünde bulundurmanın faydalı olduğu kanısındayım. Temel uçta, uzun dönemci yapay zekâ yönetişimi için iyi üst düzey hedefler belirlemeyi amaçlayan strateji araştırması yer alıyor; buna ek olarak, söz konusu üst düzey hedeflere ulaşılmasına yardımcı olacak planlar belirlemeyi amaçlayan taktik araştırması bulunuyor. Uygulamalı uca yaklaştığımızda ise bu araştırmayı alıp somut ilkelere dönüştüren politika geliştirme yer alıyor; ayrıca bu politikaların uygulanmasının savunuculuğunu yapan ve nihayetinde bu politikaların (örneğin kamu personeli tarafından) gerçekte uygulanmasını destekleyen çalışmaları da sayabiliriz.

Bir de (spektruma tam olarak oturmayan) alan inşası çalışmaları var. Bu çalışmalar, meseleye doğrudan katkıda bulunmaktansa bu konuda değerli çalışmalar yapan insanların yer aldığı bir alan inşa etmeyi hedefler.

Tabii bu sınıflandırma bir basitleştirme niteliği taşıyor ve tüm çalışmaların tek bir kategoriye uyması mümkün değil.

Kavrayışın çoğunlukla daha temelden spektrumun daha uygulamalı ucuna aktığını düşünebilirsiniz fakat araştırmanın politika meselelerine duyarlı olması (yani araştırmanızın siyasi anlamda uygulanabilir bir politika teklifine katkıda bulunabilme olasılığı) da önem taşıyor.

Artık bu farklı çalışma türlerinin her birini derinlemesine inceleyebiliriz.

Araştırma

Strateji araştırması

Uzun dönemci yapay zekâ stratejisinin nihai amacı (erişildiğinde) ileri yapay zekânın muhtemel iyi neticelerinin olasılığını net bir biçimde artıracak üst düzey hedeflerin belirlenmesidir (Muehlhauser’a referansla, bu hedeften zaman zaman “stratejik netlik kazanmak” olarak bahsedeceğim).

Bu araştırma hedeflenen ve keşifçi arasında uzanan bir spektrumda aşağıdaki şekilde değişiklik gösterebilir:

  • Hedeflenen strateji araştırması bazı diğer spesifik, önemli ve bilinen sorulara ışık tutan soruların yanıtlarını araştırır.
    • Örnek: “İnsan beyninin ne kadar hesaplama yaptığını öğrenmek istiyorum çünkü bu, dönüştürücü yapay zekânın ne zaman geliştirileceğine dair soruyu yanıtlamama yardımcı olacak (ki bu da hangi üst düzey hedeflerin peşine düşmemiz gerektiğini etkileyecek)”
  • Keşifçi strateji araştırması, başka hangi önemli soruları yanıtlamamıza yardımcı olacağına dair net bir anlayış olmaksızın, soruları yanıtlar.
    • Örnek: “Çin’in sanayi politikasını öğrenmek istiyorum çünkü bu birkaç önemli stratejik soruyu yanıtlamama yardımcı olabilir ama bu soruların hangileri olduğunu tam olarak bilmiyorum”

Örnekler

  • Dönüştürücü yapay zekâ çalışmaları (biyolojik destek ve nöral dil modelleri için ölçekleme kanunları vb.)
    • Stratejik bağıntı örneği: Dönüştürücü yapay zekâ yakınsa uzmanlardan oluşan büyük bir alanı yavaş yavaş büyütmek daha az gelecek vadedebilir; dönüştürücü yapay zekâ çok uzak bir gelecekteyse, uzun dönemci yapay zekâ yönetişiminin önceliğini nispeten düşürmek gerekebilir.
  • Yapay zekâ x-riskinin kaynaklarını netleştirme çalışmaları (örneğin Christiano, Critch, Carlsmith, Ngo ve Garfinkel’ın yazıları)
    • Stratejik bağıntı örneği: Yapay zekâdan ileri gelen x-riskin çoğu yanlış ayarlanmış ileri yapay zekâ unsurlarından kaynaklanıyorsa idare, onları inşa eden ilk aktörleri etkilemeye odaklanmayı.
  • Dönüştürücü yapay zekâyla ilintili yapay zekâ gelişiminin hızını araştırma çalışmaları (AI Impacts’in tetkik ve analizi vb.).
    • Stratejik bağıntı örneği: Yapay zekâ gelişimi kesintili olarak gerçekleşirse, yüksek etkili aktörlerinin sayısı son derece az kalabilir ve idarenin çoğu değeri bu aktörlerin etkilenmesinden ileri gelecektir.

Strateji araştırmasını (ve bilhassa keşifçi strateji araştırmasını) geniş kapsamlı araştırma ile karıştırmak mümkün. Yukarıdaki örneklerin birçoğunun da gösterdiği üzere, strateji araştırması dar kapsamlı olabilir; yani oldukça dar bir soruyu yanıtlayabilir. Geniş ve dar kapsamlı sorulara örnek vermek gerekirse:

  • Ölçekleme kanunları hakkında:
    • Geniş kapsamlı soru: Genel anlamda, derin öğrenme modellerinin performansı, bu modellerin boyutu artırıldıkça nasıl değişim gösterir?
    • Dar kapsamlı soru: Bilhassa büyük dil modellerinin (mesela GPT-3) performansı, bu modellerin boyutu artırıldıkça nasıl değişim gösterir? (Soru bu makalede ele alınıyor.)
  • Yapay zekâ x-riskinin kaynakları hakkında:
    • Geniş kapsamlı soru: İleri yapay zekâdan ileri gelen x-risk oranı genel anlamda nedir?
    • Dar kapsamlı soru: Bilhassa etki arayan yapay zekâ unsurlarından ileri gelen x-risk oranı nedir? (Soru bu raporda ele alınıyor.)

Doğrusu, özellikle orta seviyede deneyimli araştırmacılar açısından, daha dar kapsamlı sorular seçmenin sıklıkla daha iyi olduğunu düşünüyorum zira çözülebilir olmaya daha meyilliler.

Bu tür bir çalışma denemek isteyenler için Luke Muehlhauser birkaç öneride bulunuyor: Bu gönderide dördüncü maddeye göz atabilirsiniz. Ayrıca, açık araştırma sorularına dair daha fazla örnek için bu gönderiyi inceleyebilirsiniz.⁠c

Etki senaryoları

  • Doğrudan etki: Yapay zekâ yönetişiminde çok sayıda olası hedef bulunuyor ve bunlardan en önemlilerini önceliklendirmemiz gerek. Bu çalışma çoğunlukla araştırmacıların, izlememiz gereken hedefleri etkileyen meseleler konusunda pek az netlik bulunduğuna dair izlenimlerinden ileri geliyor. Örnek olarak, sırasıyla yapay zekâ x-risk senaryoları ve yapay zekâ x-riskinin toplam miktarına dair yaygın fikir ayrılıklarını gösteren bu anketlerin sonuçlarını inceleyebilirsiniz.
  • Indirect impact:
    • Alan inşası: Ulaşmaya gayret ettiğimiz hedeflere ve bunun neden önemli olduğuna dair daha net bir anlayış kazanmak, alana daha fazla insanın yönelmesini sağlayacaktır.
    • Politika değişimlerinin ihtiyacının ifade edilmesi: İnsanları gelecekte maliyetli ve çarpıcı şeyler yapmaya ikna etmek istiyorsanız ulaşmaya çalıştığımız hedeflere ve bunun neden önemli olduğuna dair daha net şeyler söylemeniz gerekir.

Kim çalışıyor?

Şu kurumlardaki bazı kişiler: FHI, GovAI, CSER, DeepMind, OpenAI, GCRI, CLR, Rethink Priorities, OpenPhil, CSET⁠d ve bazı bağımsız akademisyenler.

Taktik araştırması

Uzun dönemci yapay zekâ taktik araştırmasının nihai amacı (strateji araştırmasının öncelik olarak belirlediği) üst düzey hedeflere ulaşılmasına destek olarak planların belirlenmesidir. Doğası gereği daha dar kapsamlıdır.

Kimi hedefleri net bir biçimde öncelik olarak belirlemediğiniz durumlarda da taktik araştırması yapmak için geçerli sebepler olabileceğini belirtmekte fayda var: kendi öğreniminiz, kariyer sermayesi ve akademik bir alanın inşasına katkıda bulunmak için.

Örnekler

  • The Windfall Clause
    • Plan: Ortak menfaat için yapay zekânın faydalarını dağıtmaya yarayacak bir araç geliştirmek
    • Bu planın izlediği üst düzey hedefler: Aktörlerin ileri yapay zekâyı geliştiren ilk kişi olmak adına birbirleriyle yarışma dürtüsünü azaltmak
  • Mechanisms for Supporting Verifiable Claims
    • Plan: Yapay zekâ geliştiricilerinin kendi iddialarında bulunabileceği pratikler geliştirmek
    • Bu planın izlediği üst düzey hedefler: Yapay zekâ sistemlerinin sorumlu davranış göstermesi için mekanizmalar geliştirmek, daha etkili bir denetim sağlamak, rekabet avantajı kazanmak amacıyla kolaya kaçma baskısını azaltmak
  • AI & Antitrust
    • Plan: Rekabet yasası ile iş birlikçi yapay zekâ gelişimine duyulan ihtiyaç arasındaki gerginliği yatıştırma yolları sunmak
    • Bu planın izlediği üst düzey hedefler: İleri yapay zekâ geliştiren şirketler arasında iş birliğini artırmak

Etki senaryoları

  • Doğrudan etki: Gerek politikalar gerek gelecek araştırmalar nezdinde daha iyi kararlar vermek için kullanılacak çözümler yaratmak
    • Allan Dafoe bunu “Ürün modeli araştırma” olarak adlandırıyor.
  • Dolaylı etki: Tüm çözümler daha iyi kararlar vermek için kullanılmasa da uzun dönemci yapay zekâ yönetişimi meselelerini önemseyen insanların yer aldığı bir alan inşa etmeye ve ek olarak araştırmacılar arasında içgörü, uzmanlık, bağlantı ve güvenilirliği geliştirmeye de katkıda bulunacaktır.
    • Allan Dafoe bunu “Alan inşası modeli araştırma” olarak adlandırıyor.

Kim çalışıyor?

Şu kurumlardaki bazı kişiler: FHI, GovAI, CSER, DeepMind, OpenAI, GCRI, CSET, Rethink Priorities, Institute for Law & AI ve bazı bağımsız akademisyenler.

Politika geliştirme, savunuculuğu ve uygulanması

Strateji araştırması üst düzey hedefler çıkarır. Taktik araştırması bu hedefleri alarak onlara ulaşmayı sağlayacak planlar çıkarır. Politika geliştirme çalışması bu planları, politika üreticilere teslim edilmeye hazır politika önerilerine dönüştürür. Bu da (örnek olarak) söz konusu talebin ne olacağı, (gerek resmî politikada gerek talepte) nasıl bir dil kullanılacağı ve başarılı bir uygulama olasılığını etkileyecek diğer bağlama özel hususların belirlenmesini içerir.

Politika savunuculuğu çalışması politika uygulanmasının savunuculuğunu yapar; örnek olarak, politika talebinde bulunacak en iyi kişinin, bu talebin iletileceği mercinin ve zamanının belirlenmesini üstlenir.

Politika uygulama ise politikaların, kamu personelleri veya şirketler tarafından, pratikte uygulanması çalışmasıdır.

Hükümet politikaları (yani hükümetler veya hükümetler arası kuruluşların yürürlüğe koyacağı şekilde tasarlanmış politikalar) ile (şirketlerin benimseyebileceği) kurumsal politikalar arasında bir ayrım yapmak önemli. Uzun dönemci yapay zekâ yönetişimi üzerine çalışan kimileri kurumsal politikayı (bilhassa yapay zekâ geliştiricilerinin politikalarını) iyileştirmeye odaklanırken alandaki kimileri de ilgili hükümetlerin politikalarını iyileştirmeye odaklanıyor.

Tüm politika çalışmalarının ortak bir motivasyonu, uygulama detaylarının başarılı politikaların oluşturması açısından sıklıkla önemli sayıldığıdır. Örneğin bir hükümet yönetmeliği belirsiz bir açıklığa sahipse söz konusu yönetmeliği kullanışsız kılabilir.

Bu tür bir çalışma, araştırmaya kıyasla, nispeten daha az bireysel düşünme ve daha çok diyalog/bilgi toplama (örneğin bir politika üzerinde kimin yetki sahibi olduğunu, bu kişilerin neyi önemsediğini ve diğer oyuncuların bir politikada ne aradığını öğrenmek üzere toplantılar yapmayı), buna ek olarak koordinasyonu (yani bir politikayı ettirebilmek için aktörleri nasıl bir araya getireceğini belirlemeyi ve ardından bunu gerçekleştirmeyi) gerektirir.

Daha önce de değinildiği üzere, politika içgörüsü zaman zaman “geriye doğru” akar. Örneğin, savunuculuğun bilginizi (ve politika ortamını) nasıl değiştirdiğine bağlı olarak, politika geliştirme tekrar sürece tabii tutulabilir.

Örnekler

  • Hükümet politikası:
    • Yapay zekâ teknolojisini çekirdek hükmün, kontrolün ve iletişimin (NC3) bir parçası kılmamaya bağlılık; örneğin CLTR’nin Future Proof raporunda savunduğu gibi.
    • Yapay zekâ gelişiminin hükümet tarafından denetlenmesi; örneğin yapay zekâ denetimine dair bu bilgilendirici dokümanda açıklandığı gibi.
    • Hem mevcut hem ileri yapay zekâ sistemlerinden ileri gelen risklere duyarlı yeni yönetmelikler veya yapay zekâ stratejileri/prensipleri hazırlamak; örneğin çeşitli Etkili Özgecilik kuruluşlarının Avrupa Birliği Yapay Zekâ Tüzüğü’ne dair geri bildirimleri.
  • Kurumsal politika:
    • Yapay zekâ araştırmasının, yanlış kullanım potansiyelini göz önünde bulundurarak, sorumlu yayılımı için kurallar geliştirmek; örneğin PAI’nin sunduğu bu öneriler.

Bu fikirler bir spektrum üzerinde (yapay zekânın NC3’e entegre edilmemesi gibi) daha hedeflenen ile (olasılıkla ortaya çıkacak geniş kapsamlı meselelerle baş etmek adına genel amaç kapasitesinde; örneğin yukarıda değindiğimiz konuların çoğuna dair) daha genel uçlar arasında farklılık gösterebilir. Yapay zekânın ne getireceğine dair elimizdeki belirsizlikleri düşününce, günümüzde politika geliştirme, savunuculuğu ve uygulanmasının büyük ölçüde daha genel fikirlere odaklanması gerektiği fikrindeyim (diğer yandan da, açıkça iyi ve spesifik fikirler ortaya çıktıkça bunları da öne sürerek).

Etki senaryoları:

  • Doğrudan etki: İyi politikaların yürürlüğe girmesi, ileri yapay zekânın olduğu bir dünyaya geçişte yolumuzu başarıyla bulma şansımızı artırır.
  • Dolaylı etki: Bir politika fikrinin kuvvetle iyiliğinden emin olamıyorsanız, söz konusu politikanın geliştirilmesi/savunuculuğu/uygulanması uzun dönemci yapay zekâ yönetişimi alanındaki insanlar için içgörü, uzmanlık, bağlantı ve güvenilirlik inşa edecektir. Yapay zekâya dair “kritik bir zamana”⁠e varıp politika ve karar verme süreçlerinin geliştirilmesini ancak o noktada öğrenmeye başlamak istemeyiz.
    • Bununla birlikte, neticede zararlı olabilecek (örneğin gelecekteki politika geliştirme gayretlerini kısıtlayacak) politikalar uygulamamak adına çok dikkatli olmalıyız.

Kimler çalışıyor?

  • Geliştirme:
    • Hükümet politikası: CLTR, FLI, GovAI, CSET, CSER, FHI, TFS
    • Kurumsal politika: OpenAI, DeepMind, GovAI, CSER, FHI, PAI
  • Savunuculuk:
    • Hükümet politikası: CLTR, CSET, FLI, TFS
    • Kurumsal politika: PAI
  • Uygulama:
    • Hükümet politikası: Çeşitli kamu hizmetlerinde çalışan insanlar
    • Kurumsal politika: OpenAI, DeepMind

Alan inşası

Bu çalışma doğrudan, uzun dönemci yapay zekâ yönetişimi alanında değerli işler yapan insanların alanını veya topluluğunu büyütmeyi amaçlar.⁠f (1) Alana yeni insanlar kazandırmayı ve (2) alanı daha etkili hâle getirmeyi kapsar.

Örnekler

  1. Yeni insanlar kazandırma yolları:
  • OpenPhil Technology Policy Fellowship gibi politika birlikleri kurmak,
  • Daha az kıdemli insanların yapay zekâ yönetişimi alanındaki gelişmeleri takip etmesine katkıda bulunacak çevrimiçi programlar veya dersler açmak,
  • Çok sayıda lisans öğrencisine ulaşacak, kaliteli ve geniş kapsamlı girizgâh malzemeleri hazırlamak,
  • Alana ilgi duyan daha az kıdemli insanları bir araya getirmek, desteklemek ve itimat oluşturacak daha ölçeklenebilir araştırma birlikleri kurmak.
  1. Alanı daha etkili hâle getirme yolları:
  • Araştırma gündemleri oluşturmak,
  • Kıdemli araştırmacıların araştırma asistanlarıyla rahatlıkla iş birliği yapmasının yollarını belirlemek.⁠g

Etki senaryoları

  • Büyüme modeli: Önemli araştırmalar ve politika çalışmaları yürütmek için gerekli kapasite ile ilintili uzmanlığa sahip, aynı doğrultuda buluşmuş çok sayıda insanın parçası olduğu uzun dönemci bir yapay zekâ yönetişimi alanı inşa etmek.
  • Metropol modeli:⁠h Alanın çeşitli uzmanlıklardan beslenebilmesi için (politika oluşturma, sosyal bilim, makine öğrenimi vb.) daha geniş topluluklarla sıkı bağlara sahip uzun dönemci bir yapay zekâ yönetişimi alanı inşa etmek.

Kim çalışıyor?

GovAI, OpenPhil, SERI, CERI, CHERI ve EA Cambridge. Daha geniş bir açıdan bakacak olursak, genel sebepli EA hareketi inşası da sayılabilir. Bu gönderide ele alınan en az keşfedilmiş çalışma türüdür.

Uzun dönemci yapay zekâ yönetişimi görünümüne dair diğer görüşler

Uzun dönemci yapay zekâ görünümüne dair yalnızca tek bir olası görüş sundum; bunların dışında, farklı sebeplerden ötürü daha faydalı olacak başka görüşler de muhakkak vardır. Örnek vermek gerekirse, aşağıda belirtilen farklı müdahale türlerini temel alan bir görünüm de çizilebilir:

  • Politika alanındaki mevcut tartışmaları, yapay zekâ x-riskine daha duyarlı olacak şekilde değiştirmek (mesela son teknoloji yapay zekâ sistemlerine dair güvence verme zorluğuna dair farkındalık inşa etmek)
  • Yeni politika araçları teklif etmek (mesela uluslararası yapay zekâ standartları)
  • Hükümetlerin yapay zekâ güvenliği araştırmaları için fon sağlamaya ikna etmek
  • Kurumsal davranışı değiştirmek (mesela windfall clause)
  • …

Alternatif olarak, coğrafi merkeze göre bir görünüm de çizilebilir (tabii tüm kuruluşlar coğrafi bir merkezin parçası değil):

  • Körfez Bölgesi: OpenPhil, OpenAI, PAI, çeşitli yapay zekâ uyumlanma kuruluşları. Genelde yapay zekâ x-riskin kaynağı olarak uyumlanmamaya daha fazla odaklanır; kültürel anlamda Silikon Vadisi’ne ve akılcılık kültürlerine daha yakındır.
  • DC: ABD hükümeti, CSET. ABD özelinde politika geliştirme/savunuculuk/uygulamaya odaklanır; kültürel anlamda DC kültürüne daha yakındır.
  • Birleşik Krallık: FHI/GovAI, DeepMind, Birleşik Krallık hükümeti, CSER, CLTR, (başkaları?). Genelde geniş kapsamlı yapay zekâ x-riskinin kaynaklarıyla alakalıdır.
  • AB. 2020 yılında Avrupa Komisyonu dünyanın ilk yapay zekâ yönetmeliğini tasarladı; söz konusu yönetmelik önümüzdeki birkaç yıl içinde muhtemelen yürürlüğe girecek ve bir Brüksel etkisine yol açabilir.
  • Çin.
  • …

Bunlara ek olarak, farklı “zafer kuramlarını”, yani insanlığın ileri yapay zekânın olduğu bir dünyaya geçişinde başarıyla dümen tuttuğu bütüncül hikâyeleri temel alan bir görünüm de çizilebilir. Tüm bu konular hakkında çok daha fazla şey söylemek mümkün; bu gönderinin tek amacı günümüzde gerçekleştirilen çalışma türlerine öz niteliğinde bir bakış sunmaktır.

Teşekkür bölümü: Bu gönderi, görünüme dair kendi sentezimi içermekle birlikte Allan Dafoe, Luke Muehlhauser ve Convergence Analysis’in kaleme aldığı EA forumu gönderilerinden ilham alınmış ve/veya bu kaynaklardan doğrudan alıntı yapılmıştır. Yardımsever sohbeti için Jess Whittlestone’un yanı sıra Matthijs Maas, Yun Gu, Konstantin Pilz, Caroline Baumöhl ve bilhassa SERI’den bir hakeme taslak üzerindeki geri bildirimleri için teşekkür ederim.


Bu çalışma Creative Commons Attribution 4.0 International License kapsamında lisanslıdır.


Orijinal yayın: Sam Clarke (2022) The longtermist AI governance landscape: a basic overview, Effective Altruism Forum, 17 Ocak.