Yapay zekâ güvenliği araştırmacısı kariyer incelemesi

yazar Benjamin Todd
Yapay zeka güvenliği

Özetle

Yapay zekâ gelişiminden ileri gelen riskleri hafifletmek adına, güçlü yapay zekâ sistemlerinin felaket boyutuna varacak ve istenmeyen neticelere yol açmadan istediğimiz şeyleri yapmasını — ve faydalı olmasını — sağlamak için teknik zorlukları ve tasarım sorunlarını çözmeye yönelik araştırma yapmak gerekiyor.

Önerilen

Bu kariyere uygunsanız sosyal bir etki sahibi olmanızın en iyi yolu olabilir.

İnceleme durumu

Orta derinlikte bir soruşturmayı temel alıyor.

Yapay zekâ güvenliği araştırması alanında çalışmak neden yüksek etkiye sahip olabilir?

Tartıştığımız üzere, önümüzdeki birkaç 10 yılda, toplumu dönüştürme potansiyeline sahip, güçlü makine öğrenimi algoritmalarının gelişimine tanıklık edebiliriz. Bunun, yıkıcı risk olasılıkları gibi başlıca artıları ve eksileri olabilir.

Bu kariyer incelemesinde ele alınan strateji ve politika çalışmalarının yanı sıra, bu riskleri sınırlamanın bir diğer ana yolu da güçlü yapay zekâ sistemlerinin getirdiği, uyumlanma sorunu gibi teknik zorlukları araştırmak. Özetle, güçlü yapay zekâ sistemlerini, istenmedik neticelere sebep olmadan istediğimiz şeyleri yapacak şekilde nasıl tasarlarız?

Söz konusu araştırma alanı ortaya çıkmaya başladı ve bu meseleler üzerine çalışabileceğiniz ana akademik merkezler ve yapay zekâ laboratuvarları bulunuyor; Montreal’de Mila, Oxford’da Future of Humanity Institute, Berkeley’de Center for Human-Compatible Artificial Intelligence, Londra’da DeepMind ve San Francisco’da OpenAI bunlara birkaç örnek. Bu izlekte ilerleyen ve birkaçı bu saydığımız kurumlarda hâlihazırda çalışan 100’den fazla insana danışmanlık yaptık. Berkeley’deki Machine Intelligence Research Institute, 2005 yılından bu yana bu alanda çalışıyor ve diğer laboratuvarlara kıyasla daha alışılmışın dışında bir bakış açısına ve araştırma gündemine sahip.

Yetenekli araştırmacılar için çok sayıda fon imkânı bulunuyor; akademik hibeler ve Open Philanthropy gibi ana hibe sağlayıcılarından gelen yardımsever bağışlar bunlardan yalnızca birkaçı. Doktora programınız için de fon bulmanız mümkün. Bu alanın asıl ihtiyacı, araştırmalarını yürütebilmek için bu fonlamayı kullanabilecek daha fazla insan.

Bu izlek neleri kapsıyor?

Bu izlekte amaç (ister endüstriye dahil ister kâr amacı gütmeyen ister akademik) en üst düzey yapay zekâ güvenliği araştırma merkezlerinden birinde mevki elde edebilmek ve ardından, güvenlik araştırmasını gözeten bir araştırma lideri olmak nihai amacıyla, en ivedi sorular üzerinde çalışmak.

Geniş bir açıdan bakıldığında yapay zekâ güvenliği teknik mevkileri (i) araştırma ve (ii) mühendislik olmak üzere ayrılabilir. Araştırmacılar araştırma programını yönlendirir. Mühendisler ise araştırmayı yürütmek için gerekli sistemleri yaratır ve analizleri yapar.

Mühendisler üst düzey araştırma hedeflerinde daha az etkiye sahip olsa da mühendislerin güvenliğe önem vermesi hâlâ elzem bir konu zira bu sayede araştırmanın nihai hedeflerini daha iyi anlayabilir (dolayısıyla daha iyi önceliklendirme yapabilir), daha motive hissedebilir, kültürü güvenliğe yönlendirebilir ve kazandıkları sermayeyi gelecekte diğer güvenlik projelerine fayda sağlayacak şekilde kullanabilirler. Bu da mühendisliği, araştırmacı bilim insanı olmak istemeyenler için iyi bir alternatif kılıyor.

Yapay zekâ araştırma ekiplerinde çalışan, yapay zekâ güvenliğinin zorlukların anlayan ama doğrudan yapay zekâ güvenliğine odaklanmayan insanların varlığı da fayda sağlayabilir. Bu ekiplerde çalışmak, bilhassa kurumun öncelikleri üzerine etkiye sahip bir yönetim mevkiine ulaşmak, genel anlamda güvenliğe gösterilen alakanın artırılmasına katkıda bulunabileceğiniz bir mevkiye gelmenizi sağlayabilir.

Ayrıca, Çin’de veya Çin ile ilintili yapay zekâ güvenliği çalışmaları yürütmek adına daha fazla insanın uzmanlık kazanmasını görmeyi de çok isteriz. Kimi çalışmaların daha teknik araştırma biçiminde olduğu, Çin’le ilintili yapay zekâ güvenliği ve idaresi izleklerine dair kariyer incelememizde daha ayrıntılı bilgiler bulabilirsiniz.

Bu izleği takip eden insanlardan örnekler

Catherine Olsson

Catherine, doktora programına NYU’da, insan görme kuvvetinin bilgisayımsal modelleri üzerinde çalışarak başladı. Nihayetinde doğrudan yapay zekâ üzerinde çalışmaya karar verdi; önce OpenAI’da, ardından Google Brain’de iş buldu. Ardından Anthropic’e geçti.

DAHA FAZLA OKU

Daniel Ziegler

Stanford’daki makine öğrenimi doktora programını bıraktıktan sonra Daniel - ki bir şeyler inşa etmekten keyif alıyor ve yapay zekânın gelişimini şekillendirmeye katkıda bulunmayı hep istiyordu - OpenAI’a başvurmaya karar verdi. Mülakat için altı ay hazırlandı ve işi aldı. Buna karşın, doktora çalışması altı yıl sürebilirdi. Daniel, ivmesi son derece yüksek olan bu izleğin birçok başka kişi için mümkün olabileceğine inanıyor.

DAHA FAZLA OKU

Chris Olah

Chris muhteşem ve alışılmışın dışında bir izleği takip etti. Doktorası olmadığı gibi bir lisans diplomasına da sahip değil. Adil olmayan bir suçlamayla karşı karşıya kalan bir tanıdığının savunmasına yardım etmek için üniversiteyi bıraktıktan sonra Chris, makine öğrenimi araştırması üzerinde bağımsız olarak çalışmaya başladı ve nihayetinde Google Brain’de staj hakkı kazandı.

DAHA FAZLA OKU

Uygunluğunuzu nasıl değerlendirmeli?

En etkili yapay zekâ teknik güvenlik araştırması, muhtemelen adı geçen en iyi işlerde çalışan kişiler tarafından yürütülecek. Dolayısıyla, bu izleğin sizin için uygun olup olmadığına karar vermek adına, bu işlerde çalışmaya hak kazanmada makul bir şansınız olup olmadığını düşünmek önem taşıyor.

  • Makine öğreniminde en iyi beş yüksek lisans okuluna girme şansınız var mı? Bu, bir gereklilik olmamakla birlikte, en iyi yapay zekâ araştırma merkezlerinden birinde iş bulup bulamayacağınızın iyi bir göstergesi olabilir.
  • Uzun vadeli yapay zekâ güvenliğinin önemine inanıyor musunuz?
  • FAANG ve diğer rakip şirketlerde çalışmış bir yazılım veya makine öğrenimi mühendisi misiniz? Bir araştırma mevkiine girebilmek adına eğitim görebilir ya da, alternatif olarak, mühendislik mevkiine gelebilirsiniz.
  • İlintili bir araştırma sorusuna katkı yapma şansınız var mı? Örneğin, konuya yoğun bir ilgi besliyor musunuz, araştırma sorularına dair fikirleriniz var mı ve bunların peşine düşmeye karşı koyamıyor musunuz? Araştırma alanında çalışmaya uygun olup olmadığınızı anlayabilmek adına bu yazıya göz atabilirsiniz.

Bu alana nasıl girmeli?

Bu izlekteki ilk adım genellikle, iyi bir okulda makine öğrenimi alanında doktora programına girmek. Doktora olmadan da bu alana girmek mümkün olsa da akademik merkezlerde ve en iyi mevkilerin çoğunluğunun yer aldığı DeepMind’daki araştırma rolleri için olasılıkla elzem olacaktır. Makine öğreniminde doktora derecesi ayrıca yapay zekâ politikası, uygulamalı yapay zekâ ve bağışlamak için kazanmak konularında da seçenekler sunar; dolayısıyla ilerleyen dönemlerde yapay zekâ teknik güvenliğinin size uygun olmadığına karar verirseniz bu izlek güzel yedek seçenekler de sunuyor.

Ancak araştırmadan ziyade mühendisliğin peşinden gitmek istiyorsanız o hâlde doktora gerekli değil. Bunun yerine bir yüksek lisans programına girebilir veya endüstride kendinizi eğitebilirsiniz.

Bu izleğe sinirbilim (özellikle bilgisayımsal sinirbilim) alanından da giriş yapabilirsiniz; yani bu alanda birikiminiz bulunuyorsa tekrar okumanız gerekmeyebilir.

Bir sorun alanı olarak yapay zekâ güvenliğine fazlasıyla aşinaysanız birincil önerimiz Charlie Rogers-Smith’in kaleme aldığı, teknik yapay zekâ güvenliği alanında bir kariyer etmeye dair bu aşamalı rehbere göz atmanız.

Yakın dönemde, yapay zekâ güvenliğine katkıda bulunabilecek sosyal bilimciler için de fırsatlar ortaya çıktı.

Aşağıda listelenen kaynaklarda daha detaylı bilgi bulabilirsiniz.

Önerilen kurumlar

  • AI SAfety Support, kariyer tavsiyesi ve topluluk oluşturma aracılığıyla, yeni ve gelecek vadeden yapay zekâ güvenlik araştırmacılarına yardım etmeye odaklanarak ve bu sorun üzerinde çalışmak isteyen herkesi destekleyerek yapay zekâdan ileri gelen varoluşsal ve yıkıcı riski azaltmaya çalışıyor.
  • Alignment Research Center, gelecekteki makine öğrenimi sistemlerini insani çıkarlara uyumlu hâle getirmek için çalışan, kâr amacı gütmeyen bir araştırma kuruluşu. Mevcut çalışmaları, gelecekteki makine öğrenimi sistemlerine zarif bir şekilde ölçeklenebilen ve günümüz endüstrisinde benimsenebilecek bir “uçtan uca” uyum stratejisi geliştirmeye odaklanıyor. Mevcut boş pozisyonları inceleyin.
  • Anthropic; güvenilir, yorumlanabilir ve yönlendirilebilir yapay zekâ sistemleri oluşturmak için çalışan bir yapay zekâ güvenlik ve araştırma şirketi. Çok disiplinli ekiplerinin araştırmaya dair ilgi alanları arasında doğal dil, insani geri bildirimi, ölçeklendirme yasaları, takviyeli öğrenme, kod oluşturma ve yorumlanabilirlik yer alıyor. Mevcut boş pozisyonları inceleyin.
  • Center for Human-Compatible Artificial Intelligence, yapay zekâ araştırmalarının genel yönünü kanıtlanabilir faydalı sistemlere doğru yeniden yönlendirmek adına, kavramsal ve teknik araçları geliştirmeyi amaçlıyor. Mevcut boş pozisyonları inceleyin.
  • Center on Long-term Risk, gelişmiş yapay zekâ sistemlerinin geliştirilmesi ve yayılmasından kaynaklanan en kötü durum risklerini ele alıyor. Günümüzde, çatışma senaryolarının yanı sıra, iş birliğinin teknik ve felsefi yönlerine odaklanıyor. Çalışmaları arasında disiplinler arası araştırma yürütmek, hibe vermek ve önermek ile bu öncelikler etrafında profesyonellerden ve diğer araştırmacılardan oluşan bir topluluk oluşturmak yer alıyor. Mevcut boş pozisyonları inceleyin.
  • DeepMind, Batı dünyasında genel makine zekâsı geliştiren, muhtemelen en büyük araştırma grubu. Özellikle güvenlik, etik, politika ve emniyet konularında çalışan DeepMind mevkilerini önerme konusunda kendimize güveniyoruz. Mevcut boş pozisyonları inceleyin.
  • Future of Humanity Institute, Oxford Üniversitesi’nde çok disiplinli bir araştırma enstitüsü. FHI’daki akademisyenler matematik, felsefe ve sosyal bilimler araçlarını insanlık ve geleceği hakkında büyük resme dair sorularını ele almada kullanıyor.
  • Machine Intelligence Research Institute, 2000’li yılların başında makine zekâsından ileri gelen risklere alaka gösteren ilk gruplardan biriydi; güvenlik sorunları ve bunların nasıl çözüleceği hakkında bir dizi makale yayınladı. Mevcut boş pozisyonları inceleyin.
  • OpenAI, yapay zekâyı güvenli kılma konusunda araştırma yapmak amacıyla, 2015 yılında kuruldu. Teknoloji topluluğundan 1 milyar doların üzerinde fon taahhüdü aldı. Yalnızca politika, güvenlik ve emniyet ekiplerine fırsatlar önerme konusunda kendimize güveniyoruz. Mevcut boş pozisyonları inceleyin.
  • Redwood Research, gelecekteki yapay zekâ sistemlerini insani çıkarlarla uyumlu hâle getirmeye yardımcı olmak için uygulamalı araştırmalar yürütüyor. Mevcut boş pozisyonları inceleyin.

Bu izleği takip etmek için bire bir tavsiyeye mi ihtiyaç duyuyorsunuz?

Öncelikli izleklerimizden biri olması sebebiyle, bu izleğin sizin için harika bir seçenek olduğuna inanıyorsanız, izleyen adımlar konusunda size tavsiye vermeyi çok isteriz. Seçeneklerinizi değerlendirme, aynı alanda çalışan diğer kişilerle bağlantı kurma ve olasılıkla iş veya fon fırsatları bulmanıza yardımcı olma konusunda destek sağlayabiliriz.

EKİBİMİZLE KONUŞMAK İÇİN BAŞVURUN

Daha fazla bilgi edinin

Önemli ek okumalar:

  • Alana yönelik bilgiler için yapay zekâ güvenliği başlangıç paketini öneririz.
  • Charlie Rogers-Smith’in yapay zekâ güvenliği kariyerleri için aşamalı rehberi
  • Yapay zekâ riskine dair sorun profilimiz
  • Yapay zekâ güvenliğine dair bu müfredat (veya daha kısa bir kaynak için Richard Nigo’nun bu gönderi dizisi)
  • Yapay zekâ güvenliğine odaklanan makine öğrenimi mühendisi olma rehberimiz

Diğer ek okumalar:

  • Makine öğrenimi doktora kariyeri incelemesi
  • 2015 tarihli, yapay zekâ teknik güvenlik kariyeri incelememiz
  • Center for Human-Compatible AI’dan okuma listesi
  • Yapay zekâ güvenliğine dair bir okuma listesi koleksiyonu
  • Sesli blog: Dr Paul Christiano, OpenAI’ın “Yapay zekâ uyumlanma sorununa” nasıl gerçek çözümler geliştirdiğini ve insanlığın karar verme işini giderek yapay zekâ sistemlerine nasıl bırakacağına dair vizyonunu anlatıyor
  • Sesli blog: Yapay zekâ güvenliği ve sağlamlığı odaklı makine öğrenimi mühendisliği: Bir Google Brain mühendisinin alana giriş rehberi
  • Sesli blog: Dünyanın yapay zekâ araştırmacılarına ihtiyacı var. Nasıl olacağınızı öğrenin
  • Sesli blog: Chris Olah lisans derecesi olmadan en iyi yapay zekâ laboratuvarlarında çalışmayı anlatıyor ve Nöral ağların içinde neler olup bitiyor
  • Seli blog: Makine öğrenimi uyumlanma araştırmacısı makine öğrenimi uyumlanma araştırmacısı olmayı anlatıyor
  • Bkz. yapay zekâ kariyerlerine dair tüm makalelerimiz

Bu çalışma Creative Commons Attribution 4.0 International License kapsamında lisanslıdır.


Orijinal yayın: Benjamin Todd (2023) AI safety technical research, 80,000 Hours, Haziran.