Yapay zekâ güvenliği araştırmacısı kariyer incelemesi
Yapay zekâ gelişiminden ileri gelen riskleri hafifletmek adına, güçlü yapay zekâ sistemlerinin felaket boyutuna varacak ve istenmeyen neticelere yol açmadan istediğimiz şeyleri yapmasını — ve faydalı olmasını — sağlamak için teknik zorlukları ve tasarım sorunlarını çözmeye yönelik araştırma yapmak gerekiyor.
Bu kariyere uygunsanız sosyal bir etki sahibi olmanızın en iyi yolu olabilir.
Orta derinlikte bir soruşturmayı temel alıyor.
Tartıştığımız üzere, önümüzdeki birkaç 10 yılda, toplumu dönüştürme potansiyeline sahip, güçlü makine öğrenimi algoritmalarının gelişimine tanıklık edebiliriz. Bunun, yıkıcı risk olasılıkları gibi başlıca artıları ve eksileri olabilir.
Bu kariyer incelemesinde ele alınan strateji ve politika çalışmalarının yanı sıra, bu riskleri sınırlamanın bir diğer ana yolu da güçlü yapay zekâ sistemlerinin getirdiği, uyumlanma sorunu gibi teknik zorlukları araştırmak. Özetle, güçlü yapay zekâ sistemlerini, istenmedik neticelere sebep olmadan istediğimiz şeyleri yapacak şekilde nasıl tasarlarız?
Söz konusu araştırma alanı ortaya çıkmaya başladı ve bu meseleler üzerine çalışabileceğiniz ana akademik merkezler ve yapay zekâ laboratuvarları bulunuyor; Montreal’de Mila, Oxford’da Future of Humanity Institute, Berkeley’de Center for Human-Compatible Artificial Intelligence, Londra’da DeepMind ve San Francisco’da bunlara birkaç örnek. Bu izlekte ilerleyen ve birkaçı bu saydığımız kurumlarda hâlihazırda çalışan 100’den fazla insana danışmanlık yaptık. Berkeley’deki , 2005 yılından bu yana bu alanda çalışıyor ve diğer laboratuvarlara kıyasla daha alışılmışın dışında bir bakış açısına ve araştırma gündemine sahip.
Yetenekli araştırmacılar için çok sayıda fon imkânı bulunuyor; akademik hibeler ve Open Philanthropy gibi ana hibe sağlayıcılarından gelen yardımsever bağışlar bunlardan yalnızca birkaçı. Doktora programınız için de fon bulmanız mümkün. Bu alanın asıl ihtiyacı, araştırmalarını yürütebilmek için bu fonlamayı kullanabilecek daha fazla insan.
Bu izlekte amaç (ister endüstriye dahil ister kâr amacı gütmeyen ister akademik) en üst düzey yapay zekâ güvenliği araştırma merkezlerinden birinde mevki elde edebilmek ve ardından, güvenlik araştırmasını gözeten bir araştırma lideri olmak nihai amacıyla, en ivedi sorular üzerinde çalışmak.
Geniş bir açıdan bakıldığında yapay zekâ güvenliği teknik mevkileri (i) araştırma ve (ii) mühendislik olmak üzere ayrılabilir. Araştırmacılar araştırma programını yönlendirir. Mühendisler ise araştırmayı yürütmek için gerekli sistemleri yaratır ve analizleri yapar.
Mühendisler üst düzey araştırma hedeflerinde daha az etkiye sahip olsa da mühendislerin güvenliğe önem vermesi hâlâ elzem bir konu zira bu sayede araştırmanın nihai hedeflerini daha iyi anlayabilir (dolayısıyla daha iyi önceliklendirme yapabilir), daha motive hissedebilir, kültürü güvenliğe yönlendirebilir ve kazandıkları sermayeyi gelecekte diğer güvenlik projelerine fayda sağlayacak şekilde kullanabilirler. Bu da mühendisliği, araştırmacı bilim insanı olmak istemeyenler için iyi bir alternatif kılıyor.
Yapay zekâ araştırma ekiplerinde çalışan, yapay zekâ güvenliğinin zorlukların anlayan ama doğrudan yapay zekâ güvenliğine odaklanmayan insanların varlığı da fayda sağlayabilir. Bu ekiplerde çalışmak, bilhassa kurumun öncelikleri üzerine etkiye sahip bir yönetim mevkiine ulaşmak, genel anlamda güvenliğe gösterilen alakanın artırılmasına katkıda bulunabileceğiniz bir mevkiye gelmenizi sağlayabilir.
Ayrıca, Çin’de veya Çin ile ilintili yapay zekâ güvenliği çalışmaları yürütmek adına daha fazla insanın uzmanlık kazanmasını görmeyi de çok isteriz. Kimi çalışmaların daha teknik araştırma biçiminde olduğu, Çin’le ilintili yapay zekâ güvenliği ve idaresi izleklerine dair kariyer incelememizde daha ayrıntılı bilgiler bulabilirsiniz.
Catherine, doktora programına NYU’da, insan görme kuvvetinin bilgisayımsal modelleri üzerinde çalışarak başladı. Nihayetinde doğrudan yapay zekâ üzerinde çalışmaya karar verdi; önce OpenAI’da, ardından Google Brain’de iş buldu. Ardından Anthropic’e geçti.
Stanford’daki makine öğrenimi doktora programını bıraktıktan sonra Daniel - ki bir şeyler inşa etmekten keyif alıyor ve yapay zekânın gelişimini şekillendirmeye katkıda bulunmayı hep istiyordu - OpenAI’a başvurmaya karar verdi. Mülakat için altı ay hazırlandı ve işi aldı. Buna karşın, doktora çalışması altı yıl sürebilirdi. Daniel, ivmesi son derece yüksek olan bu izleğin birçok başka kişi için mümkün olabileceğine inanıyor.
Chris muhteşem ve alışılmışın dışında bir izleği takip etti. Doktorası olmadığı gibi bir lisans diplomasına da sahip değil. Adil olmayan bir suçlamayla karşı karşıya kalan bir tanıdığının savunmasına yardım etmek için üniversiteyi bıraktıktan sonra Chris, makine öğrenimi araştırması üzerinde bağımsız olarak çalışmaya başladı ve nihayetinde Google Brain’de staj hakkı kazandı.
En etkili yapay zekâ teknik güvenlik araştırması, muhtemelen adı geçen en iyi işlerde çalışan kişiler tarafından yürütülecek. Dolayısıyla, bu izleğin sizin için uygun olup olmadığına karar vermek adına, bu işlerde çalışmaya hak kazanmada makul bir şansınız olup olmadığını düşünmek önem taşıyor.
Bu izlekteki ilk adım genellikle, iyi bir okulda makine öğrenimi alanında doktora programına girmek. Doktora olmadan da bu alana girmek mümkün olsa da akademik merkezlerde ve en iyi mevkilerin çoğunluğunun yer aldığı DeepMind’daki araştırma rolleri için olasılıkla elzem olacaktır. Makine öğreniminde doktora derecesi ayrıca yapay zekâ politikası, uygulamalı yapay zekâ ve bağışlamak için kazanmak konularında da seçenekler sunar; dolayısıyla ilerleyen dönemlerde yapay zekâ teknik güvenliğinin size uygun olmadığına karar verirseniz bu izlek güzel yedek seçenekler de sunuyor.
Ancak araştırmadan ziyade mühendisliğin peşinden gitmek istiyorsanız o hâlde doktora gerekli değil. Bunun yerine bir yüksek lisans programına girebilir veya endüstride kendinizi eğitebilirsiniz.
Bu izleğe sinirbilim (özellikle bilgisayımsal sinirbilim) alanından da giriş yapabilirsiniz; yani bu alanda birikiminiz bulunuyorsa tekrar okumanız gerekmeyebilir.
Bir sorun alanı olarak yapay zekâ güvenliğine fazlasıyla aşinaysanız birincil önerimiz Charlie Rogers-Smith’in kaleme aldığı, teknik yapay zekâ güvenliği alanında bir kariyer etmeye dair bu aşamalı rehbere göz atmanız.
Yakın dönemde, yapay zekâ güvenliğine katkıda bulunabilecek sosyal bilimciler için de fırsatlar ortaya çıktı.
Aşağıda listelenen kaynaklarda daha detaylı bilgi bulabilirsiniz.
Öncelikli izleklerimizden biri olması sebebiyle, bu izleğin sizin için harika bir seçenek olduğuna inanıyorsanız, izleyen adımlar konusunda size tavsiye vermeyi çok isteriz. Seçeneklerinizi değerlendirme, aynı alanda çalışan diğer kişilerle bağlantı kurma ve olasılıkla iş veya fon fırsatları bulmanıza yardımcı olma konusunda destek sağlayabiliriz.
Bu çalışma Creative Commons Attribution 4.0 International License kapsamında lisanslıdır.