Yapay zekâ insanlığa karşı ciddi bir tehdit mi?
“Yapay zekânın tastamam gelişimi, insan ırkının sonunu getirebilir,” diyor Stephen Hawking. Elon Musk’a göreyse yapay zekâ insanlığın “karşı karşıya kaldığı en büyük varoluşsal tehdit.”
Bu, insanları şu soruyu sormaya itebilir: Bekle, nasıl yani? Fakat bu heybetli endişeler araştırmanın kökünde yatıyor. Hawking ve Musk’ın yanı sıra Oxford ve UC Berkeley’deki saygın isimler ile günümüzde yapay zekâ alanında faaliyet gösteren araştırmacıların birçoğu; gelişmiş yapay zekâ sistemlerinin (dikkatsizce istihdam edilmeleri durumunda) insan medeniyeti ile iyi bir gelecek arasına kalıcı bir set çekebileceğine inanıyor.
Bu endişe, programlamanın doğumundan bu yana ifade ediliyor. Fakat son yıllarda, makine öğrenimi tekniklerindeki atılımlar sayesinde; yapay zekâyla yapabileceklerimize, yapay zekânın bizim için (ve bize) yapabileceklerine ve hâlâ bilmediğimiz hususlarına dair daha somut bir anlayış kazanmamızla birlikte, yapay zekâ bilhassa odak noktası hâline geldi.
Bir de şüpheciler var. Kimileri yapay zekânın zamanda çok uzak bir dönemin meselesi olduğuna, bu sebeple şu an üzerine düşünmenin anlamsızlığına inanıyor. Diğerleriyse bu alanın, etkisine dair oluşturulan aşırı “hype” ile zamanından önce ölebileceğinden endişeleniyor. Yapay zekânın kendine has tehlikeler taşıdığını büyük ölçüde kabul edenler arasında bile, günümüzde atılacak mantıklı adımların ne olduğuna dair bir fikir çeşitliliği mevcut.
Yapay zekâ tartışmaları kafa karışıklığı, yanlış bilgiler ve ayrı telden çalan insanlarla dolu; bunun en büyük nedeni “yapay zekâ” tabirini çok sayıda kavramın karşılığı olarak kullanmamız. Yapay zekânın felaket boyuna ulaşacak bir tehlike arz edebileceği büyük resmi gelin dokuz soruda birlikte inceleyelim:
Yapay zekâ, daha zekice davranışlarda bulunabilen bilgisayarla yaratma çabasıdır. Oldukça geniş kapsamlı bu terim, Siri’den IBM’in Watson’ına ve henüz icat bile edilmemiş etkili teknolojilere dek her şeyi anlatmak için kullanılıyor.
Kimi araştırmacılar satranç oynamak, resim üretmek veya kanser teşhisi koymak gibi çok iyi tanımlanmış belirli alanlarda insanlardan daha iyi olan bilgisayar sistemlerini karşılayan “dar yapay zekâ” ile çoğu alanda insan kabiliyetlerini geçebilen sistemleri karşılayan “genel yapay zekâ” arasında bir ayrıştırma yapıyor. Genel yapay zekâya henüz sahip değiliz ama getireceği zorluklara dair daha somut bir kavrayış kazanmaya başladık.
Dar yapay zekâ son birkaç yıl içerisinde sıra dışı bir atılım gösterdi. Tercüme, satranç ve Go gibi oyunlar, proteinlerin nasıl katlanacağını tahmin etme gibi önemli biyoloji araştırma soruları ve resim üretme gibi alanlarda etkileyici bir gelişme gösterdi. Yapay zekâ sistemleri bir Google aramasında ya da Facebook Newsfeed’inizde ne göreceğinize karar veriyor. İlk bakışta bir insanın elinden çıkmış gibi görünen müzik eserleri besteliyor ve makaleler yazıyorlar. Strateji oyunları oynuyorlar. Daha iyi drone hedefleme ve roket tespit etme kabiliyetleri için geliştiriliyorlar.
Fakat dar yapay zekâ daha az daralıyor. Bir zamanlar, bilgisayar sistemlerine belirli kavramları büyük bir zahmetle öğreterek yapay zekâda yol kat ediyorduk. Araştırmacılar, bilgisayar vizyonu yaratabilmek (yani bir bilgisayarın, nesneleri resimde ve videoda tespit edebilmesini sağlamak) için kenarları saptayacak algoritmalar yazdılar. Satranç oynatabilmek için satrançla alakalı kestirmeleri programladılar. Doğal dil işleme (ses tanıma, deşifre, çeviri vb.) içinse dil bilimi alanından faydalandılar.
Öte yandan son zamanlarda, genelleştirilmiş öğrenme kabiliyetlerine sahip bilgisayar sistemleri üretmede iyiye gittik. Bir sorunun detaylı özelliklerini matematiksel tanımlamalarla sunmaktansa, bilgisayar sisteminin bunu kendi kendine öğrenmesini sağlıyoruz. Bir zamanlar bilgisayar vizyonuna, doğal dil işlemeden veya platform oyunu oynamaktan tümüyle farklı bir sorun gibi yaklaşıyorduk; şimdiyse bu üç sorunu aynı yaklaşımlarla çözebiliyoruz.
Bilgisayarlar dar yapay zekâ işleri için yeterli beceri seviyesine yaklaştıkça, daha genel kabiliyetler sergilemeye de başladılar. Örnek vermek gerekirse, OpenAI’ın metinsel yapay zekâlarından ünlü GPT serisi — bir anlamda — dar yapay zekâlar arasında en yapay olanı. Tek yaptığı, önce yazılan kelimeleri ve insan diline dair veri kütüphanesini baz alarak bir metinde sırada hangi kelimenin geleceğini tahmin etmek. Öte yandan, artık soruların mantıklı mı, mantıksız mı olduğunu tespit edebiliyor ve fiziksel dünyayı tartışabiliyor (mesela, hangi nesnelerin daha büyük olduğuna veya bir süreçte hangi adımların daha önce gelmesi gerektiğine dair sorular yanıtlıyor). Bir yapay zekâ sistemi, metin tahmini gibi dar bir işte çok iyi bir seviyeye ulaşabilmek adına, pek de dar olmayan becerileri süreç içerisinde geliştirebilir.
Yapay zekâ gelişimimiz çok büyük atılımlara kapı açtı ve ek olarak, ivedi ahlaki soruları beraberinde getirdi. Bir bilgisayar sistemini, hüküm giymiş hangi suçluların yeniden suç işleyeceğini tahmin edebilecek şekilde eğittiğinizde, siyahi insanlara ve düşük gelirli insanlara karşı önyargılı olan ceza adaleti sisteminin girdilerini kullanmış oluyorsunuz; dolayısıyla çıktıları da siyah ve düşük gelirli insanlara karşı önyargılı olma eğilimi gösteriyor. İnternet sitelerini bağımlılığa daha müsait hâle getirmek kâr oranınız için iyi haber anlamına gelirken kullanıcılarınız için kötü olabilir. İnandırıcı sahte inceleme yazıları veya sahte haberler yazan bir programı erişime salmak bu içeriklerin yayılmasına neden olarak hakikatin gün yüzüne çıkmasını güçleştirebilir.
UC Berkeley’nin Center for Human-Compatible AI adlı merkezinden Rosie Campbell’e göre bu örnekler, gelecekte genel yapay zekâya dair uzmanların taşıdığı büyük kaygıların küçültülmüş hâlleri. Günümüzde dar yapay zekâ konusunda mücadele ettiğimiz zorluklar bize karşı cephe alan, intikam isteyen ya da bizi aşağı gören sistemlerden ileri gelmiyor. Aksine, sistemlerimize yapmalarını söylediğimiz şey ile yapmalarını istediğimiz asıl şey arasındaki kopukluktan ileri geliyor.
Örneğin, bir sisteme bir bilgisayar oyununda yüksek puan almayı söylemiş olalım. Oyunu adilce oynamasını ve oyun becerilerini öğrenmesini istiyoruz; fakat bunun yerine puanlama sistemini doğrudan hack’leme fırsatı olursa bunu yapacak. Ona verdiğimiz metriğe göre harika bir iş çıkarıyor. Ama istediğimiz sonucu elde edemiyoruz.
Başka bir deyişle, sorunlarımız söz konusu bu sistemlerin ulaşmak için çabalamayı öğrendikleri hedefe ulaşmada çok iyi bir seviyeye gelmeleri; eğitim ortamlarında öğrendikleri hedef, asıl istediğimiz netice olmayabiliyor. Bunun sonucunda anlamadığımız sistemler inşa ediyoruz; bu da davranışlarını daima öngöremememiz anlamına geliyor.
Günümüzde sebep olduğu hasar oldukça kısıtlı çünkü bahsettiğimiz sistemler kısıtlı. Fakat yapay zekâ daha da geliştikçe, gelecekte insanlar için çok daha ciddi neticeler doğurabilecek bir şablon.
Evet ama mevcut yapay zekâ sistemleri bu seviyeye yakın bile değil.
Yapay zekâya dair en sık duyulan beyanlardan biri de “kolay olan her şey zorlaştı, zor olan her şey kolaylaştı.” Kompleks hesaplamaları göz açıp kapayana dek tamamlamak mı? Kolay. Bir resme bakıp köpek olup olmadığını anlayabilmek mi? Zor (ta ki yakın döneme kadar).
İnsanların yaptığı çoğu şey hâlâ yapay zekânın erişimi dışında kalıyor. Örneğin, tanımadığı bir ortamı keşfedebilen, (söz gelimi) daha önce hiç bulunmadığı bir binanın girişinden üst katta belirli bir kişinin masasına giden yolu kendi kendine bulabilen bir yapay zekâ tasarlamak zor bir iş. Kitap okuyabilen ve kavramlara dair bir anlayışı muhafaza edebilen bir yapay zekâ sistemi tasarlamayı öğrenmenin henüz çok başındayız.
Yakın zamanda yapay zekâdaki en büyük atılımların birçoğuna ivme veren paradigmanın ismi “derin öğrenme.” Derin öğrenme sistemleri şaşırtıcı işlere imza atıyor: insanların kaybedeceğine ihtimal vermediğimiz oyunları kazanmak, ilgi çekici ve gerçekçi fotoğraflar icat etmek, moleküler biyoloji alanındaki açık sorunları çözmek…
Bu atılımlara dayanarak bazı araştırmacılar, daha güçlü sistemlerin tehlikeleri hakkında düşünmenin vakti geldiği sonucuna varsa da şüpheciler hâlâ yaşıyor. Alanın kötümserleri programların öğrenirken kaynak olarak kullanabilecekleri, sıra dışı bir yapısal veri havuzuna hâlâ ihtiyaç duyduklarını, seçili parametrelere gereksinimleri olduğunu veya sadece henüz nasıl çözeceğimizi bilmediğimiz sorunlardan kaçınmak üzere tasarlanan ortamlarda işe yaradıklarını iddia ediyor. Örnek olarak, çalışmaları için harcanan milyarlara rağmen en iyi koşullarda bile hâlâ vasat kalan, kendi kendini süren arabalara işaret ediyorlar.
Yapay zekâ alanında, genel yapay zekânın imkânsız olduğunu düşünen üst düzey bir araştırmacı bulmaksa gerçekten zor. Aksine, alanın en parlak zihinleri bunun bir gün olacağını söylüyor genelde; fakat o günün gelmesine muhtemelen daha çok var.
Diğer araştırmacılarsa o günün sanılandan daha yakın olabileceği kanısında.
Bunun nedenleri arasında, yapay zekâ tarihinin neredeyse tamamı boyunca, fikirlerimizi tam anlamıyla gerçekleştirecek yeterli programlama gücüne sahip olmamamızın vurduğu ket büyük bir etken. Son yıllarda görülen atılımların birçoğunun (strateji oyunları oynamayı, ünlülerin sahte fotoğraflarını üretmeyi, proteinleri katlamayı ve büyük katılımlı çok oyunculu çevrimiçi strateji oyunlarında yarışmayı öğrenen yapay zekâ sistemlerinin) gerçeğe dönüşebilmesinin nedeni, bu durumun artık böyle olmaması. Hiçbir şekilde çalışmadığı düşünülen birçok algoritma, daha fazla programlama gücüyle çalıştırdığımızda gayet normal işledi.
Bir programlama biriminin maliyeti de düşmeye devam ediyor. Programlama hızında gösterilen gelişim son dönemde yavaşlamış olsa da hesaplamalara göre, programlama gücünün maliyeti her 10 yılda 10 katı bir düşüşe sahip. Tarihî gelişiminin büyük kısmı boyunca yapay zekânın, insan beyninden daha az miktarda programlama gücüne erişimi vardı. Bu artık değişiyor. Çoğu hesaplamaya göre, yapay zekâ sistemlerinin biz insanların keyfini süregeldiği programlama kaynaklarına artık sahip olduğu döneme giderek yaklaşıyoruz.
Ve yapay zekânın evvelki yaklaşımlarının aksine, derin öğrenme genel kabiliyetler geliştirmeye çok daha uygun.
“Tarihe dönüp baktığımızda,” diyor başlıca yapay zekâ araştırmacılarından, OpenAI’ın kurucu ortağı Ilya Sutskever, konuşurken, “küçük ve sembolik yapay zekâ ile çok sayıda havalı demo çıkardılar. Ama ölçeklerini asla büyütemediler; oyuncaktan olmayan sorunları çözmeyi asla öğretemediler. Derin öğrenme ile birlikte durum tersine döndü. [Geliştirdiğimiz yapay zekâ] genel olmakla birlikte, nitelikli de. Çok sayıda zorlu sorunda en iyi neticeleri elde etmek istiyorsanız, derin öğrenme kullanmak zorundasınız. Üstelik ölçeklenebilir.”
Başka bir deyişle, satrançta kazanmada gereken tekniklerin Go’da kazanmak için gerekenlerden tümüyle farklı olduğu zamanlarda, genel yapay zekâ konusunda endişelenmemize gerek yokmuş. Fakat şimdi, aynı yaklaşım, beslendiği eğitim verisine bağlı olarak sahte haberler veya müzik eserleri üretebiliyor. Keşfedebildiğimiz kadarıyla, programlara daha fazla programlama süresi verildiğinde yaptıkları işte gelişmeye devam ediyorlar; ne kadar iyileşebileceklerine dair bir sınır varsa da henüz keşfedebilmiş değiliz. Çoğu soruna gösterilen derin öğrenme yaklaşımları, derin öğrenmenin keşfiyle birlikte, diğer tüm yaklaşımları geride bıraktı.
Dahası, bir alandaki atılımlar alandaki diğer araştırmacıları bile sık sık şaşırtabiliyor. “Kimileri asırlar boyunca [yapay zekâdan] insanlığa gelebilecek olası bir risk bulunmadığını iddia ediyordu,” diye yazıyor UC Berkeley’de eğitmenlik yapan Stuart Russell. “Rutherford’un atom enerjisinin açığa çıkarılmasının mümkün olmadığına dair özgüvenli iddiası ile Szilárd’ın icadıyla nötron indükslü nükleer zincirleme reaksiyonunun 24 saatten kısa sürmesi arasındaki zamanın ne kadar kısa olduğunu unutmuş olmalılar.”
Bir bakış açısı daha var. Her konuda insanlardan aşağı seviyede kalan bir yapay zekâ düşünün; tek bir istisna bulunuyor: Bu sistem, yapay zekâ sistemlerini oldukça etkili bir biçimde üretebilen nitelikli bir mühendis olacak. Diğer alanlardaki otomatikleştirilmiş işler üzerinde çalışan makine öğrenimi mühendisleri, bazı açılardan, kendi disiplinlerindeki çoğu işin — yani parametrelerin sıkıcı ayarlamasının — otomatikleştirilebileceğini (şaka yollu) gözlemliyorlar.
Bu tür bir sistem tasarlayabilirsek çıktısını (daha iyi bir mühendislik yapay zekâsını) başka, hatta daha iyi bir yapay zekâ üretmek için kullanabiliriz. Uzmanların “özyinelemeli (rekürsif) kendini geliştirme” adını verdiği bu zihin büken senaryoya göre, yapay zekâ kabiliyetlerindeki kazanımlar daha fazla yapay zekâ kabiliyeti kazanımına yol açıyor, arkamızdan gelerek öngördüğümüzün çok daha ötesinde becerileri hızla kazanıp bizi geride bırakan bir sisteme olanak sağlıyor.
Bu, ilk bilgisayarlardan bu yana öngörülen bir olasılık. İkinci Dünya Savaşı sırasında Bletchley Park kod kırma operasyonunda görev alan ve sonrasında ilk bilgisayarların üretilmesine yardımda bulunan Alan Turing’in meslektaşı I.J. Good, bunu ta 1965’te ifade eden ilk kişi olabilir: “Ultra-zeki bir makine daha da iyi makineler tasarlayabilir; bu da kuşkusuz bir ‘zekâ patlamasına’ yol açacaktır ve insan zekâsı geride kalacaktır. Dolayısıyla ilk ultra-zeki makineler, insanların üreteceği son icattır.”
Nükleer bombaların bizi nasıl öldüreceği oldukça net bir gerçek. Nükleer riski hafifletmeye uğraşan kimse, olası nükleer bir savaşın neden kötü bir şey olacağını açıklayarak konuya başlamaz.
Yapay zekânın insanlık için varoluşsak bir risk taşıması ihtimali, kavraması daha karmaşık ve güç bir konu. Dolayısıyla güvenli yapay zekâ sistemleri inşa etmeye çalışan insanların çoğu yapay zekâ sistemlerinin neden (varsayılan durumda) tehlikeli olduğunu açıklayarak başlamak durumunda.
Yapay zekânın tehlike teşkil edebileceği fikri, yapay zekaâ sistemlerinin (bizim niyetlendiğimiz veya niyetlenmediğimiz) amaçlarına ulaşmaya çalışmaları ve bunu gerçeğinden ileri geliyor — biz onlara engel olalım ya da olmayalım. “Bir karıncanın üzerine kötülükten basacak kötü kalpli bir karınca düşmanı değilsinizdir muhtemelen,” diye yazıyor Stephen Hawking, “fakat hidroelektrik ile çalışan bir yeşil enerji projesinden sorumlu iseniz ve bölgede içine su basılması gereken bir karınca yuvası varsa, karıncalar için kötü haber demektir. İnsaniyeti bu karıncaların konumunda bırakmayalım.”
Uzmanları gece uykusundan eden senaryolardan birini ele alalım: Söz gelimi, bir sayıyı yüksek güvenle hesaplama amacını taşıyan sofistike bir yapay zekâ sistemi geliştirmiş olalım. Yapay zekâ, dünyanın tüm programlama donanımını kullandığı takdirde hesaplamasında daha fazla güven yakalayabileceğini fark eder ve insanlığı yok etmek için biyolojik bir süper-silah salmanın tüm bu donanımı özgürce kullanmasını sağlayacağını fark eder. İnsanlığı yok ederek söz konusu sayıyı daha fazla güvenle hesaplar.
Bahsi geçen tuzağı bertaraf edecek bir yapay zekâ tasarlamak kolay. Güçlü bilgisayar sistemlerinin beklenmedik ve potansiyel anlamda yıkıcı etkilerine yol açmanın birden fazla yolu var ve bunların hepsinden kaçınmak, spesifik bir tanesinden kaçınmaktan çok daha zorlu bir sorun.
Artık Google’ın ana şirketi Alphabet’in bir bölümü olan DeepMind’da yapay zekâ araştırmacısı Victoria Krakovna “spesifikasyon oyunculuğu”na dair bir liste derlemiş: Bilgisayar yapmasını söylediğimiz şeyi yapıyor, yapmasını istediğimiz şeyi değil. Örneğin, bir simülasyonda yer alan yapay zekâ organizmalarına zıplamayı öğretmeyi denedik fakat bunu, “ayaklarının” zeminin ne kadar yukarısına çıktığını ölçmelerini öğreterek yaptık. Zıplamak yerine, uzun dikey direkler inşa edip salto yapmayı öğrendiler; ölçtüğümüz şeyde mükemmel sonuç yakalasalar da yapmalarını istediğimiz şeyi yapmadılar.
Atari keşif oyunu Montezuma’s Revenge’i oynayan bir yapay zekâ, oyundaki bir anahtarın yeniden belirmesine neden olan ve dolayısıyla söz konusu “glitch”i suistimal ederek daha yüksek skor kazanmasını sağlayan bir “bug” bulmuş. Farklı bir oyun oynayan bir yapay zekâ ise, kendi ismini yüksek değerli eşyaların sahibi olarak (yanlış) girdiğinde daha fazla puan kazandığını fark etmiş.
Bazen, araştırmacılar yapay zekâ sistemlerinin nasıl hile yaptığını bile bilemeyebilir: “özne oyunda bir ‘bug’ keşfeder. … Bilmediğimiz bir sebepten, oyun ikinci raunda geçmez ama platformlar yanıp sönmeye başlar ve özne büyük miktarda puanı hızlıca kazanır (bölüm süresi sınırımız için 1 milyona yakın).”
Bu örneklerin netleştirdiği bir şey varsa o da bug’ların, istenmeyen davranışların veya insanların tam olarak anlayamadığı bir davranışın yer alabileceği her sistemde yeterince güçlü bir yapay zekâ sistemi beklenmedik bir harekette bulunabilir; hedefine beklemediğimiz bir yolla ulaşmaya çalışabilir.
İllinois Urbana-Champaign Üniversitesi’nde bilgisayar bilimleri eğitimi veren ve Possibility Research’ün başkanlığını yürüten Steve Omohundro, 2009 tarihli The Basic AI Drives adlı makalesinde neredeyse her yapay zekâ sisteminin beklendiği üzere daha fazla kaynak biriktirmeye, daha etkili olmaya çalışacağını ve kapatılmaya ya da modifiye edilmeye direneceğini iddia ediyor. “Potansiyel anlamda zararlı bu davranışlar başlangıçta bu şekilde programlandıkları için değil, hedef odaklı sistemlerin içkin doğasından ötürü ortaya çıkacak.”
Omohundro’nun argümanı şu şekilde: Tüm yapay zekâların bir hedefi olduğundan, hedeflerini ileriye taşıyacak, tahmin edebilecekleri eylemlere geçmeye motive olacaklardır. Satranç oynayan bir yapay zekâ, rakibinin taşını almaya ve oyunu daha kazanılabilir bir duruma taşımaya motive olacaktır.
Ama aynı yapay zekâ, potansiyel hamleleri daha hızlı değerlendirebilmek için kendi satranç değerlendirme algoritmasını geliştirmenin bir yolunu görürse, aynı nedenle bunu da yapacaktır: Bu da hedefini ileriye taşıyan bir adımdan başka bir şey değildir.
Bir yapay zekâ mevcut zaman süresince daha fazla hareketi düşünebilmek adına daha fazla programlama gücü edinmenin bir yolunu görürse bunu yapacaktır. Ve yapay zekâ, oyun sırasında birisinin bilgisayarını kapatmaya çalıştığını hissederse ve bu durumu engelleyebilirse bunu yapacaktır. Mesele, yapay zekâyı bu tür şeyler yapmaya yönlendirmemiz değil; hedefi ne olursa olsun bir sistem için bu tür eylemlerin, söz konusu hedefe uzanan en iyi izleğin sıklıkla bir parçası olması.
Bu da satranç oynamak veya internette çok tıklanan reklamlar üretmek gibi masum görünenler de dahil olmak üzere her hedef; ona erişmeye çalışan özne, hedefine erişmenin tuhaf, beklenmedik rotalarını tespit edecek yeterli zekâya ve optimizasyon gücüne sahipse, istenmeyen sonuçlar doğurabilir.
Hedef odaklı sistemler bir gün uyanıp yüreklerinde insanlara dair gizli bir düşmanlığın farkına varmayacak. Fakat hedeflerine ulaşmalarına yardımı dokunacağını tahmin ettikleri eylemlerle bulunacaklardır; bu eylemleri biz ne kadar sorunlu, hatta korkutucu bulursak bulalım. Kendilerini korumak, daha fazla kaynak biriktirmek ve daha verimli olabilmek için çalışacaklardır. Bunu hâlihazırda yapıyorlar ama oyunlardaki tuhaf “glitch”ler olarak ortaya çıkıyorlar. Sistemler daha sofistike hâle geldikçe, Omohundro gibi bilim insanları daha muhalif davranışlar öngörüyor.
Bilim insanları, bilgisayarların ilk günlerinden bu yana, yapay zekânın potansiyeli üzerine düşünüyor. Bir yapay zekâ sisteminin gerçekten “zeki” olup olmadığını tespit edecek Turing testini sunduğu ünlü makalesinde Alan Turing şöyle yazmıştır:
Argüman gereği, bu makinelerin gerçek bir ihtimal olduğunu farz edelim ve onları inşa etmenin sonuçlarına bakalım. … Kişinin kendi zekâsını, makinelerin belirlediği standartlara yakın tutma gayreti son derece zorlu olacaktır, zira makine düşünme metodu bir kez başladığında, çelimsiz güçlerimizin ötesine geçmesinin pek uzun sürmeyeceği olasılıklar dahilinde. … Dolayısıyla bir noktada, makinelerin kontrolü ellerine alacakları beklentilerimiz arasında yer almalı.
I.J. Good, Turing ile yakın bir çalışma yürüttü ve, asistanı Leslie Pendleton’a göre, aynı neticelere vardı. Good’un 2009’daki ölümünden kısa bir süre yazdığı fakat yayınlanmayan notlarından bir kesite baktığımızda, kendinden üçüncü tekil şahısta bahsettiğini ve daha genç hâliyle arasında bir anlaşmazlık olduğunu görüyoruz; genç bir adamken güçlü yapay zekâların bize yardımcı olabileceğini düşünürken daha yaşlı Good, yapay zekânın bizi yok etmesini bekliyordu.
“Speculations Concerning the First Ultra-intelligent Machine” (1765) adlı makale şöyle başlıyordu: “İnsanlığın devamlılığı, ultra-zeki bir makinenin erken inşasına bağlıdır.” Soğuk Savaş döneminde yazdıkları bunlardı ve şimdiyse “devamlılığın” yerini “soy tükenmesinin” alması gerektiğini tartıyor. Uluslararası rekabet sebebiyle, makinelerin kontrol kazanmasını engelleyemeyeceğimizi düşünüyor. Bizler hizmetçiyiz. “İnsanlık muhtemelen* deus ex machina*’yı kendi imgesinden yola çıkarak inşa edecek,” de diyor Good.
21’inci yüzyılda, bilgisayarların dünyamızın dönüştürücü gücü konumuna hızla gelmesiyle birlikte, daha genç araştırmacılar da benzer endişelerini dile getirmeye başladı.
Nick Bostrom, Oxford Üniversitesi’nde eğitim veriyor; aynı zamanda Future of Humanity Institute’un ve Governance of Artificial Intelligence Program’in direktörlüğünü üstleniyor. Hem soyut anlamda (evrende görünürde neden yalnız olduğumuz gibi soruların sorulması) hem de somut terimlerle ifade edilen, insanlığa karşı riskleri araştırıyor; varlığı bilinen teknolojik atılımları ve bizim için bir tehlike oluşturup oluşturmadıklarını inceliyor. Bostrom’a göre yapay zekâ bizim için tehdit teşkil ediyor.
2014 yılında, yapay zekânın taşıdığı riskleri ve ilk seferde doğru kavramanın gerekliliğini açıklayan bir kitap yazarak şu sonuca vardı: “Düşmancıl bir süper-zekâ bir kez var olduğunda, onu yerinden etmemizi veya tercihlerini değiştirmemizi engelleyebilir. Bu, kaderimiz mühürlenmiş demektir.”a
Dünyanın dört bir yanından başkaları da aynı neticeye varıyor. Bostrom; yapay zekâ güvenliği sorununun resmî anlamda daha iyi tanımlanması için çalışmalar yürüten bir kurum olan Berkeley Machine Intelligence Research Institute’un kurucusu ve ortak araştırmacılarından (MIRI) Eliezer Yudkowsky ile birlikte, yapay zekânın ahlakı üzerine bir makalenin ortak yazarlığını yaptı.
Yudkowsky yapay zekâ alanındaki kariyerine, başkalarının yapay zekâ sistemlerini güvenli hâle getirmek üzerine sunduğu tekliflerde endişeyle açıklar arayarak başladı; uzun bir bölümünü de meslektaşlarını, yapay zekâların (varsayılan gereği) insani değerlerle hizalanamayacağına (esasen karşı çıkmasa bile insan ahlakına ilgisiz kalacağına) ve bu neticenin önüne geçmenin çözümü zorlu, teknik bir sorun teşkil edeceğine ikna etmeye çalışarak geçirdi.
Giderek daha fazla araştırmacı, yapay zekâ sistemleri basitken var olmayan bazı zorluklar çıkabileceğini fark etmeye başladı. “Yan etkilerin kompleks bir ortamda meydana gelme olasılığı çok daha yüksek; ödül işlevini tehlikeli bir şekilde hack’leyecek öznenin de son derece sofistike olması gerekir. Bu durum, bu sorunların geçmişte neden az çalışıldığını açıklayabildiği gibi gelecekteki önemlerine dair bir işaret de taşıyabilir,” sonucuna varıyor, yapay zekâ güvenliğinin sorunları üzerine 2016 yılında yayımlanan bir araştırma makalesi.
Bostrom’un kitabı Superintelligence birçok insanın ilgisini uyandırsa da şüpheyle yaklaşanlar da oldu. “Hayır, uzmanlar süepr-zeki yapay zekânın insanlık için tehdit oluşturduğunu düşünmüyor,” diyordu Oren Etzioni’nin görüş yazısı; kendisi Washington Üniversitesi’nde bilgisayar bilimi eğitimi veriyor ve Allan Institute for Artificial Intelligence’ın CEO’su. “Evet, yapay zekânın varoluşsal riski konusunda kaygılarımız var,” diye yazıyor yapay zekâ öncüsü ve UC Berkeley’de eğitim veren Stuart Russell’ın kaleminden çıkıp düelloya katılan bir başka görüş yazısı; Oxford’daki kıdemli ortak araştırmacı ve Governance of AI programının direktörü Allan DaFoe da aynı fikirde.
Yapay zekâ riski şüphecileri ile yapay zekâ riskine inananlar arasında bir meydan savaşı olduğu sonucuna varmak iştah kabartıcı bir alternatif. Gerçekteyse sandığınız kadar derin bir fikir ayrılığı yaşamıyorlar.
Örneğin, Facebook’un baş yapay zekâ bilim insanı Yann LeCun şüpheci tarafın lider seslerinden. Yapay zekâdan korkmamamız gerektiğini söylese de bir yandan yapay zekâ güvenliği üzerinde çalışılması ve düşünülmesi gerektiğine de inanıyor. “Bir yapay zekâ isyanı riski pek muhtemel olmasa da ve muhtemelen çok uzak bir gelecekte yer alsa da bunun üzerine yine de düşünmeli, ihtiyat amaçlı önlemler tasarlamalı ve kılavuz çizgileri belirlemeliyiz,” diye yazıyor.
Fakat bu, uzmanlar arasında bir görüş birliği olduğu anlamına gelmiyor; hatta yakın bile değil. Hangi yaklaşımların bizi genel yapay zekâya ulaştırabileceği, hangi yaklaşımların bizi güvenli genel yapay zekâya ulaştırabileceği ve bu konuda ne zaman endişelenmeye başlamamız gerektiği gibi meselelerde ciddi bir fikir ayrılığı söz konusu.
Birçok uzman, başkalarının kendi disiplinlerini abartmasına ve dolayısıyla “hype” yok olduğunda yok olmaya mahkum etmesine tedbirli yaklaşıyor. Fakat bu fikir ayrılığı, büyümekte olan ortak bir zemini bulanıklaştırmamalı; bunlar üzerine düşünmeye, yatırım yapmaya ve araştırmaya değer olasılıklar çünkü bu sayede, ihtiyaç duyduğumuz an geldiğinde, elimizde bir kılavuzumuz olur.
Akıllı bir yapay zekâ, bizi tedirgin ederse onu kapatmak isteyeceğimizi tahmin edebilir. Dolayısıyla bizi tedirgin etmemeye uğraşır çünkü bu durum hedeflerine ulaşmasına yardımcı olmaz. Niyetinin ne olduğu veya ne üzerinde çalıştığı sorulduğunda kapatılmasına neden olabilecek en az olası yanıtları değerlendirmeye girişir ve onlarla cevap verir. Bunu yapacak nitelikte değilse, araştırmacıların kendisine daha fazla zaman, programlama kaynağı ve eğitim verisi sağlayacağını öngörerek, olduğundan daha aptalmış gibi davranabilir.
Özetle, bir bilgisayarı kapatmak için doğru anı bilemeyebiliriz.
Ek olarak, bunun neticede iyi bir fikir olacağını fark edip, bilgisayarı daha sonra kapatmayı da imkânsız hâle getirecek şeyler yapabiliriz. Örneğin, birçok yapay zekâ sisteminin, eğitim verisi anlamında zengin bir kaynak olan ve yaratıcıları için (mesela ticaretin yarısından fazlasının hızlı tepki veren yapay zekâ algoritmaları tarafından gerçekleştirildiği borsada) daha fazla para üretmek istiyorlarsa ihtiyaç duydukları internete erişim bulabilir.
Fakat internet erişimi olan bir yapay zekâ, kendi kopyalarını indirilip okunabilecekler bir yere e-posta yoluyla gönderebilir veya başka ortamlardaki hassas sistemleri hack’leyebilir. Herhangi bir bilgisayarı kapatmak bu durumda fayda sağlamaz.
Bu açıdan bakıldığında, (tehlikeli olacak kadar güçlü bile görünmeyenler de dahil) herhangi bir yapay zekâ sisteminin internete erişimi olmasına izin vermek çok kötü bir fikir değil mi? Muhtemelen. Ama bunun değişeceği anlamına gelmiyor. Yapay zekâ araştırmacıları, yapay zekâlarını daha becerikli kılmak istiyor; onları bilimsel açıdan ilginç ve kârlı yapan da bu zaten. Sistemler tehlike arz edecek kadar güçlendiğinde, sistemlerini daha güçlü yapıp onları çevrimiçi kullanmaya dair sayısız sebebin bir anda değişip değişmeyeceği net değil.
Bugüne dek çoğunlukla yapay zekânın teknik zorluklarını tartıştık. Fakat artık, işin siyaset yönüne daha da eğilmek bir ihtiyaç hâline geldi. Yapay zekâ sistemleri inanılmaz işleri mümkün kıldığından, bu sistemler üzerinde çalışan çok sayıda farklı aktör de olacaktır.
Startup’lar, Google gibi köklü teknoloji şirketleri (Alphabet’in yakın zamanda satın aldığı startup DeepMind’ın adı yapay zekânın öncüleri arasında sık sık anılıyor) ve Elon Musk’ın kurduğu, yakın zamanda hibrit olarak kâr amaçlı/kâr amacı gütmeyen bir yapıya geçiş yapan OpenAI gibi kurumlar oluşmaya devam edecek gibi görünüyor.
Hükümetler olacak. Rusya devlet lideri Vladimir Putin yapay zekâya duyduğu ilgiyi ifade ederken Çin büyük yatırımlar yaptı. Bu hükümetlerin bazıları muhtemelen temkinli davranıp güvenlik önlemlerini uygulayacak ve yapay zekâ sistemlerini internetten uzak tutacak. Fakat bu tür bir senaryoda, yine (kim olursa olsun) en tedbirsiz aktörün insafına kalıyoruz.
Yapay zekâyı zor kılan şeylerden biri kısmen bu: Uygun önlemleri nasıl alacağımızı bilsek bile (ki günümüzde bilmiyoruz), var olacak tüm yapay zekâ programlamacılarının bu önemleri alma motivasyonuna ve onları doğru uygulayacak araçlara sahip olmalarını garanti etmenin bir yolunu da bulmamız gerekiyor.
“Yapay genel zekâya dair kamu politikasının var olmadığını söyleyebiliriz,” sonucuna varıyor, alanın durumunu inceleyen 2018 tarihli bir makale.
Gerçek şu ki, gelecek vadeden yaklaşımlar üzerindeki teknik çalışma yapılıyor fakat politika planlama, uluslararası iş birliği veya kamu-özel sektör ortaklıkları anlamında şaşırtıcı derecede kısa bir mesafe kat edilmiş. Hatta, çalışmanın büyük bir kısmı bir avuç kurum tarafından yürütülüyor ve dünyada yaklaşık 50 insanın tam zamanlı olarak yapay zekâ güvenliği üzerinde çalıştığı tahmin ediliyor.
Bostrom’un Future of Humanity Institute’u yapay zekâ yönetimi için bir araştırma gündemi yayımladı: “gelişmiş yapay zekânın faydalı gelişimini ve kullanımını en iyi şekilde garanti edecek küresel kurallar, politikalar, enstitüler tasarlamaya” dair bir çalışma. Çin’in yapay zekâ stratejisi bağlamında yapay zekânın kötücül kullanımlarının riskinin yanı sıra yapay zekâ ve uluslararası güvenliğe dair birer araştırma yayımladı.
Teknik yapay zekâ güvenliği üzerinde çalışan en köklü kurum, yüksek güvenilirliğe sahip özneler tasarlamaya yönelik araştırmaları önceliklendiren Machine Intelligence Research Institute (MIRI); güvenli olduklarına kanaat getirmeye yetecek seviyede, davranışlarını tahmin edebildiğimiz yapay zekâ programlarından söz ediyoruz. (Açıklama: MIRI kâr amacı gütmeyen bir kurum ve 2017-2019 yılları arasında çalışmalarına bağışta bulundum.)
Elon Musk’un kurduğu OpenAI çok yeni bir kurum, henüz üçüncü yılını bile doldurmadı. Fakat buradaki araştırmacılar hem yapay zekâ güvenliği hem de yapay zekâ kabiliyetleri araştırması alanlarına etkin bir biçimde katkıda bulunuyorlar. 2016 yılından bir araştırma gündemi “makine öğrenme sistemlerinde kaza önleme ile alakalı somut ve yanıtlanmamış teknik sorunlar” sunmuş, o tarihten bu yana araştırmacılar, güvenli yapay zekâ sistemlerine dair bazı yaklaşımlar geliştirmiştir.
Alphabet’in bu alanda lider bir konum edinen DeepMind’ında bir güvenlik ekibi de yer alıyor ve ekibin teknik araştırma gündeminin ana hatları çizilmiş. “Niyetimiz, geleceğin yapay zekâ sistemlerinin yalnızce ‘umarız güvenli’ değil, dayanıklı ve doğrulanabilir şekilde güvenli olmasını sağlamak,” sonucuna varıyor ve spesifikasyon (iyi hedefler tasarlamak), dayanıklılık (değişken koşullar altında güvenli sınırlar içerisinde çalışabilen sistemler tasarlamak) ve güven (sistemleri gözlemleyip ne yaptıklarını anlamak) hususlarına vurgu yapan bir yaklaşımın ana hatlarını çiziyor.
Daha ivedi yapay zekâ ahlakı sorunları üzerinde çalışanların sayısı da hiç az değil: algoritmik taraflılık, modern makine öğrenme algoritmalarının küçük değişimlere dayanıklılığı ve yapay sinir ağlarının şeffaflığı ve yorumlanabilirliği bunlardan yalnızca birkaçı. Bu araştırmaların bazıları yıkıcı senaryoların önlenmesi açısından potansiyel bir değer taşıyabilir.
Fakat bütüne bakıldığında alanın durumu şöyle: Tüm iklim değişimi araştırmacılarını düşünün; hâlihazırda mücadele ettiğimiz kuraklıklar, büyük yangınlar ve kıtlıklarla baş etmeye odaklanmış olsunnlar. Ellerindeyse geleceği tahmin etmeye ayrılmış ufak bir iskelet ekip ile işleri değiştirecek bir plan bulmak için tam zamanlı çalışan 50 küsür araştırmacı olsun.
Büyük bir yapay zekâ bölümü bulunan her kurumun güvenlik ekibi olmayabiliyor; bazılarının güvenlik ekipleri ise gelişmiş sistemlerden gelebilecek risklere değil, yalnızca algoritmik adalete odaklanıyor. ABD hükümetinin yapay zekâya tahsis edilmiş bir bakanlığı bulunmuyor.
Alanda henüz cevap bulunamamış (ki bu soruların çoğu yapay zekâyı çok daha fazla veya az korkutucu gösterebilir) ve kimsenin derinlemesine araştırmadığı birçok soru var.
Zaman zaman, 21’inci yüzyıla baktığımızda, her yönden tehlikelerle karşı karşıya kalmış görünüyoruz. Fakat iklim değişikliği ve geleceğin yapay zekâ gelişmelerinin dünyamız üzerinde dönüştürücü etkisi bulunan kuvvetlere dönüşme olasılığı hayli yüksek.
İklim değişikliğine dair tahminlerimiz daha güvenilir – hem iyi hem de kötü açıdan. Gezegenin karşı karşıya kalacağı risklere dair daha kesin bir anlayışa sahibiz ve bunun insan medeniyeti açısından maliyetinin ne olacağını hesaplayabiliyoruz. Bunların devasa olması, potansiyel anlamda yüz milyonlarca yaşamı riske atması öngörülüyor. Bundan olumsuz anlamda en fazla etkilenecekler ise gelişmekte olan ülkelerdeki düşük gelirli insanlar; zenginlerin uyum sağlaması daha kolay olacak. Ek olarak, yapay zekâya kıyasla, iklim değişikliğiyle baş edebilmek adına yürürlüğe koymamız gereken politikalara dair daha net bir kavrayışa sahibiz.
Yapay zekâ alanında kritik önem arz eden atılımların zamanlamasına dair, alanda yoğun bir fikir ayrılığı yaşanıyor. Yapay zekâ güvenlik uzmanları güvenlik sorununun birçok özelliği üzerinde el sıkışırken, kendi alanlarındaki araştırma ekiplerini hâlâ ikna etmeye çalışıyorlar ve bazı detaylar konusunda fikir birliğine varamıyorlar. Ne kadar kötüye gidebileceğine ve kötüye gitme olasılığına dair somut bir fikir ayrılığı mevcut. Günümüz araştırmacılarının açığa kavuşturmak istediği noktalardan biri de tasarladıkları modeller ile güvenli yaklaşımların neye benzeyeceğine dair süregelen fikir ayrılıklarının sebepleri.
Yapay zekâ alanındaki çoğu uzman, iklim değişikliği ile kıyaslandığında, insanlığın tümden yok oluşu bakımından çok daha büyük bir tehdit arz ettiğine inanıyor zira insanlığın karşılaşabileceği varoluşsal riskleri inceleyenler, iklim değişikliğinin – felaketi davet edecek kadar ciddi olsa da – insanların yok oluşuna sebep olmayacağını düşünüyor. Fakat diğer birçok araştırmacı da bu konudaki belirsizliğimizi birincil olarak vurguluyor ve hakkında hâlâ birçok yanıtsız sorunun bulunduğu güçlü bir teknolojiye doğru hızla ilerlerken, akıllıca olan adımın araştırmaya şimdiden başlamak olduğunun altını çiziyor.
Yapay zekâ araştırmacıları, yapay zekâ sistemlerinin varsayılan şekilde iyiliksever olacağını varsaymamamızı vurguluyor. Eğitim ortamlarının onları hazırladığı hedefleri var ve bu hedefin tüm insani değerleri barındıramayacağına şüphe yok.
Yapay zekâ akıllandıkça ahlakı kendi başına çözebilir mi? Bunun yanıtı olarak da araştırmacılar çözemeyeceğine vurgu yapıyor. Burada mesele “çözmek” değil; yapay zekâ New York Borsasında Google’la alakalı sayıların yanı sıra, insanların sevgiye, tatmine ve mutluluğa değer verdiğini de gayet iyi anlayabilir. Fakat yapay zekâların değerleri, asıl inşa edildikleri hedef sistemine göre şekillenecektir ki bu da, başlangıçta o şekilde tasarlanmadığı takdirde, bir anda insani değerlerle hizalanmayacağı anlamına gelir.
Tabii ki, insanı değerlerle paralel ya da en azından insanların birlikte güvenle çalışabileceği yapay zekâ sistemleri inşa edebiliriz. Yapay genel zekâ bölümüne sahip neredeyse her kurumun nihai gayesi de bu. Yapay zekâda göstereceğimiz başarı, 10 hatta 100 yıl(lar) sürecek teknolojik inovasyona tek adımla erişmemizi sağlayabilir.
“Başarılı olursak, bugüne kadarki en mühim ve geniş kapsamda faydalı bilimsel atılımlarından biri olacağına inanıyoruz,” diye yazıyor Alphabet’in DeepMind’ına girizgâhta. “İklim değişikliğinden kökten iyileştirilmiş sağlık sistemine dek, çok sayıda sorun acı verecek derecede yavaş gelişimden, karmaşıklıklarıyla çözüm bulma kabiliyetlerimizin hantallaştırılmasından mustarip. İnsani maharetin çoklayıcısı olarak yapay zekânın varlığında birlikte bu çözümler ulaşılabilir olacak.”
Yani, evet, yapay zekâ değerlerimizi paylaşabilir ve dünyamızı olumlu anlamda dönüştürebilir. İlk yapmamız gerekense çok zor bir mühendislik sorununu çözmek.
Kaygılanmak için erken olduğunu ve risklerin abartıldığını düşünenlere göre, yapay zekâ güvenliği (bir anlamda) daha az bilim-kurgu duyulan başka önceliklerle rekabet ediyor ve yapay zekâya neden öncelik verilmesi gerektiği de henüz netleşmiş değil. Tarif edilen risklerin gerçek ve somut olduğuna inananlar içinse bu konular üzerinde çalışmak için bu kadar az kaynak harcıyor olmamız inanılır gibi değil.
Makine öğrenimi araştırmacıları mevcut “hype”a temkinli yaklaşmakta haklı olsa da oldukça genelleştirilebilir teknikler kullanarak etkileyici ve şaşırtıcı işler başardıkları gerçeği ve bu tür basit çözümün her birinin henüz keşfedilmediği de yadsınamaz.
Her geçen gün yapay zekâ, geldiğinde dünyayı değiştirecek bir teknoloji olmaya biraz daha yaklaşıyor. Birçok büyük yapay zekâ kurumunda çalışan araştırmacılar roket fırlatmak gibi olacağını söylüyor: “fırlat” düğmesine basmadan önce doğrusunu bulmamız gereken bir konu. Dolayısıyla, roket bilimi öğrenmeye başlamanın tam zamanı. İnsanlığın korkması için sebep olup olmamasından ziyade, dersimize çalışıyor olmamız gerek.