Bu röportaj PENTACLE ekibi olarak başlattığımız serinin yedincisidir. Röportajı yapan, metni Türkçeye çeviren, gözden geçiren ve son okumayı yapanlar Başak Ağın ve Şafak Horzum’dur. Click here for the English version.
Kevin LaGrandeur, New York Teknoloji Enstitüsünde İngiliz edebiyatı profesörüdür. Dijital kültür üzerine, yapay zeka ve etik üzerine ve edebiyat ve bilim üzerine sayısız makale yazmış ve bildiri sunmuştur. LaGrandeur teknoloji üzerine uluslararası bir düşünce kuruluşu olan Etik ve Yükselen Teknolojiler Enstitüsü üyeliğine atanmıştır.
Başak Ağın: Merhaba, Profesör Kevin LaGrandeur. Çok kısa ve hoş bir röportaj hazırladık. Beş sorumuz var ve bunlardan ikisi posthümanizm kavramına ilişkin genel yaklaşımınız ve Global Posthuman Network’e (Küresel Posthüman Ağı / GPN) nasıl dahil olduğunuzla ilgili. Diğer üçü de size özel ve kendi çalışmalarınızı temel alıyor. Böylelikle, çeşitli konularda fikirlerinizi soracağız. Başlayalım mı?
Kevin LaGrandeur: Tabii, harika olur.
BA: Kevin, röportaj davetimizi kabul ettiğin için çok teşekkür ederiz. İngiliz edebiyatı ve eleştirel kuram alanından derecelerin bulunmakta, dolayısıyla dillerle olduğu kadar felsefeyle de çok ilgileniyorsun ki posthüman beşeri bilimler alanında çalışan çoğumuz benzer geçmişlerden geliyoruz; ama posthüman kavramı konusunda farklı fikirlerimiz, farklı görüşlerimiz var. Peki senin posthüman hakkındaki görüşün nedir? Kavramı nasıl tanımlarsın?
KL: Posthüman hakkında konuşmaya her zaman posthüman kavramının iki tanımından bahsederek başlıyorum. Bunun nedeni, 1990’lardan bu yana posthümanizm fikriyle ilgili gelişmelerin iki kola ayrılmasıdır: Birinci kol, N. Katherine Hayles’in ünlü kitabı How We Became Posthuman: Virtual Bodies in Cybernetics, Literature, and Informatics’te (Nasıl Posthüman Olduk: Sibernetik, Edebiyat ve Bilişimde Sanal Bedenler) ortaya koyduğu orijinal fikir olan hümanizm-sonrası akımın karşısında konumlanmış posthüman kavramıdır. Yani, teknolojiyle kendimizi değiştirmemiz durumunda transhümanizmin son noktasının ne olabileceğine dair spekülatif bir çalışma olan posthüman kavramı var; buna göre, en nihayetinde başka bir türe dönüşeceğiz, bu da posthüman tür. Diğer kol ise felsefi posthümanizmdir ve postmodernizmden gelişmiş olup hümanizmin, yani evrenin merkezine insanı ve insanla alakalı her şeyi konu alan felsefi hümanizm düşüncesinin sorgulanmasının bir uzantısıdır. Yani bu kol, tamamen farklı bir konudur. Asıl bu, posthümanizmdir: Hümanizmden sonra gelen şeydir. Benzer oldukları yer, her ikisinin de bünyesinde teknoloji bulunmasıdır. Posthümanizm temelde postmodernizmin teknoloji merceğinden geçerek biçim değiştirmesidir, teknolojinin postmodernizm hakkındaki fikirlerimizi değiştirme şeklidir; öyle ki biz insanlar bir varlık olarak küçülürüz ve dolayısıyla diğer şeyler daha büyük öncelik kazanır. Mesela gezegendeki diğer hayvanlar daha özel hale gelir. Buradaki fikir şudur: Eğer potansiyel olarak bizden daha zeki olan akıllı teknolojiyi icat edebilirsek, o zaman bu türümüz hakkında neyi gösterir? Neticede o kadar da özel değiliz, bu da hayvanların yaşam hiyerarşisinde daha önceleri hümanist şemada düşündüğümüzden daha yüksek bir yere sahip olduğu anlamına geliyor. Dolayısıyla posthümanizm terimini kullandığımızda bu terimin tanımı, posthümanizmlerden hangisinden bahsettiğimize bağlı olarak değişir. Eğer transhümanizmin posthümanından bahsediyorsak, bunun çok ilginç bir konu olduğunu düşünüyorum ve 1995 yılında N. Katherine Hayles ile bir yaz semineri yaptığımdan beri bununla ilgileniyorum ki 25 yıl önce alana bu seminerle girdim. Hayles, transhümanizmle ilgili birçok şeye şüpheyle yaklaşıyordu, ben de öyleyim. Her şeyden önce kendimizi teknolojiyle değiştirmenin harika bir fikir olduğundan emin değilim. İkincisi, kitabının en başında da belirttiği gibi, transhümanizmin iyi bir şey olduğuna inanmak, insan bedeninin esasen beyne ait bir moda aksesuarı olduğuna inanmaya bağlıdır ki Hayles bunun korkunç olduğunu düşünmektedir. Hayles, insanları düşünürken bir bütün olarak organizmayı düşünüt ve ben de buna katılıyorum, çünkü nörobilim bize son zamanlarda zihnin veya bilincin [başını işaret ederek] sadece burada olmadığını gösteriyor. Biliyorsunuz, tüm vücut bu işleyişe katılıyor. Örneğin beyin ile organlar arasında gidip gelen Vagus siniri üzerine yapılan son araştırmalar bu işleyişin iki yönlü bir yol olduğunu gösteriyor. Beynimiz yalnızca vücudumuzdaki organları kontrol etmez; aynı zamanda organlar da beynimizin bazı kısımlarını kontrol eder; bu simbiyotik bir ilişkidir ve bilincimizi robotik bir bedene yükleyebileceğimiz fikri – hani şu büyük transhümanist fikir – bedenin önemli olmadığını varsayar; bedenimiz – transhümanistlerin söylemekten keyif aldığı ifadeyle – yalnızca et yığınıdır/etten kemikten bir kukladır, bence bilim bize bunun yanlış olduğunu gösteriyor. Yani soruyu cevaplayıp cevaplamadığımı bilmiyorum ama üzerine konuşmaktan epey hoşlandığım konular olan transhümanizm ve posthüman düşünceleri çevresinde dolanmaktayım.
BA: Kesinlikle çok anlamlı, katılıyorum. Peki Karen Barad, Jane Bennett, Stacy Alaimo ya da diğer maddesel feministlerin yeni materyalist duruşu hakkında ne düşünürsün? Yeni materyalizmlerin posthüman kavramıyla uyum içinde olduğu konusunda giderek büyüyen bir tartışma var; çünkü, örneğin, Karen Barad’ın “posthümanist edimsellik” olarak adlandırdığı şey, aslında bunun transhümanizmle hiçbir ilgisi olmadığı fikrinden türetilmiş ve yine aynı izlekte olan aklı bedenden, söylemi maddeden asla ayıramayacağımızla ilgili bir şey. Ama Katherine Hayles’tan ya da senden tamamen farklı bir dil konuşmaktalar. Bu yeni gelişmeleri nasıl değerlendiriyorsun?
KL: Aslında posthüman kavramına yönelik feminist tutumlarla pek ilgilenmedim. Bu üç isim arasında iletişim kurduğum tek kişi Karen Barad’dı ve o da konferanslarda çoğunlukla Barad’ın kuantum dolanıklığı düşüncesi hakkında konuşuyorduk. Kendisi, en azından onunla yaptığım konuşmalarda, kuantum dolanıklığını feminist fikirlerle sıkı bir şekilde ilişkilendirmiyor; Barad’ı anladığım kadarıyla, bunu daha çok posthümanizm fikirleriyle ilişkilendiriyor. Eğer evrende kuantum dolanıklığı mümkünse, eğer iki nicem uzay ve zamandan bağımsız olarak birbiriyle iletişim kurabiliyorsa, bu aynı şeyi bizim de yapabileceğimiz anlamına gelir; varoluşumuzun her şeyle düşündüğümüzden çok daha fazla bağlantısı var. Bu kavramı seviyorum çünkü aynı zamanda Gaia ilkesiyle, tüm gezegenin yaşayan bir varlık olduğu yönündeki Hint’in Gaia fikriyle de bağlantılıdır ki bunun muhtemelen doğru olduğunu giderek daha fazla düşünüyorum. Demek istediğim, gezegenin derisi etkileşimli maddelerin muhtelif çeşitlerinden oluşan devasa bir organik koleksiyondur ve vücudumuz da böyle bir derlemdir. Eğer bizim bir bilincimiz varsa, gezegenin de olması mümkündür. Bu yüzden feminizmden daha çok bu alanlara yönelme eğilimindeyim çünkü en başta çıktığım yol bu yöndeydi.
BA: Evet, posthüman ya da çevreci beşeri bilimler ya da her iki alanda da çalışan tüm insanlardan gördüklerim ya da gözlemlediklerim bunların bir birleşimi olabilir; farklı artalanlardan geliyoruz, yani çok farklı çıkış noktalarından, ama bir noktada buluşuyoruz ve bence bu harika bir şey. Sanırım Global Posthuman Network’te de gözlemlediğim şey bu. Sen de bunun bir parçasısın ve kurucu üyelerden birisin. GPN fikri ilk etapta nasıl hayata geçti ve bu son gelişmeleri şu posthüman yaz kampı açısından nasıl görüyorsun? Mesela bu yaz başka etkinlikler de olacak sanırım; GPN hâlâ gelişip serpiliyor.
KL: Sanırım burada, bu organizasyonların arkasında gerçekten büyük bir itici güç olan Francesca Ferrando’ya hakkını teslim etmem gerekiyor. New York Posthuman Research Group’u (New York Posthüman Araştırma Topluluğu) başlatmamızı sağlayan oydu. O, ben ve Yunus Tuncel, o grubu kurduk ama aslında Francesca ‘Bu grubu New York’ta kurmayı gerçekten istiyorum’ diyerek itici güç oldu. Sonra biz bu grubu kurduğumuz sırada, Francesca da Avrupa’daki insanlarla Global Posthuman Network’ü kurma konusunda konuşuyordu. Nihayet olan şu ki, iki organizasyon bir nevi birleşti çünkü aynı anda başladılar ve tüm bunlar Francesca’nın sayesinde oldu. Ayrıca Avrupa cenahında Stefan Lorenz Sorgner, Jaime del Val ve benzeri nice başka kişi de küresel bir posthüman ağ kurma fikrinin arkasındaydı. Ama o zamandan bu yana en büyük etkinin Francesca olduğunu düşünüyorum. Yaz kampına gelince, Francesca benden bu kampa dahil olmamı istediği için, buna çok az da olsa katıldım. Sonra o ve ben New York Şehri’nden taşındığımızdan beri bir nevi ayrıldık, bu da onun, benim ve Yunus’un farklı yönlere gitmeye başlaması anlamına geliyordu. Yunus ağırlıklı olarak Nietzsche’ye odaklanıyor; Francesca, bir tür New Age (Yeni Çağ) hareketi olarak felsefi posthümanizm üzerine odaklanmaya yöneldi. Francesca, insanlar arasında barışa, sevgiye, anlayışa ve birliğe odaklanıyor gibi görünüyor çünkü posthümanizm bizim birbirimizden o kadar da farklı olmadığımızın ve sandığımız kadar bireysel olmadığımızın farkına varılmasını bir bakıma geri getiriyor. Tabii benim odak noktam da posthümanizmden sıçrama noktası olarak yapay zekâ ve etiğe doğru yöneldi. Olan budur, organşzasyonun tarihi bu şekildedir; çoğunu Francesca başlattı ve sonra geri kalanımız da onu takip etti, bazılarımız belki biraz kerhen.
BA: Peki. Benim soracaklarım bu kadardı. Topu Şafak’a atıyorum; senin için daha spesifik konularda hazırlanmış ve çoğu senin çalışmalarına dayalı üç sorusu daha var.
Şafak Horzum: Bilhassa yapay zekâ ve etik konularına yöneliminle ilgili sorular. Sorularımı, AI and Ethics dergisindeki “How Safe Is Our Reliance on AI, and Should We Regulate It?” (“Yapay Zekâya Bel Bağlamamız Ne Kadar Güvenli ve Bunu Denetim Altına Almalı Mıyız?”) başlıklı makalenden yola çıkarak sormaya başlamak istiyorum. Aslında makalen insanın güvenilmez karar verme süreçlerine ve kendi kendine yarattığı etik tuzaklara ilişkin birçok sorunlu konuya değinmekte. Hem bu makalene hem de doktora tezimi yazma sürecim sırasında birçok yeni düşünce kapısı açtığı için çok faydalandığım Androids and Intelligent Networks in Early Modern Literature and Culture: Artificial Slaves (Erken Modern Dönem Edebiyatı ve Kültüründe İnsansılar ve Zeki Ağlar: Yapay Köleler) başlıklı kitabına dayanarak iki sorum var. Birincisi şu: Sence, yapay zekâ programlarının ve robot teknolojisinin yaygınlaşmasıyla birlikte, insan yeni bir varlıklar zincirinde kendisini nereye yerleştirecek? Bir efendi olarak insan, sonunda kendi yarattığının hizmetkârına mı dönüşecek? Zaten dönüştü mü? Makalenin yayınlanmasının üzerinden iki yıldan fazla zaman geçtiği için bu makaleyle ilgili güncel görüşlerini duymak isterim.
KL: Evet, bir bakalım. Yakın zamanda AI and Ethics’te “The Consequences of AI Hype” (“Yapay Zekâ Heyecanının Sonuçları”) başlıklı bir başka makalem yayınlandı. Bahsettiğin o değil ama, o da çok kısa bir makale, aslında bir başyazı. Okumanız muhtemelen 10 dakikanızı alacaktır, ancak bu yazım, yapay zekâyla ilgili yaşadığım sorunlardan birini gösteriyor; bu da yapay zekâ etrafında çok fazla histerinin ve kamuoyunda bu konuda çok fazla duygunun olması, çünkü genel halk yapay zekâyı anlamıyor, çünkü yapay zekâyı anlamak çok zor ve ayrıca Silikon Vadisi, şeffaf bir yapay zekâ yapma konusunda iyi bir iş çıkarmıyor. Yani tüm bunlar yaşadığım bazı sorunlar. Ancak nihai hiyerarşinin nereye varacağını düşündüğümle ilgili sorunuza geri dönecek olursak; sanırım kitabımın sonunda en büyük sorunun, akıllı teknolojiyle aramızda diyalektik bir tersine dönüş olmasına zaten izin vermiş olmamız ve buna uzun zaman önce izin vermeye başlamış olmamız olduğunu söylüyorum. Başlangıcından bu yana, akıllı teknolojinin bizim adımıza karar vermesine izin verdik ve daha önceki birçok filozofun da söylediği gibi, bu asıl tehlike noktası, kritik eşik. Aklıma gelen filozoflar, Norbert Wiener gibi 20. yüzyılın ortalarında akıllı sistemleri icat eden insanlar. Wiener, 1950’lerdeki kitaplarında, akıllı teknolojinin bizim adımıza kararlar almasına izin verirsek, onun hayatımıza hakim olmasına izin verme yolunda çok kaygan bir zemine doğru ineceğimiz konusunda uyarmıştı. Bugün etrafınıza baktığınızda, teknoloji bize ne kadar hükmediyor? İnsanlar teknolojinin kendi köleleri olduğunu söyleyebilir, peki ya akıllı telefonlarımız gibi cihazlar? Sizi bilmem ama yakın zamanda iki üç gün boyunca dağlarda akıllı telefonumda sinyal yok olmadan kaldım ve sanki bir kolumu kaybetmiş gibi hissediyorum. Ki çoğu insan kadar büyük bir teknoloji kullanıcısı bile değilim. Ama onsuz kendimi kaybolmuş hissediyorum çünkü yapmam gereken şeyleri bana hatırlatması, diğer insanlarla hızlı ve kolay bir şekilde iletişim kurmam ve benim için hesaplamalar yapması gibi her türlü şey için ona bağımlı hale geldim. İnsanlar bunun çok da bir mesele olmadığını, önemli bir şey olmadığını söyleyebilir. Yine de küçük şeyler bile bir araya geliyor. Misal, en son makalem olan “The Consequences of AI Hype”da, yapay zekânın bizim adımıza karar vermesine izin vermenin sonucu olan bazı gerçek yaşam ve ölüm olaylarından dem vurmaktayım. Bahsettiğim en önemli durum, Tesla’nın otopilotudur. Her şeyden önce, ona “otopilot” adını vermemeleri gerekirdi çünkü bu, tıpkı bir uçakta olduğu gibi, her şeyi kendi başına yapmasına izin verebileceğiniz ve güvende olacağınız anlamına gelir. Ama durum böyle değil. İnsanlar, Tesla araçlarındaki otopilotu açarak, ardından direksiyon başında uyuyakalıp otopilotun sürmesine izin vermekteler. Sonra da bir şeylere çarptıkları için ölüyorlar çünkü otopilot tamamlanmış bir sistem değil. Haberlerde insanların otopilota güvenip öldüğüne dair çok sayıda örnek yer aldı. Çok daha eski ve çok daha basit bir yapay zekâ türü olan GPS bile Amerika Birleşik Devletleri’nde pek çok insanı öldürdü çünkü çok sayıda vahşi doğa alanımız ve toprak yollarımız var ve GPS, toprak yollar ile normal asfalt yollar arasında ayrım yapmıyor. İnsanlar sürüşün ortasında GPS’lerine güvenip hatalı dönüş yapıyorlar çünkü GPS, döndükleri o yolun yangın emniyet yolu olduğunu söyleyemez. Daha sonra sıkışıp kalıyorlar ve ölüyorlar. Amerika Birleşik Devletleri’nde bu durum o kadar sık yaşanıyor ki bunun bir adı bile var: “GPS ile ölüm”. Bunlar halihazırda gerçekleşmekte olduğunu düşündüğüm şeylerin örnekleri: akıllı teknolojimize aşırı bağımlı hale gelmemiz. Yani artık robotik barmenlerimiz bile var mesela. Bunları Amerika Birleşik Devletleri’ndeki yolcu gemilerinde görüyoruz; Japonya’da şeflerin robot olduğu erişte dükkanlarını tamamen robotlaştırdılar. İnsanların yaptığı tek şey paranızı alıp kaseyi önünüze koymak. Bunlar çok önemli örnekler değil ama mesele bu. Sanırım şu anda makineler hâlâ insanların kontrolü altında. Öte yandan, insanlar ve onların akıllı yapıtlarıyla ilgili bir hiyerarşiden bahsetmenin giderek daha az uygun olduğunu düşünüyorum çünkü böyle bir hiyerarşi, hayvanları ve diğer her şeyi dışarıda bırakıyor. Bitkilerin bile bir çeşit zekâsı vardır. Ayrıca hayvanların hiyerarşide daha üst sıralarda yer alması gerektiğini düşünüyorum. Bu yüzden bunun yerine yapay zekâ ve insanın ikiliği hakkında konuşacağım. Şu anda insanlar efendi, yapay zekâ ise köle. Ancak Hegel’in diyalektik düşüncesiyle ilgili olarak söylediği gibi, eğer kölelere çok fazla güç verir de onların sizin işinizin çoğunu yapmalarını sağlarsanız, o işi yapma yeteneğini kaybedersiniz ve köleler üstünlük kazanır çünkü bu iş için artık onlara muhtaç olursunuz. Sonunda diyalektiği tersine çevirir ve sizin efendiniz olurlar. Bence bu yola zaten çoktan girmiş bulunmaktayız ki GPT4 bu süreçte çok büyük bir dönüm noktası. En yenisi GPT4 üzerine kurulu ChatGPT’miz var; bu, daha güçlü ve halka sunulan ilk veritabanından daha büyük bir veritabanına sahip; bizim için iş yapması hususunda buna çok fazla güvenirsek, başımızın belaya gireceğini düşünüyorum. Öte yandan, burada Cassandra gibi konuşmak istemiyorum çünkü yapay zekâyı nasıl kullandığımız konusunda dikkatli ve sağduyulu olursak, yapay zekânın insan ırkı için büyük bir umut vaat ettiğini düşünüyorum. Sanırım yapay zekânın faydalı olabileceği en büyük alan tıp. Tıbbi görüntüleri analiz etme konusunda ne kadar iyi olduğunu bir düşünün. Örneğin, tıbbi bir görüntüde yer alan tümörleri bir insan doktordan çok daha iyi görebilmekte. Ayrıca yapay zekânın katlanmış proteinleri analiz edebilme olasılıkları da mevcut; bu da insanlığa faydalı olacak yeni ilaç türlerini arayabileceği anlamına geliyor. Öte yandan, bunu sormadınız ama sanırım yapay zekânın yarattığı heyecanın bir kısmı da, yapay zekânın bizi süperinsan yapacağı, yapay zekâyı kendi içimize yerleştirip siborga dönüşebileceğimiz ve sonra da 300 yıl kadar yaşayacağımız yönündeki düşüncelerle alakalı. Bu tür varsayımların ahmakça olduğunu düşünüyorum.
ŞH: Evet, kesinlikle katılıyorum. Cevabında ima ettiğiniz şey beni doğrudan başka bir soruya getiriyor, belki de sormamı bekliyorsundur. Yapay zekânın yanı sıra robotbilime olan bağımlılığımıza ve güvenimize yahut hatalı güvenimize istinaden, tıpkı savaşlar ya da işgaller gibi son zamanlarda gerçekleşen olaylar esnasında, insanların çeşitli onto-epistemolojik durumlar hakkında etik kararlar verme hususunda yavaş hareket ettiğini görüyoruz. Sen de makalelerinde önemli kararları bizim yerimize yapay zekânın alması durumundan bahsetmiştin. Elbette yapay zekânın bu karar alma süreçlerini devralmasına izin vermek, türümüzün görünürdeki yükünü hafifletebilir. En azından bu konuya verilen desteklerdeki en büyük sebeplerden biri bu. O zaman, bu yetki devri aslında sadece etik kaygılarımızın yükünü insanın omuzlarından alma meselesi olarak değerlendirilebilir mi? Bu konuda ne düşünüyorsun? Demek istediğim, kararlarımız konusunda daha fazla sorumluluk almak istemiyor gibiyiz; ama yapay zekânın bunu yapabileceğini umuyoruz.
KL: Bence bu konuda değinilecek iki şey var. Öncelikle, evet, insanların tembel olduğunu düşünüyorum; demek istediğim, ilk kitabım olan Androids and Intelligent Networks in Early Modern Literature and Culture: Artificial Slaves okuduğunuzda göreceksiniz ki bu kitapta anlatmak istediğim şey, en az 2000 yılı yapmaktan hoşlanmadığımız çeşitli iş türlerinden sıyrılmanın yollarını bulmaya çalışarak harcadığımızdır; yani çirkin, çekinceli ve çekilmez olan işlerden kurtulmak için. Ben buna 3 Ç diyorum. Tarih boyunca kölelerimizin olmasının nedeni budur, çünkü pis işler ve/veya ağır işler yapmak istemedik. Genellikle kölelerimizin bizim adımıza düşünmesine ve felsefemizi geliştirmesine izin vermezdik. Hala yapay zekânın bizim için felsefe geliştirebileceğini bile düşünmüyorum, ancak ChatGPT, insanların yapay zekânın kendileri adına kararlar almasına hangi durumlarda izin verdiği veya en azından bu izin vermeye hangi durumlarda cezbedildiğine iyi bir örnek. Demek istediğim, eğer ChatGPT’nin sizin için bir makale yazmasını sağlarsanız, ChatGPT konuyu bulur, yazacaklarınızın taslağını çıkarır. Tembelseniz ve makalenizi onun yazmasına izin verirseniz, yapay zekânın sizin için düşünme eylemini yapmasına izin vermiş olursunuz. Bu tür durumlarda ok yaydan çıkmıştır diye düşünüyorum; ChatGPT’yi kabullenmemiz gerekiyor ve bence bunu yapmanın doğru yolu ona sarılmak ve onunla nasıl bir arada var olup yol alacağımızı ve onu nasıl doğru şekilde kullanacağımızı öğrenmek. Örneğin, bence yazı yazmak için bunu yapmanın en iyi yolu, ChatGPT’nin bir konu için olası bir taslak oluşturmasına izin vermek, sonra bir durup düşünüp bu taslak üzerine değişiklikler ve eklemeler yapmak, ardından da giriş kısmını kendiniz yazmalı ve sonra neyi kaçırmış olabileceğinizi görmek için tekrar ChatGPT’ye danışmak olmalı. Yani bu açıdan iyi bir yardımcı olur. Bir nevi insan editörün yerini alabilir. Yapay zekânın bizim için etik kararlar almasına izin verme konusuna gelirsek, henüz o noktaya geldiğimizi düşünmüyorum. Öncelikle bunu hakikaten yapamaz. Yapay zekâ hâlâ oldukça aptal; yani çoğu yapay zekâ hâlâ yalnızca tek bir şeyi gerçekten iyi yapacak şekilde tasarlandı, misal satranç oynamak gibi. Örneğin, ChatGPT genellikle kendisinden önceki kelimeye eşlik edecek bir sonraki kelimeyi bulma konusunda gerçekten iyi; zira bu şekilde tasarlandı; hakikaten yaptığı tek şey bu. Bu yüzden arada sanrılar görüyor (yani yanlış bilgiler veriyor). Çünkü ondan size bir konuda bilgi vermesini isterseniz ve bu konu veritabanında yoksa, güncel anlamda anlamlı olan ancak gerçek anlamda bir anlam ifade etmeyen bir dizi kelime üretir, ne var ki verdiği bu bilgi doğru değildir. Sorunun tamamına cevap verdim mi?
ŞH: Kesinlikle evet. Sanırım bu durum, bugün deneyimliyor olabileceğimiz şeylerin her zaman şüphe veya olası komplo teorileriyle beslenmesiyle alakalı, yani Donna J. Haraway’in de Siborg Manifestosu eserinde robotbilimin askeri teknolojilerden doğup geliştirildiğinden bahsederken tıpkı bugün onları askeri teknolojinin günümüz dünyasına kattığı “gayrimeşru çocuklar” olarak tanımladığı durumla alakalı. Ne var ki günümüzde, senin de yazında değindiğin gibi, Elon Musk’ın – kendi söylediğine göre – güya insanlığı gelecekteki olası tehlikelerden korumak için yapay zekâya yatırımlar yaptığını görüyoruz. Ancak bu yatırım, aynı zamanda GPT’yi yapan OpenAI gibi bir yazılım şirketinin sosyopolitik hayatımızın bazı temel bileşenlerine hükmetmesini engellemeye yardımcı olmak için Musk’ın gelecekte bir söz veya pay sahibi olmasını sağlamaya yönelik de bir adımdır. Ve insanlar, bilhassa bu hissedarların kişisel veya ticari kazançları söz konusuysa, “lafla peynir gemisi yürümez” atasözünü her zaman kanıtlarlar. Görüyoruz ki tarih bu bakımdan kendini yinelemeyi sever. Peki toplulukların güvenli olduğu varsayılan dijital platformlarına kolayca sızabilen bu tür mega şirketler karşısında, etik kısıtlamalar nasıl garanti altına alınabilir? Denetim altına alma konusuna şu anki bakış açın nedir?
KL: Bazı yayınlarımda denetimler meselesinden bahsettim ve genellikle makalelerimin sonunda bu konudan bahsediyorum çünkü düzenleme ve denetlemeleri reçetelemek zor. Şu anda dünyanın dört bir yanından bir araya gelen bir grup insan olarak bunu yapmaya çalışıyoruz ve bu zor, çünkü yapay zekâ çok yeni ve düzenleyici-denetleyici kurumlarımızın ayak uydurabileceğinden daha hızlı gelişiyor. Ancak düzenleme-denetleme kesinlikle gerekli, zira kapitalist şirketler insanlık için bazı iyilikler yapsalar da, gerçek şu ki bunlar sadece kâr elde eden makinelerdir ve dolayısıyla ahlaktan yoksundurlar. Bu şirketlerde yer alan insanlar sadece kâr getiren makinenin parçalarıdır ve dolayısıyla kendileri de makine haline gelir, yani daha büyük makinenin dişlileri haline gelirler. Bu nedenle, kendileri için düzenleme-denetleme yapmaları büyük bir çıkar çatışması yaratır çünkü bu, makinenin ana işlevi olan kâr elde etmeyle çelişebilir. Mesela şu anda, sanırım önümüzdeki birkaç hafta içinde Global AI Ethics Institute (Küresel Yapay Zekâ Etiği Enstitüsü) web sitesinde yayınlanacak bir makale yazmayı yeni bitirdim. Makalede kapitalizmin bir makine olduğu, doğası gereği ahlakla ilgilenmediği, kârla ilgilendiği gerçeğinden bahsediyorum. Kâr etme ve ahlaki değerler arasındaki çıkar çatışması, son ABD hükümetinin bu yılın Temmuz ayında en büyük yedi yapay zekâ şirketinin güvenli yapay zekâ yapma konusundaki sekiz kuralı gönüllü olarak takip etmesini sağlama yönündeki hamlesinin iyi bir standart olmadığı anlamına geliyor; zira bu anlaşmanın tamamı sadece gönüllülük esasına dayanıyor ki bu şirketler bir noktada bu gönüllü kuralları takip edemeyecekler çünkü bu onların ana odak noktası olan para kazanmayla çelişecek. Olması gereken, uluslararası bir yönetim organının olması gerektiğidir. Ulusal hükümetlerin düzenleme yapması gerekiyor ama nükleer silahları kontrol eden Uluslararası Atom Enerjisi Ajansı gibi uluslararası bir hükümet organının da olması gerekiyor. Bu ajansta olduğu gibi, yapay zekâ için olan kurumun da dünya çapındaki herkesin, güvenli yapay zekâ yapma konusunda belirli bir dizi kural üzerinde anlaşmaya varması gerekiyor. Bu daha yeni yeni gerçekleşmeye başlıyor. Bu hedef ya da amaç, araştırma direktörü olduğum Enstitü’nün ana hedefidir; tüm dünyayı bu düzenleyici süreçlere dahil etmek ve aynı zamanda daha felsefi ve kültürel bakış açılarını da bu sürece dahil etmektir. Şu anda yapay zekâyla nasıl başa çıkmamız gerektiğine ilişkin etik standartların temelinde Batı felsefesi ve Batı dinleri yatmaktadır. Hindistan’daki insanların bu standartlar hakkında ne söyleyeceğini bilmek isterim; Hinduizm veya Caynizm, Japonya’da Şintoizm veya Çin’de Konfüçyüsçülük bu hususlarda ne söylüyor? Bu tür etik sistemlerden yeterince girdi aldığımızı düşünmüyorum. Türkiye için Sufizm… Yani yapay zekânın ele alınmasında Sufi değerlerine dair bir şey görmüyorum, duymuyorum.
BA: Bu etik değer sistemlerinin, dinlerin veya inanç sistemlerinin yapay zekânın kullanımı konusunda herhangi bir anlam ürettiğini düşünmüyorum. Yani genelde çok çağdaş, çok modern fikirler ortaya koymuyorlar. Daha çok olayların manevi yönüne dayalılar. Belki Francesca’nın bu konuda neler olup bittiğine dair bir fikri olabilir, çünkü o daha çok manevi posthümanizm üzerine odaklanmış durumda.
KL: Evet, muhtemelen. Ama şu sıralar bununla çok uğraşıyorum çünkü Hindistan’da ve Türkiye gibi başka yerlerde konuşmalar yapıyorum ve kültürel değerler örneğin Hindistan’dakiyle Amerika Birleşik Devletleri’ndeki ve hatta Türkiye’dekiyle hiç de aynı değil. Dahası, örneğin Budistlerden etkilenen yapay zekâ etiğine sahip olmak aslında mümkün. Bunun güzel bir örneği, UMass Boston’da sosyolog olan ortak yazarım James J. Hughes’un yazılarında açıkça görülüyor. O ve ben, iktisat ve mesleklerle ilgili olan Surviving the Machine Age: Intelligent Technology and the Transformation of Human Work (Makine Çağında Hayatta Kalmak: Akıllı Teknoloji ve İnsan İşinin Dönüşümü) başlıklı kitabımızın editörlüğünü yaptık. Kendisi bir Budist keşiş olmasının yanı sıra bir akademisyen ve yapay zekâya ilişkin Budist değerler üzerine makaleler yazmış birisi. Bir örnek, duyguları olan bir yapay genel zekâ yapma fikridir; insan seviyesinde bir yapay zekâ, Budist anlamda iyi bir şey değildir çünkü Budist ahlakında, bir insanla empati kurmak ve ona zarar vermemek için, acı çekebilmeniz gerekir, çünkü yalnızca acı çekerek empatiyi geliştirirsiniz. Dolayısıyla Budist bağlamında insan seviyesinde bir yapay zekâ geliştirmek ahlak dışı olacaktır çünkü acı çeken bir varlık yaratmanız gerekecektir. Bu nedenle, insana eşdeğer yapay bir genel zekâ yapmanın ahlakı, Budist geçmişi olan biri için şüphelidir. Ancak yapay zekâ etiği tartışmalarında bu tür konular yeterince gündeme gelmiyor.
ŞH: Son çevirim, Türk yazar Sadık Yemni’nin Ağrıyan romanı, aslında Budist eğitimleri olan bir yazılım geliştiricisinin yaptığı yapay zekânın kurtardığı bir dünyayı konu alan kıyamet sonrası bir roman. Sonunda, insanların gezegende iyi durumda olmadığını ve kendisinin insanlık tarafında olduğunu ima ederek dünyayı barışçıl bir şekilde ele geçirir. Yayınlandığında izninle bir kopyasını sana göndermek isterim.
KL: Elbette. Isaac Asimov’un insan uygarlığını koruyan son derece zeki robotları içeren Vakıf Üçlemesi’nin arkasındaki temel kavram budur. Bu serinin temeli, robotların, robotbilimin üç yasasını gizlice kullanarak, insan ırkının yok olmasına veya kendine zarar vermesine izin veremeyecekleri “Sıfırıncı Yasa” adı verilen dördüncü bir yasayı oluşturmalarıdır. Bu yüzden binlerce yıllık bir süre boyunca insan ırkını kurtarmak üzere kendileri için böyle son derece fedakâr bir etik seti geliştiriyorlar. İnsanları daha iyi bir konuma itecek kadar olaylara müdahale ediyorlar. Kesinlikle böyle bir olasılık var, ancak benim görüşüm, insan düzeyindeki yapay genel zekânın, insanlara benzemesi veya insanlarla duygudaşlık göstermesi gerekmeyen, uzaylı bir zekâ olacağı yönünde. Bir yapay genel zekâ yapmayı başarırsak, her şeyden önce geometrik olarak başarılı olacaktır çünkü kendini çok hızlı bir şekilde tekrar tekrar programlayan bir yapay zekâdan türeyecektir ve akıllılaştıkça kendisini daha iyi bir şekilde yeniden programlayacaktır, böylece birkaç yıl içinde bizden çok daha zeki bir yapay zekâya sahip oluruz. Bu süreç, mutlaka iyi huylu bir zekânın olmayacağı anlamına geliyor ve ben de buna katılıyorum. Ancak bunun yerine Eliezer Yudkowsky ve Nick Bostrom gibi insanlar bunun uzaylı zekâsının eşdeğeri olabileceğini ve bunun bizim için Mars’tan gelen bir varlıkla uğraşmak gibi olacağını, bizden tamamen farklı bir etik anlayışına sahip olacağını söylediler. Düşüncesini bile anlayamadığımız bir yapay zekâya sahip olabiliriz ve bu insanlık için olumlu bir şey olmayabilir. Elon Musk da bu şekilde düşünüyor ve bu yüzden bir B planı var. Onun A planı, evrimsel açıdan yapay zekâya ayak uydurabilmemiz için hepimize daha fazla teknoloji enjekte etmek. Ancak ikinci planı – A planı başarısız olursa – Mars’ta hepimizin Süper Yapay Zekâ’dan uzaklaşabileceği bir şehir inşa etmek. Bu çok gülünç, çünkü her şeyden önce Mars’ın normal bir şekilde yaşanabilir olduğunu ve buradan Mars’a gitmenin işe yarayacağını düşünmek çok saçma görünüyor. Her şeyden önce, insan vücudu kesinlikle Mars için yaratılmamıştır ve eğer yapay zekâ süper zekiyse, biz Mars’ta da güvende olmayacağız. Yapay zekâ da eninde sonunda oraya ulaşacaktır.
ŞH: Kesinlikle katılıyorum. Teşekkür ederim.
BA: Yani başarısız olmaya mahkumuz, değil mi?
KL: Yani yapay zekâ ile ilgili sorunlarımızdan kendimizi teknolojiyle kurtarabileceğimizi düşünmüyorum. Bence şimdi harekete geçmeliyiz – ki neredeyse çok geç kaldık – ve yapay zekânın insanlara faydalı olmasını sağlamak için bilinçli olarak bazı düzenlemeler yapmalıyız. Bu yapılabilir; sorun olacağını düşündüğüm kısmı, bunun siyasi iradeyi gerektirmesi.
BA: Harika bir röportajdı, Kevin. Çok teşekkürler.
