Yapay zekanın hızlı evrimi, bir zamanlar yalnızca bilim kurgu dünyasına ait olan etik soruları gündeme getirdi: Örneğin, yapay zeka sistemleri bir gün insanlar gibi “düşünebilirse”, insanlar gibi öznel deneyimler de yaşayabilir mi? Acı çekebilirler mi? Eğer öyleyse, insanlık onları doğru bir şekilde korumaya hazır olacak mı?
Bir grup filozof ve bilgisayar bilimci, yapay zeka refahının ciddiye alınması gerektiğini savunuyor. Geçen ay, hakem değerlendirmesinden önce yayınlanan bir raporda yapay zeka şirketlerini yalnızca sistemlerini bilinç ve otonom karar verme kapasitesi için test etmeye değil, aynı zamanda bu senaryolar gerçekleşirse bu sistemlere nasıl davranılacağına ilişkin politikalar oluşturmaya çağırıyorlar.
Ya Yapay Zeka Bilinç Kazanırsa?
Rapor, bir yapay zeka sisteminin bilinç kazandığını fark etmemenin, insanların onu ihmal etmesine, zarar vermesine veya acı çekmesine yol açabileceğine dikkat çekiyor.
Bazı kişiler, bu aşamada yapay zeka refahı gerekliliği fikrini gülünç buluyor. Diğerleri ise şüpheci, ancak plan yapmaya başlamakta bir zarar görmüyor. Brighton, İngiltere’deki Sussex Üniversitesi’nde bir bilinç araştırmacısı olan Anil Seth, “Bu senaryolar kulağa tuhaf gelebilir ve bilinçli yapay zekanın çok uzak olduğu ve hatta mümkün olmayabileceği doğru. Ancak ortaya çıkışının etkileri o kadar derin olabilir ki, bu olasılığı görmezden gelmemeliyiz” diyor. Seth, geçen yıl “Sorun, Frankenstein’ın yaratığının canlanması değil, bilinçli olması ve hissedebilmesiydi” diye yazmıştı.
Oxford, İngiltere merkezli bir matematikçi olan Jonathan Mason, bu teknolojilere giderek daha bağımlı hale geldikçe tehlikelerin arttığını söylüyor. Mason, yapay zeka sistemlerini bilinç için değerlendirme yöntemleri geliştirmenin öncelik olması gerektiğini savunuyor: “Toplumun bir şeye bu kadar çok yatırım yapması ve bu kadar bağımlı hale gelmesi, ancak onun hakkında neredeyse hiçbir şey bilmemesi, hatta algısı olduğunu fark etmemesi mantıklı olmaz…”
New York, ABD’deki New York Üniversitesi’nde filozof olan ve raporun ortak yazarlarından biri olan Jeff Sebo, yapay zeka sistemlerinin bilinç açısından doğru bir şekilde test edilmemesi durumunda insanların da zarar görebileceğini söylüyor. Yanlış bir şekilde bir sistemin bilinçli olduğunu varsayarsak, refah fonlarının bu sistemin bakımına yönlendirilip insanlardan veya hayvanlardan alınabileceğini ya da “yapay zekayı insanlar için güvenli veya faydalı hale getirme çabalarını kısıtlayabileceğini” belirtiyor.
Bir Dönüm Noktası mı?
Rapor, yapay zeka refahının “geçiş döneminde” olduğunu savunuyor. Yazarlarından biri olan Kyle Fish, yakın zamanda San Francisco, Kaliforniya merkezli yapay zeka firması Anthropic tarafından yapay zeka refahı araştırmacısı olarak işe alındı. Raporun yazarlarına göre, bu, önde gelen bir yapay zeka firmasında bu türden ilk pozisyon. Anthropic, rapora yol açan ilk araştırmayı da finanse etti. Sebo, “Önde gelen yapay zeka şirketlerinde, yapay zeka bilinci, ajansı ve ahlaki önemi ciddiye alan insanlar olduğu için bir değişim yaşanıyor,” diyor.
