Robotların Dünyayı Ele Geçirmelerini Önlemenin Yolu Öz Güvenlerini Azaltmak Olabilir mi?
Yapay zekânın bazı durumlarda yönetimi elden bırakmaması gerekiyor. Ancak aynı algoritma bırakması gereken durumlarda nasıl işleyecek?
Şöyle bir senaryo düşünün: Yakın gelecekte yapay zekâ tarafından tamamen otomatik olarak kullanılan bir arabadasınız. Herhangi bir nedenle, aracın kontrolünü ele almak istiyorsunuz, ancak YZ, kontrolün kendi elinde olması gerektiği sonucuna vararak buna izin vermiyor.
Benzer şekilde, küçük bir çocuğun aynı fütüristik araçta olduğunu yalnız olduğunu düşünün. Bu defa ise, YZ’nin hiçbir şekilde kontrolü elden bırakmaması gerekiyor, YZ’nin aynı zamanda ancak manuel kullanma seçeneklerini iptal etmek için bir yolu da bulunmuyor.
Berkeley Üniversitesinden araştırmacılara göre, bu gibi nedenlerle, YZ sistemlerinin “fazla öz güvenli” veya “sıfır öz güvenli” olmamaları ve bunun da algoritmalarına dahil edilmesi gerekiyor. Araştırmacılardan Dylan Hadfield-Menell, Newscientist’e yaptığı açıklamada, aşırı öz güvenli algoritmalara örnek olarak Facebook’un haber akışı sistemini gösteriyor. Haber akışı, yalnızca kullanıcıların etkileşime geçme miktarını göz önüne aldığı için, kişilerin haber akışlarının sahte haberlerle dolmasına neden oluyor. Hadfield-Menell, algoritmanın aynı zamanda insan gözetimine sahip olmuş olması durumunda bu tür sorunların yaşanmamış olabileceğini düşünüyor.
Araştırmacılar, yayımladıkları çalışmada, insan-robot etkileşimlerine, YZ’nin “öz güven” seviyesinin etkilerini araştırmak için matematiksel bir model tasarlıyorlar. “Kapatma-tuşu oyunu” olarak adlandırılan modelde, robota ait bir kapatma tuşu bulunuyor. İnsan kullanıcı, YZ hatasız bir şekilde çalışırken dahi, dilediği zaman kapatma tuşuna basabiliyor. Ancak YZ de, öz güven seviyesine bağlı olarak kapatma tuşunu devreden çıkarabiliyor.
Bekleneceği üzere, kendine aşırı güvenen modeller, gerçekleştirmekte oldukları görevin süresini maksimize etmek için kapatma tuşunu devreden çıkarıyor. Diğer taraftan, öz güveni düşük modeller ise, görevi başarıyla yerine getirmekte olmalarına rağmen, kapatma tuşuna basıldığında görevden vazgeçiyorlar.
Ancak buradaki araştırmanın, evrensel bir gerekli öz güven seviyesi belirlemek olmadığı, bunun vaka bazlı belirleneceği bir çerçeve oluşturmak olduğu belirtiliyor. Araştırmacılar, yapay zekânın, kendine güven seviyesini belirlemek için kendi gerçekleştirmekte olduğu işin ne kadar başarılı olduğunu tahlil edebilmesi kadar, işi devrettiği durumdaki başarı seviyesini de göz önünde bulundurması gerektiği şekilde tasarım ölçütlerinin belirlenmesi gerektiği sonucuna ulaşıyorlar.
Son tahlilde, insanların robotlar ile bir arada çalışabilmeleri için, robotların farklı durumlarda verecekleri tepkilerin, belli sınırlar içinde bile olsa bilinebilmesi gerekiyor. Hadfield-Menell, “Eğer gerçek dünyaya bir robot yolluyorsanız, ne yapacağı hakkında güvenilir bilgileriniz olması gerekiyor,” diyor.
Böylece belki de gelecekteki YZ’ler, kendi kaynak kodlarına müdahale edip “kapatma düğmelerini” tamamen ortadan kaldırmadan önce, bir süreliğine bir barış dönemi yaşamak mümkün olabilir.
Henüz hakem onayından geçmemiş olan çalışmaya buradan ulaşabilirsiniz.
Kaynaklar:
http://gizmodo.com/if-we-want-robots-to-be-good-we-may-need-to-destroy-th-1795836570