Tramvay İkilemi

Visits: 620

BİLİM TARİHİ, Albert Einstein’ın “düşünce deneyi” olarak isimlendirdiği (Gedankenexperirnent), hayali bir senaryodan ibaret olup, içinden çıkılması zor olan entelektüel bilmecelerle dolu. Bunlar önemli sorunlara ışık tutan bilmeceler. Çözüm bulabilmemiz için derinlemesine düşünme mekanizmasını harekete geçirmemiz gerekiyor. Einstein’ın, kendisini özel görelilik kuramına yönlendirmiş olan ışık demetini takip etme hikâyesi ve Erwin Schrödinger’in zalimce tasarlanmış bir kuantum mekaniği kutusunda hapsolup sonsuza dek hem ölü hem de canlı kalabilen zavallı kedisi bu bilmecelerin en ünlüleri. Schrödinger’in kedisi, dalga mekaniği ve ölçümler arasındaki karmaşık etkileşimi vurguluyordu.

Tramvay ikilemi de ahlaki seçimlerimizi sorgulatan bir düşünce deneyi. İkilemin çeşitli tasvirleri olsa da şöyle özetleyebiliriz: Yokuş aşağı hızla yol alan tramvay bir düğüm noktasına varır. Önündeki yol ikiye ayrılıyor; soldakine girerse raylarda takılı kalmış bir insan var, sağdakine devam ederse bu kez beş kişiye çarpacak. Tramvayın yolunu değiştirebileceğiniz makas hemen yanı başınızda duruyor. Tramvayın freni arızalı. Kolu çekerek sağa ya da sola yönlendirme şansınız var. Bunu yapar mıydınız? Peki ya raylarda duran o insanlar hakkında daha fazla şey biliyor olsanız? Belki solda tek başına duran kişi ufak bir çocuk ve diğer beş kişi de yaşlı insanlar olsaydı? Ya da belki tek başına olan kişinin bir çocuğu olduğunu ve diğerlerinin de bekâr olduğunu bilseniz? Bu farklı senaryolar sonucu nasıl değiştirir? Neye göre karar verirdiniz? Bunlardan hangisine daha çok değer veriyorsunuz?

Bu, ilginç bir düşünce deneyi olmanın da ötesinde. Artık karar alma sorumluluğunu makinelere ve onları yöneten yazılımlara yükleyip sırtımızdaki bu yükten kurtulduğumuz bir çağda yaşıyoruz. Fakat yazılımcılar ve mühendislere büyük bir iş düşüyor. Onlar da git gide artan bir sorumlulukla, makinelerin ölüm-kalım meselelerine dönüşmesi mümkün olan mühim sorunları halletmesini sağlarken, uyguladıkları tüm işlemlerin sonuçlarıyla yüzleşmek zorundalar. Karar alma mekanizması mutlaka bir değerlendirme sisteminin sonucunda ortaya çıkar. “Fayda fonksiyonu” denilen bu süreç vasıtasıyla neyi, hangi sebepten ötürü seçeceğimize karar veririz. Biri mutlaka diğerine oranla daha büyük bir kazanca ulaşmamızı sağlar. Bu bazen açıkça ortadadır, bazen de deneme-yanılma yoluyla hareket etmek zorunda kalırız. Örneğin beğendiğiniz iki çift ayakkabıdan hangisini satın alacağınıza karar verirken olasılıklara dayanan hesaplar yapar ve beklentilerinize göre hareket edersiniz.

Ancak bazen söz konusu seçim çok daha büyük bir önem taşır. Belirli bir konuda, önünüzde iki farklı veri varsa hangisini seçeceksiniz? Yazılımı oluşturan değerler şimdi sizin kendi değerlerinizi şekillendirmenizle sonuçlanacak. Ve verdiğiniz karar sadece sizi değil, toplumu da etkileyecek. İşte bu durumda kalınca vereceğiniz kararla alınacak olan risk çok daha büyük. Tramvay ikilemi, bir ölüm-kalım meselesi karşısında mevcut programımıza hâkim olan değerler sistemini görmemizi sağlıyor. Yakın gelecekte sürücüsüz hareket eden tramvay, kamyon ve otomobillere sahip olacağız. Bunların da bazı kararlar vermeleri gerekecek: Emniyet şeridinde giden bisikletli gence mi çarpayım, yoksa ileride durmakta olan lüks otomobile mi? Yazılan algoritma neye dayanarak, hangi kararı alacak?


Yazar: Daniel Rockmore, Matematik ve Bilgisayar Bilimleri Uzmanı; Dartmouth Koleji Neukom Bilgisayar Bilimleri Enstitüsü Yöneticisi, Popular Science Türkiye, Mart 2017, s.76

Yapay Zekâlar İşbirliği Yapar Mı?

Visits: 72

Yapay zekâ konusunda yapılan araştırmalara bir yenisi daha eklendi. Google DeepMind ekibi birden fazla yapay zekânın aynı sosyal ortamda nasıl davrandığını görebilmek için bazı özel oyunlar tasarladı. Birinci oyunda iki farklı yapay zekâ tarafından kontrol edilen iki oyuncu bir elma yığınından elma toplamaya çalışıyor. Oyuncular isterlerse birbirlerini lazer tabancasıyla işaretleyerek kısa süreliğine oyundan atabiliyor. Böylece oyunda kalan oyuncu daha fazla elma toplayabiliyor. Oyun sırasında, oyuncuların davranışlarını kurallara ve bağlama göre değiştirdiği görülmüş. Eğer elma yeterince çoksa oyuncular birbirleriyle uğraşmak yerine elma toplamaya odaklanıyor. Ancak kaynaklar kısıtlandığında, yani toplanacak elma sayısı azaltıldığında oyuncuların birbirlerini vurmaya çalıştığı gözlenmiş. Daha da ilginç olansa; oyuna daha çok veri işleme gücüne sahip bir oyuncu (yapay zekâ) dâhil edildiğinde bu oyuncunun elma sayısından bağımsız olarak diğer oyuncuları vurmaya odaklanması. Oyuncular hareket halinde olduğu için diğer oyuncuları vurmak üzere hem onların hareketini takip etmek hem de silahı onlara çevirerek ateş etmek gerekiyor. Bu da elma toplamakla uğraşmayı engelleyen ciddi bir çaba demek. Bu nedenle eğer elma çoksa yapay zekâlar elma toplamaya odaklanıyor. Ancak daha güçlü bir yapay zekâ oyuncusu diğerlerini vurmakta zorlanmayacağı için her zaman saldırgan bir strateji izliyor. Konuyla ilgili makaleye takip eden adresten ulaşabilirsiniz: https://storage.googleapis.com/deepmind-media/papers/multi-agent-rl-in-ssd.pdf


Yazar: Gürkan Caner Birer, TÜBİTAK Bilim ve Teknik Dergisi, Mart 2017, s.47.