Tıpkı insan öğrenmesi metoduna benzer bir yöntemi kullanan yapay zeka, yapay zekanın geleceği ne olacak gibi sorular akılları kurcalamakla kalmıyor, insan geleceğini tehdit ettiği iddia edilen ilginç bir yönüyle de öne çıkıyor. İnsan beyninin problem çözme konusundaki becerisinin gizemi henüz çözülmeden, şimdi de öğrendiğini unutmayan ve aldığı bilgileri işleyebilen, yapay sinir ağları ile kendi kendine çıkarımlar yapabilen zeki bir oluşum söz konusu yapay zeka sayesinde. Bunlar heyecan veriyor olsa da bazı tehlikeler barındırdığına inananların sayısı da azımsanmayacak kadar fazla…
Akıllardaki sorulara doyurucu cevaplar vermek üzere kaleme aldığımız bu yazıda “yapay zeka ile ilgili bilinmesi gerekenleri” açıklamaya çalışacağız. İnsan beyni her ne kadar bilgisayarları üretmiş olsa da, bilgisayarlar bilgi depolama konusunda insan beyninden daha yüksek bir performansa sahipler. Makineler de insanın beden gücü ile kıyaslandığında 7/24 çalışabilme ve üretim yapabilme kapasiteleri ile insandan daha üstünler. Bunlara bir de insana has olan özelliklerin yokluğu eklendiğinde, merhamet-acıma, sevme gibi insani duygulardan yoksun olan makinelerin, günün birinde insanları yönetmesi düşüncesi, pek çok bilim insanının ve özellikle de pek çok sosyolog ve filozofun kabusu olmaya yetiyor.
Duygusuz makineler; insan kadar gizemli ve sürprizlerle dolu değiller. 1 ve 0 mantığını esas alarak çalışırlar ve yönetimde söz sahibi olduklarında, insan neslinin bu gezegende gereksiz bir canlı türü olduğuna karar verebilmeleri oldukça olasıdır. Kendi kendine kararlar verebilen yüksek teknolojilerle donatılmış makinelerle, hiçbir insan savaşamaz. Gerçek şu ki yapay zeka henüz emekleme aşamasında iken sadece insanlığa hizmet için kullanılıyorlar ve çok pratikler.
Yapay Zeka Nedir?
Bu kavramı on yıllar önce Alan Turing isimli bir mucit ortaya attı. Daha sonraları ise Stuart Russell ile beraber Peter Norvig yapay zeka üzerine heyecan verici yazılar yazdılar. Onlar yapay zekayı 2 farklı yaklaşımla ele aldılar. Birinci yaklaşım insan gibi düşünebilen pasif sistemler, ikinci yaklaşım insan gibi düşünüp davranabilen aktif sistemler olarak kategorize ettiler. Yapay zeka konusunda ideal yaklaşım da 2 farklı şekilde ele alındı. Rasyonel olarak düşünen sistemler ve rasyonel olarak hareket eden sistemler olarak yine 2 farklı yaklaşımla yapay zeka irdelendi.
AI algoritmaları, temel olarak problem çözmeye ( henüz yaratmaya değil) odaklı sistemler oluşturur. Şu an için, sağlık, ekonomi, askeri, eğitim araştırma alanlarında kullanılan yapay zeka, lojistik olarak destek sağlamakta ve pahalı araştırmalara, zaman kaybına girmeden gerçekçi raporlar sunarak gerçekçi öngörülerde bulunabiliyorlar.
İstenen raporların elde edilmesi için klasik bilimsel araştırma yöntemlerine gerek duyulmadan, para ve zaman harcanmadan, az insan kaynağı ile yüzde 99 başarılı ön görüler elde edilebiliyor, raporlar çıkarılabiliyor.
Amazon Alexa, Apple Siri ve IBM Watson çıkışları ile yapay zekanın sınırlarını zorluyorlar. Günümüzde sadece yapay zeka kavramı yok, yapay süper zeka kavramı da var (ASI). İnsan zekasına eşit düzeyde ve lojistik hizmetler için kullanılan, problem çözücü araçlar teorik AI olarak kategorize ediliyor.
Yapay Zeka Örnekleri
Günümüzde insanların erişemeyecekleri alanlara (okyanusların derinlikleri, yangın alanları, yer kabuğunun derinlikleri gibi) girebilen akıllı robotlar, cep telefonlarının yüksek çözünürlüklü kameraları, restoranlarda siparişleri getiren robotlar temel yapay zeka örnekleridir. Yapay zeka; makine öğrenmesi ve derin öğrenme kavramlarını da kapsamaktadır. Bu kavramları bir Venn şeması ile göstermek gerekirse size bir fikir verebilir.
Matlab programını kullananlar, yapay sinir ağları kavramını da çok iyi bilir ve kullanırlar. İşte bu programla, yapay sinir ağları kullanılarak yapılan şey; derin öğrenmeyi harekete geçirmektir. Önce programa veriler girilir ve bu verilerin mantıklı bir eşleştirmesi yapay sinir ağları tarafından yapılır. Birkaç dakika içinde de bilgisayarın işlemci gücüne göre sonuç raporları sunulur.
Yapay Zeka Kullanmanın Riskleri
Önyargılı sonuçlar üreten AI sistemleri manşetlerden inmiyor… Science dergisinde yayınlanan yakın tarihli bir araştırma, Amerika Birleşik Devletleri’nde her yıl milyonlarca insanı etkileyen sağlık hizmetlerinde kullanılan risk tahmin araçlarının önemli ırksal önyargılar sergilediğini gösterdi. Journal of General Internal Medicine’de yayınlanan bir başka araştırma ise önde gelen hastaneler tarafından böbrek nakli alıcılarına öncelik vermek için kullanılan yazılımda ırksal ayrımcılığın uygulandığını ortaya koydu.
Çoğu durumda sorun, yapay zekayı eğitmek için kullanılan verilerden kaynaklanıyor. Bu veriler önyargılıysa, AI önyargıyı daha da güçlendirebilir.
Örneğin Microsoft, Twitter kullanıcılarıyla etkileşim kurmak üzere bir sohbet robotunu eğitmek için tweet’leri (Twitter paylaşımları) kullandığında; kışkırtıcı, ırkçı mesajları nedeniyle ilgili çalışmayı bir gün sonra iptal etmek zorunda kaldı. Bununla birlikte eğitim verilerinden ırk veya cinsiyet gibi demografik bilgileri çıkarmak yeterli değildir, çünkü bazı durumlarda önyargıları düzeltmek için bu verilere ihtiyaç duyulur.
Teoride, tüm sonuçların belirli koşulları karşılamasını gerektiren bazı adalet kavramlarını yazılıma kodlamak mümkün olabilir. Amazon, koşullu demografik eşitsizlik adı verilen bir adalet metriğini deniyor mesela ve diğer şirketler de benzer metrikler geliştiriyor. Ancak buradaki handikap, üzerinde uzlaşılmış bir adalet tanımının ve hakkaniyete uygun sonuçları belirleyen genel koşullar hakkında kategorik olmanın mümkün olmaması. Dahası, herhangi bir durumdaki paydaşlar, adaletin ne olduğu konusunda çok farklı fikirlere sahip olabilir. Sonuç olarak, bunu yazılımda tasarlamaya yönelik her türlü girişim boşa çıkacaktır.
Önyargılı sonuçlarla uğraşırken, düzenleyiciler çoğunlukla standart ayrımcılıkla mücadele mevzuatına geri dönüyorlar. Aslında sorunlu kararlardan sorumlu tutulabilecek insanlar olduğu sürece bu uygulanabilir. Ancak AI’nın giderek süreçlere daha fazla katılmasıyla, bireysel hesap verebilirlik zayıflıyor. Daha da kötüsü, AI potansiyel önyargı ölçeğini de arttırıyor. Herhangi bir kusur milyonlarca insanı etkileyebiliyor, şirketleri tarihi oranlarda toplu davalara maruz bırakıp, itibarlarını riske atabiliyor.
Yapay Zekanın Geleceği
Önü tamamen açık ve gelişimi durdurulamayan bu teknoloji; insanların hayatlarını tehlikeli biçimde kolaylaştıracak. Büyük üretim merkezlerinde insan iş gücü yerine, daha az masraflı ve çok daha verimli akıllı makineler kullanılacak. Global ölçekte işsizlik artacak ve kritik görevlere getirilecek olan makineler; fantastik gelebilir ama Terminatör filmindeki gibi sahnelere belki yüz yıllar sonra yol açabilecek.
Yapay zekanın gelişimini durdurmak, emekleme aşaması olan şu anda bile mümkün görünmüyor. Yarı insan yarı makine ırkların türemesi uzak değil. Daha kötüsü; insanın soğuk ve duygusuz bir makine haline gelmesi de uzak bir olgu değil. Şimdilik lojistik destek amacı ile kullanılan yapay zeka ve yapay zekalı makineler; insanlığa konfor ve ilerleme sağlıyor. Ancak yapay zekanın bununla yetineceğini düşünmek, çok fazla iyimser bir yaklaşım olacaktır.
Şeffaflık: Neyin Yanlış Gittiğini Açıklamak
Tıpkı insan yargısı gibi, AI da yanılabilir. Algoritmalar kaçınılmaz olarak bazı haksız ve hatta güvensiz kararlar verecektir.
İnsanlar bir hata yaptığında, genellikle karar vericiye yasal cezalar yükleyebilecek bir soruşturma ile karşı karşıya kalırlar. Bu, şirketlerin veya topluluğun haksız kararları anlamasına ve düzeltmesine ve paydaşlarıyla güven inşa etmesine yardımcı olur. Öyleyse, AI’nın kararlarını da açıklamasını talep etmeli miyiz? Ve hatta bekleyebilir miyiz?
Düzenleyiciler kesinlikle bu yönde hareket ediyor. Örneğin GDPR, algoritmalar aracılığıyla “elde edilen kararın bir açıklamasını alma hakkını” zaten tanımlamaktadır ve AB, AI düzenleme teklifinde AI’ya olan güveni artırmada hesap verebilirliği kilit bir faktör olarak tanımlamıştır.
Ancak, neden-sonuç bilgimizin genellikle eksik olduğu otomatik kararlar için bir açıklama elde etmek ne anlama gelir? Durum bu olduğunda, sonuçlara nasıl ulaşıldığını açıklama yeteneğinin, sonuçları yeniden üretme ve ampirik olarak doğruluğunu doğrulama yeteneğinden daha az önemli olabileceğine dikkat çeken Aristoteles’ti.