Google, 2018 yılında belirlediği yapay zeka kullanım ilkelerini değiştirdi. Şirket, bu ilkelerde yer alan “zarar verme potansiyeli taşıyan” uygulamalara yönelik yasağı kaldırarak, yapay zekanın silah geliştirme ve gözetim teknolojilerinde kullanılmasına kapı araladı. Bu karar, hem etik tartışmaları yeniden alevlendirdi hem de yapay zeka teknolojilerinin geleceği hakkında endişeleri artırdı.
Yapay Zeka ve Silah Teknolojisi
Google’ın 2018’de yayımladığı yapay zeka ilkelerinde, bu teknolojinin insanlara zarar verme potansiyeli olan silahlar veya uluslararası normları ihlal eden gözetim teknolojileri için kullanılmayacağı açıkça belirtilmişti. Ancak yeni düzenlemeyle bu kısıtlamalar kaldırıldı. Google DeepMind CEO’su Demis Hassabis ve teknoloji ve toplum birimi yöneticisi James Manyika tarafından açıklanan yeni prensipler, “demokrasilerin yapay zeka geliştirmede lider olması gerektiğini” vurguluyor ve özgürlük, eşitlik ve insan haklarına saygı gibi değerlere dayalı bir yaklaşımı benimsiyor.
Bu değişiklik, yapay zekanın askeri amaçlarla kullanımına karşı olan kesimlerin tepkisini çekti. Daha önce Google’ın etik yapay zeka ekibini birlikte yöneten Margaret Mitchell, bu düzenlemenin “insan hayatını doğrudan tehdit eden teknolojilerin geliştirilmesine” olanak tanıyabileceğini söyledi.
Google’ın bu kararı, yapay zeka teknolojilerinin etik kullanımı konusunda derin tartışmalara yol açtı. Nobel Fizik Ödülü sahibi Geoffrey Hinton, yapay zekanın kontrol edilemez hale gelerek insanlığı tehdit edebileceğini ve bu konuda ciddi önlemler alınması gerektiğini vurgulamıştı. Hinton, bu teknolojilerin insan zekasını aşabileceği ve büyük çaplı felaketlere yol açabileceği konusunda uyarılarda bulunuyor.
Google’ın bu adımı, yapay zekanın sınırlarını ve bu teknolojinin etik çerçevede nasıl kullanılacağını yeniden sorgulamamıza neden oluyor. Şirketin bu kararı, yapay zekanın geleceğiyle ilgili önemli soruları gündeme getirirken, kullanıcıların ve uzmanların tepkilerini toplamaya devam ediyor.
Yorum Yap