ChatGPT ve Dall-E’nin geliştiricisi olan OpenAI, Microsoft’un Bing’i yapay zekâ desteği ile rekabette öne geçirme çalışmaları hakkında ilk kez açık bir şekilde konuştu. Yapay zekâ araştırma şirketinin teknoloji devi Microsoft’un yanlış ve tuhaf yanıtlardan kaçınmak için GPT-4’ü Bing sohbet botuna yavaş entegre etmesi gerektiğini belirterek uyardığı öne sürüldü.
Wall Street Journal tarafından aktarılan bilgilere göre GPT-4’ün yayımlanmamış bir sürümüne dayanan bir sohbet botunu erkenden kullanıma sunmanın olumsuz risklerine değinen OpenAI, Microsoft’a yönelik birkaç önemli uyarıda bulundu.
Microsoft Tuhaf Yanıtların Farkındaydı
Teknoloji sektörünün öncülerinden biri olan Microsoft, Bing AI’ın gerçekten garip davrandığını ve halüsinasyon görme eğiliminde olduğunu sohbet botu henüz sınırlı olarak kullanılabilirken fark etmiş ve buna önlem olarak sohbet botuna konuşma sınırı getirmişti.
İlk başta bir oturumda çok az cevap verebilirken bugün tek bir oturumda Bing’in verdiği cevap sayısı 30’u buldu. Microsoft, konuşma sınırını yavaş yavaş arttırmaya devam ediyor. Öte yandan sohbet botunda hâlâ zaman zaman birtakım tuhaflıklar olduğu gözlemlenebiliyor.
Microsoft CEO’su Satya Nadella’ya dün Wired ile yaptığı röportajda “Microsoft onlarca yıldır yapay zekâya yatırım yapıyor. Sizin büyük bir dil modeliniz yok muydu? Neden OpenAI’a ihtiyaç duydunuz?” sorusu yöneltildi.
Nadella, bu soruya “Turing adlı bir model de dahil olmak üzere kendi çalışmalarımız vardı ama OpenAI’ın bizimle aynı şeyin peşinden gittiğini hissettim” diye yanıt verdi. Şirketin CEO’su Nadella, 5 farklı modeli eğitmeye çalışmak yerine bir platform etkisi elde etmek istendiğini söyledi ve OpenAI ile ortaklık kurmalarının sebebini de buna bağladı.
OpenAI’ın modelin temelini yaptığını, güvenlik de dahil olmak üzere bu temel üzerinden hareketle modeli geliştirdiklerini ifade eden Nadella, “Günün sonunda sadece rastgele şeyler yapan birçok ekip yerine disiplinle tek bir hedef doğrultusunda hareket etmek için derinden bağlı olan iki bağımsız şirketiz” dedi.
Yorum Yap