Yapay Zeka Kendi Kendini İmha Edebilir: Uzmanlar Uyarıyor

Yapay zeka teknolojisinde yeni bir tehlike ortaya çıktı. Uzmanlar, yapay zeka modellerinin kendi ürettikleri anlamsız verilerle eğitilmesi sonucu "çöküş" yaşayabileceğini ve kendilerini yok edebileceklerini belirtiyor.

Yapay zeka teknolojisinde yeni bir tehlike ortaya çıktı. Uzmanlar, yapay zeka modellerinin kendi ürettikleri anlamsız verilerle eğitilmesi sonucu “çöküş” yaşayabileceğini ve kendilerini yok edebileceklerini belirtiyor.

Nature dergisinde yayımlanan yeni bir araştırmaya göre, yapay zeka modelleri kendi kendilerini bozabilir ve orijinal içeriği sadece birkaç nesil içinde anlaşılmaz bir saçmalığa dönüştürebilir.

Oxford Üniversitesi’nden araştırmanın baş yazarı Ilia Shumailov, “Model çöküşü, modellerin sentetik veriler üzerinde ayrım gözetmeksizin eğitilmesi nedeniyle bozulduğu bir fenomeni ifade ediyor” dedi.

Araştırmacılar, büyük dil modelleri (LLM) gibi üretken yapay zeka araçlarının, eğitim veri setinin belirli bölümlerini göz ardı edebileceğini ve bu nedenle modelin yalnızca verilerin bir kısmı üzerinde eğitim almasına neden olabileceğini belirtti.

Shumailov, “Model çöküşünün erken aşamasında, modeller önce varyansı kaybeder ve azınlık verileri üzerindeki performanslarını yitirirler. Geç aşamada ise model tamamen çöker” açıklamasında bulundu.

Araştırma ekibi, modellerin giderek daha az doğru ve alakalı metinler üzerinde eğitim almaya devam ettikçe, bu özyinelemeli döngünün modelin bozulmasına neden olduğunu ortaya koydu.

Uzmanlar, yapay zeka içeriğinin interneti doldurmasıyla birlikte model çöküşü riskinin daha da kritik hale geldiğine dikkat çekiyor. Duke Üniversitesi’nden bilgisayar bilimcisi Emily Wenger, “İnternetteki yapay zeka üretimi içeriğin çoğalması, modellerin kendileri için yıkıcı olabilir” uyarısında bulundu.

Wenger ayrıca, “Çökmüş modeller, eğitim verilerindeki daha az yaygın öğeleri göz ardı eder ve bu nedenle dünyanın karmaşıklığını ve nüanslarını yansıtmakta başarısız olur. Bu durum, azınlık gruplarının veya görüşlerin daha az temsil edilmesi veya potansiyel olarak silinmesi riskini ortaya çıkarır” dedi.

Araştırmacılar, orijinal veri kaynağına erişimin ve özyinelemeli olarak eğitilmiş modellerde verilerin dikkatli bir şekilde filtrelenmesinin, modellerin yoldan çıkmasını önlemeye yardımcı olabileceğini vurguladı.

Ekip ayrıca, LLM’ler oluşturmada yer alan yapay zeka topluluğu genelinde koordinasyonun, bilgilerin modeller aracılığıyla beslenirken kökenini izlemede yararlı olabileceğini öne sürdü.

Araştırmacılar, “Aksi takdirde, teknolojinin kitlesel olarak benimsenmesinden önce internetten toplanan verilere veya insanlar tarafından ölçekli olarak üretilen verilere doğrudan erişim olmadan LLM’lerin yeni versiyonlarını eğitmek giderek zorlaşabilir” sonucuna vardı.

Exit mobile version