Yapay zeka uygulamaları her alanda gelişse de, yazılım hatalarını bulma ve düzeltme konusunda sınıfta kaldı. Stanford Üniversitesi ve UC Berkeley araştırmacıları, GPT-4 gibi büyük dil modellerini kullanarak kodlardaki hataları düzeltme testleri yaptı. Ancak sonuçlar, insan geliştiricilerin hâlâ çok daha başarılı olduğunu ortaya koydu. Araştırmacılar, yapay zekâ modellerinin hata ayıklama sürecinde çoğu zaman başarısız olduğunu belirtiyor. Modeller, hata mesajlarını doğru yorumlayamıyor ve çözüm üretirken yanlış yönlendirmeler yapabiliyor. Hatta bazı durumlarda, çalışan kodu bozdukları da gözlemlendi.
Yapay Zeka Hata Ayıklamada Neden Güvenilir Değil?
Yapılan testlerde, GPT-4 tabanlı yapay zeka sistemleri Visual Studio Code gibi profesyonel araçlara entegre edilerek kullanıldı. Sisteme test araçları, hata mesajları ve örnek veri setleri gibi birçok destekleyici kaynak verilmesine rağmen, çözümlerin doğruluğu beklentinin altında kaldı. Araştırmaya göre, bu modellerin doğru çözüm üretebilme oranı sadece yüzde 30 civarında.
Araştırmacılar, yapay zekânın özellikle karmaşık mantık hatalarını anlamakta zorlandığını ifade ediyor. İnsan geliştiriciler, kodun amacını kavrayarak daha doğru çözümler sunarken, yapay zeka yalnızca yüzeysel verilerle hareket ediyor. Bu nedenle hata mesajlarını yorumlama ve gerekli düzeltmeleri yapma konusunda yetersiz kalıyor.
Bulgular, yapay zekanın henüz yazılım geliştirme süreçlerinde bağımsız bir aktör olamayacağını gösteriyor. Araştırmacılar, ilerleyen dönemlerde bu modellerin eğitim süreçlerinin iyileştirilmesi gerektiğini belirtiyor. Ancak şu an için, yapay zekanın hata ayıklama gibi kritik görevlerde yalnız başına kullanılmasının güvenli olmadığı vurgulanıyor.
Yorum Yap