OpenAI’ın Botları Bir Web Sitesini Çökertti

OpenAI'ın tarama botlarının yoğun sunucu isteği göndermesi sonucunda bir şirketin web sitesi çöktü.

OpenAI'ın Botları Bir Web Sitesini Çökertti

Triplegangers CEO’su Oleksandr Tomchuk, şirketinin e-ticaret sitesinin çöktüğü konusunda uyarıldı. Bu bir tür DoS (Servis Dışı Bırakma Saldırısı) gibi görünüyordu ama gerçek kısa bir sürenin ardından ortaya çıktı.

Olayın arkasında OpenAI’ın tarama botu olduğu ve hiç ara vermeksizin web sitesinin tamamını kazımaya çalıştığı öğrenildi.

Tomchuk’ın TechCrunch’a yaptığı açıklamaya göre şirketin 65 binden fazla ürünü var, bunların her biri için ayrı sayfa mevcut ve her sayfada en az üç fotoğraf bulunuyor.

OpenAI, bütün bunları -sayısız fotoğraf ve ayrıntılı açıklamalardan bahsediyoruz- toplamaya çalışan on binlerce sunucu isteği gönderdi. Yapay zeka girişimi, veri kazıma için 600 IP adresi kullandı.

Tomchuk, OpenAI botlarının web sitesini kazımak için kullandığı IP adresleri hakkında “Hâlâ geçen haftaki olay geçmişini analiz ediyoruz. Belki de çok daha fazladır” dedi. “Tarayıcıları sitemizi ezip geçiyordu. Bu temelde bir DDoS saldırısıydı.”

Triplegangers’ın web sitesi işinin temelini oluşturuyor. Ellerden saça kadar her şeyi içeren 3 boyutlu dosyaların yanı sıra fotoğrafları da 3D sanatçılara, video oyunu geliştiricilerine ve ihtiyacı olan diğer müşterilerine satıyor.

Web sitesinde botların görüntüleri izinsiz almasını yasaklayan hizmet şartları sayfası var ama bu pek işe yaramadı. Web sitelerinin OpenAI’ın tarama botunun web sitesindeki verileri kazımasını engelleyen etiketler içeren, düzgün ayarlanmış bir robots.txt dosyası kullanması gerekiyor.

OpenAI’a göre tarama botları bu etiketlere dikkat ediyor ve o web sitesinden veri kazımıyor ancak botların güncellenmiş robots.txt dosyasını taramasının 24 saate kadar sürebileceği konusunda da uyarıyor.

Triplegangers’ın Maliyetleri Artabilir

OpenAI’ın botlarının açgözlü davranışı, şirkete sadece geçici erişim sorunu yaşatmakla sınırlı kalmadı. Tomchuk, bottan gelen yoğun sunucu isteğinin maliyeti de arttırmasını bekliyor.

Bu arada robots.txt aslında çok da geçerli olmayabiliyor. Şirketlerin inisiyatifine kalmış bir şey. Birçok yapay zeka şirketi, burada belirtilen etiketlere uysa da bazıları bunlara dikkat etmiyor. Hatta geçen yıl Wired, Perplexity’nin buna uymadığına işaret eden bir haber yayına almıştı.

Exit mobile version