BİLİM

Bilgi Dünyasında Yeni Salgın: Yapay Zekâ Yamyamlığı ((AI Cannibalism)

Yapay zekâ teknolojileri hayatın her alanına hızla nüfuz ederken, araştırmacılar ve teknoloji uzmanları dikkat çekici bir risk hakkında uyarıyor: “yapay zekâ yamyamlığı.” İlk bakışta metafor gibi görünen bu kavram, aslında yapay zekâ sistemlerinin bilgi üretme biçiminde ortaya çıkabilecek ciddi bir bozulmayı anlatıyor.

Konuyla ilgili değerlendirmelerde bulunan Prof. Dr. Ethem Güneren, yapay zekâ modellerinin kendi ürettikleri içeriklerle yeniden eğitilmeye başlamasının uzun vadede bilginin güvenilirliğini zayıflatabileceğini söyledi. Güneren’e göre yapay zekâ sistemleri her zaman kusursuz veri üretmiyor ve bu hatalar başka sistemler tarafından tekrar kullanıldığında büyüyerek yayılabiliyor.

Yapay zekâ tarafından üretilen metinler, cevaplar, kodlar ve makaleler internet ortamında giderek daha fazla yer kaplıyor. Bu içeriklerin önemli bir bölümü yeni nesil yapay zekâ modellerinin eğitiminde kullanılan veri havuzuna da giriyor. Böylece sistemler dolaylı biçimde kendi ürettikleri içeriklerle beslenmeye başlıyor.

Prof. Dr. Güneren, bu sürecin hata oranlarını katlayarak artırabileceğine dikkat çekerek, “Bir yapay zekâ çıktısında belirli oranda eksik ya da yanlış bilgi bulunabilir. Bu içerik başka bir model tarafından kaynak olarak kullanıldığında hatalar yeni metne taşınır. Üstelik ikinci model de kendi üretim hatalarını ekler. Böylece her yeni üretimde sapma oranı biraz daha büyür” dedi.

Uzmanlara göre bu durum birkaç nesil boyunca devam ettiğinde “model collapse” olarak adlandırılan bir bozulma süreci ortaya çıkabiliyor. Bu aşamada sistemler gerçek dünyadaki nadir ve özgün verileri giderek daha az temsil etmeye başlıyor. Üretilen içerikler daha tekdüze, daha yüzeysel ve birbirine daha çok benzeyen bir hale geliyor.

Güneren, sürecin matematiksel olarak bileşik faiz mantığıyla büyüyebileceğini belirterek, başlangıçta küçük görünen hata oranlarının zamanla ciddi boyutlara ulaşabileceğini ifade etti. Bazı teorik hesaplamalara göre, yapay zekâ sistemlerinin birbirini beslediği uzun bir üretim zincirinde bilgi bozulmasının çok yüksek seviyelere çıkması mümkün.

İnternet ortamında yapay zekâ tarafından üretilmiş içeriklerin hızla çoğalması, teknoloji şirketlerini de yeni önlemler almaya yöneltiyor. Birçok şirket artık eğitim verilerini daha sıkı filtreliyor, sentetik veriyi dikkatle ayıklıyor ve mümkün olduğunca insan tarafından doğrulanmış içerikleri tercih ediyor.

Prof. Dr. Ethem Güneren’e göre yapay zekâ teknolojileri büyük fırsatlar sunmaya devam edecek. Ancak sistemlerin sağlıklı gelişebilmesi için veri kalitesinin korunması hayati önem taşıyor. “Yapay zekâ güçlü bir araçtır, fakat kendi ürettiği verilerle kontrolsüz biçimde beslenmesi bilgi kalitesini zamanla zayıflatabilir. Bu nedenle insan denetimi ve güvenilir veri kaynakları her zamankinden daha değerli hale geliyor” dedi.

Uzmanlar, yapay zekâ yamyamlığı olarak tanımlanan bu döngünün kırılabilmesi için teknoloji geliştirme süreçlerinde temiz veri, insan doğrulaması ve dikkatli veri yönetimi ilkelerinin daha fazla önem kazanacağı görüşünde.