Cerrahın yanında görünmez bir dijital asistan var. Ancak ABD’de kullanılan TruDi Navigasyon Sistemi ile ilgili açılan davalar, bu dijital asistana dair güvenlik tartışmalarını yeniden alevlendirdi.

İddialar Ne?

TruDi sistemi, özellikle sinüs ve kafa tabanı cerrahisinde kullanılan bir navigasyon platformu. Ameliyat sırasında cerraha üç boyutlu konum bilgisi sunarak, aletlerin anatomik yapılara göre yerini gösteriyor. Bu sistemde yapay zekâ destekli yazılım bileşenleri de bulunuyor.

ABD’de açılan bazı davalarda şu iddialar yer alıyor:
• Yazılımın ameliyat sırasında hatalı koordinatlar gösterdiği
• Cerrahın aletin konumunu yanlış değerlendirmesine neden olduğu
• Bu durumun büyük damarların zarar görmesine yol açtığı
• Bazı hastalarda felç (inme) ve kalıcı nörolojik hasar geliştiği

Özellikle karotis arter gibi hayati damarların bulunduğu bölgelerde yapılan cerrahilerde milimetrik hata bile ağır sonuçlar doğurabiliyor. İddialara göre, ekrandaki yanlış yönlendirme bu kritik hatalara zemin hazırladı.

Üretici Firmalar Ne Diyor?

Cihazın üreticisi ve sistemi devralan şirketler ise suçlamaları reddediyor. Şirket açıklamalarında:
• Advers olay bildirimlerinin doğrudan yazılım hatasını kanıtlamadığı
• Cerrahi komplikasyonların çok faktörlü olabileceği
• Yapay zekâ sisteminin tek başına sorumlu tutulamayacağı

ifade ediliyor.

ABD Gıda ve İlaç Dairesi (FDA) kayıtlarında sistemle ilgili çeşitli olumsuz olay bildirimleri bulunduğu biliniyor. Ancak bu kayıtlar, tek başına yazılım arızasının kesinleştiği anlamına gelmiyor. Hukuki süreçler halen devam ediyor ve mahkeme kararıyla netleşmiş bir “yapay zekâ hatası” tespiti bulunmuyor.

Asıl Büyük Soru: Ameliyathanede Yapay Zekâ Ne Kadar Güvenli?

Bu olay, tek bir cihazdan daha büyük bir tartışmayı gündeme taşıdı:
• Yapay zekâ destekli tıbbi cihazlarda sorumluluk kime ait?
• Yazılım hatası mı, kullanıcı hatası mı?
• Sürekli öğrenen algoritmalar nasıl denetlenmeli?

Geleneksel tıbbi cihazlar sabit yazılımlarla çalışır. Ancak yapay zekâ tabanlı sistemler, veriyle evrilen ve bazen karmaşık karar destek mekanizmalarına sahip yapılardır. Bu durum, regülasyon ve sorumluluk alanında yeni gri bölgeler oluşturuyor.

Uzmanlara göre üç kritik başlık öne çıkıyor:
1. Şeffaflık: Algoritmanın nasıl çalıştığı anlaşılabilir olmalı.
2. İzlenebilirlik: Ameliyat sırasında verilen her dijital yönlendirme kayıt altına alınmalı.
3. İnsan Denetimi: Son karar her zaman cerraha ait olmalı, sistem yalnızca destek sunmalı.

Sonuç

Evet, TruDi sistemi hakkında ABD’de ciddi yaralanma iddialarıyla açılmış davalar bulunuyor. Ancak şu aşamada yazılımın hatalı çalıştığına dair kesinleşmiş bir yargı kararı yok.

Trafikte Yeni Dönem: Rekor Cezalar Yasalaştı
Trafikte Yeni Dönem: Rekor Cezalar Yasalaştı
İçeriği Görüntüle

Bu süreç, yapay zekânın sağlık alanındaki yükselişinin önünde bir fren değil; daha güçlü güvenlik standartları için bir uyarı niteliğinde.

Çünkü ameliyathanede hata payı yoktur. Orada algoritma değil, insan hayatı konuşur.