Sağlık sektörünün yapay zeka sınavı

Sağlık sektörünün yapay zeka sınavı
Yayınlama: 23.02.2026
A+
A-

Sağlık alanında yapay zeka uygulamaları hızla yaygınlaşırken, veri ön yargısı, mahremiyet ve hukuki sorumluluk tartışmaları da aynı hızla derinleşiyor.

Yapay zeka uzmanı, eğitim teknoloğu ve teknoloji danışmanı Doç. Dr. Agah Tuğrul Korucu, AA muhabirine yaptığı açıklamada, medikal yapay zekanın sunduğu büyük potansiyelin, ancak güçlü bir etik ve yönetişim çerçevesiyle güvenli şekilde hayata geçirilebileceğini belirtti.

Korucu, sağlıkta yapay zeka için “bias” yani veri ön yargısının, teorik bir risk değil, doğrudan hasta güvenliğini ilgilendiren pratik bir soruna karşılık geldiğini söyledi.

Modelin öğrendiği dünyanın, eğitildiği verinin temsil ettiği dünya olduğunu vurgulayan Korucu, belirli yaş gruplarının, sosyoekonomik kesimlerin ya da coğrafi bölgelerin eksik temsil edilmesi durumunda hataların sistematik şekilde üretilebileceğine dikkati çekti.

Ulusal ölçekte toplanan e-Nabız verilerinin, Türkiye için önemli bir stratejik avantaj sunduğunu aktaran Korucu, bu potansiyelin doğru işlenmediğinde risk doğurabileceğini dile getirdi.

e-Nabız’ın devasa bir veri havuzu sunduğunu, ancak ham verinin tek başına değer üretmeyeceğini kaydeden Korucu, “e-Nabız verileri Türkiye için çok büyük bir stratejik avantajdır, ancak ham veri tek başına değer üretmez. Veri standartları, kalite kontrolü, etik ve hukuki çerçeve oluşturulmadan kullanıldığında, ölçek büyüdükçe hata da büyüyebilir.” ifadesini kullandı.

Veri kalitesi ve mahremiyet en kritik başlıklar

Günümüzde medikal yapay zekada başlıca handikaplar veri kalitesi, seçilim ön yargısı, etiket yanlılığı ve mahremiyet riskleri olarak sıralanıyor.

Agah Tuğrul Korucu, eksik ya da hatalı kodlanmış verilerin modeli yanıltabileceğini, farklı hastanelerdeki kayıt alışkanlıkları ve cihaz farklılıklarının “gürültü” oluşturabildiğini vurguladı. Korucu, bu nedenle ortak veri modeli, terminoloji uyumu ve kurum bazlı kalite metriklerinin şart olduğunu ifade etti.

Mahremiyet boyutunun ise en az teknik doğruluk kadar önemli olduğunu dile getiren Korucu, sağlık verilerinin özel nitelikli veri kapsamında olduğunu ve yetkisiz erişim riskinin hem etik hem de hukuki sonuçlar doğurabileceğini aktardı. Korucu, anonimleştirme, güvenli analiz ortamları ve erişim denetim mekanizmalarının zorunluluk taşıdığını kaydetti.

Korucu, “Sağlıkta yapay zeka için veri ön yargısı teorik bir risk değil, doğrudan hasta güvenliğini ilgilendiren pratik bir sorundur. Model, hangi verilerle eğitildiyse dünyayı o çerçevede öğrenir, eksik ya da dengesiz temsil edilen gruplarda hata ihtimali artar.” değerlendirmesinde bulundu.

Görüntülemede “ikinci göz”, karar destek rolü

Radyoloji ve patoloji gibi alanlarda yapay zekanın çoğunlukla “ikinci göz” ya da triyaj aracı olarak değer ürettiğini ifade eden Korucu, sistemlerin normal olasılığı yüksek görüntüleri ayırarak ya da şüpheli alanları işaretleyerek iş yükünü azalttığını anlattı.

Bu dönüşümün hasta ve hekim ilişkisini iki yönlü etkileyebileceğini belirten Korucu, sürecin doğru yönetilmesi halinde hem raporlama süresinin kısalacağını hem de belirsizliğin azalacağını vurguladı.

Korucu, “Radyoloji ve patolojide yapay zeka, hekimin yerini alan değil, hekime ikinci bir göz sağlayan karar destek aracı olarak değerlidir. Doğru kullanıldığında hem tanı sürelerini kısaltır hem de hekimlerin hastaya ayırdığı zamanı artırır.” dedi.

Ancak otomasyon yanlılığı riskine işaret eden Korucu, “Buradaki kritik nokta, yapay zekanın rolünün hastaya şeffaf biçimde anlatılmasıdır, karar verenin hala hekim olduğu net biçimde korunmalıdır.” diye konuştu.

Hatalı klinik yönlendirmelerde hukuki ve etik sorumluluğun tek bir aktöre yüklenemeyeceğini dile getiren Korucu, akademik literatürde katmanlı sorumluluk modelinin benimsendiğini hatırlattı.

Geliştiricilerin doğrulama ve risk yönetiminden, sağlık kurumlarının entegrasyon ve izlem süreçlerinden, klinisyenlerin ise nihai klinik kararı gerekçelendirmekten sorumlu olduğunu vurgulayan Korucu, esas hedefin hata olduktan sonra suçlu aramak değil, hatayı baştan azaltacak mekanizmaları kurmak olduğunu söyledi. Korucu, sözlerini şöyle sürdürdü:

“Akademik dünyada baskın görüş, yapay zeka kaynaklı hatalarda sorumluluğun tek bir tarafa yüklenemeyeceği yönündedir. Geliştirici, sağlık kurumu ve klinisyen arasında paylaşılan, katmanlı bir sorumluluk modeli benimsenmektedir. Esas hedef, hata olduktan sonra suçlu aramak değil, hatayı en baştan azaltacak yönetişim, doğrulama ve insan gözetimi mekanizmalarını kurmaktır.”

Genomik ve yapay zeka: 10 yılda dönüşüm

Korucu, önümüzdeki 10 yılda genomik veriler ile yapay zekanın birleşiminin kişiselleştirilmiş tıpta önemli dönüşümler yaratabileceğini belirtti.

Agah Tuğrul Korucu, poligenik risk skorları ve klinik verilerle kişiye özel tarama aralıklarının belirlenebileceğini, farmakogenomik yaklaşımlarla doğru ilacın doğru hastaya daha erken verilebileceğini, nadir hastalıklarda ise tanı süresinin kısalabileceğini ifade etti.

Ancak genomik verilerin en hassas veri türlerinden biri olduğuna dikkati çeken Korucu, eşit temsil ve güçlü mahremiyet altyapısının bu dönüşüm için vazgeçilmez olduğunu şöyle aktardı:

“Önümüzdeki 10 yılda genomik verilerle yapay zekanın birleşimi, kişiye özel risk tahmini, doğru ilacın doğru hastaya verilmesi ve nadir hastalıkların daha erken tanınması açısından devrimsel sonuçlar doğurabilir. Ancak genomik veriler en hassas veri türleri arasındadır, bu dönüşüm ancak güçlü etik, mahremiyet ve veri güvenliği altyapılarıyla mümkün olabilir.”

Türkiye için öncelikli alanlar

Korucu, Türkiye’de medikal yapay zekada öncelikli alanların radyoloji ve patolojide triyaj sistemleri, yoğun bakımda erken uyarı mekanizmaları ve kronik hastalık yönetimi olması gerektiğini belirtti. Agah Tuğrul Korucu, ayrıca klinik metinlerden yapılandırılmış bilgi çıkarımı ve operasyonel verimlilik uygulamalarının da yüksek etki potansiyeline sahip olduğunu kaydetti.

Korucu, “Ama her model için vazgeçilmez şart, gerçek klinik ortamda test edilmesi ve farklı hasta gruplarında güvenli çalıştığının gösterilmesidir.” dedi.

Yapay zekanın hekimlerin yerini alacağı yönündeki tartışmaların bilimsel gerçeklikle örtüşmediğini belirten Korucu, en gerçekçi modelin “yapay zeka destekli hekim” olduğunu ifade ederek, “Bugün için yapay zekanın hekimlerin yerini alması değil, hekimleri daha güçlü ve etkili hale getirmesi söz konusudur. Nihai klinik karar, sorumluluk ve hasta ile güven ilişkisi insan hekimde kalmalıdır. Geleceğin modeli ‘yapay zeka destekli hekim’dir, teknoloji kararları hızlandırır, hekim ise kararın sahibidir.” diye konuştu.

Bir Yorum Yazın

Ziyaretçi Yorumları - 0 Yorum

Henüz yorum yapılmamış.

PHP Saat: 2026-02-23 17:49
WP Saat: 2026-02-23 17:49