Başlıklar
- 1) “Dijital stajyer” dönemi: AI önce işi bölüyor
- 2) CDSS neyi kanıtladı, LLM neyi “henüz” kanıtlamadı?
- 3) Asıl tehlike: AI hata yapınca değil, biz ona inanınca
- 4) Regülasyon bir fren değil: “Güncelleme yönetimi”nin dili
- Ama… kontrolü kaybetmekten korkmak mantıksız mı?
- Şimdi ne yapmalıyız? (Hekim için değil, ürün insanı için)
- Sıkça Sorulan Sorular
- Klinik karar destek sistemi (CDSS) tam olarak nedir?
- LLM’ler doktorun yerini alacak mı?
- En büyük risk hallucination mı, otomasyon yanlılığı mı?
- Sonuç: AI hekimi değiştirmiyor, hekimliği yeniden düzenliyor
- İlgili Yazılar
- Kaynaklar

Bir paradoksla başlayalım: Sağlıkta yapay zeka (AI) en hızlı tanı koyduğu için değil, en sıkıcı işi yaptığı için yayılıyor. Doktorların çoğu bir “AI doktor” hayaliyle değil, biriken notlar, kodlar, raporlar ve bitmeyen ekranlarla boğuştuğu için AI’a kapı aralıyor. Hatta 2024’te yapılan bir ankette, hekimlerin %66’sı klinik pratiklerinde bir şekilde AI kullandığını söylüyor; bu oran 2023’te %38’di. Bir yılda. (Evet, bu kadar hızlı.) Bu yazıda asıl dönüşümün nerede olduğunu konuşacağız: AI, hekimi “yerine” değil, hekimliğin iş akışına yerleşiyor.
1) “Dijital stajyer” dönemi: AI önce işi bölüyor
Sağlıkta AI’ı anlamanın en iyi metaforu şu: AI, hasta dosyasını sizden önce okuyan dijital bir stajyer gibi. Hızlı okur, özet çıkarır, kılavuz (guideline) bulur, olası ilaç etkileşimlerini işaretler. Ama tek başına ameliyata sokmazsınız. Çünkü “ikna edici” olmak, “doğru” olmak değildir.
Bu ayrım sahada da görünüyor. Aynı AMA araştırması, doktorların AI’ı en çok idari yükü azaltmak için fırsat gördüğünü söylüyor: 2024’te hekimlerin %57’si “administrative burden” için AI’ın faydalı olacağını belirtiyor. Yani ilk büyük dalga “diferansiyel tanı” değil; dokümantasyon otomasyonu.
Somut örnek: “ambient scribe” denilen araçlar. Muayene sırasında konuşulanları (izin/veri politikalarıyla) dinleyip, hekim notunu taslaklayan sistemler. Burada kazanım, sihirli bir teşhis değil; zihinsel yük ve zaman. Hekimler için “AI” kelimesi çoğu zaman şu anlama geliyor: “Bu işi ben yazmayacağım.”
Buradaki kritik nokta şu: AI sahaya girerken, hekimliğin bir kısmını “otomatikleştiriyor” gibi görünse de aslında yaptığı şey, işi yeniden bölüştürmek. Bölüşüm nerede doğru yapılıyor, nerede tehlikeli hale geliyor? Bunun cevabı bizi ikinci başlığa götürüyor.
Yavruetre’de “görünmez teknoloji” fikrini seviyorsanız, şu yazı bu bölümle aynı damar: 2027 Senaryosu: “Yapay Zeka” Kelimesinin Unutulduğu Gün.
2) CDSS neyi kanıtladı, LLM neyi “henüz” kanıtlamadı?
Klinik karar destek sistemleri (Clinical Decision Support Systems / CDSS) yeni bir şey değil. 2000’lerin başından beri hastaneler, uyarılar, protokoller, ilaç etkileşim kontrolleri gibi “kural tabanlı” karar destekleriyle yaşıyor.
Ve literatürde eski ama çok önemli bir ayrım var: CDSS çoğu zaman hekim performansını iyileştiriyor; ama hasta çıktısı (mortalite, komplikasyon, yaşam kalitesi) tarafında sonuçlar her zaman net değil. Bu, 2005’teki geniş bir sistematik derlemenin ana mesajlarından biri: “Birçok CDSS klinisyen performansını artırır; hasta çıktıları daha az çalışılmış ve tutarsızdır.” Bu cümle sıkıcı görünür ama gerçekte bir alarm zili: “Yanlış alarm” bile hastayı etkiler, hekimi yorar, sistemi çökertebilir.
Şimdi bu yapının üstüne LLM’ler (Large Language Model) geldi. LLM’lerin farkı şu: CDSS “kural” sever, LLM “metin” sever. CDSS size “Potasyum düşük” diye uyarı verir. LLM size “Bu tablo şu 3 olasılığa benziyor, şunları kontrol et” diye paragraf yazar.
Ve evet, LLM’ler tıbbi sorularda etkileyici performanslar gösteriyor. Örneğin Med-PaLM 2 gibi çalışmalar, tıbbi soru-cevap benchmark’larında güçlü sonuçlar raporluyor. Ayrıca Liévin ve arkadaşları, LLM’lerin zor tıbbi sorularda “uzman bilgi + akıl yürütme” kullanabildiğini ve bazı testlerde %60+ seviyelere ulaşabildiğini gösteriyor.
Ama burada ikinci bir paradoks var: Sınavı geçmek, klinikte güvenli olmak demek değil. Klinik dünya “eksik veri”, “eşlik eden hastalıklar”, “dağılım kayması” (training’de görmediği hasta profili), “tek bir semptomun 10 farklı nedeni” gibi gerçeklerle dolu. LLM’ler bu karmaşada bazen doğruyken bazen çok ikna edici şekilde yanlış olabiliyor.
Tam da bu yüzden “dijital stajyer” metaforu işe yarıyor: Stajyerin çok hızlı okumasına sevinirsiniz. Ama notunu kontrol edersiniz.
Bu bölümün sayısal çıpası: FDA’nın veritabanına göre 7 Ağustos 2024 itibarıyla ABD’de pazara yetkilendirilmiş 950 AI/ML-enabled medikal cihaz var. Yani sağlıkta AI artık “pilot proje” değil, koca bir cihaz ekosistemi. Ama cihaz çok diye risk yok olmuyor. Hatta bazen risk ölçekle birlikte artıyor.

3) Asıl tehlike: AI hata yapınca değil, biz ona inanınca
AI tartışmalarında genelde “hallucination” konuşulur: modelin uydurması. Bu önemli, ama sağlıkta daha sinsi bir şey var: otomasyon yanlılığı (automation bias).
Otomasyon yanlılığı, insanın otomatik sistemlerin önerisine gereğinden fazla güvenmesi demek. CDSS “uyarı vermeyince” bir şeyi kaçırdığınızı sanmanız. Ya da LLM “emin bir dille” yazınca, sizin de istemsizce emin olmanız.

Bu konuda sağlık bilişimi literatüründe yıllardır birikmiş bir uyarı hattı var. Goddard ve arkadaşlarının otomasyon yanlılığı üzerine sistematik incelemesi, CDSS’in genel performansı artırsa bile “yeni hata türleri” yaratabileceğini vurguluyor. Yani sistem size yardım ederken, aynı anda sizi daha tembel bir doğrulayıcıya dönüştürebilir.
Şimdi bu risk, LLM’lerle daha da büyüyor. Çünkü LLM’ler sadece “uyarı” vermez; hikâye anlatır. Klinik karar da zaten çoğu zaman hikâyedir: semptomların, laboratuvarın, geçmişin bir araya gelmesi.
Ve “hikâye anlatan” bir model, yanlışsa bile ikna edici olabilir.
Burada çok rahatsız edici bir bulgu var: 2025’te yayımlanan bir çalışma, klinik karar destek senaryolarında LLM’lerin adversarial hallucination saldırılarına (prompt içine gömülen uydurma detaylar) karşı oldukça kırılgan olabildiğini gösteriyor. Yani sorun yalnızca modelin rastgele uydurması değil; sistemin kandırılabilmesi.
Kısa bir alıntı (akılda kalsın diye):
“Automation bias… new errors that CDSS can introduce.” — Goddard et al., (JAMIA systematic review)
Bu başlıktaki sayısal çıpa: “950 cihaz”ın büyüklüğü, riskin ölçeğini büyütüyor; “%66 hekim kullanıyor” verisi ise insan faktörünün artık teorik olmadığını gösteriyor. Bununla yaşamak zorundayız. Ama yönetebiliriz.
Nasıl? Üçüncü katmanla: regülasyon ve süreç disiplini.
4) Regülasyon bir fren değil: “Güncelleme yönetimi”nin dili
Sağlıkta AI’ın en zor cümlesi şu: Model kendini güncelliyor. Güncelleme, normal yazılım için bile riskli. Tıbbi cihaz için riskli. AI içinse, “performans arttı mı azaldı mı” sorusunu sürekli canlı tutuyor.
FDA’nın burada kritik bir yaklaşımı var: PCCP (Predetermined Change Control Plan). Kısaca: Üretici, cihazın/AI sisteminin gelecekte yapacağı değişiklikleri ve bu değişikliklerin nasıl doğrulanacağını önceden planlıyor. Bu, AI’ın “yaşayan yazılım” olmasına karşı geliştirilen bir yönetim dili.
FDA’nın 18 Ağustos 2025 tarihli rehberi PCCP’nin amacını şöyle çerçeveliyor: iteratif iyileştirmeyi desteklemek, ama güvenlik ve etkinliği korumak. Bu cümleyi bir “bürokrasi” gibi okumak kolay; ama aslında bir mühendislik gerçeğini söylüyor: Güvenlik, tasarımın bir çıktısıdır.
Buradaki sezgisel öneri şu: Klinik ortamda AI’ı “serbest bırakırsanız” değil, “kademeli devreye alırsanız” kazanırsınız.
Bu da pratikte şuna denk geliyor:
- Düşük riskli iş: not taslağı, kod önerisi, literatür taraması
- Orta riskli iş: hasta özetleme, triage önerisi (insan onayıyla)
- Yüksek riskli iş: tanı/tedavi önerisi (kanıt linki + ikinci doğrulama + audit log + kurumsal protokol)
Bu bölümün sayısal çıpası: FDA tarafında 2023’te 221 AI cihaz yetkilendirmesi gibi sıçramalar var. Bir ekosistem bu kadar hızlı büyürken, “güvenlik” tartışmasının da büyümesi kaçınılmaz.
Burada Türkiye bağlamına küçük bir not: Bizde tartışma genelde “hangi model daha iyi” seviyesinde kalabiliyor. Oysa sağlıkta asıl mesele, modelden çok kurumsal entegrasyon: veri kalitesi, süreç, sorumluluk, denetim. Bu “veri kalitesi” damarını ayrıca merak ediyorsanız: Veri Kalitesi mi Niceliği mi?
Ama… kontrolü kaybetmekten korkmak mantıksız mı?
Hayır, mantıksız değil.
Hacker News tarzı teknik topluluklarda sık çıkan bir itiraz var: “AI her şeyi ‘arka planda’ yaparsa, yanlış olunca kimi suçlayacağım?” Bu soru, aslında bir hukuk sorusu gibi görünür. Ama aynı zamanda bir psikoloji sorusu: sorumluluk dağılınca, dikkat dağılır.
Bir diğer korku daha var: “AI hız kazandıracak” söylemi, bazen sağlık sisteminin gerçek derdini maskeleyebilir. Daha hızlı not tutmak, daha fazla hasta bakmak için bir gerekçeye dönüşürse, doktor-hasta ilişkisinin insani tarafı ezilebilir. Bu eleştiri, son dönemde bazı etik/sosyolojik yazılarda sert biçimde gündeme geliyor.
Ve üçüncü bir korku: eşitsizlik ve önyargı. Veri eşitsizse, model eşitsiz. Bu yüzden “equity-first” gibi yaklaşımlar ve düzenleyici/kurumsal denetim çağrıları giderek yükseliyor.
Bu bölümde tavrımız net olmalı: Bu korkular “teknofobi” değil. Bunlar tasarım gereksinimi.
Çözüm, AI’ı ya tamamen reddetmek ya da tamamen teslim olmak değil. Çözüm, AI’ı hangi işte, hangi yetkiyle, hangi denetimle kullandığınızı açıkça tanımlamak.
Şimdi ne yapmalıyız? (Hekim için değil, ürün insanı için)
Bu yazıyı okuyanların önemli bir kısmı doktor değil; geliştirici, ürün yöneticisi, tasarımcı. O yüzden “pratik öneri”yi şu soruya göre yapalım: Sağlıkta AI/CDSS üreten ya da entegre eden biri, yarın neye bakmalı?
- “Karar” kelimesini bölün. “Karar destek” tek bir kutu değil. Dokümantasyon, triage, guideline surfacing, risk skorlama… Her biri farklı risk taşır.
- Kanıt bağını görünür yapın. LLM öneriyorsa, neden önerdiğini ve hangi kaynağa dayandığını kullanıcıya göstermek zorundasınız. “Sadece cevap” dönemi bitiyor. Bu zihniyet değişimini “ajanlar” dünyasında anlattığımız bir yazı var: Sadece Cevap Vermiyor, Görev Tamamlıyorlar: Yapay Zeka Ajanları
- Otomasyon yanlılığını “UX problemi” olarak düşünün. İyi tasarım, kullanıcının doğrulama davranışını kolaylaştırır. Kötü tasarım, kullanıcının “AI haklıdır” refleksini büyütür.
- Güncelleme stratejisini ürün stratejisinden ayırmayın. PCCP mantığını erken aşamada öğrenmek, “sonradan regülasyonla uğraşırız” demekten daha ucuzdur.
Sıkça Sorulan Sorular
Klinik karar destek sistemi (CDSS) tam olarak nedir?
Doktorun kararını “yerine geçmeyen”, ama uyarı/öneri/hatırlatma ile kararını destekleyen sistemlerdir. İlaç etkileşimi uyarıları bunun klasik örneğidir.
LLM’ler doktorun yerini alacak mı?
Yakın vadede daha olası senaryo şu: LLM’ler doktorun işinin parçalarını alacak (not, özet, literatür tarama), ama “nihai klinik karar” insan sorumluluğunda kalacak.
En büyük risk hallucination mı, otomasyon yanlılığı mı?
İkisi de. Hallucination “modelin hatası”; otomasyon yanlılığı “insanın hatası.” Sağlıkta tehlikeli olan, bu ikisinin birleşmesi.
Sonuç: AI hekimi değiştirmiyor, hekimliği yeniden düzenliyor
Sağlıkta yapay zeka tartışmasını “AI doktor olacak mı?” sorusuna sıkıştırınca, asıl dönüşümü kaçırıyoruz. Bugün sahada olan şey, hekimliğin iş akışının yeniden bölünmesi: bazı işler hızla otomatikleşiyor, bazı işler daha fazla doğrulama istiyor, bazı işler ise (insani temas gibi) daha kıymetli hale geliyor.
Evet, hekimlerin %66’sı AI kullanıyor olabilir. Evet, FDA veritabanında 950 AI/ML cihaz olabilir. Ama başarıyı belirleyecek şey sayı değil: hangi işin devredildiği ve hangi işin korunacağı.
Belki de “iyi AI”, en çok konuşulan AI değildir. En iyi AI, hastanede kimsenin “AI kullanıyoruz” diye toplantı yapmadığı gün başlar—çünkü sistem doğru yerde, doğru yetkiyle, doğru denetimle çalışıyordur.
Peki sizce sağlıkta AI’ın en doğru yeri neresi: notlarda mı, triage’da mı, kararın tam merkezinde mi?
İlgili Yazılar
- 2027 Senaryosu: “Yapay Zeka” Kelimesinin Unutulduğu Gün
- Sadece Cevap Vermiyor, Görev Tamamlıyorlar: Yapay Zeka Ajanları
- Veri Kalitesi mi Niceliği mi? (etiket sayfası)
Kaynaklar
- American Medical Association (AMA) – “2 in 3 physicians are using health AI—up 78% from 2023” (2025) https://www.ama-assn.org/practice-management/digital-health/2-3-physicians-are-using-health-ai-78-2023
- FDA – Artificial Intelligence-Enabled Medical Devices (AI-Enabled Medical Device List) https://www.fda.gov/medical-devices/software-medical-device-samd/artificial-intelligence-enabled-medical-devices
- MedTech Dive – “The number of AI medical devices has spiked in the past” (Oct 9, 2024) https://www.medtechdive.com/news/fda-ai-medical-devices-growth/728975/
- FDA – “Marketing Submission Recommendations for a Predetermined Change Control Plan for AI-Enabled Devices” (Aug 18, 2025) https://www.fda.gov/regulatory-information/search-fda-guidance-documents/marketing-submission-recommendations-predetermined-change-control-plan-artificial-intelligence
- Garg AX et al. – “Effects of computerized clinical decision support systems…” (BMJ, 2005) https://pubmed.ncbi.nlm.nih.gov/15767266/
- Goddard K et al. – “Automation bias: a systematic review…” (JAMIA, 2011/2012) https://pmc.ncbi.nlm.nih.gov/articles/PMC3240751/
- World Health Organization – “Ethics and governance of artificial intelligence for health” (GenAI/LMM guidance, 2025) https://www.who.int/publications/i/item/9789240084759
- Liévin V. et al. – “Can large language models reason about medical questions?” (Patterns, 2024) https://www.cell.com/patterns/fulltext/S2666-3899(24)00042-4
- Omar M. et al. – “LLMs are highly vulnerable to adversarial hallucination attacks during clinical decision support” (Communications Medicine, 2025) https://doi.org/10.1038/s43856-025-01021-3
- Singhal K. et al. – “Toward expert-level medical question answering with LLMs” (Nature Medicine, 2025) https://www.nature.com/articles/s41591-023-02661-2


