Chatbotlar Hayat Kurtarıcı mı Yoksa Tehlikeli mi?

Chatbotlar Hayat Kurtarıcı mı Yoksa Tehlikeli mi?
Yapay zeka sohbet robotları, doktora ulaşmanın zorlaştığı modern dünyada birçok kişi için ilk başvuru noktası haline geldi. Manchester'dan Abi gibi sağlık kaygısı yaşayan bireyler, internet aramalarının korkutucu sonuçları yerine yapay zekanın kişiselleştirilmiş ve destekleyici dilini tercih ediyor. Ancak uzmanlar, ChatGPT, Gemini ve Grok gibi araçların tıbbi sınavlarda başarılı olsalar bile, gerçek hayattaki hasta etkileşimlerinde "kendinden emin ama yanlış" yanıtlar vererek hayati riskler oluşturabileceği konusunda ciddi uyarılarda bulunuyor.


Oxford Üniversitesi tarafından yapılan kapsamlı bir araştırma, yapay zekanın "insan faktörü" ile karşılaştığında nasıl çuvalladığını gözler önüne serdi. Doktorlar tarafından hazırlanan net senaryolarda yapay zeka %95 oranında isabetli kararlar verirken, gerçek kullanıcılarla yapılan görüşmelerde doğruluk oranı %35'e kadar düştü. Bunun temel sebebi, insanların bilgileri parça parça vermesi, önemli detayları atlaması veya dikkatlerinin dağılması. Örneğin, beyin kanaması gibi acil müdahale gerektiren bir durumun, kullanıcının anlatım tarzına bağlı olarak yapay zeka tarafından "yatak istirahati" ile geçiştirilebildiği gözlemlendi.


Yapay zekanın en büyük risklerinden biri, yanlış bilgiyi son derece otoriter ve inandırıcı bir dille sunmasıdır. California'daki Lundquist Enstitüsü'nün yaptığı testlerde, sohbet robotlarının kanser tedavisi ve aşılar gibi kritik konularda zaman zaman bilim dışı yöntemleri (homeopati gibi) birer alternatifmiş gibi sunduğu saptandı. Araştırmacılar, bu sistemlerin bilgi üretmek için değil, dil kalıplarını tahmin etmek için tasarlandığını, bu yüzden de "halüsinasyon" görerek gerçek dışı bilgileri kesin doğrular gibi savunabildiklerini hatırlatıyor.


İngiltere'nin en üst düzey sağlık yetkilisi Prof. Sir Chris Whitty ve diğer tıp uzmanları, yapay zekanın bir doktorun yerini tutamayacağının altını çiziyor. Geleneksel internet aramalarında kullanıcılar NHS (Ulusal Sağlık Sistemi) gibi güvenilir kaynaklara yönelip bilginin doğruluğunu sorgularken, chatbotlarla kurulan "kişisel ilişki" illüzyonu, kullanıcının eleştirel filtresini devre dışı bırakabiliyor. Bu durum, özellikle acil durumlarda hastaların yanlış yönlendirilmesine ve hastanede boş yere vakit kaybedilmesine ya da tam tersi, hayati tehlikelerin gözden kaçırılmasına neden oluyor.


Sonuç olarak, OpenAI gibi teknoloji devleri de dahil olmak üzere tüm taraflar aynı noktada birleşiyor: Yapay zeka tıbbi bir teşhis aracı değil, yalnızca bir eğitim ve bilgi kaynağıdır. Uzmanlar, yapay zekadan alınan sağlık tavsiyelerine her zaman "şüpheyle" yaklaşılması ve profesyonel bir tıbbi görüşün yerini asla almaması gerektiğini vurguluyor. Sağlık gibi hata payı olmayan bir alanda, yapay zekanın sunduğu hızın, doğruluğun önüne geçmesine izin verilmemesi büyük önem taşıyor.


Bu haberi paylas:
Paylas