Dünyada yüz milyonlarca insanın tavsiye almak için yapay zeka sohbet botlarına yönelmesi, teknoloji şirketlerinin sağlık sorularına özel olarak yanıt veren programlar geliştirmesini neredeyse kaçınılmaz hâle getirdi.

Ocak ayında OpenAI, sohbet botunun yeni bir sürümü olan ChatGPT Health’i tanıttı. Şirket, bu aracın kullanıcıların tıbbi kayıtlarını, sağlık ve iyilik hâli uygulamalarından gelen verileri ile giyilebilir cihazlardan elde edilen bilgileri analiz ederek sağlık ve tıpla ilgili soruları yanıtlayabildiğini belirtiyor.

Program şu anda bir bekleme listesiyle sunuluyor. Yapay zekâ alanındaki rakip şirket Anthropic ise Claude adlı sohbet botunun bazı kullanıcılarına benzer özellikler sağlamaya başladı.

Her iki şirket de “büyük dil modeli” olarak bilinen bu sistemlerin profesyonel sağlık hizmetinin yerini tutmadığını ve tıbbi tanı koymak amacıyla kullanılmaması gerektiğini özellikle vurguluyor. Euronews haberine göre, buna karşın sohbet botlarının karmaşık tahlil sonuçlarını özetleyip açıklayabileceği, kullanıcıların doktor randevularına hazırlanmasına yardımcı olabileceği ya da tıbbi kayıtlar ve uygulama verileri içinde gizli kalmış önemli sağlık eğilimlerini analiz edebileceği ifade ediliyor.

Ancak asıl soru şu: Bu sohbet botları sağlık verilerini ve hastalıkları analiz etmede ne kadar güvenli ve ne kadar isabetli? Ve gerçekten ne ölçüde güvenilebilir?

Sağlığınız hakkında bir sohbet botuyla konuşmadan önce dikkate almanız gereken bazı noktalar var:

En yeni sohbet botlarının önemli avantajlarından biri, reçeteler, yaş bilgisi ve doktor notları gibi kullanıcıların tıbbi geçmişini dikkate alarak soruları bağlam içinde yanıtlayabilmeleri.

Tıbbi verilerinize erişim izni vermemiş olsanız bile, Robert Wachter ve diğer uzmanlar daha sağlıklı yanıtlar alabilmek için sohbet botlarına mümkün olduğunca ayrıntılı bilgi verilmesini öneriyor. Bu sayede sistemler, belirtileri ve soruları daha doğru bir çerçeve içinde değerlendirebiliyor.

Endişe verici belirtileriniz varsa yapay zekayı es geçin

Robert Wachter ve diğer uzmanlar, bazı durumlarda insanların sohbet botlarını tamamen devre dışı bırakıp derhal tıbbi yardım alması gerektiğinin altını çiziyor. Nefes darlığı, göğüs ağrısı ya da şiddetli baş ağrısı gibi belirtiler bir tıbbi acil duruma işaret edebilir.

Stanford University’den Lloyd Minor’a göre ise daha az acil durumlarda bile hasta ve doktorların yapay zeka programlarına “belirli bir doz sağlıklı kuşkuculukla” yaklaşması gerekiyor.

Stanford University School of Medicine dekanı Minor, “Söz konusu ciddi bir tıbbi karar ya da sağlığınızla ilgili daha küçük bir karar bile olsa, asla yalnızca bir büyük dil modelinden aldığınız bilgilere dayanmanız gerektiğini düşünmemelisiniz” diyor.

Örneğin Polikistik Over Sendromu gibi daha yaygın görülen durumlarda bile hastalığın kişiden kişiye çok farklı seyredebilmesi ve bunun tedavi planlarını doğrudan etkileyebilmesi nedeniyle, gerçek bir sağlık profesyoneline danışmak çoğu zaman en doğru yol olarak görülüyor.

Herhangi bir sağlık verisi yüklemeden önce mahremiyetinizi düşünün

Yapay zekâ sohbet botlarının sunduğu pek çok avantaj, kullanıcıların kişisel tıbbi bilgilerini paylaşmasına dayanıyor. Ancak bir yapay zeka şirketiyle paylaşılan verilerin, ABD’de hassas sağlık bilgilerinin korunmasını düzenleyen federal gizlilik yasalarının kapsamına her zaman girmediğini bilmek önemli.

Genellikle Health Insurance Portability and Accountability Act (HIPAA) olarak bilinen bu yasa, tıbbi kayıtları izinsiz biçimde ifşa eden doktorlar, hastaneler, sigorta şirketleri ya da diğer sağlık hizmeti sağlayıcıları için para cezaları ve hatta hapis yaptırımı öngörüyor. Ancak bu düzenleme, sohbet botu geliştiren teknoloji şirketleri için doğrudan geçerli değil.

Lloyd Minor bu farkı şöyle açıklıyor: “Bir kişi tıbbi dosyasını bir büyük dil modeline yüklediğinde, bu onu yeni bir doktora vermekten çok farklıdır. Tüketicilerin gizlilik standartlarının tamamen farklı olduğunu anlaması gerekiyor.”

Öte yandan OpenAI ve Anthropic, kullanıcıların sağlık bilgilerinin diğer veri türlerinden ayrı tutulduğunu ve ek gizlilik önlemlerine tabi olduğunu belirtiyor. Şirketlere göre bu veriler modellerin eğitimi için kullanılmıyor; kullanıcıların sağlık bilgilerini paylaşması açık onaya bağlı ve istedikleri anda bu bağlantıyı kesmeleri mümkün.

Alzheimer’da hafıza kaybını yavaşlatmaya yönelik yeni araştırma
Alzheimer’da hafıza kaybını yavaşlatmaya yönelik yeni araştırma
İçeriği Görüntüle

Yapay zekaya yönelik büyük heyecana rağmen, bu teknolojinin bağımsız biçimde test edilmesi hâlâ erken aşamada. İlk araştırmalar, ChatGPT benzeri programların ileri düzey tıp sınavlarında oldukça yüksek başarı gösterebildiğini; ancak gerçek kullanıcılarla etkileşime girdiklerinde sık sık zorlandıklarını ortaya koyuyor.

University of Oxford tarafından 1.300 katılımcıyla yürütülen yakın tarihli bir araştırma, varsayımsal sağlık sorunlarını değerlendirmek için yapay zeka sohbet botlarını kullanan kişilerin; çevrimiçi arama motorlarına başvuranlar ya da kendi muhakemelerine güvenenlere kıyasla daha iyi kararlar vermediğini gösterdi.

Buna karşılık, tıbbi senaryolar kapsamlı ve yazılı biçimde sunulduğunda sohbet botları altta yatan hastalığı vakaların yaklaşık yüzde 95’inde doğru tespit edebildi.

Çalışmanın başyazarı, Oxford Internet Institute’nden Adam Mahdi, sorunun asıl kaynağını şöyle açıklıyor: “Problem orada değildi. İşlerin dağıldığı nokta, gerçek katılımcılarla etkileşim sırasında oldu.”

Mahdi ve ekibi bir dizi iletişim sorunu tespit etti. Kullanıcılar çoğu zaman sağlık sorunlarını doğru tanımlayabilmek için sohbet botlarına yeterli ayrıntıyı vermedi. Öte yandan yapay zeka sistemleri de sık sık doğru ve yanlış bilgileri aynı yanıt içinde sunarak kullanıcıların bunları ayırt etmesini zorlaştırdı.

Araştırmacılar ayrıca, 2024’te yürütülen bu çalışmada ChatGPT Health gibi en yeni sohbet botu sürümlerinin kullanılmadığını da özellikle not düşüyor.

İkinci bir yapay zeka görüşü işe yarayabilir

Sohbet botlarının ek sorular sorarak kullanıcılardan kritik ayrıntıları ortaya çıkarabilme becerisi, Robert Wachter’ın geliştirilmesi gerektiğini düşündüğü alanlardan biri.

Wachter, “Bu araçlar hastalarla etkileşime girip sorularıyla ve yanıtlarıyla biraz daha doktorvari bir hale geldiğinde işte o zaman gerçekten iyi olacaklar,” diyor.

Şimdilik alınan bilgiden daha emin olmanın yollarından biri ise, tıpkı başka bir doktordan ikinci görüş almak gibi, birden fazla sohbet botuna danışmak.

“Bazen bazı bilgileri ChatGPT’ye, bazılarını ise Gemini’ye giriyorum,” diyen Wachter sözlerini şöyle sürdürüyor: “İkisi de aynı sonuca vardığında bunun doğru yanıt olduğundan biraz daha emin oluyorum.”