Google’ın geliştirdiği yapay zeka tıbbi sohbet robotunun yeni versiyonu, akıllı telefon fotoğraflarını kullanarak deri döküntülerini teşhis edebiliyor ve birçok farklı tıbbi görüntüyü değerlendirebiliyor — bu da yapay zekânın hastalıkların nedenlerini belirlemedeki yeteneğini önemli ölçüde artırıyor.
Sisteminin önceki bir versiyonu, hem teşhis doğruluğu hem de hasta ile iletişim becerisi açısından doktorları geride bırakmıştı. Güncellenmiş versiyon, elektrokardiyogram (EKG) görüntüleri ve laboratuvar sonuçlarının PDF’leri gibi görselleri yorumlama konusunda da doktorlardan daha iyi performans gösterdi.
Articulate Medical Intelligence Explorer (AMIE) adı verilen ve henüz yalnızca deneysel aşamada olan sistem, 6 Mayıs’ta arXiv ön baskı sunucusunda yayımlanan bir makalede tanıtıldı. Henüz hakemli değerlendirmeden geçmedi. Görselleri ve klinik bilgileri bir araya getiren sistemlerin gelişimi hakkında konuşan, Stanford Üniversitesi Dijital Sağlık Merkezi direktörü Eleni Linos, bu tür sistemlerin “bir klinisyenin gerçekten nasıl düşündüğünü yansıtan bir yapay zekâ asistanına bizi daha da yaklaştırdığını” söylüyor (kendisi çalışmaya dahil değil).
Sağlık hizmeti simülasyonu
AMIE’nin yeni yeteneklerini test etmek için, hasta rolü oynayan 25 aktörle sohbet robotu ve bir aile hekimi arasında sanal görüşmeler gerçekleştirildi. Aktörler; çeşitli belirtiler, tıbbi geçmişler ve ilgili tıbbi görüntülerle birlikte 105 farklı tıbbi senaryoyu canlandırdı.
Her görüşmenin sonunda hem AMIE hem de doktor bir teşhis ve tedavi planı önerdi. Dermatoloji, kardiyoloji ve dahiliye alanlarından 18 uzmandan oluşan bir ekip, görüşmelerin dökümlerini ve raporları analiz ederek performansları değerlendirdi.
Genel sonuçlara göre, AMIE’nin teşhis doğruluğu insan doktorlara kıyasla daha yüksekti. Ayrıca AMIE’nin doğruluğu, düşük kaliteli görseller gibi sorunlardan daha az etkilendi.
Yapay zekâ doktoruna tıp fakültesi eğitimi
Sohbet robotunun güncel versiyonu, görselleri işleyebilen Google’ın büyük dil modeli Gemini 2.0 Flash üzerine inşa edildi. Araştırmacılar, bu modeli tıbbi amaçlara uyarlamak için, teşhis konuşmaları yapma ve klinik akıl yürütme becerisini geliştiren bir algoritma ekledi.
Sistemin, Gemini 2.0’ın orijinal sürümünden daha üstün olduğunu doğrulamak için model; hastayı, doktoru ve onların konuşmalarını değerlendiren üçüncü tarafı simüle eden diyaloğa sokuldu. Google DeepMind bilim insanı ve çalışmanın ortak yazarı Ryutaro Tanno, “Bu yöntemle, teşhis konuşmalarında doğru ve istenen davranışları modele kazandırabiliyorsunuz” diyor.
Bu yöntem, önceki versiyonlarda kullanılan ve özel tıbbi veri tabanlarıyla yeniden eğitim gerektiren yaklaşımlardan farklı — ki bu, Tanno’ya göre daha zahmetli bir süreçti. “Bu yöntem çok daha ucuz ve potansiyel olarak daha erişilebilir.”
Stanford’dan Linos, benzer senaryoların insan doktorları değerlendirmekte de kullanıldığını söylüyor. Ancak simülasyonların gerçek dünya sağlık hizmetlerinin karmaşıklığını tam olarak yansıtamadığını belirtiyor. “Doktorlar deneyim, sezgi ve fiziksel muayene yapma gibi kolayca taklit edilemeyecek unsurlar getirir.”
Tel Aviv Üniversitesi’nden dijital sağlık uzmanı Dan Zeltzer, sonuçların umut verici olduğunu ancak sistemin nasıl fayda sağlayacağına dair hâlâ belirsizlikler bulunduğunu belirtiyor. Ayrıca çalışmanın kodları ve kullanılan istemleri açıklamadığı için, diğer araştırmacıların sistemi tekrar üretmesinin veya üzerine inşa etmesinin mümkün olmadığını vurguluyor.
Mount Sinai Tıp Fakültesi’nden yapay zekâ araştırmacısı Xueyan Mei ise bu tür modellerin gerçek dünyada uygulanmasının zorluklar içerdiğini kabul ediyor. Yine de şunları ekliyor: “Buna rağmen, teşhis için büyük dil modellerinin geleceğin yolu olacağına inanıyoruz.”
Daha Fazla Gündemden Haber İçin BIOSSCOPE
Haberin Kaynağı İçin Tıklayınız.
Can you be more specific about the content of your article? After reading it, I still have some doubts. Hope you can help me. https://www.binance.info/join?ref=P9L9FQKY
Geri bildirim: sildenafil