
(แฟ้มภาพซินหัว : ชายคนหนึ่งถ่ายรูปมือของเขาและมือหุ่นยนต์ที่งานฮันโนเวอร์ เมสเซอ ปี 2026 ในเมืองฮันโนเวอร์ของเยอรมนี วันที่ 21 เม.ย. 2026)
เบอร์ลิน, 27 เม.ย. (ซินหัว) -- ปัจจุบัน ผู้คนเริ่มหันไปพึ่งพาปัญญาประดิษฐ์ (AI) ในการขอคำแนะนำทางการแพทย์มากขึ้น โดยใช้เพื่อตีความอาการและรายงานต่างๆ ก่อนที่จะไปปรึกษาแพทย์ แม้ว่าปัญญาประดิษฐ์จะสามารถให้ผลการประเมินที่เรียบเรียงมาอย่างดีภายในเวลาไม่กี่วินาที แต่คำถามที่ยังคงอยู่คือ โมเดลเหล่านี้จะสามารถวินิจฉัยและรักษาผู้ป่วยได้อย่างมีประสิทธิภาพจริงหรือไม่
ผลการศึกษาจากมหาวิทยาลัยมาร์บวร์ก (Marburg University) ของเยอรมนี ได้ทำการเปรียบเทียบโมเดลภาษาขนาดใหญ่ (LLMs) จำนวน 13 โมเดล กับนักศึกษาแพทย์และแพทย์จำนวน 123 คน โดยใช้แบบทดสอบมาตรฐานเกี่ยวกับภาวะบาดเจ็บที่ไตเฉียบพลัน ผลปรากฏว่าเหล่าโมเดลทำคะแนนเฉลี่ยได้สูงถึงร้อยละ 90 และมีหลายโมเดลที่ทำคะแนนได้เต็ม ในขณะที่กลุ่มผู้เข้าร่วมที่เป็นมนุษย์ทำคะแนนเฉลี่ยได้เพียงร้อยละ 48.7 นอกจากนี้เหล่าโมเดลยังทำแบบทดสอบเสร็จสิ้นเร็วกว่ามนุษย์อย่างมีนัยสำคัญ

(แฟ้มภาพซินหัว : ชายคนหนึ่งยืนมองหุ่นยนต์ฮิวแมนนอยด์ในพื้นที่จัดแสดงของบริษัทดัสโซลต์ ซิสเต็มส์ (Dassault Systemes) ที่งานฮันโนเวอร์ เมสเซอ ปี 2026 ในเมืองฮันโนเวอร์ของเยอรมนี วันที่ 21 เม.ย. 2026)
แม้ว่าเหล่าปัญญาประดิษฐ์จะได้คะแนนสอบด้านข้อมูลเท็จจริงสูง ทว่ายังขาดวิจารณญาณที่จำเป็นสำหรับการดูแลทางคลินิกในโลกความเป็นจริง ผลการศึกษาที่เผยแพร่ในวารสารเจเอเอ็มเอ เน็ตเวิร์ก โอเพน (JAMA Network Open) ระบุว่า เหล่าโมเดลขนาดใหญ่ประสบปัญหาการใช้เหตุผลทางคลินิก โดยเฉพาะในช่วงเริ่มต้นของเคสที่ยังมีข้อมูลจำกัด เมื่อมีการประเมินผ่านสถานการณ์จำลองทางคลินิก 29 รูปแบบ พบว่าโมเดลทั้งหมดล้มเหลวในการวินิจฉัยแยกโรค (differential diagnosis) อย่างเหมาะสมมากกว่าร้อยละ 80
นักวิจัยเน้นย้ำว่า การวินิจฉัยแยกโรคคือหัวใจสำคัญของ "ศาสตร์และศิลป์แห่งการรักษา" ที่ปัญญาประดิษฐ์ยังไม่สามารถลอกเลียนแบบได้ในขณะนี้ โดยบทบาทของปัญญาประดิษฐ์ในเวชปฏิบัติทางคลินิกถูกมองว่าเป็นเครื่องมือที่เข้ามาเพื่อ "เสริม" มากกว่าที่จะมา "แทนที่" การใช้เหตุผลของแพทย์ แม้ว่าระบบดิจิทัลจะเริ่มเข้ามามีบทบาทอย่างแข็งขันในกระบวนการต่างๆ เช่น การจัดทำเอกสารและการประสานงาน แต่ปัจจัยด้าน "มนุษย์" ยังคงมีความสำคัญอย่างยิ่งในการกำกับดูแล

(แฟ้มภาพซินหัว : ชายคนหนึ่งยืนมองหุ่นยนต์ฮิวแมนนอยด์ในพื้นที่จัดแสดงของเอไจล์ โรบอตส์ (Agile Robots) ที่งานฮันโนเวอร์ เมสเซอ ปี 2026 ในเมืองฮันโนเวอร์ของเยอรมนี วันที่ 20 เม.ย. 2026)
เจนส์ เคลซีก (Jens Kleesiek) จากโรงพยาบาลมหาวิทยาลัยเอสเซน (Essen University Hospital) ระบุว่าแม้ระบบดิจิทัลได้เข้ามาเปลี่ยนแปลงการดูแลทางการแพทย์ขั้นพื้นฐาน แต่ระบบเหล่านี้จำเป็นต้องใช้งานภายใต้คำแนะนำของแพทย์ผู้เชี่ยวชาญ ซึ่งเหล่าผู้เชี่ยวชาญต่างเห็นตรงกันว่าปัญญาประดิษฐ์ในระบบสุขภาพจำเป็นต้องมีมนุษย์คอยกำกับดูแล เพื่อให้มั่นใจว่าเทคโนโลยีนีั้จะถูกนำมาใช้อย่างเหมาะสมและปลอดภัย
การบูรณาการปัญญาประดิษฐ์เข้ามาใช้ในเวชปฏิบัตินั้นยังมาพร้อมกับความเสี่ยง โดยเฉพาะในเรื่องของความน่าเชื่อถือของคำแนะนำ โดยแพทย์ผู้เชี่ยวชาญที่มีประสบการณ์มักจะสามารถตรวจพบข้อผิดพลาดในคำแนะนำที่ปัญญาประดิษฐ์สร้างขึ้นได้ แต่สำหรับผู้ใช้งานที่มีประสบการณ์น้อยกว่าอาจจะยังขาดวิจารณญาณที่จำเป็นในการตรวจจับข้อผิดพลาดที่แนบเนียนเหล่านั้น

(แฟ้มภาพซินหัว : ชายคนหนึ่งจับมือกับหุ่นยนต์ฮิวแมนนอยด์จากพ่าซีหนี (PaXini) บริษัทเทคโนโลยีด้านการพัฒนาเซนเซอร์รับสัมผัสสัญชาติจีน ที่งานฮันโนเวอร์ เมสเซอ ปี 2026 ในเมืองฮันโนเวอร์ของเยอรมนี วันที่ 21 เม.ย. 2026)
นอกจากนี้ ยังมีความเสี่ยงจากการ "ถ่ายโอนกระบวนการใช้เหตุผล" (outsourcing reasoning) ไปให้ปัญญาประดิษฐ์ เนื่องจากโมเดลเหล่านี้มักจะสร้างคำตอบที่ดูสละสลวยและเต็มไปด้วยความมั่นใจ ผู้ใช้งานจึงอาจหยุดการค้นหาข้อมูลด้วยตนเอง หรือละเลยการฝึกประเมินสถานการณ์อย่างมีวิจารณญาณ ซึ่งการพึ่งพาทีละเล็กละน้อยนี้อาจส่งผลให้ทักษะทางการแพทย์ที่สำคัญ ซึ่งจำเป็นต้องได้รับการฝึกฝนอย่างต่อเนื่องนั้นค่อยๆ เสื่อมถอยลงไปในที่สุด
(ที่มา: https://en.imsilkroad.com/p/350287.html)