“준비는 도와도 진단은 못 합니다”...의사가 말하는 안전한 활용법
왜 ‘ChatGPT Health’가 주목받나
OpenAI가 공개한 ChatGPT Health는 건강·웰니스 질문에 특화된 경험을 제공하려는 기능입니다. 일부 보도에 따르면 사용자는 의료기록을 업로드하거나 웰니스 앱과 연동해 검사 결과를 이해하고, 진료 전 질문을 정리하는 데 도움을 받을 수 있습니다.장점: “진료 시간을 더 가치 있게”
단점: 가장 큰 위험은 ‘과신’
문제는 AI가 내놓는 답이 임상의의 판단과 동일한 수준으로 받아들여질 수 있다는 점입니다. LLM은 그럴듯한 문장을 만들지만, 개인의 전체 병력·진찰 소견·미묘한 맥락을 동일하게 반영하기 어렵고, 틀린 답도 자신감 있게 말할 수 있습니다.
안전하게 쓰는 3원칙
-준비용으로 쓰기(진단·처방 결론 금지): 증상 정리, 질문 리스트, 용어 이해에 활용하세요.-중요 결정은 반드시 검증: 약 변경, 검사·시술 결정처럼 ‘의료 의사결정’은 의료진 확인이 전제입니다.
-개인정보 트레이드오프 인지: 민감 정보(정신건강·생식건강·법적 이슈)는 특히 신중해야 합니다.
앞으로 5년, 의사-환자 관계는 어떻게 바뀔까
ChatGPT Health는 “진료를 대체”하기보다 진료를 더 잘 받기 위한 준비 도구로 쓸 때 가치가 커집니다. 반대로, AI 답변을 확신해 스스로 결론 내리는 순간 위험도 함께 커진다는 점을 꼭 기억하시면 좋겠습니다.
이서윤 기자 sylee@news-wa.com