[이데일리 김승권 기자] 미국에서 인공지능(AI)을 활용한 의료 진단서 작성 여부를 환자에게 고지하는 문제가 ‘뜨거운 감자’로 떠올랐다. 원격의료가 활성화된 미국에서는 비대면 의사 진료가 활발한데 의사 답변을 인공지능(AI)이 생성하고 이를 환자에게 알리지 않는 경우가 많아 논란이 되고 있는 것이다. 한국에서도 향후 원격의료에 대한 규제가 풀리면 같은 문제가 발생할 수 있어 귀추가 주목된다.
뉴욕타임스는 지난 24일(현지시각) 미국 병원에서 널리 사용되는 의료 관련 서비스인 ‘마이차트(MyChart)’의 답변을 인간 의사가 아닌 AI가 작성하는 사례가 많은데 이를 고지하지 않는 것은 문제의 소지가 있다고 보도했다.
마이차트는 미국 의료 플랫폼 기업 ‘에픽 시스템스’가 개발한 애플리케이션(앱)이다. 미국 병원의 약 40%가 해당 앱을 사용하며 미국 의사 1만5000여 명이 마이차트에서 제공하는 답변 가운데 3분의 1 정도가 AI 답변으로 추정된다.
작동 방식은 다음과 같다. 의료 전문가가 답변하기 위해 환자의 질문을 열면 빈 화면 대신 의사의 목소리로 미리 작성된 답변을 볼 수 있다. AI는 질문, 환자의 의료 기록 및 환자의 약 목록을 기반으로 응답을 작성한다. 이 답변을 의사는 그대로 받아들이거나, 편집하거나, 완전히 버릴 수 있다. 이후 이를 마이차트에 업로드하고 환자에게 전달된다.
| aldomurillo (사진=게티 이미지) |
|
보도에 따르면 스탠퍼드 헬스케어, 뉴욕대 랑곤헬스 등의 병원은 AI가 의사 답변의 초안 작업을 한다는 사실을 알리지 않고 있다. 뉴욕대 랑곤헬스 관계자는 NYT에 “의사 메시지에 AI 제공 콘텐츠가 포함돼 있다는 사실을 환자에게 알리면, 의사가 확인한 메시지임에도 의료 조언으로서의 가치가 떨어질 수 있다”고 했다.
MyChart은 ChatGPT를 구동하는 것과 동일한 기술인 GPT-4를 사용한다. 이는 의료 개인 정보 보호법을 준수하는 특정 버전이지만 환자에게 이를 사용하는 것은 권고되고 있다.
권고의 문제 말고 다른 문제도 존재한다. AI가 오류를 범하는 것을 의사가 체크하지 않고 문제가 있는 진단서를 그대로 보낼 수도 있다는 것이다. 이는 중대한 의학적 영향을 미칠 수 있다. 개인정보 보호 문제도 존재한다. AI 챗봇 사용 시 환자 정보가 제3자에게 노출될 수 있는 우려도 있다.
이러한 논란에도 불구하고, AI 기술은 의료 분야에서 계속 확대될 것으로 예상된다. 따라서 환자 정보 보호, 의료 정확성 확보, 윤리적 사용에 대한 명확한 가이드라인 마련이 필요할 것으로 관측되고 있다.