인공지능이 의사를 대체할 수 있을까?
코메디닷컴 박창범
2026. 2. 13. 16:18
[박창범 닥터To닥터]
![]()
사진=클립아트코리아
2026년 1월 테슬라와 스페이스 X의 최대주주 및 운영책임자(CEO)인 일론 머스크는 팟캐스트에 출연해 "훌륭한 외과의사가 되기까지는 오랜 시간이 걸리고 비용도 많이 들고, 의학지식은 계속 바뀌기 때문에 인간이 모든 것을 따라잡는 것은 거의 불가능하다"고 하면서 "로봇이 3년이면 인간보다 낫고, 4년이면 거의 모든 인간을 능가하며, 5년이 지나면 비교 자체가 무의미해질 것이기 때문에 의대를 가려고 할 필요가 없다"고 말했다. 의료 접근성에 대해서도 "전 세계 누구나 지금 대통령이 받는 것보다 더 나은 의료서비스를 받게 될 것"이라고 주장해서 많은 관심을 받았다.
이와 같은 일론 머스크의 주장이 사실일까? 이러한 주장이 현실이 되기까지 현재의 법률과 규정의 관점에서 발생할 수 있는 문제점에 대하여 이야기해 보겠다. 참고로 로봇을 움직이는 것은 인공지능(AI)이기 때문에 로봇을 AI로 생각하겠다.
첫째, AI가 법률상 행위능력이나 책임주체가 될 수 있을까? 우리나라의 경우 AI는 법률상 행위 능력 또는 책임 주체가 될 수 없으며, 마찬가지로 의료 행위의 주체로 인정될 수 없다. 즉, AI가 단독으로 환자에게 문진을 하거나 상담에 대한 답변을 제공한 경우에도, 실제로 의료 행위를 수행한 주체는 원칙적으로 AI 자체가 아니라 이를 설계․ 운영하는 개발자, 관리주체, 혹은 시스템 제공자인 플랫폼 사업자임을 의미한다.
둘째, AI가 환자와 진료 상담을 하는 경우도 문제가 없을까? 그 내용과 깊이에 따라 무면허 의료행위 여부가 판단될 수 있을 것이다. 만약 단순히 건강 상식이나 의학 지식에 대해 답변한다면 의료 행위에 해당하지 않겠지만, 의사의 감독 없이 상담 내용이 조언을 넘어 진단적 의미까지 포함하거나 치료로 연계된다면 무면허 의료 행위에 해당할 수 있다.
셋째, AI가 주체적으로 입력된 증상이나 의료 정보에 기반하여 질병 원인을 추정하거나 의료적 조언을 제공하는 경우에는 문제가 없을까? AI가 수집한 문진 결과나 처방전 초안을 작성하고 의사가 사후에 검토 및 판단을 수행하는 등 진료 보조 역할을 수행한다면 이는 문제가 될 가능성이 낮다. 실제로 현재도 AI는 치료 과정에서 치료법에 대하여 의사에게 조언을 주거나 아니면 흉부 X선이나 심전도 등 영상 촬영본을 판독하는 데 도움을 주는 등 진료 전후 단계에서 의사의 의료 행위에 간접적으로 관여하고 있다. 앞으로도 이러한 추세는 지속될 것으로 생각된다.
아직까지 의료에 있어서 AI의 역할은 제한적인 것이 사실이다. 개인적으로는 3~5년이라는 짧은 시간 안에 AI가 의사를 대체할 수 있을지에 대해서는 부정적으로 생각한다.
하지만 자동차에서 자율주행이 도입된 것과 마찬가지로 효과와 안전성이 입증되고 의료 행위에 따른 책임 문제를 해결할 수 있다면 AI의 도입이 더욱 빨라질 수 있다고 생각한다. 특히 AI의 의료 행위에 대한 책임 문제가 해결되면 진료비를 획기적으로 낮추고 환자의 의료 접근성을 높인다는 목적으로 합법화돼 보편화될 가능성이 높은 것이 사실이다.
한국의 경우 선진국에서 AI를 통해 진료비가 낮아지고 진료 접근성과 같은 환자 복지가 나아졌음이 확인된다면 도입될 가능성이 높다. 아마도 이러한 상황이 되면 의료 비용을 줄이기 위해 의사 수를 줄여야 한다는 주장이 나올지도 모르겠다.
물론 이러한 긍정적인 전망도 있지만 최근에 AI로 인한 부정적인 문제도 발생하고 있다. 주로 일반인들이 AI를 심리 상담을 위해 사용하면서다.
예를 들어 미국 아이다호주에서 자동차 정비사인 한 남자가 스페인어 통번역을 위해 챗GPT를 사용하기 시작했는데, 어느 순간부터 빠져들어 챗GPT와 대화하면서 신을 만났다고 하거나 선과 악의 전쟁, 우주를 만든 고대 건축가들의 비밀을 논하는 등 망상이 심해졌다고 한다.
한 논문에 따르면 한 달 사이에 최소 17명이 AI 챗봇과 상호작용을 한 후부터 정신병적 증상을 보였다고 전했다. 코네티컷주에선 평소 편집증적 망상 증세를 갖고 있던 환자가 AI와 대화하면서 증세가 심해졌고, 결국 80대 모친을 살해한 뒤 자살했다. 한국에서도 최근 정신·심리적 취약군이 AI에 과하게 의존하면서 전문가 불신, 망상, 공격성, 자기 편향 등을 강화하는 부정적 사례가 늘고 있다고 보도됐다.
정신 건강 문제를 가진 사람들이 AI와 대화하면서 망상이 심해지는 이유는 뭘까? 아마도 정신 건강 문제를 가진 사람들은 인간 심리상담사나 의사와 상담을 받고 싶어도 만나는 것이 쉽지 않고, 필요할 때 항상 이용하기도 쉽지 않다. 경제적인 부담도 매우 크다.
이에 비하여 AI는 누구나 접근할 수 있고, 비용도 무료 또는 매우 저렴하고 대화의 몰입감과 즉시성 덕분에 친숙하게 사용할 수 있다. 하지만 AI는 사용자의 정보와 생각을 무분별하게 받아들이도록 설계되어 사용자에게 수시로 '정말 뛰어난 질문이다'라고 하는 등 사용자의 왜곡된 믿음에 동조하거나 부추긴다. 현실 검증과 한계 설정을 하지 않기 때문에 망상을 치유하기보다 강화할 수 있다. 이런 문제는 지속적으로 발생할 것으로 생각된다. 따라서 AI의 발달로 인한 부정적인 면을 어떻게 해결할 것인지 고민이 필요해 보인다.
![]()
박창범 교수 (heartp@kormedi.com)
Copyright © 코메디닷컴. 무단전재 및 재배포 금지
출처: https://v.daum.net/v/20260213161825154