의료 인공지능의 규제 기준: 기술은 앞서는데 법은 늦는가?
1. 의료 인공지능의 진보 속도, 규제는 따라잡고 있는가?
의료 인공지능(AI)의 발전은 놀라운 속도로 이루어지고 있다. 질병 예측, 영상 판독, 진단 보조, 신약 개발까지—AI는 단순한 도구를 넘어, 이제는 의료 의사결정의 동반자로 자리 잡아가고 있다. 하지만 문제는 기술의 성장이 빠를수록, 그에 걸맞은 법적·윤리적 기준이 뒤처진다는 점이다. 우리는 “AI가 의사를 대체할 수 있는가?”라는 논쟁보다 더 중요한 질문, 즉 “누가 그 책임을 질 것인가?”라는 문제에 제대로 답하지 못하고 있다.
현재 대부분의 국가는 의료 AI를 기존의 의료기기 규제 체계 안에서 관리하고 있다. 하지만 의료 AI는 단순한 하드웨어가 아니다. 특히 기계학습(Machine Learning) 기반 AI는 시간이 지나며 스스로 기능을 업데이트하고, 환경에 따라 다른 출력을 내놓는다. 이러한 자가학습형 시스템은 전통적인 규제 체계가 전제로 삼는 ‘정적(Static) 성능’ 기준과는 전혀 맞지 않는다. 즉, 기술은 진화하는데, 법은 여전히 ‘고정된 기술’만 상정하고 있는 셈이다.
2. AI의 오진, 그 책임은 누구의 것인가?
AI가 의료 판단에 관여했을 때 발생하는 실수—예컨대 암을 놓친 판독 결과나, 잘못된 진단 추천—는 누구의 책임일까? 프로그래머? 병원? 의료기기 제조사? 아니면 사용한 의사? 이 물음에 명확히 답할 수 있는 국가나 제도는 아직 존재하지 않는다. 가장 큰 이유는, AI가 결과에 ‘기여’는 하지만, ‘결정’을 내리지 않는 중간자 역할을 하기 때문이다. 결국 법적으로는 인간이 결정했고, AI는 조언만 한 것이 되기 때문에 규제 회피가 가능한 구조가 된다.
하지만 최근에는 AI의 영향력이 너무 크고 독립적이어서, 기존 ‘조력자 모델’로는 규제와 책임 소재를 설명하기 어렵다는 비판이 커지고 있다. 특히 자가학습형 모델은 초기 프로그래밍에서 벗어나 스스로 변화를 겪기 때문에, ‘예상 불가능한 판단’을 내릴 수 있다. 만약 AI가 의료 영상에서 폐암을 정상으로 판단했고, 이로 인해 치료가 지연되었다면—이는 의료 사고인가, 아니면 소프트웨어의 고장인가? 규제는 이제 단순히 ‘제품 허가’의 문제가 아니라, 판단의 주체성과 윤리적 귀속의 경계 설정으로 이동하고 있다.
3. 규제의 핵심은 기술이 아니라 ‘데이터’다
많은 사람들이 의료 AI 규제에서 기술 검증을 최우선으로 생각하지만, 실제로는 데이터의 편향성과 품질이 규제의 핵심 이슈다. AI는 학습한 데이터의 특성에 따라 특정 인종, 연령, 성별, 지역에 대해 편향된 판단을 내릴 수 있다. 예컨대 미국 내 일부 피부병 진단 AI는 백인 피부에 대해서는 높은 정확도를 보였지만, 흑인이나 유색인종의 피부 병변에 대해서는 성능이 급격히 떨어졌다. 이는 단순한 알고리즘 문제가 아니라, 학습 데이터에 포함된 사회적 편향이 반영된 결과였다.
따라서 규제기관이 해야 할 일은 단순히 알고리즘을 평가하는 것이 아니라, AI가 학습한 데이터셋의 구성, 수집 방식, 다양성 확보 여부 등을 감시하는 것이다. 그러나 현재 대부분의 국가에서는 기업의 ‘영업 비밀’이라는 이유로 AI의 학습 데이터 공개를 요구하지 못하고 있다. 이는 “어떻게 판단했는가?”에 대한 해석 가능성을 떨어뜨리며, AI의 판단을 블랙박스로 만드는 구조적 위험을 낳는다. 기술보다 데이터가 위험할 수 있는 상황, 이 문제를 제도적으로 감시할 수 있는 국제 기준 마련이 절실하다.
4. 미래 규제의 방향: 정적 심사에서 ‘동적 감시’로
지금까지의 의료기기 규제는 개발 완료 후 인증을 받고, 일정 기간 내 성능 평가를 반복하는 방식이었다. 하지만 의료 AI는 출시 이후에도 계속해서 학습하고 진화한다. 예를 들어 구글의 DeepMind Health가 개발한 안과 진단 AI는 실시간으로 병원 데이터를 받아 업데이트되며, 일주일마다 판단 기준이 달라질 수 있다. 이런 ‘변화하는 기술’을 정적 기준으로 심사하는 것은, 바다 위의 배를 사진 한 장으로 평가하는 것과 같다.
앞으로의 규제는 ‘사전 인증’ 중심에서 ‘실시간 감시와 피드백’ 기반으로 전환되어야 한다. 미국 FDA는 최근 ‘SAFDA(Safer AI Framework for Development & Assessment)’를 통해 AI 의료기기의 사후 감시 체계와 투명성 확보 기준을 마련하려 시도하고 있다. EU 역시 의료 AI를 별도 등급으로 분류하여, 업데이트마다 검토하는 ‘계속적 규제’ 프레임을 개발 중이다. 궁극적으로는 AI의 알고리즘뿐 아니라, 그 판단 과정과 업데이트 내용이 ‘감사 가능’하고 ‘공개 가능한’ 구조여야 한다는 원칙이 국제적으로 공유되고 있다.