여의도성모병원 연구팀, "소장 병변 판독 정확도 96% 이상"

▲딥러닝 알고리즘이 소장 병변을 탐지해 시각화한 영상. 인공지능이 병변으로 판단한 부분이 Grad-CAM에 의해 붉은색으로 표시 (사진 제공: 여의도성모병원)
▲딥러닝 알고리즘이 소장 병변을 탐지해 시각화한 영상. 인공지능이 병변으로 판단한 부분이 Grad-CAM에 의해 붉은색으로 표시 (사진 제공: 여의도성모병원)

국내 연구진이 소장 캡슐 내시경 영상 판독을 위한 딥러닝 알고리즘을 개발하고, 96% 이상의 높은 판독 정확도를 기록했다.

가톨릭대학교 여의도성모병원 이한희 교수 연구팀(서올성모병원 소화기내과 이보인 교수, 포항공대 산업인공지능연구소 이승철 교수)은 인간에 의한 기존 영상 판독의 한계를 극복하기 위해 '영상 판독 딥러닝 알고리즘'을 개발하고 판독 정확도를 비교한 결과에 대해 이 같이 밝혔다.

캡슐내시경은 알약 모양의 캡슐을 입으로 삼켜 식도, 위장, 소장 등의 건강 상태를 촬영하고 이 영상을 분석, 판독해 소화기 질환 진단에 이용하는 기기다.

일반 내시경이 들어가기 힘든 소장을 관찰할 수 있어 원인 모를 복통, 설사, 출혈 및 빈혈의 원인, 용종, 궤양, 크론병과 소장종양 등 다양한 질환의 진단에 활용되고 있다. 기존 연성케이블 내시경을 대체하는 혁신적 기술이라는 게 연구팀 측의 설명이다.

캡슐내시경은 초당 수십 장의 정지 영상을 촬영, 8~12 시간 동안의 소화관 촬영으로 약 5만장 이상의 정지영상이 생성된다. 여기서 수 만장의 영상을 의사가 일일이 판독하는 데만 1~2시간이 소요된다. 병변이 작거나 찍힌 영상 숫자가 적을 경우 판독자에 따라 진단 정확도도 떨어지는 기존의 한계점이었다.

이에 연구팀은 2007년 5월부터 2019년 5월까지 시행된 526건의 소장 캡슐내시경 검사에서 7,556장의 영상을 추출, 추출된 영상을 대표적인 소장 병변인 ▲출혈성 병변(적색 점, 혈관이형성, 현성 출혈) ▲궤양성 병변(미란, 궤양, 협착)으로 분류했다.

이어 포스텍 산업 인공지능 연구실에서 개발한 영상 분석 특화 딥러닝 기법 중 하나인 VGGNet 기반의 컨벌루션 신경망(Convolutional Neural Networks, CNN) 알고리즘으로 영상을 분류하고 학습시켰다.

학습 단계에서는 출혈 및 궤양 병변을 개별적으로 학습시키는 합성모델(Combined model), 전체 영상을 정상/비정상으로만 나누어 학습시키는 이분형모델(Binary model) 두 가지 방법으로 진행했다.

또한, 판독 결과를 출력하는 단계에 Grad-CAM 기술을 적용해 병변 부위를 시각화했다. 개발된 모델의 검증비교를 위해 모델 훈련에 사용되지 않은 5,760장의 소장 캡슐내시경 영상을 추가해 합성모델(Combined model)과 이분형모델(Binary model)의 판독 정확도를 비교했다.

분석 결과, 두 모델 모두 96% 이상의 높은 정확도를 보였으며 특히 합성모델은 이분형모델에 비해 높은 민감도, 즉 소장 병변을 더 잘 발견하는 것으로 나타났다.

또한, Grad-CAM을 통해 해당 병변을 정확히 시각화 하는 것에서도 합성 모델이 좀 더 우수했다.

이한희 교수(제1저자)는 “이번 소장 캡슐 내시경 판독 알고리즘 개발로 인간보다 빠르고 정확하게 소장 병변을 파악할 수 있다”며 “소장의 정상, 비정상 분류를 넘어 개별 병변의 특성을 판단하고 시각화된 병변의 위치를 확인함으로써 판독된 영상의 2차 검증이 가능할 것으로 기대된다”고 밝혔다.

이어 “향후 실제 임상에서의 효용성을 평가하기 위해 전향적 연구 진행과 첨단 의료기기로서의 상용화를 목표로 포스텍과의 공동연구를 계속 추진할 예정이다”라고 말했다.

이번 연구 결과는 다이제스티브 엔도스코피(Digestive Endoscopy) 2020년 8월호 온라인판에 게재됐다.

저작권자 © 메디코파마 무단전재 및 재배포 금지