[한국기술뉴스] 서로 다른 초음파를 합쳐서 더 강력해진 유방암 진단기기가 나왔다. IT융합공학과‧전자전기공학과‧기계공학과 김철홍 교수, IT융합공학과 미스라 삼파(Misra Sampa) 씨 연구팀은 흑백의 그레이스케일(Gray Scale) 초음파와 변형 탄성(SE, Strain Elastohraphy) 초음파 영상을 결합해 유방암 진단을 돕는 딥러닝 모델을 개발했다.
초음파 검사는 유방 조영술, 엑스레이(X-ray), 자기공명영상법(MRI) 등 다른 진단 방법에 비해 안전하고 저렴할 뿐만 아니라 조직을 깊게 관찰할 수 있다는 장점이 있다. 그중에서도 유방암 진단에는 종양의 구조를 선명하게 보여주는 그레이스케일 초음파와 조직의 단단한 정도를 측정하는 SE 초음파가 주로 활용된다. 이에 김철홍 교수팀은 두 개의 초음파를 결합해 장점을 극대화하고자 했다.
이번 연구는 조직검사로 확인한 양성 종양 환자 42명, 악성 종양 환자 43명 등 85명의 유방암 환자를 대상으로 진행됐다. 포항공과대학교 김철홍 교수팀은 환자 67명에게서 얻은 205개의 그레이스케일 또는 SE 초음파 영상을 결합해 두 가지의 딥러닝 모델인 알렉스넷(AlexNet)과 레스넷(ResNet)을 각각 훈련했다.
이후 두 딥러닝 모델을 동시에 움직이도록 하고, 다른 18명의 환자에게서 얻은 56개 영상으로 성능을 검증했다. 이 딥러닝 앙상블 모델은 서로 다른 초음파 영상으로부터 다양한 특징을 포착해 악성 종양이 있는지를 찾아냈다.
연구 결과, 딥러닝 앙상블 모델의 정확도는 90%로 딥러닝 단일 모델(각 84%), 그레이스케일 또는 SE 초음파 영상 하나만을 사용해 훈련한 모델(그레이스케일 77%, SE 85%)보다 우수했다. 특히 딥러닝 단일 모델은 5명의 환자를 구분해내지 못한 반면, 앙상블 모델이 구별하지 못한 환자는 2명에 불과했다.
그간 유방암 진단 시 초음파 영상이 활용돼 왔으나 인력이 부족하거나 영상 화질이 낮다는 한계가 있었다. 이번에 개발된 딥러닝 모델을 이용하면 두 정보를 동시에 활용해 유방암의 분류 정확도를 높일 수 있다.
김철홍 교수는 “딥러닝 모델을 사용하면 초음파 영상에서 유방암을 더 정확하게 분류할 수 있어 진단 효율성을 향상시킬 수 있다”고 말했다.
초음파 영상 분야 국제 학술지 ‘IEEE Transactions on Ultrasonics, Ferroelectrics, and Frequency Control’의 1월호 표지논문으로 게재된 이 연구는 과학기술정보통신부, 교육부, 산업통상자원부의 지원을 받아 수행됐다.