KR20220026143A - 두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치 및 방법 - Google Patents

두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치 및 방법 Download PDF

Info

Publication number
KR20220026143A
KR20220026143A KR1020200106825A KR20200106825A KR20220026143A KR 20220026143 A KR20220026143 A KR 20220026143A KR 1020200106825 A KR1020200106825 A KR 1020200106825A KR 20200106825 A KR20200106825 A KR 20200106825A KR 20220026143 A KR20220026143 A KR 20220026143A
Authority
KR
South Korea
Prior art keywords
data
technique
learning data
training data
image
Prior art date
Application number
KR1020200106825A
Other languages
English (en)
Other versions
KR102465636B1 (ko
Inventor
김진성
천재희
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020200106825A priority Critical patent/KR102465636B1/ko
Publication of KR20220026143A publication Critical patent/KR20220026143A/ko
Application granted granted Critical
Publication of KR102465636B1 publication Critical patent/KR102465636B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Theoretical Computer Science (AREA)
  • Primary Health Care (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 바람직한 실시예에 따른 두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치 및 방법은, 가변 영상 정합(deformable image registration, DIR) 등과 같은 복수의 기법을 통해 학습 데이터를 자동으로 증강하고, 증강한 학습 데이터를 통해 두경부 의료영상을 자동으로 분할하는 딥러닝 모델(deep learning model)을 생성함으로써, 일관성있고 정제된 학습 데이터의 양을 증강할 수 있어 보다 고성능의 딥러닝 모델을 생성할 수 있다.

Description

두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치 및 방법{Apparatus and method of augmenting learning data for deep learning model which can automatically segment head and neck medical image}
본 발명은 두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치 및 방법에 관한 것으로서, 더욱 상세하게는 가변 영상 정합(deformable image registration, DIR) 등과 같은 복수의 기법을 통해 학습 데이터를 자동으로 증강하고, 증강한 학습 데이터를 통해 두경부 의료영상을 자동으로 분할하는 딥러닝 모델(deep learning model)을 생성하는 장치 및 방법에 관한 것이다.
방사선 치료를 위해서는 치료 계획의 수립이 필수적이나, 손상 위험 장기(Organ At Risk, OAR)의 분할 정확성에 따라 치료 계획의 질이 달라지게 된다. 종래의 손상 위험 장기의 분할은 전문가에 의해 이루어지는 수동적인 과정을 거쳐 많은 시간이 소요되고, 동일한 가이드 라인을 참고하여 수동 분할 과정을 수행하는 전문가들 간에 편차가 발생되는 문제가 있다.
이를 딥러닝 기법을 적용하여 해결하고자 하는 시도들이 있으나, 우수한 딥러닝 모델의 학습을 위해서는 일관성있고 정제된 학습 데이터의 개수가 중요하지만, 종래에는 학습 데이터를 검증된 일부의 전문가들이 직접 생성하고 있어, 생성되는 학습 데이터의 수에 한계가 있는 문제가 있다.
본 발명이 이루고자 하는 목적은, 가변 영상 정합(deformable image registration, DIR) 등과 같은 복수의 기법을 통해 학습 데이터를 자동으로 증강하고, 증강한 학습 데이터를 통해 두경부 의료영상을 자동으로 분할하는 딥러닝 모델(deep learning model)을 생성하는 두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치 및 방법을 제공하는 데 있다.
본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.
상기의 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치는, 두경부 의료영상을 자동으로 분할하는 딥러닝 모델(deep learning model)의 생성에 이용되는 제1 학습 데이터를 수신하는 정보 수신부; 영상의 중심을 기준으로 학습 데이터를 증강하는 제1 기법, 외곽선을 기준으로 학습 데이터를 증강하는 제2 기법, 서로 다른 환자의 영상으로부터 학습 데이터를 증강하는 제3 기법, 동일한 환자에 대한 서로 인접하는 영상으로부터 학습 데이터를 증강하는 제4 기법 및 벡터맵(vector map)의 무작위 변형을 통해 학습 데이터를 증강하는 제5 기법을 각각 상기 제1 학습 데이터에 적용하여, 상기 제1 학습 데이터로부터 제2 학습 데이터를 생성하는 학습 데이터 증강부; 및 상기 제1 학습 데이터 및 상기 제2 학습 데이터를 통해 상기 딥러닝 모델을 생성하는 딥러닝 모델 생성부;를 포함한다.
여기서, 상기 학습 데이터 증강부는, 상기 제1 기법을 통해 상기 제2 학습 데이터를 생성하는 경우, 기본 상태의 벡터맵을 영상의 중심을 기준으로 방사형으로 줄이거나 늘려 변형된 벡터맵을 획득하고, 상기 변형된 벡터맵을 상기 제1 학습 데이터에 적용하여 이미지를 변환함으로써, 상기 제2 학습 데이터를 생성할 수 있다.
여기서, 상기 학습 데이터 증강부는, 상기 제2 기법을 통해 상기 제2 학습 데이터를 생성하는 경우, 기본 상태의 벡터맵을 영상의 중심을 기준으로 방사형으로 줄이거나 늘려 변형된 벡터맵을 획득하고, 상기 제1 학습 데이터 내의 미리 정해진 영역의 외곽선 중 한 점이 영상의 중심에 위치하도록 상기 제1 학습 데이터를 시프팅(shifting)하며, 상기 변형된 벡터맵을 시프팅된 상기 제1 학습 데이터에 적용하여 이미지를 변환함으로써, 변환된 상기 제1 학습 데이터를 생성하고, 상기 한 점이 원래의 위치로 돌아가도록 변환된 상기 제1 학습 데이터를 시프팅(shifting)하여, 상기 제2 학습 데이터를 생성할 수 있다.
여기서, 상기 학습 데이터 증강부는, 상기 제3 기법을 통해 상기 제2 학습 데이터를 생성하는 경우, 상기 제1 학습 데이터 내의 제1 환자의 데이터를 기준으로 상기 제1 환자와 상이한 상기 제1 학습 데이터 내의 제2 환자의 데이터를 가변 영상 정합(deformable image registration, DIR)시켜, 기본 상태의 벡터맵으로부터 변형된 벡터맵을 획득하고, 상기 변형된 벡터맵을 상기 제2 환자의 데이터에 적용하여 이미지를 변환함으로써, 상기 제2 학습 데이터를 생성할 수 있다.
여기서, 상기 학습 데이터 증강부는, 상기 제4 기법을 통해 상기 제2 학습 데이터를 생성하는 경우, 상기 제1 학습 데이터 내의 제1 환자의 제1 슬라이스(slice) 데이터를 기준으로 상기 제1 슬라이스 데이터에 인접한 제2 슬라이스 데이터를 가변 영상 정합(deformable image registration, DIR)시켜, 기본 상태의 벡터맵으로부터 변형된 벡터맵을 획득하고, 상기 변형된 벡터맵을 상기 제2 슬라이스 데이터에 적용하여 이미지를 변환함으로써, 상기 제2 학습 데이터를 생성할 수 있다.
여기서, 상기 학습 데이터 증강부는, 상기 제5 기법을 통해 상기 제2 학습 데이터를 생성하는 경우, 기본 상태의 벡터맵을 무작위로 변형하여, 변형된 벡터맵을 획득하고, 상기 변형된 벡터맵을 상기 제1 학습 데이터에 적용하여 이미지를 변환함으로써, 상기 제2 학습 데이터를 생성할 수 있다.
여기서, 상기 학습 데이터 증강부는, 상기 제1 학습 데이터에 상기 제1 기법, 상기 제2 기법, 상기 제3 기법, 상기 제4 기법 및 상기 제5 기법을 적용하여, 상기 제1 학습 데이터로부터 상기 제2 학습 데이터를 생성하는 과정을 미리 정해진 횟수만큼 반복적으로 수행할 수 있다.
여기서, 상기 학습 데이터 증강부는, 상기 제1 기법, 상기 제2 기법, 상기 제3 기법, 상기 제4 기법 및 상기 제5 기법을, 상기 제1 학습 데이터 및 이전에 생성된 상기 제2 학습 데이터에 적용하여, 상기 제1 학습 데이터 및 이전에 생성된 상기 제2 학습 데이터로부터 현 시점의 상기 제2 학습 데이터를 생성할 수 있다.
여기서, 상기 제1 학습 데이터는, 두경부 부분에 대한 의료 영상 또는 상기 의료 영상에서 특정 영역을 분리한 분할 영상일 수 있다.
상기의 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 방법은, 두경부 의료영상을 자동으로 분할하는 딥러닝 모델(deep learning model)을 위한 학습 데이터 증강 장치가 수행하는 학습 데이터 증강 방법으로서, 영상의 중심을 기준으로 학습 데이터를 증강하는 제1 기법, 외곽선을 기준으로 학습 데이터를 증강하는 제2 기법, 서로 다른 환자의 영상으로부터 학습 데이터를 증강하는 제3 기법, 동일한 환자에 대한 서로 인접하는 영상으로부터 학습 데이터를 증강하는 제4 기법 및 벡터맵(vector map)의 무작위 변형을 통해 학습 데이터를 증강하는 제5 기법을 각각, 두경부 의료영상을 자동으로 분할하는 딥러닝 모델의 생성에 이용되는 제1 학습 데이터에 적용하여, 상기 제1 학습 데이터로부터 제2 학습 데이터를 생성하는 단계; 및 상기 제1 학습 데이터 및 상기 제2 학습 데이터를 통해 상기 딥러닝 모델을 생성하는 단계;를 포함한다.
여기서, 상기 제2 학습 데이터 생성 단계는, 상기 제1 학습 데이터에 상기 제1 기법, 상기 제2 기법, 상기 제3 기법, 상기 제4 기법 및 상기 제5 기법을 적용하여, 상기 제1 학습 데이터로부터 상기 제2 학습 데이터를 생성하는 과정을 미리 정해진 횟수만큼 반복적으로 수행하는 것으로 이루어질 수 있다.
여기서, 상기 제2 학습 데이터 생성 단계는, 상기 제1 기법, 상기 제2 기법, 상기 제3 기법, 상기 제4 기법 및 상기 제5 기법을, 상기 제1 학습 데이터 및 이전에 생성된 상기 제2 학습 데이터에 적용하여, 상기 제1 학습 데이터 및 이전에 생성된 상기 제2 학습 데이터로부터 현 시점의 상기 제2 학습 데이터를 생성하는 것으로 이루어질 수 있다.
상기의 기술적 과제를 달성하기 위한 본 발명의 바람직한 실시예에 따른 컴퓨터 프로그램은 컴퓨터로 읽을 수 있는 기록 매체에 저장되어 상기한 두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 방법 중 어느 하나를 컴퓨터에서 실행시킨다.
본 발명의 바람직한 실시예에 따른 두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치 및 방법에 의하면, 가변 영상 정합(deformable image registration, DIR) 등과 같은 복수의 기법을 통해 학습 데이터를 자동으로 증강하고, 증강한 학습 데이터를 통해 두경부 의료영상을 자동으로 분할하는 딥러닝 모델(deep learning model)을 생성함으로써, 일관성있고 정제된 학습 데이터의 양을 증강할 수 있어 보다 고성능의 딥러닝 모델을 생성할 수 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 바람직한 실시예에 따른 두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치를 설명하기 위한 블록도이다.
도 2는 본 발명의 바람직한 실시예에 따른 제1 기법을 설명하기 위한 도면이다.
도 3은 본 발명의 바람직한 실시예에 따른 제2 기법을 설명하기 위한 도면이다.
도 4는 본 발명의 바람직한 실시예에 따른 제3 기법을 설명하기 위한 도면이다.
도 5는 본 발명의 바람직한 실시예에 따른 제4 기법을 설명하기 위한 도면이다.
도 6은 본 발명의 바람직한 실시예에 따른 제5 기법을 설명하기 위한 도면이다.
도 7은 본 발명의 바람직한 실시예에 따른 두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 방법을 설명하기 위한 흐름도이다.
이하, 첨부된 도면을 참조하여 본 발명의 실시 예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
본 명세서에서 "제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
본 명세서에서 각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
본 명세서에서, "가진다", "가질 수 있다", "포함한다" 또는 "포함할 수 있다"등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
또한, 본 명세서에 기재된 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터 구조들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다.
이하에서 첨부한 도면을 참조하여 본 발명에 따른 두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치 및 방법의 바람직한 실시예에 대해 상세하게 설명한다.
먼저, 도 1 내지 도 6을 참조하여 본 발명의 바람직한 실시예에 따른 두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치에 대하여 설명한다.
도 1은 본 발명의 바람직한 실시예에 따른 두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치를 설명하기 위한 블록도이다.
도 1을 참조하면, 본 발명의 바람직한 실시예에 따른 두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치(이하 '학습 데이터 증강 장치'라 한다)(100)는 가변 영상 정합(deformable image registration, DIR) 등과 같은 복수의 기법을 통해 학습 데이터를 자동으로 증강하고, 증강한 학습 데이터를 통해 두경부 의료영상을 자동으로 분할하는 딥러닝 모델(deep learning model)을 생성한다.
이를 위해, 학습 데이터 증강 장치(100)는 정보 수신부(110), 학습 데이터 증강부(130) 및 딥러닝 모델 생성부(150)를 포함할 수 있다.
정보 수신부(110)는 두경부 의료영상을 자동으로 분할하는 딥러닝 모델의 생성에 이용되는 제1 학습 데이터를 수신하고, 제1 학습 데이터를 학습 데이터 증강부(130)와 딥러닝 모델 생성부(150)에 제공한다. 이때, 정보 수신부(110)는 외부의 단말(도시하지 않음)로부터 통신망(도시하지 않음)을 통해 제1 학습 데이터를 수신할 수 있다. 물론, 정보 수신부(100)는 통신망을 통해 연결된 외부의 단말이나 학습 데이터 증강 장치(100)에 직접 연결된 단말 등을 통해 미리 제1 학습 데이터를 수신하여 저장하고, 저장되어 있는 제1 학습 데이터를 학습 데이터 증강부(130)와 딥러닝 모델 생성부(150)에 제공할 수도 있다.
여기서, 제1 학습 데이터는 복수의 환자에 대한, 두경부 부분에 대한 의료 영상, 의료 영상에서 특정 영역을 분리한 분할 영상 등일 수 있다. 두경부는 뇌 아래에서 가슴 윗 부분 사이를 의미하며, 비강, 부비강, 혀, 입, 연구개, 경구개, 후두, 인두, 침샘 등의 기관이 위치하고 있다. 의료 영상은 CT(computerized tomography), MRI(magnetic resonance imaging) 등을 통해 촬영된 영상을 말한다. 분할 영상은 의료 영상에서 특정 영역을 분리한 영상을 말하며, 특정 영역에는 손상 위험 장기(Organ At Risk, OAR), 신체 윤곽(body contour), 귀밑샘(parotid glands) 등이 있다. 아울러, 제1 학습 데이터는 의료 영상과 이에 대응되는 분할 영상의 쌍으로 이루어진 영상 데이터들로 이루어질 수 있다. 예컨대, 제1 학습 데이터 내의 하나의 영상 데이터는 "의료 영상"과 "해당 의료 영상에 대응되는 분할 영상들"로 이루어질 수 있다. 이때, 제1 학습 데이터 내의 영상 데이터는 해당 영상의 환자를 식별할 수 있는 정보를 포함할 수 있다.
학습 데이터 증강부(130)는 제1 기법, 제2 기법, 제3 기겁, 제4 기법 및 제5 기법을 각각 정보 수신부(110)로부터 제공받은 제1 학습 데이터에 적용하여, 제1 학습 데이터로부터 제2 학습 데이터를 자동으로 생성한다.
여기서, 제1 기법은 영상의 중심을 기준으로 학습 데이터를 증강하는 방법이고, 제2 기법은 외곽선을 기준으로 학습 데이터를 증강하는 방법이며, 제3 기법은 서로 다른 환자의 영상으로부터 학습 데이터를 증강하는 방법이고, 제4 기법은 동일한 환자에 대한 서로 인접하는 영상으로부터 학습 데이터를 증강하는 방법이며, 제5 기법은 벡터맵(vector map)의 무작위 변형을 통해 학습 데이터를 증강하는 방법을 말한다.
그리고, 학습 데이터 증강부(130)는 제1 학습 데이터에 제1 기법 내지 제5 기법을 적용하여, 제1 학습 데이터로부터 제2 학습 데이터를 생성하는 과정을 미리 정해진 횟수만큼 반복적으로 수행할 수 있다. 이때, 학습 데이터 증강부(130)는 제1 기법 내지 제5 기법을, 제1 학습 데이터 및 이전에 생성된 제2 학습 데이터에 적용하여, 제1 학습 데이터 및 이전에 생성된 제2 학습데이터로부터 현 시점의 제2 학습 데이터를 생성할 수 있다.
도 2는 본 발명의 바람직한 실시예에 따른 제1 기법을 설명하기 위한 도면이다.
학습 데이터 증강부(130)는 제1 기법을 통해 제2 학습 데이터를 생성하는 경우, 영상의 중심을 기준으로 벡터맵(vector map)을 전체적으로 축소 또는 확대하여, 제1 학습 데이터로부터 제2 학습 데이터를 자동으로 생성할 수 있다.
도 2를 참조하여 보다 자세히 설명하면, 학습 데이터 증강부(130)는 도 2의 (a)에 도시한 바와 같이, 벡터맵 변형 함수 v'=f(v)를 통해, 기본 상태의 벡터맵 v를 영상의 중심을 기준으로 방사형으로 줄이거나 늘려 변형된 벡터맵 v'를 획득할 수 있다. 여기서, 벡터맵 변형 함수 v'=f(v)는 기본 상태의 벡터맵 v을 입력으로 하고, 입력된 벡터맵 v를 영상의 중심을 기준으로 방사형으로 줄이거나 늘려, 변형된 벡터맵 v'를 출력한다.
그런 다음, 학습 데이터 증강부(130)는 도 2의 (b)에 도시된 바와 같이, 이미지 변환 함수 Itrans=T(I, v')를 통해, 변형된 벡터맵 v'를 제1 학습 데이터(의료 영상 I, 분할 영상 C)에 적용하여 이미지를 변환함으로써, 제2 학습 데이터(의료 영상 Itrans, 분할 영상 Ctrans)를 생성할 수 있다. 여기서, 이미지 변환 함수 Itrans=T(I, v')는 대상 영상 I와 변형된 벡터맵 v'를 입력으로 하고, 변형된 벡터맵 v'를 대상 영상 I에 적용하여 이미지를 변환하여, 변환된 이미지 Itrans를 출력한다.
도 3은 본 발명의 바람직한 실시예에 따른 제2 기법을 설명하기 위한 도면이다.
학습 데이터 증강부(130)는 제2 기법을 통해 제2 학습 데이터를 생성하는 경우, 외곽선(손상 위험 장기의 외곽선 등)을 기준으로 벡터맵(vector matp)을 전체적으로 축소 또는 확대하여, 제1 학습 데이터로부터 제2 학습 데이터를 자동으로 생성할 수 있다.
도 3을 참조하여 보다 자세히 설명하면, 학습 데이터 증강부(130)는 도 3의 (a)에 도시한 바와 같이, 벡터맵 변형 함수 v'=f(v)를 통해, 기본 상태의 벡터맵 v를 영상의 중심을 기준으로 방사형으로 줄이거나 늘려 변형된 벡터맵 v'를 획득할 수 있다. 여기서, 벡터맵 변형 함수 v'=f(v)는 기본 상태의 벡터맵 v을 입력으로 하고, 입력된 벡터맵 v를 영상의 중심을 기준으로 방사형으로 줄이거나 늘려, 변형된 벡터맵 v'를 출력한다.
그런 다음, 학습 데이터 증강부(130)는 도 3의 (b)에 도시된 바와 같이, 제1 학습 데이터(의료 영상 I, 분할 영상 C) 내의 미리 정해진 영역의 외곽선 중 한 점이 영상의 중심에 위치하도록 제1 학습 데이터를 시프팅(shifting)하고, 이미지 변환 함수 Itrans=T(I, v')를 통해, 변형된 벡터맵 v'를 시프팅된 제1 학습 데이터(의료 영상 I, 분할 영상 C)에 적용하여 이미지를 변환하여 변환된 제1 학습 데이터(의료 영상 I, 분할 영상 C)를 생성하며, 미리 정해진 영역의 외곽선 중 한 점이 원래의 위치로 돌아가도록 변환된 제1 학습 데이터(의료 영상 I, 분할 영상 C)를 시프팅(shifting)하여, 제2 학습 데이터(의료 영상 Itrans, 분할 영상 Ctrans)를 생성할 수 있다. 여기서, 이미지 변환 함수 Itrans=T(I, v')는 대상 영상 I와 변형된 벡터맵 v'를 입력으로 하고, 변형된 벡터맵 v'를 대상 영상 I에 적용하여 이미지를 변환하여, 변환된 이미지 Itrans를 출력한다.
도 4는 본 발명의 바람직한 실시예에 따른 제3 기법을 설명하기 위한 도면이다.
학습 데이터 증강부(130)는 제3 기법을 통해 제2 학습 데이터를 생성하는 경우, 두 환자의 영상을 기반으로, 외곽선(환자의 최외각선, 손상 위험 장기의 외곽선 등)을 기준으로 제1 학습 데이터로부터 제2 학습 데이터를 자동으로 생성할 수 있다.
도 4를 참조하여 보다 자세히 설명하면, 학습 데이터 증강부(130)는 도 4의 (a)에 도시한 바와 같이, 벡터맵 변형 함수 v'=g(v, Creg, Ctar)를 통해, 제1 학습 데이터 내의 제1 환자의 데이터(Ctar)를 기준으로 제1 환자와 상이한 제1 학습 데이터 내의 제2 환자의 데이터(Creg)를 가변 영상 정합(deformable image registration, DIR)시켜, 기본 상태의 벡터맵 v로부터 변형된 벡터맵 v'를 획득할 수 있다. 여기서, 벡터맵 변형 함수 v'=g(v, Creg, Ctar)는 기준이 되는 제1 영상 Ctar, 정합이 되는 제2 영상 Creg 및 기본 상태의 벡터맵 v를 입력으로 하고, 입력된 제1 영상 Ctar을 기준으로 입력된 제2 영상 Creg을 가변 영상 정합(DIR)시켜, 변형된 벡터맵 v'를 출력한다.
그런 다음, 학습 데이터 증강부(130)는 도 4의 (b)에 도시된 바와 같이, 이미지 변환 함수 Itrans=T(Ireg, v')를 통해, 변형된 벡터맵 v'를 제2 환자의 데이터(Ireg)에 적용하여 이미지를 변환함으로써, 제2 학습 데이터(Itrans)를 생성할 수 있다. 여기서, 이미지 변환 함수 Itrans=T(Ireg, v')는 대상 영상 Ireg와 변형된 벡터맵 v'를 입력으로 하고, 변형된 벡터맵 v'를 대상 영상 Ireg에 적용하여 이미지를 변환하여, 변환된 이미지 Itrans를 출력한다.
도 5는 본 발명의 바람직한 실시예에 따른 제4 기법을 설명하기 위한 도면이다.
학습 데이터 증강부(130)는 제4 기법을 통해 제2 학습 데이터를 생성하는 경우, 동일한 환자의 인접 슬라이스(slice) 영상들에 영상 가변 영상 정합(deformable image registration, DIR)을 적용하여 인접 슬라이스 영상들 사이에 위치하는 슬라이스 영상을 생성함으로써, 제1 학습 데이터로부터 제2 학습 데이터를 자동으로 생성할 수 있다. 여기서, 슬라이스 영상은 특정 환자에 대한 의료 영상을 획득할 때, 미리 설정된 간격에 따라 3차원의 한 축 방향으로 이동하면서 특정 환자를 촬영하여 획득한 2차원 영상을 말한다. 그리고, n번째 슬라이스 영상의 인접하는 영상은 n-1번째 슬라이스 영상과 n+1번째 슬라이스 영상을 말한다.
도 5를 참조하여 보다 자세히 설명하면, 학습 데이터 증강부(130)는 도 5의 (a)에 도시된 바와 같이, 벡터맵 변형 함수 v'=g(v, Creg, Ctar)를 통해, 제1 학습 데이터 내의 제1 환자의 제1 슬라이스 데이터(Ctar)를 기준으로 제1 슬라이스 데이터에 인접한 제2 슬라이스 데이터(Creg)를 가변 영상 정합(deformable image registration, DIR)시켜, 기본 상태의 벡터맵 v로부터 변형된 벡터맵 v'를 획득할 수 있다. 여기서, 벡터맵 변형 함수 v'=g(v, Creg, Ctar)는 기준이 되는 제1 슬라이스 영상 Ctar, 정합이 되는 제2 슬라이스 영상 Creg 및 기본 상태의 벡터맵 v를 입력으로 하고, 입력된 제1 슬라이스 영상 Ctar을 기준으로 입력된 제2 슬라이스 영상 Creg을 가변 영상 정합(DIR)시켜, 변형된 벡터맵 v'를 출력한다.
그런 다음, 학습 데이터 증강부(130)는 도 5의 (b)에 도시된 바와 같이, 이미지 변환 함수 Itrans=T(I, v')를 통해, 변형된 벡터맵 v'를 제2 슬라이스 데이터(의료 영상 I, 분할 영상 C)에 적용하여 이미지를 변환함으로써, 제2 학습 데이터(의료 영상 Itrans, 분할 영상 Ctrans)를 생성할 수 있다. 여기서, 이미지 변환 함수 Itrans=T(I, v')는 대상 영상 I와 변형된 벡터맵 v'를 입력으로 하고, 변형된 벡터맵 v'를 대상 영상 I에 적용하여 이미지를 변환하여, 변환된 이미지 Itrans를 출력한다.
도 6은 본 발명의 바람직한 실시예에 따른 제5 기법을 설명하기 위한 도면이다.
학습 데이터 증강부(130)는 제5 기법을 통해 제2 학습 데이터를 생성하는 경우, 무작위로 벡터맵(vector map)의 값을 변경한 후, 무작위로 변경된 벡터맵을 통해, 제1 학습 데이터로부터 제2 학습 데이터를 자동으로 생성할 수 있다.
도 6을 참조하여 보다 자세히 설명하면, 학습 데이터 증강부(130)는 도 6의 (a)에 도시된 바와 같이, 벡터맵 변형 함수 v'=h(v)를 통해, 기본 상태의 벡터맵 v를 무작위로 변형하여, 변형된 벡터맵 v'를 획득할 수 있다. 여기서, 벡터맵 변형 함수 v'=h(v)는 기본 상태의 벡터맵 v을 입력으로 하고, 입력된 벡터맵 v를 무작위로 변형하여, 변형된 벡터맵 v'를 출력한다.
그런 다음, 학습 데이터 증강부(130)는 도 6의 (b)에 도시된 바와 같이, 이미지 변환 함수 Itrans=T(I, v')를 통해, 변형된 벡터맵 v'를 제1 학습 데이터(의료 영상 I, 분할 영상 C)에 적용하여 이미지를 변환함으로써, 제2 학습 데이터(의료 영상 Itrans, 분할 영상 Ctrans)를 생성할 수 있다. 여기서, 이미지 변환 함수 Itrans=T(I, v')는 대상 영상 I와 변형된 벡터맵 v'를 입력으로 하고, 변형된 벡터맵 v'를 대상 영상 I에 적용하여 이미지를 변환하여, 변환된 이미지 Itrans를 출력한다.
이때, 학습 데이터 증강부(130)는 심한 불연결성을 완화시키기 위해, 변환된 이미지에 가우시안 필터링(Gaussian Filtering)을 적용하여, 제2 학습 데이터를 생성할 수 있다.
다시 도 1을 참조하면, 딥러닝 모델 생성부(150)는 정보 수신부(110)로부터 제공받은 제1 학습 데이터 및 학습 데이터 증강부(130)로부터 제공받은 제2 학습 데이터를 통해 딥러닝 모델을 생성한다. 즉, 딥러닝 모델 생성부(150)는 제1 학습 데이터 및 제2 학습 데이터를 이용한 반복적인 학습 과정을 거쳐 딥러닝 모델을 생성할 수 있다. 이와 같이 생성된 딥러닝 모델은 두경부 의료영상이 입력되면, 자동으로 분할을 수행하고, 그 결과를 출력하게 된다.
그러면, 도 7을 참조하여 본 발명의 바람직한 실시예에 따른 두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 방법에 대하여 설명한다.
도 7은 본 발명의 바람직한 실시예에 따른 두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 방법을 설명하기 위한 흐름도이다.
도 7을 참조하면, 학습 데이터 증강 장치(100)는 두경부 의료영상을 자동으로 분할하는 딥러닝 모델의 생성에 이용되는 제1 학습 데이터를 수신할 수 있다(S110). 이때, 학습 데이터 증강 장치(100)는 외부의 단말(도시하지 않음)로부터 통신망(도시하지 않음)을 통해 제1 학습 데이터를 수신할 수 있다. 물론, 학습 데이터 증강 장치(100)는 통신망을 통해 연결된 외부의 단말이나 학습 데이터 증강 장치(100)에 직접 연결된 단말 등을 통해 미리 제1 학습 데이터를 수신하여 저장하고, 저장되어 있는 제1 학습 데이터를 이용할 수도 있다. 이 경우, 본 단계 S110은 생략될 수 있다.
여기서, 제1 학습 데이터는 복수의 환자에 대한, 두경부 부분에 대한 의료 영상, 의료 영상에서 특정 영역을 분리한 분할 영상 등일 수 있다.
그러면, 학습 데이터 증강 장치(100)는 제1 기법 내지 제5 기법을 각각 학습 데이터에 적용하여, 제1 학습 데이터로부터 제2 학습 데이터를 생성한다(S130).
여기서, 제1 기법은 영상의 중심을 기준으로 학습 데이터를 증강하는 방법이고, 제2 기법은 외곽선을 기준으로 학습 데이터를 증강하는 방법이며, 제3 기법은 서로 다른 환자의 영상으로부터 학습 데이터를 증강하는 방법이고, 제4 기법은 동일한 환자에 대한 서로 인접하는 영상으로부터 학습 데이터를 증강하는 방법이며, 제5 기법은 벡터맵(vector map)의 무작위 변형을 통해 학습 데이터를 증강하는 방법을 말한다.
여기서, 학습 데이터 증강 장치(100)는 제1 학습 데이터에 제1 기법 내지 제5 기법을 적용하여, 제1 학습 데이터로부터 제2 학습 데이터를 생성하는 과정을 미리 정해진 횟수만큼 반복적으로 수행할 수 있다. 이때, 학습 데이터 증강 장치(100)는 제1 기법 내지 제5 기법을, 제1 학습 데이터 및 이전에 생성된 제2 학습 데이터에 적용하여, 제1 학습 데이터 및 이전에 생성된 제2 학습데이터로부터 현 시점의 제2 학습 데이터를 생성할 수 있다.
그런 다음, 학습 데이터 증강 장치(100)는 제1 학습 데이터 및 제2 학습 데이터를 통해 딥러닝 모델을 생성한다(S150). 즉, 학습 데이터 증강 장치(100)는 제1 학습 데이터 및 제2 학습 데이터를 이용한 반복적인 학습 과정을 거쳐 딥러닝 모델을 생성할 수 있다. 이와 같이 생성된 딥러닝 모델은 두경부 의료영상이 입력되면, 자동으로 분할을 수행하고, 그 결과를 출력하게 된다.
이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 기록 매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 기록 매체로서는 자기기록매체, 광 기록매체 등이 포함될 수 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100 : 학습 데이터 증강 장치,
110 : 정보 수신부,
130 : 학습 데이터 증강부,
150 : 딥러닝 모델 생성부

Claims (13)

  1. 두경부 의료영상을 자동으로 분할하는 딥러닝 모델(deep learning model)의 생성에 이용되는 제1 학습 데이터를 수신하는 정보 수신부;
    영상의 중심을 기준으로 학습 데이터를 증강하는 제1 기법, 외곽선을 기준으로 학습 데이터를 증강하는 제2 기법, 서로 다른 환자의 영상으로부터 학습 데이터를 증강하는 제3 기법, 동일한 환자에 대한 서로 인접하는 영상으로부터 학습 데이터를 증강하는 제4 기법 및 벡터맵(vector map)의 무작위 변형을 통해 학습 데이터를 증강하는 제5 기법을 각각 상기 제1 학습 데이터에 적용하여, 상기 제1 학습 데이터로부터 제2 학습 데이터를 생성하는 학습 데이터 증강부; 및
    상기 제1 학습 데이터 및 상기 제2 학습 데이터를 통해 상기 딥러닝 모델을 생성하는 딥러닝 모델 생성부;
    를 포함하는 두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치.
  2. 제1항에서,
    상기 학습 데이터 증강부는,
    상기 제1 기법을 통해 상기 제2 학습 데이터를 생성하는 경우,
    기본 상태의 벡터맵을 영상의 중심을 기준으로 방사형으로 줄이거나 늘려 변형된 벡터맵을 획득하고,
    상기 변형된 벡터맵을 상기 제1 학습 데이터에 적용하여 이미지를 변환함으로써, 상기 제2 학습 데이터를 생성하는,
    두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치.
  3. 제1항에서,
    상기 학습 데이터 증강부는,
    상기 제2 기법을 통해 상기 제2 학습 데이터를 생성하는 경우,
    기본 상태의 벡터맵을 영상의 중심을 기준으로 방사형으로 줄이거나 늘려 변형된 벡터맵을 획득하고,
    상기 제1 학습 데이터 내의 미리 정해진 영역의 외곽선 중 한 점이 영상의 중심에 위치하도록 상기 제1 학습 데이터를 시프팅(shifting)하며,
    상기 변형된 벡터맵을 시프팅된 상기 제1 학습 데이터에 적용하여 이미지를 변환함으로써, 변환된 상기 제1 학습 데이터를 생성하고,
    상기 한 점이 원래의 위치로 돌아가도록 변환된 상기 제1 학습 데이터를 시프팅(shifting)하여, 상기 제2 학습 데이터를 생성하는,
    두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치.
  4. 제1항에서,
    상기 학습 데이터 증강부는,
    상기 제3 기법을 통해 상기 제2 학습 데이터를 생성하는 경우,
    상기 제1 학습 데이터 내의 제1 환자의 데이터를 기준으로 상기 제1 환자와 상이한 상기 제1 학습 데이터 내의 제2 환자의 데이터를 가변 영상 정합(deformable image registration, DIR)시켜, 기본 상태의 벡터맵으로부터 변형된 벡터맵을 획득하고,
    상기 변형된 벡터맵을 상기 제2 환자의 데이터에 적용하여 이미지를 변환함으로써, 상기 제2 학습 데이터를 생성하는,
    두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치.
  5. 제1항에서,
    상기 학습 데이터 증강부는,
    상기 제4 기법을 통해 상기 제2 학습 데이터를 생성하는 경우,
    상기 제1 학습 데이터 내의 제1 환자의 제1 슬라이스(slice) 데이터를 기준으로 상기 제1 슬라이스 데이터에 인접한 제2 슬라이스 데이터를 가변 영상 정합(deformable image registration, DIR)시켜, 기본 상태의 벡터맵으로부터 변형된 벡터맵을 획득하고,
    상기 변형된 벡터맵을 상기 제2 슬라이스 데이터에 적용하여 이미지를 변환함으로써, 상기 제2 학습 데이터를 생성하는,
    두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치.
  6. 제1항에서,
    상기 학습 데이터 증강부는,
    상기 제5 기법을 통해 상기 제2 학습 데이터를 생성하는 경우,
    기본 상태의 벡터맵을 무작위로 변형하여, 변형된 벡터맵을 획득하고,
    상기 변형된 벡터맵을 상기 제1 학습 데이터에 적용하여 이미지를 변환함으로써, 상기 제2 학습 데이터를 생성하는,
    두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치.
  7. 제1항에서,
    상기 학습 데이터 증강부는,
    상기 제1 학습 데이터에 상기 제1 기법, 상기 제2 기법, 상기 제3 기법, 상기 제4 기법 및 상기 제5 기법을 적용하여, 상기 제1 학습 데이터로부터 상기 제2 학습 데이터를 생성하는 과정을 미리 정해진 횟수만큼 반복적으로 수행하는,
    두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치.
  8. 제7항에서,
    상기 학습 데이터 증강부는,
    상기 제1 기법, 상기 제2 기법, 상기 제3 기법, 상기 제4 기법 및 상기 제5 기법을, 상기 제1 학습 데이터 및 이전에 생성된 상기 제2 학습 데이터에 적용하여, 상기 제1 학습 데이터 및 이전에 생성된 상기 제2 학습 데이터로부터 현 시점의 상기 제2 학습 데이터를 생성하는,
    두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치.
  9. 제1항에서,
    상기 제1 학습 데이터는,
    두경부 부분에 대한 의료 영상 또는 상기 의료 영상에서 특정 영역을 분리한 분할 영상인,
    두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치.
  10. 두경부 의료영상을 자동으로 분할하는 딥러닝 모델(deep learning model)을 위한 학습 데이터 증강 장치가 수행하는 학습 데이터 증강 방법으로서,
    영상의 중심을 기준으로 학습 데이터를 증강하는 제1 기법, 외곽선을 기준으로 학습 데이터를 증강하는 제2 기법, 서로 다른 환자의 영상으로부터 학습 데이터를 증강하는 제3 기법, 동일한 환자에 대한 서로 인접하는 영상으로부터 학습 데이터를 증강하는 제4 기법 및 벡터맵(vector map)의 무작위 변형을 통해 학습 데이터를 증강하는 제5 기법을 각각, 두경부 의료영상을 자동으로 분할하는 딥러닝 모델의 생성에 이용되는 제1 학습 데이터에 적용하여, 상기 제1 학습 데이터로부터 제2 학습 데이터를 생성하는 단계; 및
    상기 제1 학습 데이터 및 상기 제2 학습 데이터를 통해 상기 딥러닝 모델을 생성하는 단계;
    를 포함하는 두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 방법.
  11. 제10항에서,
    상기 제2 학습 데이터 생성 단계는,
    상기 제1 학습 데이터에 상기 제1 기법, 상기 제2 기법, 상기 제3 기법, 상기 제4 기법 및 상기 제5 기법을 적용하여, 상기 제1 학습 데이터로부터 상기 제2 학습 데이터를 생성하는 과정을 미리 정해진 횟수만큼 반복적으로 수행하는 것으로 이루어지는,
    두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 방법.
  12. 제11항에서,
    상기 제2 학습 데이터 생성 단계는,
    상기 제1 기법, 상기 제2 기법, 상기 제3 기법, 상기 제4 기법 및 상기 제5 기법을, 상기 제1 학습 데이터 및 이전에 생성된 상기 제2 학습 데이터에 적용하여, 상기 제1 학습 데이터 및 이전에 생성된 상기 제2 학습 데이터로부터 현 시점의 상기 제2 학습 데이터를 생성하는 것으로 이루어지는,
    두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 방법.
  13. 제10항 내지 제12항 중 어느 한 항에 기재된 두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 방법을 컴퓨터에서 실행시키기 위하여 컴퓨터로 읽을 수 있는 기록 매체에 저장된 컴퓨터 프로그램.
KR1020200106825A 2020-08-25 2020-08-25 두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치 및 방법 KR102465636B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200106825A KR102465636B1 (ko) 2020-08-25 2020-08-25 두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200106825A KR102465636B1 (ko) 2020-08-25 2020-08-25 두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20220026143A true KR20220026143A (ko) 2022-03-04
KR102465636B1 KR102465636B1 (ko) 2022-11-09

Family

ID=80813951

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200106825A KR102465636B1 (ko) 2020-08-25 2020-08-25 두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102465636B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024038990A1 (ko) * 2022-08-17 2024-02-22 주식회사 넥스트칩 영상 개선 뉴럴 네트워크 모델의 학습 방법 및 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200032651A (ko) 2018-09-18 2020-03-26 서울대학교산학협력단 3차원 영상 재구성 장치 및 그 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200032651A (ko) 2018-09-18 2020-03-26 서울대학교산학협력단 3차원 영상 재구성 장치 및 그 방법

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Akihiro Takemura 외, An uncertainty metric to evaluate deformation vector fields for dose accumulation in radiotherapy, Physics and Imaging in Radiation Oncology, 2018.05.31., Vol.6, pp.77-82. *
Krishna Chaitanya 외, Semi-supervised Task-driven Data Augmentation for Medical Image Segmentation, arXiv, 2020.07.09., pp.1-13. *
Michael D. Ketcha 외, Learning-based deformable image registration: effect of statistical mismatch between train and test images, Journal of Medical Imaging, 2019.12.17., Vol.6, No.4, pp.1-10. *
Vincent Andrearczyk 외, Automatic Segmentation of Head and Neck Tumors and Nodal Metastases in PET-CT scans, MIDL 2020, 2020.07.09., pp.1-11. *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024038990A1 (ko) * 2022-08-17 2024-02-22 주식회사 넥스트칩 영상 개선 뉴럴 네트워크 모델의 학습 방법 및 장치

Also Published As

Publication number Publication date
KR102465636B1 (ko) 2022-11-09

Similar Documents

Publication Publication Date Title
Yi et al. Audio-driven talking face video generation with learning-based personalized head pose
US11907839B2 (en) Detail-preserving image editing techniques
KR102013806B1 (ko) 인공데이터 생성 방법 및 장치
Varsavsky et al. Test-time unsupervised domain adaptation
Bissoto et al. Deep-learning ensembles for skin-lesion segmentation, analysis, classification: RECOD titans at ISIC challenge 2018
WO2021208601A1 (zh) 基于人工智能的图像处理方法、装置、设备及存储介质
CN111047629B (zh) 多模态图像配准的方法、装置、电子设备及存储介质
US20230169571A1 (en) Image-to-image translation using unpaired data for supervised learning
Bongratz et al. Vox2cortex: Fast explicit reconstruction of cortical surfaces from 3d mri scans with geometric deep neural networks
Zhao et al. S3Reg: superfast spherical surface registration based on deep learning
WO2021015231A1 (ja) 学習装置、方法およびプログラム、関心領域抽出装置、方法およびプログラム、並びに学習済み抽出モデル
JP2023535084A (ja) 施設平面図に含まれた記号分析装置及び方法
KR102465636B1 (ko) 두경부 의료영상을 자동으로 분할하는 딥러닝 모델을 위한 학습 데이터 증강 장치 및 방법
KR20240011862A (ko) 의료 미용 치료 전의 해부학적 특징부의 이미지로부터 인체 해부학적 특징부에 대한 의료 미용 치료의 예상되는 결과의 이미지를 생성하는 방법
US20230070321A1 (en) Face recognition network model with face alignment based on knowledge distillation
Chhatkuli et al. Live image parsing in uterine laparoscopy
Organisciak et al. Makeup style transfer on low-quality images with weighted multi-scale attention
Zhou et al. Self-distilled hierarchical network for unsupervised deformable image registration
CN113706695A (zh) 深度学习进行3d股骨头建模的系统及方法、存储介质
Kan et al. Enhancing multi-channel eeg classification with gramian temporal generative adversarial networks
Katzir et al. Cross-domain cascaded deep translation
WO2020175445A1 (ja) 学習方法、学習装置、生成モデル及びプログラム
Chen et al. Local implicit neural representations for multi-sequence MRI translation
Chen et al. Spatio-temporal causal transformer for multi-grained surgical phase recognition
Khan et al. Face recognition via multi-level 3D-GAN colorization

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant