KR102069774B1 - 영상 처리 장치 및 방법 - Google Patents

영상 처리 장치 및 방법 Download PDF

Info

Publication number
KR102069774B1
KR102069774B1 KR1020180035267A KR20180035267A KR102069774B1 KR 102069774 B1 KR102069774 B1 KR 102069774B1 KR 1020180035267 A KR1020180035267 A KR 1020180035267A KR 20180035267 A KR20180035267 A KR 20180035267A KR 102069774 B1 KR102069774 B1 KR 102069774B1
Authority
KR
South Korea
Prior art keywords
image
images
channel
boundary
selecting
Prior art date
Application number
KR1020180035267A
Other languages
English (en)
Other versions
KR20190113078A (ko
Inventor
양동현
이준구
김남국
서준범
김영학
고지연
Original Assignee
울산대학교 산학협력단
재단법인 아산사회복지재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 울산대학교 산학협력단, 재단법인 아산사회복지재단 filed Critical 울산대학교 산학협력단
Priority to KR1020180035267A priority Critical patent/KR102069774B1/ko
Publication of KR20190113078A publication Critical patent/KR20190113078A/ko
Application granted granted Critical
Publication of KR102069774B1 publication Critical patent/KR102069774B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/005Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

일 실시예에 따른 영상 처리 장치는 적층됨으로써 대상체에 대한 3차원 영상을 구성하는, 단층 촬영된 복수 개의 영상을 획득하는 영상 획득부와, 상기 영상 획득부에 의해 획득된 복수 개의 영상 중 상기 적층되는 순서를 고려하여서 제1 내지 제3 영상을 선별하는 영상 선별부와, 상기 제1 영상으로부터 적색(RED) 채널, 녹색(GREEN) 채널 및 청색(BLUE) 채널 중 어느 하나의 채널에 대한 제1 채널값을 추출하고, 상기 제2 영상으로부터 나머지 2개의 채널 중 어느 하나의 채널에 대한 제2 채널값을 추출하며, 상기 제3 영상으로부터 상기 나머지 2개의 채널 중 다른 하나의 채널에 대한 제3 채널값을 추출하는 채널값 추출부와, 상기 제1 내지 제3 채널값을 입력으로 받아서, 상기 제2 영상에 포함된 영역의 경계를 출력하도록 기계 학습된 인공 신경망 모델(artificial neural network model)부를 포함한다.

Description

영상 처리 장치 및 방법 {APPARATUS AND METHOD FOR PROCESSING IMAGE}
본 발명은 영상 처리 장치 및 방법에 관한 것이다.
딥러닝(deep-learning)을 이용한 영상 처리 기술은 현재 다양한 분야에서 활용되고 있으며 그와 관련된 기술 또한 빠르게 발전하고 있다.
이러한 영상 처리 기술은 의료 영상에도 적용되고 있다. 예컨대 CT(computed tomography) 장치로부터 단면 촬영된 영상을 획득한 뒤, 이러한 영상에 나타나 뼈, 디스크, 관절, 신경, 인대 또는 장기 등을 인식하고 구분하는 기술이 등장하고 있다. 더 나아가서는 신경이나 장기 등을 보다 세분화하여 인식하고 구분하는 기술이 등장하고 있는데, 예를 들면 심장에 대한 CT 영상에서 심근 영역을 인식하고 구분하는 것 등이 있다.
한국공개특허, 10-2017-0034258호 (2017.03.28. 공개)
본 발명의 해결하고자 하는 과제는 CT 장치와 같은 의료 영상 장치로부터 3차원 영상이 획득된 경우, 이러한 3차원 영상에 나타난 객체를 정확하고 빠르게 인식하는 기술을 제공하는 것이다.
다만, 본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
일 실시예에 따른 영상 처리 장치는 적층됨으로써 대상체에 대한 3차원 영상을 구성하는, 단층 촬영된 복수 개의 영상을 획득하는 영상 획득부와, 상기 영상 획득부에 의해 획득된 복수 개의 영상 중 상기 적층되는 순서를 고려하여서 제1 내지 제3 영상을 선별하는 영상 선별부와, 상기 제1 영상으로부터 적색(RED) 채널, 녹색(GREEN) 채널 및 청색(BLUE) 채널 중 어느 하나의 채널에 대한 제1 채널값을 추출하고, 상기 제2 영상으로부터 나머지 2개의 채널 중 어느 하나의 채널에 대한 제2 채널값을 추출하며, 상기 제3 영상으로부터 상기 나머지 2개의 채널 중 다른 하나의 채널에 대한 제3 채널값을 추출하는 채널값 추출부와, 상기 제1 내지 제3 채널값을 입력으로 받아서, 상기 제2 영상에 포함된 영역의 경계를 출력하도록 기계 학습된 인공 신경망 모델(artificial neural network model)부를 포함한다.
또한, 상기 영상 선별부는 상기 제1 내지 제3 영상 모두를 상기 복수 개의 영상 중 동일한 영상으로 선별하여서 제1 영상 세트를 구성하고, 상기 적층되는 순서에 따라 상기 복수 개의 영상에 순차적으로 숫자를 부여했을 때 상기 제2 영상에 부여된 숫자를 기준으로 숫자의 차이가 +1인 영상과 -1인 영상을 각각 제1 영상과 제3 영상으로 선별하여서 제2 영상 세트를 구성하며, 상기 제2 영상에 부여된 숫자를 기준으로 숫자의 차이가 +2인 영상과 -2인 영상을 각각 제1 영상과 제3 영상으로 선별하여서 제3 영상 세트를 구성하고, 상기 인공 신경망 모델부는 상기 제1 영상 세트를 입력으로 받아서 상기 제2 영상에 포함된 영역의 경계를 출력하도록 기계 학습된 제1 모델부와, 상기 제2 영상 세트를 입력으로 받아서 상기 제2 영상에 포함된 영역의 경계를 출력하도록 기계 학습된 제2 모델부와, 상기 제3 영상 세트를 입력으로 받아서 상기 제2 영상에 포함된 영역의 경계를 출력하도록 기계 학습된 제3 모델부와, 상기 제1 내지 제3 모델부가 출력하는 결과를 조합하여서 상기 제2 영상에 포함된 영역의 경계를 출력하는 조합부를 포함할 수 있다.
또한, 상기 영상 처리 장치는 상기 복수 개의 영상 각각의 스케일을 변환시키는 전처리부를 더 포함하고, 상기 영상 선별부는 상기 전처리부에 의해 스케일 변환된 복수 개의 영상 중 상기 적층되는 순서를 고려하여서 제1 내지 제3 영상을 선별할 수 있다.
또한, 상기 전처리부는 윈도우 폭(window width, WW)이 150에서 300 사이의 값이고 윈도우 레벨(window level, WL)은 50에서 150 사이의 값이 되도록 스케일 변환시킬 수 있다.
또한, 상기 영상 처리 장치는 상기 3차원 영상의 coronal 방향에 대한 단면에서의 해상도, 상기 3차원 영상의 sagittal 방향에 대한 단면에서의 해상도 및 상기 3차원 영상의 axial 방향에 대한 단면에서의 해상도를 서로 동일하게 변환시키는 전처리부를 더 포함하고, 상기 영상 선별부는 상기 전처리부에 의해 해상도가 동일하게 변환된 3차원 영상을 구성하는 복수 개의 영상 중에서, 상기 적층되는 순서를 고려하여서 제1 내지 제3 영상을 선별할 수 있다.
일 실시예에 따른 영상 처리 방법은 영상 처리 장치에 의해 수행되며, 적층됨으로써 대상체에 대한 3차원 영상을 구성하는, 단층 촬영된 복수 개의 영상을 획득하는 단계와, 상기 획득된 복수 개의 영상 중 상기 적층되는 순서를 고려하여서 제1 내지 제3 영상을 선별하는 단계와, 상기 제1 영상으로부터 적색(RED) 채널, 녹색(GREEN) 채널 및 청색(BLUE) 채널 중 어느 하나의 채널에 대한 제1 채널값을 추출하고, 상기 제2 영상으로부터 나머지 2개의 채널 중 어느 하나의 채널에 대한 제2 채널값을 추출하며, 상기 제3 영상으로부터 상기 나머지 2개의 채널 중 다른 하나의 채널에 대한 제3 채널값을 추출하는 단계와, 상기 제1 내지 제3 채널값을 입력으로 받아서, 상기 제2 영상에 포함된 영역의 경계를 사전에 학습된 인공 신경망 모델을 통해 출력하는 단계를 포함한다.
일 실시예에 따른 컴퓨터 판독가능한 기록매체는 적층됨으로써 대상체에 대한 3차원 영상을 구성하는, 단층 촬영된 복수 개의 영상을 획득하는 단계와, 상기 획득된 복수 개의 영상 중 상기 적층되는 순서를 고려하여서 제1 내지 제3 영상을 선별하는 단계와, 상기 제1 영상으로부터 적색(RED) 채널, 녹색(GREEN) 채널 및 청색(BLUE) 채널 중 어느 하나의 채널에 대한 제1 채널값을 추출하고, 상기 제2 영상으로부터 나머지 2개의 채널 중 어느 하나의 채널에 대한 제2 채널값을 추출하며, 상기 제3 영상으로부터 상기 나머지 2개의 채널 중 다른 하나의 채널에 대한 제3 채널값을 추출하는 단계와, 상기 제1 내지 제3 채널값을 입력으로 받아서, 상기 제2 영상에 포함된 영역의 경계를 사전에 학습된 인공 신경망 모델을 통해 출력하는 단계를 수행하도록 프로그램된 컴퓨터 프로그램을 저장한다.
일 실시예에 따른 컴퓨터 판독가능한 기록매체에 저장된 컴퓨터 프로그램은 적층됨으로써 대상체에 대한 3차원 영상을 구성하는, 단층 촬영된 복수 개의 영상을 획득하는 단계와, 상기 획득된 복수 개의 영상 중 상기 적층되는 순서를 고려하여서 제1 내지 제3 영상을 선별하는 단계와, 상기 제1 영상으로부터 적색(RED) 채널, 녹색(GREEN) 채널 및 청색(BLUE) 채널 중 어느 하나의 채널에 대한 제1 채널값을 추출하고, 상기 제2 영상으로부터 나머지 2개의 채널 중 어느 하나의 채널에 대한 제2 채널값을 추출하며, 상기 제3 영상으로부터 상기 나머지 2개의 채널 중 다른 하나의 채널에 대한 제3 채널값을 추출하는 단계와, 상기 제1 내지 제3 채널값을 입력으로 받아서, 상기 제2 영상에 포함된 영역의 경계를 사전에 학습된 인공 신경망 모델을 통해 출력하는 단계를 수행하도록 프로그램된다.
일 실시예에 따르면 인공 신경망 모델부에 포함된 각 모델부는 RGB 채널에 따른 채널값을 처리하도록 기계 학습된 모델이다. 따라서, 영상을 분석함에 있어서 RGB 채널을 이용하도록 기계 학습된 모델이 있다면, 이러한 모델을 활용함으로써 일 실시예에 따른 영상 처리 기술의 구현이 가능하다.
아울러, 이격거리를 갖는 영상들이 RGB 각각의 채널에서 분석되도록 함으로써, 3차원 영상에서의 객체 인식이 보다 효율적이면서도 효과적으로 이루어질 수 있다.
도 1은 일 실시예에 따른 영상 처리 장치의 구성을 개념적으로 도시하고 있다.
도 2는 도 1에 도시된 영상 획득부에 의해 획득된 3차원 영상을 도시하고 있다.
도 3은 도 1에 도시된 영상 선별부에 의해서 영상이 선별되는 것과 관련된 과정을 도시하고 있다.
도 4는 도 1에 도시된 영상 선별부에 의해서 영상이 선별되는 것과 관련된 과정을 도시하고 있다.
도 5는 도 1에 도시된 영상 선별부에 의해서 영상이 선별되는 것과 관련된 과정을 도시하고 있다.
도 6은 도 1에 도시된 인공 신경망 모델부의 세부적인 구성을 도시하고 있다.
도 7은 일 실시예에 따른 영상 처리 방법의 절차를 도시하고 있다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 '포함'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.
또한, 명세서에서 사용되는 '부'라는 용어는 소프트웨어 또는 FPGA나 ASIC과 같은 하드웨어 구성요소를 의미하며, '부'는 어떤 역할들을 수행한다. 그렇지만 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '부'들로 결합되거나 추가적인 구성요소들과 '부'들로 더 분리될 수 있다.
또한, 본 명세서에서, '제1', '제2' 또는 '제1-1' 등의 표현은 서로 다른 구성 요소, 개체, 영상, 픽셀 또는 패치를 지칭하기 위한 예시적인 용어이다. 따라서, 상기 '제1', '제2' 또는 '제1-1' 등의 표현이 구성 요소 간의 순서를 나타내거나 우선 순위를 나타내는 것은 아니다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.
본 명세서에서 '대상체(object)'는 사람 또는 동물, 또는 사람 또는 동물의 일부를 포함한다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기나 혈관 또는 뼈 등을 포함할 수 있다.
또한, 본 명세서에서 '영상'은 이산적인 이미지 요소들(예를 들어, 2차원 이미지에 있어서의 픽셀들 및 3차원 이미지에 있어서의 복셀들)로 구성된 다차원(multi-dimensional) 데이터를 의미한다. 이에 따라, 영상은 예컨대 전술한 대상체의 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기나 혈관 또는 뼈 등을 포함한다.
또한, 본 명세서에서 의료 영상 장치는 예컨대 CT 장치, MRI 장치, X-ray 장치 또는 초음파 진단 장치 등을 포함하며, 전술한 영상을 출력할 수 있다.
또한, 본 명세서에서 '사용자'는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료 영상 전문가 등이 될 수 있으며, 의료 장치를 수리하는 기술자가 될 수 있으나, 이에 한정되지 않는다.
도 1은 일 실시예에 따른 영상 처리 장치(100)의 구성을 도시하고 있으며, 다만 도 1에 도시된 것은 예시적인 것에 불과하다. 이러한 영상 처리 장치(100)는 PC나 서버 등에서 구현될 수 있다.
도 1을 참조하면, 영상 처리 장치(100)는 영상 획득부(110), 영상 선별부(130), 채널값 추출부(140) 및 인공 신경망 모델(artificial neutral network model)부(150)를 포함하며, 실시예에 따라 전처리부(120) 및 표시부(160)를 더 포함할 수 있다. 여기서, 영상 획득부(110)는 데이터를 입력받는 포트 내지 유/무선 통신 모듈로서 구현 가능하다. 아울러, 전처리부(120), 영상 선별부(130), 채널값 추출부(140) 및 인공 신경망 모델부(150)는 이하에서 설명할 기능을 수행하도록 프로그램된 명령어를 저장하는 메모리 및 이러한 명령어를 실행하는 마이크로프로세서에 의해 구현 가능하다. 또한, 표시부(160)는 모니터와 같은 표시 장치에 의해 구현 가능하다.
영상 획득부(110)에 대해 먼저 살펴보면, 영상 획득부(110)는 대상체에 대해 소정 간격으로 단층 촬영된 영상을 복수 개 입력받는다. 영상 획득부(110)는 이러한 영상을 전술한 의료 영상 장치로부터 직접 입력받을 수 있다.
전처리부(120)는 영상 획득부(110)가 입력받은 영상 복수 개에 대해 전처리(pre-processing) 과정을 수행한다. 전처리 과정에는 복수 개의 영상 각각의 스케일을 변환시키는 과정 및 복수 개의 영상을 보간하는 과정이 있을 수 있으며, 다만 이에 한정되는 것은 아니다.
이 중에서 먼저, 스케일 변환 과정에 대해 살펴보기로 한다. CT 장치 등으로부터 획득된 영상의 HU(Hounsfield Unit)는 일반적으로 12bit이다. 전처리부(120)는 스케일 변환 과정을 통해, CT 장치 등으로부터 획득된 영상의 HU를 변환시키는데, 그 값은 예컨대 8bit일 수 있다. 이러한 스케일 변환 과정을 위해, 전처리부(120)는 윈도우 폭(window width, WW)은 특정 범위 사이의 값, 예컨대 150에서 300 사이의 값이 될 수 있으며, 윈도루 레벨(window level, WL) 또한 특정 범위 사이의 값, 예컨대 50에서 150 사이의 값이 될 수 있고, 바람직하게는 윈도우 폭과 윈도우 레벨이 각각 200과 100과 같은 특정값이 될 수 있다. 영상의 스케일이 변환되면, 사용자가 육안으로 보았을 때 영상에 나타난 객체의 선명도가 향상될 수 있다. 다만, 변환된 영상의 HU가 8bit인 것 그리고 WW와 WL 각각의 특정 범위 내지 각각에 대한 특정값은 예시적인 것에 불과하다.
또한, 전처리부(120)는 복수 개의 영상에 보간 과정을 수행하는데, 이에 대해서는 도 2를 참조하여 살펴보기로 한다. 도 2는 전술한 복수 개의 영상이 적층되어서 형성된 3차원 영상(10)을 도시하고 있다. 도 2를 참조하면, 3차원 영상(10)에 대한 X-Y 평면(coronal), Y-Z 평면(sagittal) 및 Z-X 평면 (axial) 각각에서의 단면에는 객체의 단면이 나타난다. 전처리부(120)는 이러한 3차원 영상(10)의 전술한 각각의 평면에서의 해상도가 서로 동일하게 되도록 보간 과정을 수행할 수 있다. 이 때, 보간 과정에는 B-spline interpolation이 이용될 수 있는데, B-spline interpolation 자체는 공지된 기술이므로 이에 대한 자세한 설명은 생략하기로 한다.
한편, 실시예에 따라서 스케일 변환 과정과 보간 과정 중 어느 하나만이 수행될 수도 있고 또는 스케일 변환 과정과 보간 과정이 모두 수행되지 않을 수도 있다. 다만, 이하에서는 스케일 변환 과정의 수행 후에 보간 과정이 수행되는 것을 전제로 설명하기로 한다.
다시 도 1을 참조하면, 영상 선별부(130)는 영상 선별 과정을 수행한다.
영상 선별 과정에 대해 보다 구체적으로 살펴보도록 한다. 복수 개의 영상의 개수가 n(n은 자연수)이고, 그 중 어느 하나의 영상을 a1이라고 하자. 영상 선별부(130)는 a1에 대해 총 3개의 영상 세트(제1 내지 제3 영상 세트)를 생성한다. 각각의 영상 세트에는 3개의 영상(제1 내지 제3 영상)이 포함된다. 이 중에서, 제1 영상은 적색 채널과 관련되고, 제2 영상은 녹색 채널 및 제3 영상은 청색 채널과 관련되어 있는데, 이에 대해서는 후술하기로 한다.
한편, 제1 영상 세트는 그 안에 포함된 영상 간의 이격거리가 0인 영상의 집합이고, 제2 영상 세트는 그 안에 포함된 영상 간의 이격거리가 1인 영상의 집합이며, 제3 영상 세트는 그 안에 포함된 영상 간의 이격거리가 2인 영상의 집합을 가리킨다. 여기서, 이격거리란 복수 개의 영상 각각에 그 적층 순서를 반영하는 숫자를 할당했을 때, 영상 간의 숫자의 차이를 의미한다. 만약 이격거리가 '0'이라면, 이는 영상 세트에 포함된 영상 간의 이격거리가 0인 것, 즉 영상 세트에 포함된 영상들은 서로 동일한 영상임을 의미한다.
다음으로, a1에 대한 제1 영상 세트를 생성하는 과정에 대해 살펴보기로 한다. 제1 영상 세트의 경우 그 안에 포함된 영상 간의 이격거리가 0이다. 즉, 영상 선별부(130)는 제1 영상 세트에 포함된 제1 영상과 제2 영상 및 제3 영상이 모두 a1이 되도록, 즉 동일한 영상이 되도록 영상을 선별한다. 도 3에 도시된 것과 같이, 복수 개의 영상(10) 중 식별번호 111이 a1이라고 한다면, 제1 영상 세트에 포함된 제1 영상 내지 제3 영상은 도시된 것과 같이 모두 식별번호 111로 표시된 a1이 된다. 이러한 제1 영상 세트를 생성하는 과정은 a1을 포함하여서 복수 개의 영상 n개 각각에 대해 수행된다.
a1에 대한 제2 영상 세트를 생성하는 과정에 대해 살펴보기로 한다. a1이 제2 영상 세트에 포함된 제2 영상이라고 할 때, 영상 선별부(130)는 제1 영상과 제3 영상이 각각 a1과 이격거리 d가 1인 영상이 영상을 선별한다. 도 4에 도시된 것과 같이, 제2 영상 세트에 포함된 제2 영상인 a1의 식별번호가 111일 때, 제1 영상은 a1로부터 이격거리가 +1인 영상(112)이고, 제3 영상은 a1로부터 이격거리가 -1인 영상(113)이다. 이러한 제2 영상 세트를 생성하는 과정은 a1을 포함하여서 복수 개의 영상 n개 각각에 대해 수행된다.
a1에 대한 제3 영상 세트를 생성하는 과정에 대해 살펴보기로 한다. a1이 제3 영상 세트에 포함된 제2 영상이라고 할 때, 영상 선별부(130)는 제1 영상과 제3 영상이 각각 a1과 이격거리 d가 2인 영상이 되도록 영상을 선별한다. 도 5에 도시된 것과 같이, 제3 영상 세트에 포함된 제2 영상인 a1의 식별번호가 111일 때, 제1 영상은 a1로부터 이격거리가 +2인 영상(114)이고, 제3 영상은 a1로부터 이격거리가 -2인 영상(115)이다. 이러한 제3 영상 세트를 생성하는 과정은 a1을 포함하여서 복수 개의 영상 n개 각각에 대해 수행된다.
이로써, 복수 개의 영상 n개가 주어졌을 때, 이격거리가 0인 제1 영상 세트 n개가 생성되고, 이격거리가 1인 제2 영상 세트 n개가 생성되며, 이격거리가 2인 제3 영상 세트 n개가 생성된다.
여기서, 영상 세트의 종류가 3개인 것, 그리고 이격거리의 숫자값 자체는 예시적인 것에 불과하며, 실시예에 따라 전술한 것과 다른 값을 가질 수도 있다.
다시 도 1을 참조하면, 채널값 추출부(140)는 영상으로부터 적색(RED) 채널, 녹색(GREEN) 채널 및 청색(BLUE) 채널 중 어느 하나의 채널에 대한 채널값을 추출한다. 복수 개의 영상 n개가 주어진 경우, 이격거리가 0인 제1 영상 세트 n개가 생성되고, 이격거리가 1인 제2 영상 세트 n개가 생성되며, 이격거리가 2인 제3 영상 세트 n개가 생성되어 있는 것을 전제로, 이하에서 보다 구체적으로 살펴보기로 한다.
이격거리가 0인 제1 영상 세트 n개에 대해 먼저 살펴보면, 채널값 추출부(140)는 n개의 영상 세트 중 첫번 째 영상 세트에 포함된 제1 영상으로부터 적색 채널에 대한 제1 채널값을 추출하고, 제2 영상으로부터 녹색 채널에 대한 제2 채널값을 추출하며, 제3 영상으로부터 청색 채널에 대한 제3 채널값을 추출한다. 다음으로, 두번 째 영상 세트에 대해서도 같은 과정이 반복되어서, n번째 영상 세트까지 반복된다.
다음으로, 이격거리가 1인 제2 영상 세트와 이격거리가 2인 제3 영상 세트에 대해서도 전술한 과정이 반복된다.
여기서, 영상으로부터 적색 채널에 대한 채널값을 추출한다는 것은, 영상이 적색 채널, 녹색 채널 및 청색 채널의 조합으로 구성되어 있을 때 이 중 적색 채널에 대해서만 따로 분리한 뒤 그 분리된 값을 영상의 각 픽셀에 할당한다는 의미이며, 이는 녹색 채널 및 청색 채널에 대해서도 마찬가지이다.
인공 신경망 모델부(150)는 채널값 생성부(140)에 의해 추출된 채널값을 입력으로 받아서, 복수 개의 영상 각각에 포함된 영역의 경계를 출력한다. 아울러, 표시부(160)는 인공 신경망 모델부(150)가 출력하는 영역의 경계를 표시한다.
여기서 '영역의 경계'란, 영상에 나타난 객체의 테두리 등을 의미하며, 객체란 영상이 의료 영상인 경우 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기나 혈관 또는 뼈 등일 수 있다.
보다 구체적으로 살펴보기 위해, 도 6을 참조하기로 한다. 도 6은 도 1에 도시된 인공 신경망 모델부(150)의 구성을 세부적으로 도시한 도면이다. 도 6을 참조하면, 인공 신경망 모델부(150)는 제1 모델부(151), 제2 모델부(152), 제3 모델부(153) 및 조합부(154)를 포함한다.
제1 모델부(151)는 채널값 추출부(140)에 의해 추출된 채널값 중에서 이격거리가 0인 제1 영상 세트로부터 추출된 채널값을 입력으로 받은 뒤, 해당 채널값을 기초로, 영상에 포함된 영역의 경계를 출력하도록 기계 학습된 모델이다. 예컨대, 제1 모델부(151)는 n개의 제1 영상 세트 중 첫번 째 제1 영상 세트에 포함된 제1 내지 제3 영상 각각에 대한 채널값을 입력으로 받아서, 제2 영상에 포함된 영역의 경계를 출력하며, 이러한 출력 과정을 n개의 제1 영상 세트 각각에 대해 수행한다.
제2 모델부(152)는 채널값 추출부(140)에 의해 추출된 채널값 중에서 이격거리가 1인 제2 영상 세트로부터 추출된 채널값을 입력으로 받은 뒤, 해당 채널값에 대응되는 영상에 포함된 영역의 경계를 출력하도록 기계 학습된 모델이다. 예컨대, 제2 모델부(152)는 n개의 제2 영상 세트 중 첫번 째 제1 영상 세트에 포함된 제1 내지 제3 영상을 입력으로 받아서, 제2 영상에 포함된 영역의 경계를 출력하며, 이러한 출력 과정을 n개의 제2 영상 세트 각각에 대해 수행한다.
제3 모델부(153)는 채널값 추출부(140)에 의해 추출된 채널값 중에서 이격거리가 2인 제3 영상 세트로부터 추출된 채널값을 입력으로 받은 뒤, 해당 채널값에 대응되는 영상에 포함된 영역의 경계를 출력하도록 기계 학습된 모델이다. 예컨대, 제3 모델부(153)는 n개의 제3 영상 세트 중 첫번 째 제1 영상 세트에 포함된 제1 내지 제3 영상을 입력으로 받아서, 제2 영상에 포함된 영역의 경계를 출력하며, 이러한 출력 과정을 n개의 제3 영상 세트 각각에 대해 수행한다.
여기서, 제1 모델부(151) 내지 제3 모델부(153)가 입력으로 받는 제1 채널값, 제2 채널값 및 제3 채널값은 각각 적색 채널, 녹색 채널 및 청색 채널에 대한 채널값이다. 즉, 제1 모델부(151) 내지 제3 모델부(153) 각각은 RGB 채널에 대한 채널값을 처리하도록 학습된 인공 신경망 모델이다.
조합부(154)는 제1 모델부(151)와 제2 모델부(152) 및 제3 모델부(153)가 출력한 결과를 비교하고 그 중 하나를 선정한다. 보다 구체적으로 살펴보면, 제1 모델부(151)가 출력하는 영역의 경계는 n개의 영상 중 어느 하나의 영상에 대한 것이고, 제2 모델부(152) 및 제3 모델부(153) 역시 n개의 영상 중 어느 하나의 영상에 대해 영역의 경계를 출력한다. 즉, 제1 모델부(151) 내지 제3 모델부(153)가 출력하는 영역의 경계는 동일한 영상에 관한 것이다. 이에 조합부(154)는 동일한 영상에 대해 출력된 제1 모델부(151) 내지 제3 모델부(153)의 각 결과를 majority voting과 같은 기법에 따라 비교하여서 어느 하나를 선정한다.
여기서, majority voting 자체는 이미 공지된 기술이므로, 이에 대한 설명은 생략하기로 한다. 아울러, 모델부의 개수가 제1 내지 제3, 즉 3개인 것은 예시적인 것에 불과하며, 실시예에 따라서 모델부의 개수는 3개보다 많거나 적을 수도 있다.
여기서, 인경 신경망 모델부(150) 및 그에 포함된 제1 모델부(151) 내지 제3 모델부(153)는 사전에 기계 학습된 모델로서, fully convolutional network(FCN)를 학습 모델로 적용하여서 학습된 것일 수 있으나 이에 한정되는 것은 아니다. 이러한 인공 신경망 모델부(150)의 학습 과정에 대해 살펴보면, 먼저 학습용 데이터가 마련된다. 학습용 데이터의 경우, 이격거리가 0인 제1 영상 세트가 제1 내지 제3 영상을 포함할 때, 제1 영상으로부터 추출된 적색 채널의 채널값과 제2 영상으로부터 추출된 녹색 채널의 채널값과 제3 영상으로부터 추출된 청색 채널의 채널값이 입력이고 제2 영상에 포함된 영역의 경계를 정답으로 하는 것이 있을 수 있다. 이격거리가 1인 것과 2인 것에 대해서도 각각 이와 마찬가지의 학습용 데이터가 마련될 수 있다.
학습 과정에서 인공 신경망 모델부(150)의 중간층에 포함되는 복수 개의 인공 뉴런들은 연결망(interconnection network)에 의해 입력과 상호 연결되고 출력과 상호 연결되는데, 이러한 연결망에는 각각 가중치가 적용될 수 있다. 이러한 가중치는, 복수 개의 학습용 데이터가 입력되어서 처리될 때마다, 입력과 정답 간의 유사성을 최대화시키도록 그 값이 결정 내지 변경될 수 있다. 여기서, 이와 같이 학습이 되는 과정 그 자체 내지 원리는 이미 공지된 기술이므로 이에 대한 추가적인 설명은 생략하기로 한다.
이상에서 살펴본 바와 같이, 일 실시예에 따르면 인공 신경망 모델부에 포함된 각 모델부는 RGB 채널에 따른 채널값을 처리하도록 기계 학습된 모델이다. 따라서, 영상을 분석함에 있어서 RGB 채널을 이용하도록 기계 학습된 모델이 있다면, 이러한 모델을 활용함으로써 일 실시예에 따른 영상 처리 기술의 구현이 가능하다.
아울러, 이격거리를 갖는 영상들이 RGB 각각의 채널에서 분석되도록 함으로써, 3차원 영상에서의 객체 인식이 보다 효율적이면서도 효과적으로 이루어질 수 있다.
한편, 전술한 실시예에서 영상 분석 내지 객체 인식은 도 2에서 3차원 영상(10)을 X-Y 평면(coronal)으로 자른 단면의 영상만을 가지고 수행되었으나, 본 발명의 사상이 이에 한정되는 것은 아니다. 예컨대, 실시예에 따라서 도 2의 3차원 영상(10)을 Y-Z 평면(sagittal) 또는 Z-X 평면(axial)으로 자른 단면의 영상을 가지고도 영상의 분석 내지 객체 인식이 수행될 수 있으며 이를 위해서는 도 6에 도시된 모델부에 더해서 추가적인 모델부가 인공 신경망 모델부(150)에 포함될 수 있다. 아울러, 또 다른 실시예에서는 X-Y 평면에서 잘린 영상을 기초로 수행된 영상 분석 결과, Y-Z 평면에서 잘린 영상을 기초로 수행된 영상 분석 결과, Z-X 평면에서 잘린 영상을 기초로 수행된 영상 분석 결과가 majority voting과 같은 기법에 따라 비교된 뒤, 그 비교 결과가 영상 분석 내지 객체 인식에 이용될 수도 있다.
도 7은 일 실시예에 따른 영상 처리 방법의 절차에 대해 개념적으로 도시하고 있다. 이러한 영상 처리 방법은 전술한 영상 처리 장치(100)에 의해 수행될 수 있다.
한편, 도 7에 도시된 절차는 예시적인 것에 불과하므로, 본 발명의 사상이 도 7에 도시된 것으로 한정 해석되지는 않는 바, 실시예에 따라서 도 7에 도시된 것과는 다른 순서로 절차가 수행될 수 있으며, 도 7에 도시된 절차 중 적어도 하나의 절차가 수행되지 않을 수도 있고, 도 7에 도시되지 않은 절차가 추가적으로 수행될 수도 있다.
먼저, 적층됨으로써 대상체에 대한 3차원 영상을 구성하는, 단층 촬영된 복수 개의 영상을 획득하는 단계(S100)가 수행된다.
또한, 상기 획득된 복수 개의 영상 중 상기 적층되는 순서를 고려하여서 제1 내지 제3 영상을 선별하는 단계(S110)가 수행된다.
또한, 상기 제1 영상으로부터 적색(RED) 채널, 녹색(GREEN) 채널 및 청색(BLUE) 채널 중 어느 하나의 채널에 대한 제1 채널값을 추출하고, 상기 제2 영상으로부터 나머지 2개의 채널 중 어느 하나의 채널에 대한 제2 채널값을 추출하며, 상기 제3 영상으로부터 상기 나머지 2개의 채널 중 다른 하나의 채널에 대한 제3 채널값을 추출하는 단계(S120)가 수행된다.
또한, 상기 제1 내지 제3 채널값을 입력으로 받아서, 상기 제2 영상에 포함된 영역의 경계를 사전에 학습된 인공 신경망 모델을 통해 출력하는 단계(S130)가 수행된다.
한편, 이러한 영상 처리 방법의 세부적인 내용은 영상 처리 장치(100)에 관한 것과 중복되므로, 영상 처리 장치(100)에 대한 설명을 원용하기로 한다.
한편, 전술한 일 실시예에 따른 영상 처리 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 프로그램된 컴퓨터 프로그램을 기록하는 컴퓨터 판독가능한 기록매체에서 구현될 수 있다.
또한, 전술한 일 실시예에 따른 영상 처리 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 프로그램된, 컴퓨터 판독가능한 기록매체에 저장된 컴퓨터 프로그램의 형태로 구현될 수 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100: 영상 처리 장치

Claims (8)

  1. 적층됨으로써 대상체에 대한 3차원 영상을 구성하는, 단층 촬영된 복수 개의 영상을 획득하는 영상 획득부와,
    상기 영상 획득부에 의해 획득된 복수 개의 영상 중 상기 적층되는 순서를 고려하여서 제1 내지 제3 영상을 선별하는 영상 선별부와,
    상기 제1 영상으로부터 적색(RED) 채널, 녹색(GREEN) 채널 및 청색(BLUE) 채널 중 어느 하나의 채널에 대한 제1 채널값을 추출하고, 상기 제2 영상으로부터 나머지 2개의 채널 중 어느 하나의 채널에 대한 제2 채널값을 추출하며, 상기 제3 영상으로부터 상기 나머지 2개의 채널 중 다른 하나의 채널에 대한 제3 채널값을 추출하는 채널값 추출부와,
    상기 제1 내지 제3 채널값을 입력으로 받아서, 상기 제2 영상에 포함된 영역의 경계를 출력하도록 기계 학습된 인공 신경망 모델(artificial neural network model)부를 포함하고,
    상기 영상 선별부는,
    상기 제1 내지 제3 영상 모두를 상기 복수 개의 영상 중 동일한 영상으로 선별하여서 제1 영상 세트를 구성하고, 상기 적층되는 순서에 따라 상기 복수 개의 영상에 순차적으로 숫자를 부여했을 때 상기 제2 영상에 부여된 숫자를 기준으로 숫자의 차이가 +1인 영상과 -1인 영상을 각각 제1 영상과 제3 영상으로 선별하여서 제2 영상 세트를 구성하며, 상기 제2 영상에 부여된 숫자를 기준으로 숫자의 차이가 +2인 영상과 -2인 영상을 각각 제1 영상과 제3 영상으로 선별하여서 제3 영상 세트를 구성하고,
    상기 인공 신경망 모델부는,
    상기 제1 영상 세트를 입력으로 받아서 상기 제2 영상에 포함된 영역의 경계를 출력하도록 기계 학습된 제1 모델부와, 상기 제2 영상 세트를 입력으로 받아서 상기 제2 영상에 포함된 영역의 경계를 출력하도록 기계 학습된 제2 모델부와, 상기 제3 영상 세트를 입력으로 받아서 상기 제2 영상에 포함된 영역의 경계를 출력하도록 기계 학습된 제3 모델부와, 상기 제1 내지 제3 모델부가 출력하는 결과를 조합하여서 상기 제2 영상에 포함된 영역의 경계를 출력하는 조합부를 포함하는
    영상 처리 장치.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 영상 처리 장치는,
    상기 복수 개의 영상 각각의 스케일을 변환시키는 전처리부를 더 포함하고,
    상기 영상 선별부는,
    상기 전처리부에 의해 스케일 변환된 복수 개의 영상 중 상기 적층되는 순서를 고려하여서 제1 내지 제3 영상을 선별하는
    영상 처리 장치.
  4. 제 3 항에 있어서,
    상기 전처리부는,
    스케일 변환된 영상 윈도우 폭(window width, WW)은 150에서 300 사이의 값이고 스케일 변환된 영상 윈도우 레벨(window level, WL)은 50에서 150 사이의 값이 되도록 상기 복수 개의 영상을 스케일 변환시키는
    영상 처리 장치.
  5. 제 1 항에 있어서,
    상기 영상 처리 장치는,
    상기 3차원 영상의 coronal 방향에 대한 단면에서의 해상도, 상기 3차원 영상의 sagittal 방향에 대한 단면에서의 해상도 및 상기 3차원 영상의 axial 방향에 대한 단면에서의 해상도를 서로 동일하게 변환시키는 전처리부를 더 포함하고,
    상기 영상 선별부는,
    상기 전처리부에 의해 해상도가 동일하게 변환된 3차원 영상을 구성하는 복수 개의 영상 중에서, 상기 적층되는 순서를 고려하여서 제1 내지 제3 영상을 선별하는
    영상 처리 장치.
  6. 영상 처리 장치에 의해 수행되는 영상 처리 방법으로서,
    적층됨으로써 대상체에 대한 3차원 영상을 구성하는, 단층 촬영된 복수 개의 영상을 획득하는 단계와,
    상기 획득된 복수 개의 영상 중 상기 적층되는 순서를 고려하여서 제1 내지 제3 영상을 선별하는 단계와,
    상기 제1 영상으로부터 적색(RED) 채널, 녹색(GREEN) 채널 및 청색(BLUE) 채널 중 어느 하나의 채널에 대한 제1 채널값을 추출하고, 상기 제2 영상으로부터 나머지 2개의 채널 중 어느 하나의 채널에 대한 제2 채널값을 추출하며, 상기 제3 영상으로부터 상기 나머지 2개의 채널 중 다른 하나의 채널에 대한 제3 채널값을 추출하는 단계와,
    상기 제1 내지 제3 채널값을 입력으로 받아서, 상기 제2 영상에 포함된 영역의 경계를 사전에 학습된 인공 신경망 모델부를 통해 출력하는 단계를 포함하고,
    상기 획득된 복수 개의 영상 중 상기 적층되는 순서를 고려하여서 제1 내지 제3 영상을 선별하는 단계는, 상기 제1 내지 제3 영상 모두를 상기 복수 개의 영상 중 동일한 영상으로 선별하여서 제1 영상 세트를 구성하고, 상기 적층되는 순서에 따라 상기 복수 개의 영상에 순차적으로 숫자를 부여했을 때 상기 제2 영상에 부여된 숫자를 기준으로 숫자의 차이가 +1인 영상과 -1인 영상을 각각 제1 영상과 제3 영상으로 선별하여서 제2 영상 세트를 구성하며, 상기 제2 영상에 부여된 숫자를 기준으로 숫자의 차이가 +2인 영상과 -2인 영상을 각각 제1 영상과 제3 영상으로 선별하여서 제3 영상 세트를 구성하는 단계를 포함하고,
    상기 인공 신경망 모델부는, 상기 제1 영상 세트를 입력으로 받아서 상기 제2 영상에 포함된 영역의 경계를 출력하도록 기계 학습된 제1 모델부와, 상기 제2 영상 세트를 입력으로 받아서 상기 제2 영상에 포함된 영역의 경계를 출력하도록 기계 학습된 제2 모델부와, 상기 제3 영상 세트를 입력으로 받아서 상기 제2 영상에 포함된 영역의 경계를 출력하도록 기계 학습된 제3 모델부와, 상기 제1 내지 제3 모델부가 출력하는 결과를 조합하여서 상기 제2 영상에 포함된 영역의 경계를 출력하는 조합부를 포함하는
    영상 처리 방법.
  7. 적층됨으로써 대상체에 대한 3차원 영상을 구성하는, 단층 촬영된 복수 개의 영상을 획득하는 단계와,
    상기 획득된 복수 개의 영상 중 상기 적층되는 순서를 고려하여서 제1 내지 제3 영상을 선별하는 단계와,
    상기 제1 영상으로부터 적색(RED) 채널, 녹색(GREEN) 채널 및 청색(BLUE) 채널 중 어느 하나의 채널에 대한 제1 채널값을 추출하고, 상기 제2 영상으로부터 나머지 2개의 채널 중 어느 하나의 채널에 대한 제2 채널값을 추출하며, 상기 제3 영상으로부터 상기 나머지 2개의 채널 중 다른 하나의 채널에 대한 제3 채널값을 추출하는 단계와,
    상기 제1 내지 제3 채널값을 입력으로 받아서, 상기 제2 영상에 포함된 영역의 경계를 사전에 학습된 인공 신경망 모델부를 통해 출력하는 단계를 포함하고,
    상기 획득된 복수 개의 영상 중 상기 적층되는 순서를 고려하여서 제1 내지 제3 영상을 선별하는 단계는, 상기 제1 내지 제3 영상 모두를 상기 복수 개의 영상 중 동일한 영상으로 선별하여서 제1 영상 세트를 구성하고, 상기 적층되는 순서에 따라 상기 복수 개의 영상에 순차적으로 숫자를 부여했을 때 상기 제2 영상에 부여된 숫자를 기준으로 숫자의 차이가 +1인 영상과 -1인 영상을 각각 제1 영상과 제3 영상으로 선별하여서 제2 영상 세트를 구성하며, 상기 제2 영상에 부여된 숫자를 기준으로 숫자의 차이가 +2인 영상과 -2인 영상을 각각 제1 영상과 제3 영상으로 선별하여서 제3 영상 세트를 구성하는 단계를 포함하고,
    상기 인공 신경망 모델부는, 상기 제1 영상 세트를 입력으로 받아서 상기 제2 영상에 포함된 영역의 경계를 출력하도록 기계 학습된 제1 모델부와, 상기 제2 영상 세트를 입력으로 받아서 상기 제2 영상에 포함된 영역의 경계를 출력하도록 기계 학습된 제2 모델부와, 상기 제3 영상 세트를 입력으로 받아서 상기 제2 영상에 포함된 영역의 경계를 출력하도록 기계 학습된 제3 모델부와, 상기 제1 내지 제3 모델부가 출력하는 결과를 조합하여서 상기 제2 영상에 포함된 영역의 경계를 출력하는 조합부를 포함하는 영상 처리 방법을 수행하도록 프로그램된
    컴퓨터 판독가능한 기록매체에 저장된 컴퓨터 프로그램.
  8. 적층됨으로써 대상체에 대한 3차원 영상을 구성하는, 단층 촬영된 복수 개의 영상을 획득하는 단계와,
    상기 획득된 복수 개의 영상 중 상기 적층되는 순서를 고려하여서 제1 내지 제3 영상을 선별하는 단계와,
    상기 제1 영상으로부터 적색(RED) 채널, 녹색(GREEN) 채널 및 청색(BLUE) 채널 중 어느 하나의 채널에 대한 제1 채널값을 추출하고, 상기 제2 영상으로부터 나머지 2개의 채널 중 어느 하나의 채널에 대한 제2 채널값을 추출하며, 상기 제3 영상으로부터 상기 나머지 2개의 채널 중 다른 하나의 채널에 대한 제3 채널값을 추출하는 단계와,
    상기 제1 내지 제3 채널값을 입력으로 받아서, 상기 제2 영상에 포함된 영역의 경계를 사전에 학습된 인공 신경망 모델부를 통해 출력하는 단계를 포함하고, 상기 획득된 복수 개의 영상 중 상기 적층되는 순서를 고려하여서 제1 내지 제3 영상을 선별하는 단계는, 상기 제1 내지 제3 영상 모두를 상기 복수 개의 영상 중 동일한 영상으로 선별하여서 제1 영상 세트를 구성하고, 상기 적층되는 순서에 따라 상기 복수 개의 영상에 순차적으로 숫자를 부여했을 때 상기 제2 영상에 부여된 숫자를 기준으로 숫자의 차이가 +1인 영상과 -1인 영상을 각각 제1 영상과 제3 영상으로 선별하여서 제2 영상 세트를 구성하며, 상기 제2 영상에 부여된 숫자를 기준으로 숫자의 차이가 +2인 영상과 -2인 영상을 각각 제1 영상과 제3 영상으로 선별하여서 제3 영상 세트를 구성하는 단계를 포함하고,
    상기 인공 신경망 모델부는, 상기 제1 영상 세트를 입력으로 받아서 상기 제2 영상에 포함된 영역의 경계를 출력하도록 기계 학습된 제1 모델부와, 상기 제2 영상 세트를 입력으로 받아서 상기 제2 영상에 포함된 영역의 경계를 출력하도록 기계 학습된 제2 모델부와, 상기 제3 영상 세트를 입력으로 받아서 상기 제2 영상에 포함된 영역의 경계를 출력하도록 기계 학습된 제3 모델부와, 상기 제1 내지 제3 모델부가 출력하는 결과를 조합하여서 상기 제2 영상에 포함된 영역의 경계를 출력하는 조합부를 포함하는 영상 처리 방법을 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는
    컴퓨터 판독가능한 기록매체.
KR1020180035267A 2018-03-27 2018-03-27 영상 처리 장치 및 방법 KR102069774B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180035267A KR102069774B1 (ko) 2018-03-27 2018-03-27 영상 처리 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180035267A KR102069774B1 (ko) 2018-03-27 2018-03-27 영상 처리 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20190113078A KR20190113078A (ko) 2019-10-08
KR102069774B1 true KR102069774B1 (ko) 2020-02-11

Family

ID=68208857

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180035267A KR102069774B1 (ko) 2018-03-27 2018-03-27 영상 처리 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102069774B1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002325761A (ja) * 2000-06-30 2002-11-12 Hitachi Medical Corp 画像診断支援装置
JP2003099808A (ja) * 2001-09-25 2003-04-04 Gtv:Kk 画像処理装置、バーチャル手術装置、画像処理機能をコンピュータに実現させるためのプログラム、および画像処理システム
JP2004201783A (ja) * 2002-12-24 2004-07-22 Ge Medical Systems Global Technology Co Llc 画像処理装置、画像処理方法ならびにx線ct装置
JP2012501029A (ja) * 2008-08-29 2012-01-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3次元画像データの動的伝送のための方法及び装置
JP5130529B2 (ja) 2005-08-01 2013-01-30 国立大学法人 奈良先端科学技術大学院大学 情報処理装置およびプログラム
WO2016029947A1 (en) 2014-08-28 2016-03-03 Brainlab Ag Breathing phase-based transformation of a static computed tomography

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101611488B1 (ko) * 2014-03-28 2016-04-12 재단법인 아산사회복지재단 의료 영상에서 아티팩트와 병변을 구분하는 방법
KR102492318B1 (ko) 2015-09-18 2023-01-26 삼성전자주식회사 모델 학습 방법 및 장치, 및 데이터 인식 방법
KR101840563B1 (ko) * 2016-07-04 2018-03-20 한양대학교 에리카산학협력단 신경망을 이용한 3차원 얼굴 복원 방법 및 장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002325761A (ja) * 2000-06-30 2002-11-12 Hitachi Medical Corp 画像診断支援装置
JP2003099808A (ja) * 2001-09-25 2003-04-04 Gtv:Kk 画像処理装置、バーチャル手術装置、画像処理機能をコンピュータに実現させるためのプログラム、および画像処理システム
JP2004201783A (ja) * 2002-12-24 2004-07-22 Ge Medical Systems Global Technology Co Llc 画像処理装置、画像処理方法ならびにx線ct装置
JP5130529B2 (ja) 2005-08-01 2013-01-30 国立大学法人 奈良先端科学技術大学院大学 情報処理装置およびプログラム
JP2012501029A (ja) * 2008-08-29 2012-01-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3次元画像データの動的伝送のための方法及び装置
WO2016029947A1 (en) 2014-08-28 2016-03-03 Brainlab Ag Breathing phase-based transformation of a static computed tomography

Also Published As

Publication number Publication date
KR20190113078A (ko) 2019-10-08

Similar Documents

Publication Publication Date Title
US10997466B2 (en) Method and system for image segmentation and identification
JP6930283B2 (ja) 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
US7130457B2 (en) Systems and graphical user interface for analyzing body images
CN109923554B (zh) 图像处理
JP3838954B2 (ja) 医療映像処理システム及び処理方法
JP4303598B2 (ja) 画素の符号化法、画像処理法と、1以上の画素により再現されるオブジェクトの定性的な認識を目的とする画像処理法
US20210133473A1 (en) Learning apparatus and learning method
KR102030533B1 (ko) 근감소증 분석지원을 위한 인공 신경망 기반의 인체 형태 분석법을 채용하는 영상 처리 장치 및 이를 이용한 영상 처리 방법
US20050251021A1 (en) Methods and systems for generating a lung report
US20070237380A1 (en) Three-dimensional medical image display device equipped with pre-processing system implementing clinical protocol
US9773325B2 (en) Medical imaging data processing apparatus and method
CN103514597A (zh) 图像处理装置
Pluim et al. The truth is hard to make: Validation of medical image registration
DE102005036998A1 (de) Vorrichtung zur automatischen Detektion von Auffälligkeiten in medizinischen Bilddaten
KR102084138B1 (ko) 영상 처리 장치 및 방법
EP3389006A1 (en) Rib unfolding from magnetic resonance images
AU2020223750B2 (en) Method and System for Image Annotation
KR100450278B1 (ko) 의료영상 처리 시스템 및 처리방법
KR20230164633A (ko) 3차원 치아 이미지 표시 장치 및 방법, 그리고 3차원 치아 이미지 표시 장치를 학습시키는 방법
US20230180999A1 (en) Learning apparatus, learning method, program, trained model, and endoscope system
CN108877922A (zh) 病变程度判断系统及其方法
KR102069774B1 (ko) 영상 처리 장치 및 방법
Kumar A method of segmentation in 3d medical image for selection of region of interest (ROI)
JP7129754B2 (ja) 画像処理装置
Mehta et al. Medical Image Fusion Using Adaptive Neuro Fuzzy Inference System

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)