KR102314455B1 - A Method and Apparatus for Segmentation of Orbital Bone in Head and Neck CT image by Using Deep Learning and Multi-Graylevel Network - Google Patents
A Method and Apparatus for Segmentation of Orbital Bone in Head and Neck CT image by Using Deep Learning and Multi-Graylevel Network Download PDFInfo
- Publication number
- KR102314455B1 KR102314455B1 KR1020190064623A KR20190064623A KR102314455B1 KR 102314455 B1 KR102314455 B1 KR 102314455B1 KR 1020190064623 A KR1020190064623 A KR 1020190064623A KR 20190064623 A KR20190064623 A KR 20190064623A KR 102314455 B1 KR102314455 B1 KR 102314455B1
- Authority
- KR
- South Korea
- Prior art keywords
- label
- orbital
- bone
- brightness value
- segmentation
- Prior art date
Links
- 210000000988 bone and bone Anatomy 0.000 title claims abstract description 229
- 230000011218 segmentation Effects 0.000 title claims abstract description 102
- 238000000034 method Methods 0.000 title claims abstract description 88
- 238000013135 deep learning Methods 0.000 title description 9
- 238000002591 computed tomography Methods 0.000 claims abstract description 40
- 238000012549 training Methods 0.000 claims abstract description 9
- 230000001054 cortical effect Effects 0.000 claims description 32
- 238000010801 machine learning Methods 0.000 claims description 19
- 230000015654 memory Effects 0.000 claims description 13
- 238000007781 pre-processing Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 8
- 238000011176 pooling Methods 0.000 claims description 4
- 210000003128 head Anatomy 0.000 description 27
- 238000010586 diagram Methods 0.000 description 13
- 238000003384 imaging method Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 208000010392 Bone Fractures Diseases 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 6
- 230000035945 sensitivity Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 210000004872 soft tissue Anatomy 0.000 description 4
- 206010017076 Fracture Diseases 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 210000001508 eye Anatomy 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000001356 surgical procedure Methods 0.000 description 2
- 206010016042 Facial bones fracture Diseases 0.000 description 1
- 208000007825 Orbital Fractures Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5205—Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/505—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of bone
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Surgery (AREA)
- High Energy & Nuclear Physics (AREA)
- Physics & Mathematics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Pulmonology (AREA)
- Theoretical Computer Science (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Analysis (AREA)
Abstract
두부경부 컴퓨터단층촬영영상(CT: computed tomography)에서의 안와뼈 분할 방법은, 상기 입력 영상에서 제1 밝기 값의 영역으로 구성된 제1 라벨 및 상기 제1 밝기 값보다 낮은 제2 밝기 값의 영역으로 구성된 제2 라벨을 설정하는, 제1라벨 및 제2라벨 설정단계; 및 상기 분할된 제1 라벨 및 상기 제2 라벨을 통합하여 안와뼈를 분할하는 단계;를 포함하고, 상기 제1 라벨 및 상기 제2 라벨은, 훈련 영상 및 다중 밝기 값을 고려한 네트워크를 이용하여 각각 기계학습된 제1 분할기 및 제2 분할기에 의하여 분할되는 것이다.The orbital bone segmentation method in head and neck computed tomography (CT) includes a first label composed of a region of a first brightness value in the input image and a region of a second brightness value lower than the first brightness value. a first label and a second label setting step of setting the configured second label; and dividing the orbital bone by integrating the divided first label and the second label, wherein the first label and the second label are each using a network considering a training image and multiple brightness values. It is divided by the machine-learned first and second dividers.
Description
본 발명은 3차원 두부경부 컴퓨터단층촬영영상(CT: Computed tomography)에서의 안와뼈 분할 방법 및 장치에 관한 것으로, 보다 상세하게는 3차원 두부경부 컴퓨터단층촬영영상(CT:omputed tomography)에서 딥러닝 및 다중 밝기 값 네트워크를 이용한 안와뼈 분할 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for segmenting orbital bones in three-dimensional head and neck computed tomography (CT), and more particularly, deep learning in three-dimensional head and neck computed tomography (CT). and a method and apparatus for segmenting an orbital bone using a multi-luminance value network.
두부경부 컴퓨터 단층 촬영 영상에서 안와뼈 분할 및 추출은 안와뼈 골절의 진단 및 골절 부위의 재건에 필요한 플레이트 제작을 위한 중요한 전처리 작업으로 이용될 수 있다. Segmentation and extraction of orbital bone from head and neck computed tomography images can be used as an important pre-processing operation for diagnosing orbital bone fractures and manufacturing plates required for reconstruction of fractured sites.
두부경부 컴퓨터 단층 촬영 영상에서 안와뼈는 그 형태가 사람마다 다르며, 안와뼈는 높은 밝기 값을 갖는 두꺼운 뼈 영역과 주변 연조직(Soft tissue)과 유사한 낮은 밝기 값을 갖는 얇은 두께의 뼈 영역으로 다양한 밝기 값을 보이므로, 이를 자동으로 학습하여 정확하게 분할 및 추출하기에 어려움이 있다.In the head and neck computed tomography image, the shape of the orbital bone varies from person to person, and the orbital bone consists of a thick bone area with high brightness values and a thin bone area with low brightness values similar to surrounding soft tissues. Since it shows a value, it is difficult to accurately divide and extract it by automatically learning it.
특히, 종래의 기계학습 방법에 있어서 안와뼈 전체를 분할하기 위해 전체 영역으로 학습을 하는 과정에서 얇은 뼈 영역이 상대적으로 분할 정확도가 떨어지는 한계가 있었다.In particular, in the conventional machine learning method, in the process of learning the entire orbital bone to divide the entire orbital bone, there is a limitation in that the segmentation accuracy of the thin bone region is relatively poor.
본 발명은, 일 실시예에 따라 3차원 두부경부 컴퓨터단층촬영영상(CT: omputed tomography)에서 딥러닝 및 다중 밝기 값 네트워크를 이용한 안와뼈 분할 방법을 개시한다. 특히, 딥러닝 과정에서 상대적으로 높은 밝기 값 레벨을 갖는 피질 뼈(Cortical bone) 영역과 낮은 밝기 값 레벨을 갖는 안와 내벽과 안와 바닥 영역에 있는 얇은 뼈와 소주골 영역에 대하여 분리하여 기계 학습하기 때문에 안와 내벽과 안와 바닥영역에 있는 얇은 뼈 영역에 대한 분할 정확도를 개선하는 방법을 개시한다.The present invention discloses a method of segmenting an orbital bone using deep learning and a multi-brightness value network in a three-dimensional head and neck computed tomography (CT) image according to an embodiment. In particular, in the deep learning process, the cortical bone region having a relatively high brightness level and the thin bone and trabecular bone regions in the orbit inner wall and orbit bottom region having a low brightness level are machine-learned separately. Disclosed is a method for improving segmentation accuracy for thin bone regions in the orbital inner wall and orbital floor region.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
본 발명의 일 실시예에 따른 두부경부 컴퓨터단층촬영영상(CT: computed tomography)에서의 안와뼈 분할 방법은, 상기 입력 영상에서 제1 밝기 값의 영역으로 구성된 제1 라벨 및 상기 제1 밝기 값보다 낮은 제2 밝기 값의 영역으로 구성된 제2 라벨을 설정하는, 제1라벨 및 제2라벨 설정단계; 및 상기 분할된 제1 라벨 및 상기 제2 라벨을 통합하여 안와뼈를 분할하는 단계;를 포함하고, 상기 제1 라벨 및 상기 제2 라벨은, 훈련 영상 및 다중 밝기 값을 고려한 네트워크를 이용하여 각각 기계학습된 제1 분할기 및 제2 분할기에 의하여 분할되는 것이다.In the method for segmenting orbital bones in computed tomography (CT) of the head and neck according to an embodiment of the present invention, a first label composed of a region of a first brightness value in the input image and the first brightness value a first label and a second label setting step of setting a second label composed of an area having a low second brightness value; and dividing the orbital bone by integrating the divided first label and the second label, wherein the first label and the second label are each using a network considering a training image and multiple brightness values. It is divided by the machine-learned first and second dividers.
또한, 다른 일실시예로, 입력 영상의 밝기 값과 픽셀 크기를 정규화 하는 전처리 단계;를 더 포함한다In another embodiment, the method further includes a pre-processing step of normalizing the brightness value and the pixel size of the input image.
또한, 다른 일실시예로, 상기 전처리를 수행하는 단계는, 상기 밝기 값의 정규화를 위해 소정 범위의 밝기 값을 부호 없는 8비트 정수 값으로 변경 하는 단계를 포함한다.Also, in another embodiment, performing the preprocessing includes changing a brightness value within a predetermined range into an unsigned 8-bit integer value for normalizing the brightness value.
또한, 다른 일실시예로, 상기 제1 라벨은 안와뼈의 피질뼈 영역을 포함하고, 상기 제2 라벨은 안와 내벽 및 안와 바닥의 얇은 뼈 영역을 포함하는 것이다.Further, in another embodiment, the first label includes a cortical bone region of the orbital bone, and the second label includes a thin bone region of the inner wall of the orbit and the bottom of the orbit.
또한, 다른 일실시예로, 상기 제1 분할기는, 상기 제1 라벨에 대해 제1 라벨에 대응하는 단일 밝기 값 네트워크(SGB-Net)를 이용하여 기계학습되고, 상기 제2 분할기는, 상기 제2 라벨에 대해 제2 라벨에 대응하는 단일 밝기 값 네트워크를 이용하여 기계학습되는 것이다.Also, in another embodiment, the first divider is machine-learned using a single brightness value network (SGB-Net) corresponding to the first label for the first label, and the second divider is For two labels, it is machine learning using a single brightness value network corresponding to the second label.
또한, 다른 일실시예로, 상기 단일 밝기 값 네트워크(SGB-Net)는, 6개의 해상도 단계를 가진 연결경로 및 확장경로를 생성하고, 상기 연결경로에서 각 해상도 단계에 대해 파라메트릭(parametric) 정류 선형 단위(PReLU)를 수반하는 두번의 3X3 컨볼루션 및 스트라이드(stride)가 2인 2x2 맥스풀링(max-pooling)연산을 수행하고, 상기 확장경로에서 각 해상도 단계에 대해 상기 파라메트릭 정류 선형단위를 수반하는 두번의 3X3 컨볼루션을 수행하고, 각 해상도 단계별 업샘플링을 위해 두배의 진폭을 가지는 2x2 디컨볼루션을 수행하는 것이다. Also, in another embodiment, the single brightness value network (SGB-Net) generates a connection path and an extension path having six resolution steps, and parametric rectification for each resolution step in the connection path. Perform two 3X3 convolutions involving a linear unit (PReLU) and a 2x2 max-pooling operation with a stride of 2, and calculate the parametric rectified linear unit for each resolution step in the extension path. The following two 3X3 convolutions are performed, and 2x2 deconvolution with double amplitude is performed for upsampling for each resolution step.
또한, 다른 일실시예로, 상기 단일 밝기 값 네트워크(SGB-Net)는, 상기 확장경로의 모든 해상도의 단계에서, 디컨볼루션(deconvolution)을 통한 업샘플링이 수행된 영상의 출력 채널 수를 라벨(label) 수로 줄이는 1x1 컨볼루션을 수행하는 마지막 레이어를 포함하고, 상기 마지막 레이어는 출력되는 분할 라벨의 확률을 제공 하는 소프트맥스(softmax) 함수를 포함한다.In addition, in another embodiment, the single brightness value network (SGB-Net) labels the number of output channels of the image on which upsampling through deconvolution is performed in all resolution stages of the extension path. A last layer that performs 1x1 convolution to reduce the number of labels is included, and the last layer includes a softmax function that provides a probability of an output split label.
또한, 다른 일실시예로, 상기 제2 분할기는 2차원분할모듈 및 3차원분할모듈을 포함하고, 상기 제1라벨 및 제2라벨 설정단계는,상기 입력영상을 상기 2차원분할모듈 및 3차원분할모듈에 각각 입력하는 단계; 및 상기 2차원분할모듈과 3차원분할모듈)에서 분할된 2차원분할데이터와 3차원분할데이터를 결합하여 상기 제2라벨을 생성하는 단계;를 포함한다.Also, in another embodiment, the second divider includes a 2D division module and a 3D division module, and the first label and second label setting step comprises: converting the input image into the 2D division module and the 3D division module. each input to the division module; and generating the second label by combining the 2D divided data and the 3D divided data divided by the 2D division module and the 3D division module).
또한, 다른 일실시예로, 상기 2차원분할모듈은 RefineNet 기반의 2D 분할네트워크이고, 상기 3차원분할모듈은 U-Net 기반의 3D 분할네트워크이다.In another embodiment, the 2D division module is a RefineNet-based 2D division network, and the 3D division module is a U-Net based 3D division network.
또한, 다른 일실시예로, 상기 제1라벨 및 제2라벨 설정단계에서, 상기 3차원분할모듈은, 상기 2차원분할모듈에서 획득되는 2차원 영역을 포함하는 것으로서, 3차원 입력영상에서 추출된 3차원영역을 입력받는 것을 특징으로 한다.In another embodiment, in the step of setting the first label and the second label, the three-dimensional division module includes a two-dimensional area obtained from the two-dimensional division module, and is extracted from a three-dimensional input image. It is characterized in that a three-dimensional area is input.
본 발명의 다른 일실시예에 따른 안와뼈 분할장치는, 하나 이상의 프로세서; 및 상기 하나 이상의 프로세서에 의한 실행 시, 상기 하나 이상의 프로세서가 연산을 수행하도록 하는 명령들이 저장된 하나 이상의 메모리를 포함하고, 상기 하나 이상의 프로세서에 의해 수행되는 상기 연산은, 상기 입력 영상에서 제1 밝기 값의 영역으로 구성된 제1 라벨 및 상기 제1 밝기 값보다 낮은 제2 밝기 값의 영역으로 구성된 제2 라벨을 설정하는 연산; 및 상기 분할된 제1 라벨 및 상기 제2 라벨을 통합하여 최종안와뼈를 분할하는 연산을 포함하고, 상기 제1 라벨 및 상기 제2 라벨은, 훈련 영상 및 다중 밝기 값을 고려한 네트워크를 이용하여 각각 기계학습된 제1 분할기 및 제2 분할기에 의하여 분할되는 것이다.Orbital bone dividing apparatus according to another embodiment of the present invention, one or more processors; and one or more memories storing instructions that, when executed by the one or more processors, cause the one or more processors to perform an operation, wherein the operation performed by the one or more processors comprises: a first brightness value in the input image an operation of setting a first label composed of an area of , and a second label composed of an area of a second brightness value lower than the first brightness value; and an operation of segmenting the final orbital bone by integrating the divided first label and the second label, wherein the first label and the second label are machined using a network considering a training image and multiple brightness values, respectively. It is divided by the learned first divider and the second divider.
또한, 상기 제1 라벨은 안와뼈의 피질뼈 영역을 포함하고, 상기 제2 라벨은 안와 내벽 및 안와 바닥의 얇은 뼈 영역을 포함할 수 있다.In addition, the first label may include a cortical bone region of the orbital bone, and the second label may include a thin bone region of the orbital inner wall and orbital floor.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램, 그리고 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.In addition to this, another method for implementing the present invention, another system and a computer program for executing the method, and a computer-readable recording medium for recording the computer program may be further provided.
상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.According to the present invention as described above, it has various effects as follows.
일 실시예에 따른, 두부경부 영상에서 안와뼈 분할 방법 및 장치는, 개선된 안와뼈 분할 및 추출을 통해 안와뼈 골절의 진단 및 골절 부위의 재건에 필요한 플레이트 제작의 정확도를 향상시킬 수 있다. 나아가, 인체를 대상으로 하는 다양한 컴퓨터 단층 촬영 영상에서의 다양한 밝기 값을 갖는 뼈 구조에 대한 분할을 수행함에 있어, 유사한 방식으로 다중 밝기 값 레벨의 학습 기법을 적용하여 분할 정확도를 향상시킬 수 있다. According to an embodiment, the method and apparatus for segmenting orbital bone in a head and neck image may improve the accuracy of plate manufacturing required for diagnosis of an orbital bone fracture and reconstruction of a fracture site through improved segmentation and extraction of orbital bone. Furthermore, in performing segmentation on bone structures having various brightness values in various computed tomography images of a human body, it is possible to improve segmentation accuracy by applying a learning technique of multiple brightness values in a similar manner.
도 1은 일 실시예에 따른 두부경부 컴퓨터 단층촬영영상에서 안와뼈 분할방법을 설명하기 위한 개념도이다.
도 2는 일 실시예에 따른 두부경부 컴퓨터 단층촬영영상에서의 안와뼈 분할을 설명하기 위한 도이다.
도 3은 일 실시예에 따른 안와뼈 분할 방법을 설명하기 위한 순서도이다.
도 4는 일 실시예에 따른 다중 밝기 값 네트워크에서 기계학습을 수행하는 방법을 설명하기 위한 개념도이다.
도 5 및 도 6은 일 실시예에 따른 안와뼈 분할방법의 효과를 설명하기 위한 도이다.
도 7은 본 발명의 다른 일실시예에 따른 제2분할기 내에 2차원분할모듈과 3차원분할모듈을 포함하는 안와뼈 분할장치의 구성도이다.
도 8은 본 발명의 다른 일실시예에 따른 2D 분할네트워크와 3D 분할네트워크를 함께 활용하여 신규 입력영상에서 얇은 뼈를 분할하는 방법에 대한 순서도이다.
도 9 및 도 10은 본 발명의 다른 일 실시예에 따른 2D 분할네트워크와 3D 분할네트워크를 포함하는 제2분할기를 이용하여 안와뼈 분할방법의 효과를 설명하기 위한 도이다.
도 11은 일 실시 예에 따른 안와뼈 분할장치의 내부 구성을 개략적으로 나타낸 도이다.1 is a conceptual diagram for explaining a method of segmenting an orbital bone in a head and neck computed tomography image according to an embodiment.
2 is a diagram for explaining orbital bone segmentation in a head and neck computed tomography image according to an embodiment.
3 is a flowchart illustrating a method of segmenting an orbital bone according to an embodiment.
4 is a conceptual diagram illustrating a method of performing machine learning in a multi-brightness value network according to an embodiment.
5 and 6 are diagrams for explaining the effect of the orbital bone segmentation method according to an embodiment.
7 is a block diagram of an orbital bone division apparatus including a 2D division module and a 3D division module in the second divider according to another embodiment of the present invention.
8 is a flowchart of a method of segmenting a thin bone in a new input image by using a 2D segmentation network and a 3D segmentation network together according to another embodiment of the present invention.
9 and 10 are diagrams for explaining the effect of the orbital bone segmentation method using a second divider including a 2D segmentation network and a 3D segmentation network according to another embodiment of the present invention.
11 is a diagram schematically showing the internal configuration of an orbital bone dividing device according to an embodiment.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments published below, but can be implemented in various different forms, and only these embodiments make the publication of the present invention complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used with the meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless clearly defined in particular.
본 명세서에서, '라벨'은 영상 내에서 설정된 특정 영역을 의미한다. 예를 들어, 라벨은 임상의에 의해 직접 설정된 영역을 의미할 수 있고, 또는 기계학습된 딥러닝 알고리즘에 의해 분할된 영역을 의미할 수도 있다.In this specification, a 'label' means a specific area set in an image. For example, the label may mean a region directly set by a clinician, or a region divided by a machine-learning deep learning algorithm.
본 명세서에서, '제1라벨'은 제1분할기 학습에 이용되는 것으로서, 두부경부 컴퓨터 단층촬영영상에서 추출되는 것을 의미한다.In this specification, the 'first label' is used for learning the first divider, and means that it is extracted from a head and neck computed tomography image.
본 명세서에서, '제2라벨'은 제2분할기 학습에 이용되는 것으로서, 두부경부 컴퓨터 단층촬영영상에서 추출되는 것을 의미한다.In the present specification, the 'second label' is used for second divider learning, and means that it is extracted from a head and neck computed tomography image.
본 명세서에서, '학습용 영상'은 기계학습모델을 학습 시키기 위해 구축된 영상데이터를 의미한다.In this specification, 'image for learning' refers to image data constructed to train a machine learning model.
본 명세서에서, '입력 영상'은 학습이 완료된 기계학습모델을 통해 원하는 범위 추출을 수행하고자 하는 영상데이터를 의미한다.In the present specification, an 'input image' refers to image data for which a desired range extraction is to be performed through a machine learning model that has been trained.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. As used herein, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components.
도 1은 일 실시예에 따른 두부경부 컴퓨터 단층촬영영상에서 안와뼈 분할방법을 설명하기 위한 개념도이다.1 is a conceptual diagram illustrating a method of segmenting an orbital bone in a head and neck computed tomography image according to an embodiment.
도 1을 참조하면, 일 실시예에 따른 두부경부 컴퓨터 단층촬영영상에서 안와뼈 분할 시스템은, 안와뼈 분할장치(100) 및 촬영장치(120)로 구성될 수 있다. 또한, 이러한 안와뼈 분할장치(100) 및 촬영장치(120)는 네트워크(110)로 연결될 수 있다. Referring to FIG. 1 , an orbital bone segmentation system in a head and neck computed tomography image according to an embodiment may include an orbital
우선, 일 실시예에 따른 촬영장치(120)는 두부경부(head and neck) 영상을 촬영하여 획득하는 역할을 수행한다. 여기서, 촬영장치(120)는 X-Ray 또는 컴퓨터 단층촬영(Computed Tomography; CT) 장치와 같이 질병을 진단하기 위해 인체의 내부를 촬영하는 장치를 의미할 수 있다. 촬영장치(120)는 기계 학습을 위한 훈련 영상 또는 안와뼈를 분할해 낼 필요가 있는 입력 영상을 생성할 수 있다.First, the photographing
일 실시예에 따른 안와뼈 분할장치(100)는 촬영장치(120)에서 촬영된 두부경부 컴퓨터 단층 촬영 영상에서 딥러닝 및 다중 밝기 값 네트워크를 이용하여 안와뼈를 분할(segmentation)하는 역할을 수행한다. 특히, 안와뼈 분할장치(100)는 두부경부 컴퓨터 단층 촬영 영상에 대한 딥러닝 과정에서 상대적으로 높은 밝기 값 레벨을 갖는 피질 뼈(Cortical bone) 영역에 대하여 기계학습하고 낮은 밝기 값 레벨을 갖는 안와 내벽과 안와 바닥 영역에 있는 얇은 뼈(thin bone) 영역에 대하여 기계학습하기 때문에, 즉, 피질 뼈 영역과 얇은 뼈 영역을 각각 분리하여 기계학습하기 때문에, 소주골의 얇은 뼈 영역에 대한 분할 정확도를 개선할 수 있다. 여기서, 안와 내벽과 안와 바닥 영역에 있는 얇은 뼈 영역을 분리하여 기계학습할 때, 낮은 밝기 값 레벨을 가지는 소주골(trabecular bone)영역을 함께 분리하여 기계학습 할 수도 있다. The orbital
즉, 안와뼈 분할장치(100)는 두부경부 컴퓨터 단층 촬영 영상에서 상대적으로 높은 밝기 값 레벨을 갖는 피질 뼈(Cortical bone) 영역에 대해 학습한 후 신규영상에서 피질 뼈(Cortical bone) 영역을 분할(segmentation)하는 제1분할부(또는 제1분할기)(101)와 낮은 밝기 값 레벨을 갖는 안와 내벽과 안와 바닥 영역에 있는 얇은 뼈(thin bone) 영역에 대해 학습한 후 신규 영상에서 얇은 뼈(thin bone) 영역을 분할(segmentation)하는 제2분할부(또는 제2분할기)(102)를 포함할 수 있다. 제1분할부(101) 및 제2분할부(102)의 세부적인 학습모델에 대한 상세한 설명은 후술한다.That is, the orbital
일 실시예로, 안와뼈 분할장치(100)는 촬영장치와 물리적으로 분리된 별도의 컴퓨팅장치(예를 들어, 서버장치 또는 사용자클라이언트 장치)일 수도 있고, 촬영장치와 물리적으로 하나의 장치일 수도 있다. 예를 들어, 안와뼈 분할알고리즘(즉, 기 학습이 완료된 안와뼈 분할모델)이 포함된 소프트웨어가 사용자의 컴퓨터에 내장 또는 설치된 경우, 사용자의 컴퓨터가 안와뼈 분할장치(100)에 해당하고, 촬영장치에서 신규로 획득된 두부경부 컴퓨터 단층 촬영 영상을 바로 네트워크를 통해 수신하여 안와뼈 분할을 수행한다. 또한, 예를 들어, 안와뼈 분할장치가 기존의 영상데이터를 기반으로 학습이 완료된 학습모델을 포함하는 경우, 안와뼈분할장치(100)는 촬영장치와 하나의 장치로 제작되어 촬영된 두부경부 컴퓨터 단층 촬영 영상에서 바로 분리한 결과를 사용자 컴퓨터로 전달할 수 있다.In one embodiment, the orbital
일 실시예에 따른 네트워크(110)는 무선 네트워크뿐만 아니라 유선 네트워크를 포함할 수도 있으며, 촬영장치(120)에서 촬영된 영상을 안와뼈 분할장치(100)로 전달하기 위한 다양한 수단이 모두 포함되는 것으로 이해될 수 있다. The
또한, 다른 일 실시예로, 안와뼈 분할장치(100)는, 입력 영상에서 제1 밝기 값의 영역으로 구성된 제1 라벨을 분할하기 위한 제1 분할기(101) 및 제1 밝기 값보다 낮은 밝기 값의 영역으로 구성된 제2 라벨을 분할하기 위한 제2 분할기(102)를 포함한다. 상기 제1 분할기는 피질뼈 영역이 라벨링된 자기공명영상을 학습함에 따라 새로운 자기공명영상에서 제1 라벨을 분할하는 소프트웨어(예를 들어, 학습모델 또는 분석모델)일 수 있다. 또한, 상기 제2 분할기는 얇은뼈 영역이 라벨링된 자기공명영상을 학습함에 따라 새로운 자기공명영상에서 제2 라벨을 분할하는 소프트웨어(예를 들어, 학습모델 또는 분석모델)일 수 있다. 또한, 예를 들어, 상기 안와뼈 분할장치(100)는, 복수의 컴퓨팅 장치를 포함하는 경우, 제1 분할기와 제2 분할기는 다른 컴퓨팅 장치에 포함될 수도 있고, 하나의 컴퓨팅 장치 내에 포함될 수도 있다.In addition, in another embodiment, the orbital
도 2는 일 실시예에 따른 두부경부 컴퓨터 단층촬영영상에서의 안와뼈 분할을 설명하기 위한 도이다. 2 is a diagram for explaining orbital bone segmentation in a head and neck computed tomography image according to an embodiment.
도 2의 (a)에 도시되듯이, 안와를 감싸는벽(orbital wall)(이하, 안와벽 이라 함)은 안와 외벽(orbital lateral wall, 201), 안와 지붕(orbital roof, 202), 안와 내벽(orbital medial wall, 203), 및 안와 바닥(orbital floor, 204)을 포함하는 사면의 피라미드 뼈 구조로 구성되며, 눈 및 눈과 인접한 신경을 보호한다. 또한, 안와벽은 높은 밝기 값의 피질 뼈와 낮은 밝기 값의 소주골(trabecular)과 얇은 뼈로 구성된다. 한편, 피질뼈와 얇은 뼈로 구성된 안와뼈 분할을 통해서 확인하고자 하는 안와골절은 가장 일반적인 골절의 하나이며, 특히 안와 내벽(203) 및 안와 바닥(204)에서 자주 발생한다. 즉, 안와뼈 골절에 따른 안와벽 재건을 위한 두개 안악면 수술(cranio-maxillofacial surgery)에서, 안구 위치를 지지하고 안와의 볼륨과 형태를 복원하기 위해 안와뼈의 분할이 필수적이다. As shown in (a) of Figure 2, the orbital wall (orbital wall) (hereinafter referred to as orbital wall) surrounding the orbit is the orbital lateral wall (orbital lateral wall, 201), orbital roof (orbital roof, 202), orbital inner wall ( Orbital medial wall, 203), and the orbital floor (orbital floor, 204), consisting of a pyramidal bone structure, including, and protects the eye and adjacent nerves to the eye. In addition, the orbital wall is composed of cortical bone of high brightness value and trabecular bone and thin bone of low brightness value. On the other hand, an orbital fracture to be confirmed through the segmentation of the orbital bone composed of cortical bone and thin bone is one of the most common fractures, and in particular frequently occurs in the orbital
한편, 도 2의 (a)에 도시된 것과 같은 3차원 CT(3D CT)는 안와뼈 구조에 대한 자세한 정보를 제공할 수 있기 때문에, 안와뼈 관련된 진단에서 핵심 기술이 되고 있다. 그러나 안와 내벽(203)과 안와 바닥(204)의 얇은 뼈는 입력 영상에서 이웃한 연조직과 비슷한 수준의 낮은 밝기 값을 가지므로 도 2의 (b)에 도시된 것과 같이, 기존의 문턱 기법으로 안와뼈를 분할하는 것은 어렵다. 여기에서, 화살표는 피질뼈를 가리키고 삼각형은 얇은 뼈를 가리킨다.Meanwhile, a three-dimensional CT (3D CT) as shown in FIG. However, since the thin bones of the orbital
또한 도 2의 (c)는 300HU(Hounsfield Unit)의 임계 값을 이용하여 높은 밝기 값을 가진 피질뼈를 분할하려고 할 때, 낮은 밝기 값의 소주골 및 얇은 뼈는 거의 분할되지 않는 것을 보여준다. 반면에, 도 2의 (d)는 낮은 밝기 값을 가지는 소주골(trabecular) 및 얇은 뼈를 분할하기 위해 임계 값을 50HU로 낮추면 안와뼈 주위의 연조직으로의 누출이 발생 함을 보여준다. 도 2의 (c) 및 (d)에 도시된 화살표는 안와 내벽을 나타내고 삼각형은 안와 바닥영역을 나타낸다.Also, (c) of FIG. 2 shows that when a cortical bone having a high brightness value is divided using a threshold value of 300HU (Hounsfield Unit), the trabecular bone and thin bone having a low brightness value are hardly divided. On the other hand, Fig. 2(d) shows that when the threshold value is lowered to 50HU to divide the trabecular and thin bones having low brightness values, leakage into the soft tissue around the orbital bone occurs. The arrows shown in (c) and (d) of Fig. 2 indicate the inner wall of the orbit, and the triangle indicates the orbital floor region.
안와벽 재구성을 위한 수술을 위해서는 안구 위치를 유지하고 있는 안와의 부피와 모양을 복원하기 위한 안와뼈의 분할이 선행되어야 한다. 그러나, 안와뼈는 CT영상에서 밝기 값의 스펙트럼이 넓게 나타나기 때문에, 기존의 U-Net 기반 분할방법은 약한 밝기 값을 가지는 안와내벽 및 안와 바닥의 얇은뼈를 정확하게 분할하기 어려웠다. 따라서 일 실시예에 따른 안와뼈 분할 방법은 머리와 목의 CT 영상에서 높은 밝기 값(high intensity)을 가지는 대뇌 피질 뼈와 낮은 밝기 값(low intensity)을 가지는 얇은 뼈의 분할 정확도를 향상시키기 위해 다중 밝기 값 레벨을 이용한 네트워크(MGB-Net: multi-gray-bone Network)를 이용한다. 구체적으로 안와뼈 분할장치(100)는 안와 내벽(medial wall)과 안와 바닥(floor)의 얇은뼈의 과소-분할(under-segmentation)을 방지하기 위해 단일(single) 안와뼈 마스크를 피질뼈와 얇은 뼈를 위한 두 개의 마스크로 변환한다. 그리고, 안와뼈 분할장치(100)는 두 개의 단일 밝기 값 레벨의 네트워크(SGB-Net: Single-Gray-Bone-Net)를 각각 마스크들에 대해 훈련시킨 뒤, 입력영상에서 각각의 피질 뼈 및 얇은 뼈 마스크에 대한 분할의 결과를 통합시켜 전체 안와뼈를 분할 한다.For surgery to reconstruct the orbital wall, segmentation of the orbital bone to restore the volume and shape of the orbit that maintains the position of the eyeball must be preceded. However, since the orbital bone has a broad spectrum of brightness values in CT images, it was difficult to accurately segment the thin bones of the orbital medial wall and orbital floor, which have weak brightness values, using the conventional U-Net-based segmentation method. Therefore, the orbital bone segmentation method according to an embodiment is a multi-layered method to improve segmentation accuracy of cortical bones having high intensity values and thin bones having low intensity values in CT images of the head and neck. A network (MGB-Net: multi-gray-bone network) using the brightness level is used. Specifically, the orbital
이하, 도 3 및 도 4를 참조하여 안와뼈 분할장치(100)의 동작 및 두부경부 컴퓨터 단층 촬영 영상에서의 안와뼈 분할방법을 상세히 설명한다.Hereinafter, an operation of the orbital
도 3은 일 실시예에 따른 안와뼈 분할 방법을 설명하기 위한 순서도이다.3 is a flowchart illustrating a method of segmenting an orbital bone according to an embodiment.
이하에서 도 3을 참조하여 설명할 각 단계는 도 11에 도시된 안와뼈 분할장치(100)의 프로세서(130)에 의하여 수행된다. 예를 들어, 안와뼈 분할장치(100)는 하나 이상의 컴퓨터일 수 있다. 즉, 안와뼈 분할장치(100)는 서버장치일 수도 있고, 사용자가 사용하는 클라이언트 장치일 수도 있다.Each step to be described below with reference to FIG. 3 is performed by the
단계 S300에서, 안와뼈 분할 장치(100)는, 입력 영상의 밝기 값과 픽셀 크기를 정규화 하는 전처리할 수 있다. 다양한 입력 영상에서의 프로토콜 차이를 줄이기 위해 밝기 값과 픽셀크기에 대해서 정규화를 수행할 수 있다. 예를 들면, 밝기 값의 정규화를 위해 소정 범위의 밝기 값을 부호 없는 8비트 정수 값으로 변경 할수 있다. 또한 두부경부 컴퓨터 단층 촬영 영상에서 안와뼈를 추출하기 위한 관심영역(Region of Interest)을 추출할 수도 있다. 이때, 안와뼈에 대한 관찰을 위하여 밝기 값은 안와뼈를 중심으로 정규화 될 수 있다.In step S300, the orbital
단계 S310에서, 안와뼈 분할 장치(100)는, 상기 입력 영상에서 상대적으로 높은 밝기 값의 영역으로 구성된 제1 라벨 및 상대적으로 낮은 밝기 값의 영역으로 구성된 제2 라벨을 설정할 수 있다. 여기서, 제1 라벨은 안와뼈의 피질뼈(cortical bone) 영역을 포함하고, 제2 라벨은 안와 내벽 및 안와 바닥의 얇은 뼈(thin bone) 영역을 포함할 수 있다. 한편, 일반적으로, 안와뼈의 피질뼈는 300HU 또는 그 이상의 밝기 값을 가지고, 안와 내벽과 안와 바닥의 얇은 뼈는 200HU 이하의 밝기 값을 갖는다. 따라서 두 마스크들을 서로 보완하기 위해, 피질 뼈와 얇은 뼈의 마스크들의 밝기 값을 중첩하여, 200HU보다는 크고 300HU보다는 낮은 밝기 값을 기준으로 제1 및 제2 라벨이 설정될 수 있다. In step S310, the orbital
제1라벨 및 제2라벨을 설정하는 방법의 일 실시예로, 안와뼈 분할장치(100)는 훈련 영상(즉, 학습용 영상) 및 다중 밝기 값을 고려한 네트워크를 이용하여 각각 기계학습된 제1 분할기 및 제2 분할기를 통해 제1 라벨 및 제2 라벨을 분할할 수 있고, 여기에서, 기계학습은 컨볼루션 신경망 네트워크를 이용한 딥러닝 알고리즘을 수행하는 것을 포함할 수 있다. As an embodiment of the method for setting the first label and the second label, the orbital
예를 들면, 제1 분할기는 제1 라벨에 대해 제1 라벨에 적합한 단일 밝기 값 네트워크(SGB-Net)를 이용하여 기계학습이 수행되고, 제2 분할기는 상기 제2 라벨에 대해 제2 라벨에 적합한 단일 밝기 값 네트워크를 이용하여 기계학습이 수행될 수 있다. 즉, 일 실시예에 따른 다중 밝기 값을 고려한 네트워크(MSB-Net)는 제1 라벨 및 제2 라벨 각각에 대한 단일 밝기 값 네트워크가 결합된 네트워크를 의미할 수 있다. 예를 들어, 안와뼈 분할장치(100)는 학습용 영상 데이터에서 의료진에 의해 제1라벨 및 제2라벨이 설정된 복수의 두부경부 컴퓨터 단층 촬영 영상(또는 전처리 과정이 수행된 두부경부 컴퓨터 단층 촬영 영상)을 이용하여 제1 분할기와 제2 분할기를 학습하는 과정을 수행한다.For example, the first divider performs machine learning for the first label using a single brightness value network (SGB-Net) suitable for the first label, and the second divider applies the second label to the second label. Machine learning can be performed using a suitable single brightness value network. That is, the network considering multiple brightness values (MSB-Net) according to an embodiment may mean a network in which a single brightness value network for each of the first label and the second label is combined. For example, the orbital
구체적으로, 단일 밝기 값 네트워크(SGB-Net)를 이용하여 기계학습이 수행되는 과정은 다음과 같다. 종래의 U-Net 알고리즘과 유사하게 각각 6개의 해상도 단계를 가진 연결경로 및 확장경로를 생성하고, 상기 연결경로에서 각 해상도 단계에서 파라메트릭(parametric) 정류 선형 단위(PReLU)를 수반하는 두번의 3X3 컨볼루션 및 스트라이드(stride)가 2인 2x2 맥스풀링(max-pooling)연산을 수행하고, 상기 확장경로에서 각 해상도 단계에서 상기 파라메트릭 정류 선형단위를 수반하는 두번의 3X3 컨볼루션을 수행하고, 각 해상도 단계별 업샘플링을 위해 두배의 진폭을 가지는 2x2 디컨볼루션을 수행하는 과정을 포함할 수 있다. 또한 상기 단일 밝기 값 네트워크(SGB-Net)는, 상기 확장경로의 모든 해상도의 단계에서, 디컨볼루션(deconvolution)을 통한 업샘플링이 수행된 영상의 출력 채널 수를 라벨(label) 수로 줄이는 1x1 컨볼루션을 수행하는 마지막 레이어를 포함하고, 상기 마지막 레이어는 출력되는 분할 라벨의 확률을 제공 하는 소프트맥스(softmax) 함수 및 손실 함수를 포함할 수 있다.Specifically, the process in which machine learning is performed using a single brightness value network (SGB-Net) is as follows. Similar to the conventional U-Net algorithm, a connected path and an extended path each having six resolution steps are generated, and in the connected path, two 3X3 Perform 2x2 max-pooling operation with convolution and stride equal to 2, and perform two 3x3 convolutions involving the parametric rectified linear unit at each resolution step in the extension path, each For resolution step-by-step upsampling, it may include a process of performing 2x2 deconvolution having a double amplitude. In addition, the single brightness value network (SGB-Net) reduces the number of output channels of an image subjected to upsampling through deconvolution to the number of labels at all resolution stages of the extension path. A last layer for performing a solution may be included, and the last layer may include a softmax function and a loss function that provide a probability of an output segmentation label.
단계 S320에서, 안와뼈 분할장치(100)는, 분할된 제1 라벨 및 상기 제2 라벨을 통합하여 최종 안와뼈를 획득할 수 있다. 즉, 안와뼈 분할장치(100)는 기존에 촬영되어 제1라벨과 제2라벨이 추출된 두부경부 컴퓨터 단층 촬영 영상을 기반으로 학습이 완료된 안와뼈 분할모델을 통해 입력영상 내의 제1라벨(즉, 피질뼈 영역)과 제2라벨(즉, 소주골을 포함하는 얇은 뼈 영역)을 분할하고, 이를 결합하여 전체 안와뼈를 분할해낸다.In step S320, the orbital
따라서, 일 실시예에 따른, 두부경부 영상에서 안와뼈 분할 방법 및 장치는, 개선된 안와뼈 분할 및 추출을 통해 안와뼈 골절의 진단 및 골절 부위의 재건에 필요한 플레이트 제작의 정확도를 향상시킬 수 있다. 나아가, 인체를 대상으로 하는 다양한 컴퓨터 단층 촬영 영상에서의 다양한 밝기 값을 갖는 뼈 구조에 대한 분할을 수행함에 있어, 유사한 방식으로 다중 밝기 값 레벨의 학습 기법을 적용하여 분할 정확도를 향상 시킬 수 있다. 도 4는 일 실시예에 따른 다중 밝기 값 네트워크에서 기계학습을 수행하는 방법을 설명하기 위한 개념도이다.Accordingly, the method and apparatus for segmenting orbital bone in a head and neck image according to an embodiment may improve the accuracy of plate manufacturing required for diagnosis of an orbital bone fracture and reconstruction of a fracture site through improved segmentation and extraction of orbital bone. . Furthermore, in performing segmentation on bone structures having various brightness values in various computed tomography images of the human body, it is possible to improve segmentation accuracy by applying a learning technique of multiple brightness values in a similar manner. 4 is a conceptual diagram illustrating a method of performing machine learning in a multi-brightness value network according to an embodiment.
도 4를 참조하면, 원본 영상(501)은 전처리 단계(502)에서, 서로 다른 수집 프로토콜로 인한 입력 이미지들 간 차이의 발생을 줄이기 위해, 입력 이미지에서 밝기 값 및 픽셀 크기의 정규화가 수행될 수 있다. Referring to FIG. 4 , in the
밝기 값의 정규화(503)를 위해, 밝기 값은 [-200HU, 400HU]범위에서 부호 없는 8비트 정수 값 [0, 255]으로 변경된다. 여기서, 400HU보다 큰 밝기 값을 갖는 영역은 확실한 피질 뼈 영역을 의미하고, -200HU보다 낮은 밝기 값을 갖는 영역은 공기와 지방을 의미할 수 있다.For
또한, 화소 간격 정규화(504)를 위해, 모든 이미지의 픽셀크기는 데이터의 다른 픽셀 크기를 균등하게 전체 데이터 중 가장 작은 픽셀 크기인 0.41x0. 41mm2 로 변경할 수 있다.Also, for
또한, 원본 영상(501)에서 전처리가 수행된 뒤 소정 ROI(region of intent)영역으로 크롭되어 ROI 영상(505)이 생성 될 수 있다. In addition, after preprocessing is performed on the
한편, ROI 영상은 훈련영상(506) 또는 실제 안와뼈 분할을 위한 입력 영상(507)의 집합으로 구분될 수 있다. 다음으로 입력 영상은 낮은 밝기 값을 가진 얇은뼈 영역과 높은 밝기 값을 가진 피질뼈 영역에 대해 각각 다중 밝기 값 네트워크를 통해 기계학습 될 수 있다. Meanwhile, the ROI image may be divided into a
여기서, 다중 밝기 값 네트워크(MGB-Net)는 종래의 U-Net알고리즘으로 잘 알려져 있는, 심층 신경망 네트워크에서 발전되었다. 우선, 적어도 하나의 단일 밝기 값 네트워크(SGB-Net, 508, 509)를 포함하는 형태로 다중 밝기 값 네트워크를 구성한다. 단일 밝기 값 네트워크(SGB-Net)는 연결(concatenating) 경로와 확장(expanding) 경로로 구성되며, 각 경로는 6개의 레이어로 구성된다. 연결 경로의 각 계층은 2개의 컨볼루션 필터와 스트라이드(stride)가 2인 2x2 max-pooling 연산으로 구성되며, 확장 경로의 각 계층은 2개의 컨볼루션 필터와 2x2 업 샘플링 연산으로 구성된다. 모든 컨볼루션은 커널 크기가 3x3이고 제로 패딩 과 정류 선형 유닛 (Rectified Linear Unit; ReLu)을 수반한다. 확장 경로의 마지막 레이어는 1x1 컨볼루션(convolution)의 2가지 필터 {object, background}와 분할 라벨의 확률을 제공하는 소프트맥스(softmax) 함수로 구성된다. 또한, 손실 함수는 픽셀 단위 교차 엔트로피와 주사위 계수의 합으로 계산될 수 있다.Here, the multi-luminance value network (MGB-Net) is developed from the deep neural network, which is well known as the conventional U-Net algorithm. First, a multi-luminance value network is configured in a form including at least one single brightness value network (SGB-Net, 508, 509). The single brightness value network (SGB-Net) consists of a concatenating path and an expanding path, and each path consists of 6 layers. Each layer of the concatenated path consists of two convolution filters and a 2x2 max-pooling operation with a stride of 2, and each layer of the extension path consists of two convolution filters and a 2x2 upsampling operation. All convolutions have a kernel size of 3x3 and involve zero padding and a Rectified Linear Unit (ReLu). The last layer of the extension path consists of two filters {object, background} of a 1x1 convolution and a softmax function that provides the probability of the segmentation label. Also, the loss function may be calculated as the sum of pixel-wise cross entropy and dice coefficients.
한편, 입력 영상(507)은 통합 단계에서 안와 내벽과 안와 바닥의 얇은 뼈의 과소 분할(under segmentation)을 막기 위해, 하나의 안와뼈 마스크는 대뇌 피질의 뼈와 얇은 뼈에 대한 두 개의 마스크로 변환될 수 있다. 따라서, 기계 학습 단계에서 두 개의 SGB-Nets가 각각 개별적으로 얇은 뼈 마스크 및 피질 뼈 마스크에 대해 딥러닝을 수행(508, 509)한다. 즉, 두 SGB-Nets는 각각 2가지 종류의 데이터 셋으로 훈련된다. 예컨대, 피질 뼈 마스크는 피질 뼈 및 배경을 포함하고, 얇은 뼈 마스크는 얇은 뼈 및 배경을 포함할 수도 있다.Meanwhile, the
통합 단계에서(510) 각각의 SGB-Nets를 통한 피질 뼈(511) 및 얇은 뼈(512) 분할 결과가 통합(513)되어 최종 안와뼈 분할 결과(520)를 얻을 수 있다.In the
한편, 일반적으로, 안와뼈의 피질뼈는 300HU 또는 그 이상의 밝기 값을 가지고, 안와 내벽과 안와 바닥의 얇은 뼈는 200HU 이하의 밝기 값을 갖는다. 따라서 두 마스크들을 서로 보완하기 위해, 피질 뼈와 얇은 뼈의 마스크들의 밝기 값을 중첩하여, 최종 안와 뼈 분할 결과는 200HU보다는 크고 300HU보다는 낮은 밝기 값으로 설정될 수 있다.On the other hand, in general, the cortical bone of the orbital bone has a brightness value of 300 HU or more, and the thin bones of the orbital inner wall and the orbital floor have a brightness value of 200 HU or less. Therefore, in order to complement the two masks, by superimposing the brightness values of the masks of the cortical bone and the thin bone, the final orbital bone segmentation result can be set to a brightness value greater than 200HU and lower than 300HU.
도 5 및 도 6은 일 실시예에 따른 안와뼈 분할방법의 효과를 설명하기 위한 도이다.5 and 6 are diagrams for explaining the effect of the orbital bone segmentation method according to an embodiment.
도 5는 일 실시시예에 따른 다중 밝기 값 레벨을 이용한 네트워크의 질적 및 양적 성능을 나타낸다.5 shows qualitative and quantitative performance of a network using multiple brightness value levels according to an embodiment.
전체 안와뼈((a)-(e))와 안와 내벽 및 안와 바닥의 얇은 뼈((f)-(j))의 분할 성능 평가 결과를 도시한다(색상으로 강조된 부분이 분할된 영역을 의미함). 여기서 (a)와 (f)는 원본 CT 영상, (b)와 (g)는 임계값 300HU을 이용하는 방법(이하, 방법 A)을 통해 획득된 영상, (c)와 (h)는 RefineNet-101 방법(이하, 방법 B)을 통해 획득된 영상, (d)와 (i)는 전체 안와뼈에 대해 학습된 U-Net 방법(이하, 방법 C)을 통해 획득된 영상, (e)와 (j)는 일 실시예에 따른 다중 밝기 값 레벨을 이용한 안와뼈 분할 방법(이하, 방법 D)을 통해 획득된 영상을 도시한다.The segmentation performance evaluation results of the entire orbital bone ((a)-(e)) and the thin bones of the inner orbital wall and orbital floor ((f)-(j)) are shown (the area highlighted in color means the segmented area). ). Here, (a) and (f) are the original CT images, (b) and (g) are images acquired through the method (hereinafter, method A) using a threshold value of 300HU, (c) and (h) are RefineNet-101 Images obtained through the method (hereinafter, method B), (d) and (i) are images obtained through the U-Net method (hereinafter, method C) learned for the entire orbital bone, (e) and (j) ) shows an image obtained through the orbital bone segmentation method (hereinafter, method D) using multiple brightness value levels according to an embodiment.
우선, 정량적 평가를 위해, 평가대상이 되는 평가 ROI는 각 환자에 대해 다르게 정의된다. 분할된 안와뼈는 평가 ROI영역 내에서 평가되며, 평가 ROI영역 내에서 성능 측정은 민감도, 특이성 및 정확도를 사용하여 추정된다. 안와내벽과 안와 바닥의 얇은 뼈에서 감도, 주사위 유사 계수 (dice similarity coefficient: DSC) 및 교차 결합 (intersection-over-union: IoU)을 사용하여 성능 측정치가 추정 된다. 한편, 특이성과 정확성만을 이용한 성능 측정은 ROI의 배경 대비 얇은 뼈 비율이 매우 작기 때문에 세부 성능을 비교하고 평가하는데 적합하지 않을 수 있다.First, for quantitative evaluation, the evaluation ROI to be evaluated is defined differently for each patient. The segmented orbital bone is evaluated within the evaluation ROI area, and performance measures within the evaluation ROI area are estimated using sensitivity, specificity and accuracy. Performance measures were estimated using sensitivity, dice similarity coefficient (DSC) and intersection-over-union (IoU) in thin bones of the orbital lining and orbital floor. On the other hand, performance measurement using only specificity and accuracy may not be suitable for comparing and evaluating detailed performance because the ratio of thin bone to the background of the ROI is very small.
도 6은 일 실시예에 따른 안와뼈 분할 방법의 질적인 성능을 나타낸다. 질적 평가를 위해, 전체 안와뼈와 안와내벽 및 안와바닥의 얇은 뼈의 분할 결과는 두 임상실험의 분할 결과 및 라벨 사이에 중첩되어 표시된다. 전체 안와뼈에 관해, 방법 D의 민감도는 92.50%로 가장 좋은 성능을 나타낸다. 이것은 각각 방법 A, B, C와 비교하였을 때, 2.21 %, 4.05 %, 0.89 % 향상된 것이다.6 shows the qualitative performance of a method for segmenting an orbital bone according to an embodiment. For qualitative evaluation, the segmentation results of the entire orbital bone and the thin bones of the orbital medial wall and orbital floor are displayed superimposed between the segmentation results and labels of the two clinical trials. For the whole orbital bone, the sensitivity of Method D is 92.50%, which shows the best performance. This is 2.21 %, 4.05 %, and 0.89 % improvement compared with methods A, B, and C, respectively.
하지만, 방법 D의 특이성 및 정확도는 오히려 방법 A보다 낮다. 왜냐하면 방법 A는 피질 뼈에 대해서 좋은 성능을 보이지만 안와 내벽 및 안와 바닥의 얇은 뼈에 대해서는 낮은 성능을 보이기 때문이다. 방법 A는 임계값이 300HU로 고정되기 때문에 주변 연조직이 누출되어 민감도 측면에서는 가장 나쁜 성능을 보인다. 방법 B와 방법 C는 방법 A에 대해서 민감도를 각각 52.62 % 및 59.84 % 상승함을 보여준다. 하지만, 방법 B와 방법 C는 모두 단일 밝기레벨 네트워크를 나타낸다. However, the specificity and accuracy of method D is rather lower than that of method A. This is because Method A shows good performance on cortical bone but poor performance on thin bones of the orbital lining and orbital floor. Method A shows the worst performance in terms of sensitivity due to leakage of surrounding soft tissues because the threshold is fixed at 300HU. Method B and method C show that method A increases the sensitivity by 52.62% and 59.84%, respectively. However, both Method B and Method C represent a single brightness level network.
따라서, 일 실시예에 따른 안와뼈 분할 방법(방법 D)의 민감도 및 DSC는 67.61 %와 61.96 %로 방법 B에 비해 13.16 %p 와 14.83 %p, 방법 C에 비해 5.94 %p와 3.26 %p 증가했다. 특히, 방법 A와 비교하여 65.78 %p 및 58.23 %p 증가했음을 알 수 있다. 도 6에서 성능 평가 결과가 높게 나타난 값은 크게 표시되었다.Therefore, the sensitivity and DSC of the orbital segmentation method (Method D) according to an embodiment are 67.61% and 61.96%, 13.16%p and 14.83%p compared to Method B, and 5.94%p and 3.26%p increase compared to Method C did. In particular, it can be seen that 65.78 %p and 58.23 %p increase compared to method A. In FIG. 6 , a value indicating a high performance evaluation result is displayed as large.
한편, 다시 도 5를 참조하면, 방법 A는 피질 뼈는 쉽게 분할되었지만 얇은뼈는 거의 분할되지 못함을 알 수 있다. 또한 방법 B, C는 피질골의 경계에서의 과소 분할(under-segmentation) 경향을 나타내나, 방법 A보다 향상되었음을 알 수 있다. 방법 B, C에는 큰 차이가 없다. 하지만, 일 실시예에 따른 안와골 분할방법(방법 D)은 명시적으로 보다 안정적인 분할 결과를 나타냄을 알 수 있다.Meanwhile, referring back to FIG. 5 , it can be seen that, in Method A, the cortical bone is easily divided, but the thin bone is hardly divided. Also, methods B and C show a tendency to under-segmentation at the boundary of the cortical bone, but it can be seen that it is improved compared to method A. There is no significant difference between methods B and C. However, it can be seen that the orbital bone segmentation method (Method D) according to an embodiment explicitly shows a more stable segmentation result.
도 7은 본 발명의 다른 일실시예에 따른 제2분할기 내에 2차원분할모듈과 3차원분할모듈을 포함하는 안와뼈 분할장치의 구성도이다.7 is a block diagram of an orbital bone division apparatus including a 2D division module and a 3D division module in the second divider according to another embodiment of the present invention.
도 8은 본 발명의 다른 일실시예에 따른 2D 분할네트워크와 3D 분할네트워크를 함께 활용하여 신규 입력영상에서 얇은 뼈를 분할하는 방법에 대한 순서도이다.8 is a flowchart of a method of segmenting a thin bone in a new input image by using a 2D segmentation network and a 3D segmentation network together according to another embodiment of the present invention.
도 7을 참조하면, 본 발명의 다른 일실시예에 따른 안와뼈 분할장치(100)는, 소주골과 얇은 뼈(trabecular and thin bone)를 분리하는 과정(즉, 제2분할기(102))에서 2D분할 네트워크와 3D 분할 네트워크를 함께 이용한다. 예를 들어, 제2분할기(102)는 2D RefineNet과 3D U-Net을 각각 학습하여 둠에 따라, 소주골과 얇은 뼈를 정확하게 분리한다. 즉, 제2분할기(102)는 2차원 분할모듈 및 3차원 분할모듈을 포함한다.Referring to FIG. 7 , in the orbital
제2분할기(102)가 2D분할 네트워크와 3D 분할 네트워크를 학습하는 구체적인 과정을 기술하면 다음과 같다.A detailed process for the
먼저, 도 8에서와 같이, 제2분할기(102) 내 2차원분할모듈(103)은 낮은 밝기값을 기반으로 학습용 영상데이터 내 얇은 뼈의 관심영역(Rolume of Interest; ROI)이 설정된 제2라벨을 학습한다. 구체적으로, 2차원분할모듈(103)은 안와뼈(Orbital bone)의 axial plane에 해당하는 2차원 영상에 관심영역(Region of Interset; ROI))를 입력받아서 학습을 수행한다.First, as shown in FIG. 8 , the
제2분할기(102) 내 3차원분할모듈(104)은 안와뼈의 3차원 영상데이터에서 특정한 기준 밝기 값을 기반으로 얇은 뼈 관심영역(Volume of Interest; VOI)이 설정된 3차원 학습데이터를 학습한다. 이 때, 3차원분할모듈(104)은 2차원의 제2라벨에서 얇은 뼈가 존재하는 공간범위를 3차원 학습데이터로 설정할 수 있다. 3차원 학습데이터의 범위가 제한됨에 따라, 안와뼈 분할장치(100)는 안와뼈를 분할하는 속도가 향상될 수 있으며, 분할 정확도가 향상될 수 있다.The
2차원분할모듈(103)과 3차원분할모듈(104)을 포함하는 제2분할기를 이용하는 일실시예로, S310에서, 안와뼈 분할장치(100)는, 입력영상을 제2분할기 내 2차원분할모듈(103)과 3차원분할모듈(104)에 각각 입력한다. 이 때, 2차원분할모듈(103)은 학습 시와 동일한 axial plane의 2차원영상을 입력받는다. 또한, 3차원분할모듈(104)은, 2차원분할모듈(103)에서 획득되는 얇은 뼈 영역을 포함하는 것으로서 3차원 입력영상에서 추출된 3차원영역(예를 들어, 직육면체 영역)을 입력받는다. 이를 통해, 3차원분할모듈(104)은 학습 시에 이용된 3차원 학습데이터와 동일한 사이즈로 추출된 3차원영상을 입력받을 수 있다.In an embodiment using a second divider including a two-
그 후, 안와뼈 분할장치(100)는, 입력영상을 기반으로 2차원분할모듈(103)(예를 들어, RefineNet 기반의 2D 분할네트워크)과 3차원분할모듈(104)(예를 들어, U-Net 기반의 3D 분할네트워크)에서 분할된 2차원분할데이터와 3차원분할데이터를 결합한다. 즉, 안와뼈 분할장치(100)(특히, 제2분할기(102))는 2차원분할데이터를 활용하여 얇은 뼈의 전체적인 특성(Global context)과 축평면(axial plane)의 세부적인 특성을 획득하고, 3차원분할데이터를 활용하여 얇은 뼈의 세부적인 공간적 정보(spatial information)를 획득한다. Thereafter, the orbital
이를 통해, 도 9 및 도 10에서와 같이, 안와뼈 분할장치는, 얇은 뼈(thin bone)를 분할하기 위해 2D 분할네트워크만을 이용할 때 발생하는 언더-세크멘테이션(under-segmentation: 실제보다 적게 분할되어 대상체의 일부가 누락) 문제와 인접한 얇은 뼈의 2차원 프레임(또는 슬라이스) 간에 연결성이 떨어지는 문제를 줄일 수 있다. 즉, 3D 분할네트워크에 의해 획득되는 3차원분할데이터에 포함된 공간적 정보를 함께 활용함에 따라, 안와뼈 분할장치(100)는 인접한 2차원 프레임(또는 슬라이스)간의 연결성이 높아져서 정확도가 향상된 최종 분할데이터를 획득할 수 있다.Through this, as in FIGS. 9 and 10 , the orbital bone segmentation apparatus under-segmentation (under-segmentation: segmentation smaller than the actual size) that occurs when only a 2D segmentation network is used to segment thin bone Thus, it is possible to reduce the problem of missing a part of the object) and the problem of poor connectivity between the two-dimensional frame (or slice) of adjacent thin bones. That is, as the spatial information included in the 3D segmentation data obtained by the 3D segmentation network is utilized together, the orbital
도 11 은 일 실시 예에 따른 안와뼈 분할장치(100)의 내부 구성을 개략적으로 나타낸 도이다.11 is a diagram schematically showing the internal configuration of the orbital
안와뼈 분할장치(100)는 후술하는 기능을 수행할 수 있는 기기로서, 예를 들어 서버 컴퓨터, 개인 컴퓨터 등으로 구성될 수 있다. 일 실시예에서, 안와뼈 분할장치(100)는 하나 이상의 프로세서(130) 및/또는 하나 이상의 메모리(140)를 포함할 수 있다. The orbital
일 실시예에 따라 하나 이상의 프로세서(130)에 의해 수행되는 연산은, 입력 영상의 밝기 값과 픽셀 크기를 정규화하는 전처리 연산, 상기 입력 영상에서 높은 밝기 값의 영역으로 구성된 제1 라벨 및 낮은 밝기 값의 영역으로 구성된 제2 라벨을 설정하는 연산, 상기 제1 라벨을 분할하는 제1 분할기 및 상기 제2 라벨을 분할해 내는 제2 분할기를 훈련 영상 및 다중 밝기 값을 고려한 네트워크를 이용하여 각각 기계학습하는 연산 및 상기 기계학습이 수행된 제1 분할기 및 제2 분할기를 이용하여 상기 입력 영상에서 상기 제1 라벨 및 제2 라벨을 분할하고, 상기 제1 라벨 및 상기 제2 라벨을 통합하여 안와뼈를 분할하는 연산을 수행할 수 있다. 또한, 상술한 연산 이외에도, 일 실시예에 따른 안와뼈 분할장치(100)는 도 1 내지 도 4에서 상술된 안와뼈 분할방법을 수행할 수 있음을 통상의 기술자는 쉽게 이해할 수 있다.According to an embodiment, the operation performed by the one or
일 실시예에서는, 안와뼈 분할장치(100)의 이 구성요소들 중 적어도 하나가 생략되거나, 다른 구성요소가 안와뼈 분할장치(100)에 추가될 수 있다. 또한 추가적으로(additionally) 또는 대체적으로(alternatively), 일부의 구성요소들이 통합되어 구현되거나, 단수 또는 복수의 개체로 구현될 수 있다. 안와뼈 분할장치(100) 내, 외부의 구성요소들 중 적어도 일부의 구성요소들은 버스, GPIO(general purpose input/output), SPI(serial peripheral interface) 또는 MIPI(mobile industry processor interface) 등을 통해 서로 연결되어, 데이터 및/또는 시그널을 주고 받을 수 있다.In one embodiment, at least one of these components of the orbital
하나 이상의 메모리(140)는 다양한 데이터를 저장할 수 있다. 메모리(140)에 저장되는 데이터는, 안와뼈 분할장치(100)의 적어도 하나의 구성요소에 의해 획득되거나, 처리되거나, 사용되는 데이터로서, 소프트웨어(예: 프로그램)를 포함할 수 있다. 메모리(140)는, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 하나 이상의 메모리(140)는, 하나 이상의 프로세서(130)에 의한 실행 시, 하나 이상의 프로세서(130)가 연산을 수행하도록 하는 명령들을 저장할 수 있다. 일 실시예에서, 하나 이상의 메모리(140)는 하나 이상의 사용자에 대한 개인화 정보 및/또는 하나 이상의 상품에 대한 추천 정보를 저장할 수 있다. 본 개시에서, 프로그램 내지 명령은 메모리(140)에 저장되는 소프트웨어로서, 안와뼈 분할장치(100)의 리소스를 제어하기 위한 운영체제, 어플리케이션 및/또는 어플리케이션이 장치의 리소스들을 활용할 수 있도록 다양한 기능을 어플리케이션에 제공하는 미들 웨어 등을 포함할 수 있다.The one or
하나 이상의 프로세서(130)는, 소프트웨어(예: 프로그램, 명령)를 구동하여 프로세서(130)에 연결된 안와뼈 분할장치(100)의 적어도 하나의 구성요소를 제어할 수 있다. 또한 프로세서(130)는 본 개시와 관련된 다양한 연산, 처리, 데이터 생성, 가공 등의 동작을 수행할 수 있다. 또한 프로세서(130)는 데이터 등을 메모리(140)로부터 로드하거나, 메모리(140)에 저장할 수 있다The one or
일 실시예에서, 안와뼈 분할장치(100)는 통신 인터페이스(도시되지 않음)를 더 포함할 수 있다. 통신 인터페이스는, 안와뼈 분할장치(100)와 다른 서버 또는 다른 외부 장치(예: 촬영장치(120))간의 무선 또는 유선 통신을 수행할 수 있다. 예를 들어, 통신 인터페이스는 eMBB(enhanced Mobile Broadband), URLLC(Ultra Reliable Low-Latency Communications), MMTC(Massive Machine Type Communications), LTE(long-term evolution), LTE-A(LTE Advance), UMTS(Universal Mobile Telecommunications System), GSM(Global System for Mobile communications), CDMA(code division multiple access), WCDMA(wideband CDMA), WiBro(Wireless Broadband), WiFi(wireless fidelity), 블루투스(Bluetooth), NFC(near field communication), GPS(Global Positioning System) 또는 GNSS(global navigation satellite system) 등의 방식에 따른 무선 통신을 수행할 수 있다. In one embodiment, the orbital
본 개시에 따른 안와뼈 분할장치(100)의 다양한 실시예들은 서로 조합될 수 있다. 각 실시예들은 경우의 수에 따라 조합될 수 있으며, 조합되어 만들어진 안와뼈 분할장치(100)의 실시예 역시 본 개시의 범위에 속한다. 또한 전술한 본 개시에 따른 안와뼈 분할장치(100)의 내/외부 구성 요소들은 실시예에 따라 추가, 변경, 대체 또는 삭제될 수 있다. 또한 전술한 안와뼈 분할장치(100)의 내/외부 구성 요소들은 하드웨어 컴포넌트로 구현될 수 있다.Various embodiments of the orbital
한편, 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다.Meanwhile, the method according to an embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and carry out program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions may include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, with respect to the present invention, the preferred embodiments have been looked at. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention can be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments are to be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.
100: 안와뼈 분할장치
110: 네트워크
120: 촬영장치100: orbital bone divider
110: network
120: shooting device
Claims (13)
입력 영상에서 제1 밝기 값의 영역으로 구성된 제1 라벨 및 상기 제1 밝기 값보다 낮은 제2 밝기 값의 영역으로 구성된 제2 라벨을 설정하는, 제1라벨 및 제2라벨 설정단계; 및
상기 설정된 제1 라벨 및 상기 제2 라벨을 통합하여 안와뼈를 분할하는 단계;를 포함하고,
상기 제1 라벨 및 상기 제2 라벨은, 훈련 영상 및 다중 밝기 값을 고려한 네트워크를 이용하여 각각 기계학습된 제1 분할기 및 제2 분할기에 의하여 분할되는 것인, 방법.In the method of segmenting the orbital bone in a head and neck computed tomography (CT) by an orbital bone segmentation device,
a first label and second label setting step of setting a first label composed of an area having a first brightness value and a second label composed of an area having a second brightness value lower than the first brightness value in the input image; and
Including; and dividing the orbital bone by integrating the set first label and the second label;
The method of claim 1, wherein the first label and the second label are divided by a first divider and a second divider that are machine-learned using a network considering a training image and multiple brightness values, respectively.
입력 영상의 밝기 값과 픽셀 크기를 정규화 하는 전처리 단계;를 더 포함하는, 방법.The method of claim 1,
The method further comprising; a preprocessing step of normalizing the brightness value and pixel size of the input image.
상기 전처리를 수행하는 단계는
상기 밝기 값의 정규화를 위해 소정 범위의 밝기 값을 부호 없는 8비트 정수 값으로 변경 하는 단계를 포함하는, 방법.3. The method of claim 2,
The pre-processing step is
and changing a brightness value within a predetermined range to an unsigned 8-bit integer value for normalizing the brightness value.
상기 제1 라벨은 안와뼈의 피질뼈 영역을 포함하고, 상기 제2 라벨은 안와 내벽 및 안와 바닥의 얇은 뼈 영역을 포함하는 것인, 방법.The method of claim 1,
wherein the first label comprises a cortical bone region of the orbital bone and the second label comprises a thin bone region of the orbital lining and orbital floor.
상기 제1 분할기는, 상기 제1 라벨에 대해 제1 라벨에 대응하는 단일 밝기 값 네트워크(SGB-Net)를 이용하여 기계학습되고, 상기 제2 분할기는, 상기 제2 라벨에 대해 제2 라벨에 대응하는 단일 밝기 값 네트워크를 이용하여 기계학습되는 것인, 방법.The method of claim 1,
The first divider is machine-learned by using a single brightness value network (SGB-Net) corresponding to a first label for the first label, and the second divider is machine learning using a corresponding single brightness value network.
상기 단일 밝기 값 네트워크(SGB-Net)는,
6개의 해상도 단계를 가진 연결경로 및 확장경로를 생성하고;
상기 연결경로에서 각 해상도 단계에 대해 파라메트릭(parametric) 정류 선형 단위(PReLU)를 수반하는 두번의 3X3 컨볼루션 및 스트라이드(stride)가 2인 2x2 맥스풀링(max-pooling)연산을 수행하고; 및
상기 확장경로에서 각 해상도 단계에 대해 상기 파라메트릭 정류 선형단위를 수반하는 두번의 3X3 컨볼루션을 수행하고, 각 해상도 단계별 업샘플링을 위해 두배의 진폭을 가지는 2x2 디컨볼루션을 수행하는 것인, 방법.6. The method of claim 5,
The single brightness value network (SGB-Net) is
generating a connection path and an extension path having 6 resolution levels;
performing two 3X3 convolutions involving a parametric rectified linear unit (PReLU) and a 2x2 max-pooling operation with a stride equal to 2 for each resolution step in the concatenated path; and
Performing two 3X3 convolutions involving the parametric rectified linear unit for each resolution step in the extension path, and performing 2×2 deconvolution with double amplitude for upsampling at each resolution step. Method, .
상기 단일 밝기 값 네트워크(SGB-Net)는,
상기 확장경로의 모든 해상도의 단계에서, 디컨볼루션(deconvolution)을 통한 업샘플링이 수행된 영상의 출력 채널 수를 라벨(label) 수로 줄이는 1x1 컨볼루션을 수행하는 마지막 레이어를 포함하고,
상기 마지막 레이어는 출력되는 분할 라벨의 확률을 제공 하는 소프트맥스(softmax) 함수를 포함하는, 방법.7. The method of claim 6,
The single brightness value network (SGB-Net) is
In all resolution steps of the extension path, including a last layer that performs 1x1 convolution to reduce the number of output channels of an image on which upsampling has been performed through deconvolution to the number of labels,
wherein the last layer comprises a softmax function giving the probability of the split label being output.
상기 제2 분할기는 2차원분할모듈 및 3차원분할모듈을 포함하고,
상기 제1라벨 및 제2라벨 설정단계는,
상기 입력 영상을 상기 2차원분할모듈 및 3차원분할모듈에 각각 입력하는 단계; 및
상기 2차원분할모듈과 3차원분할모듈에서 분할된 2차원분할데이터와 3차원분할데이터를 결합하여 상기 제2라벨을 생성하는 단계;를 포함하는, 방법.The method of claim 1,
The second divider includes a two-dimensional division module and a three-dimensional division module,
The step of setting the first label and the second label,
inputting the input image to the 2D division module and the 3D division module, respectively; and
Creating the second label by combining the 2D divided data and the 3D divided data divided by the 2D division module and the 3D division module to generate the second label.
상기 2차원분할모듈은 RefineNet 기반의 2D 분할네트워크이고,
상기 3차원분할모듈은 U-Net 기반의 3D 분할네트워크인, 방법9. The method of claim 8,
The 2D division module is a 2D division network based on RefineNet,
The 3D division module is a U-Net-based 3D division network, the method
상기 제1라벨 및 제2라벨 설정단계에서,
상기 3차원분할모듈은, 상기 2차원분할모듈에서 획득되는 2차원 영역을 포함하는 것으로서, 3차원 입력영상에서 추출된 3차원영역을 입력받는 것을 특징으로 하는, 방법9. The method of claim 8,
In the first label and second label setting step,
The 3D division module includes a 2D area obtained by the 2D division module, characterized in that it receives a 3D area extracted from a 3D input image.
상기 하나 이상의 프로세서에 의한 실행 시, 상기 하나 이상의 프로세서가 연산을 수행하도록 하는 명령들이 저장된 하나 이상의 메모리를 포함하고,
상기 하나 이상의 프로세서에 의해 수행되는 상기 연산은,
입력 영상에서 제1 밝기 값의 영역으로 구성된 제1 라벨 및 상기 제1 밝기 값보다 낮은 제2 밝기 값의 영역으로 구성된 제2 라벨을 설정하는 연산; 및
상기 설정된 제1 라벨 및 상기 제2 라벨을 통합하여 최종안와뼈를 분할하는 연산을 포함하고,
상기 제1 라벨 및 상기 제2 라벨은, 훈련 영상 및 다중 밝기 값을 고려한 네트워크를 이용하여 각각 기계학습된 제1 분할기 및 제2 분할기에 의하여 분할되는 것인, 안와뼈 분할 장치.one or more processors; and
one or more memories in which instructions that, when executed by the one or more processors, cause the one or more processors to perform operations are stored;
The operation performed by the one or more processors,
an operation of setting a first label composed of a region having a first brightness value and a second label composed of a region having a second brightness value lower than the first brightness value in the input image; and
Including the operation of dividing the final orbital bone by integrating the set first label and the second label,
The first label and the second label are divided by a first divider and a second divider machine-learned using a network considering a training image and multiple brightness values, respectively.
상기 제1 라벨은 안와뼈의 피질뼈 영역을 포함하고, 상기 제2 라벨은 안와 내벽 및 안와 바닥의 얇은 뼈 영역을 포함하는 것인, 안와뼈 분할 장치.12. The method of claim 11,
wherein the first label includes a cortical bone region of the orbital bone, and the second label includes a thin bone region of the orbital lining and orbital floor.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190064623A KR102314455B1 (en) | 2019-05-31 | 2019-05-31 | A Method and Apparatus for Segmentation of Orbital Bone in Head and Neck CT image by Using Deep Learning and Multi-Graylevel Network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190064623A KR102314455B1 (en) | 2019-05-31 | 2019-05-31 | A Method and Apparatus for Segmentation of Orbital Bone in Head and Neck CT image by Using Deep Learning and Multi-Graylevel Network |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200137768A KR20200137768A (en) | 2020-12-09 |
KR102314455B1 true KR102314455B1 (en) | 2021-10-19 |
Family
ID=73787312
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190064623A KR102314455B1 (en) | 2019-05-31 | 2019-05-31 | A Method and Apparatus for Segmentation of Orbital Bone in Head and Neck CT image by Using Deep Learning and Multi-Graylevel Network |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102314455B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023146141A1 (en) * | 2022-01-27 | 2023-08-03 | 한국과학기술연구원 | Method for determining lesion in medical image by using artificial intelligence, artificial intelligence neural network system performing same, and computer-readable recording medium having recorded thereon program for executing same in computer |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102330981B1 (en) * | 2020-12-30 | 2021-12-02 | 이마고웍스 주식회사 | Method of automatic segmentation of maxillofacial bone in ct image using deep learning |
KR102488676B1 (en) * | 2021-08-02 | 2023-01-13 | 서울여자대학교 산학협력단 | Method and apparatus for improving z-axis resolution of ct images based on deep learning |
KR102591587B1 (en) * | 2021-08-26 | 2023-10-18 | 서울여자대학교 산학협력단 | Medical image segmentation apparatus and method for segmentating medical image |
KR102643071B1 (en) * | 2021-09-30 | 2024-03-05 | 주식회사 에이치디엑스윌 | Method for determining criterion of head rotation on cephalic ct radiographs, recording medium storing program for executing the same, and recording medium storing program for executing the same |
KR102660127B1 (en) * | 2023-04-06 | 2024-04-25 | 주식회사 써지컬에이아이 | Apparatus and method for detecting center point of joint in x-ray image using heatmap |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101999220B1 (en) | 2017-12-20 | 2019-07-11 | 재단법인 아산사회복지재단 | 3-dimensional artificial eye generation method, computer program for the same and 3-dimensional artificial eye generation system |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101871601B1 (en) * | 2016-11-30 | 2018-06-26 | 한국과학기술연구원 | Method for generating surgery plan for orbital wall reconstruction, surgery plan server performing the same, and storage medium storing the same |
-
2019
- 2019-05-31 KR KR1020190064623A patent/KR102314455B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101999220B1 (en) | 2017-12-20 | 2019-07-11 | 재단법인 아산사회복지재단 | 3-dimensional artificial eye generation method, computer program for the same and 3-dimensional artificial eye generation system |
Non-Patent Citations (2)
Title |
---|
Min Jin Lee 외 3명, Orbital bone segmentation in head and neck CT images using multi-gray level fully convolutional networks, SPIE Medical imaing, 2019, 2019.03.15.* |
Soyoung Lee 외 4명, Automatic segmentation of the orbital bone in 3D maxillofacial CT images with Double-Bone-Segmentation Network. SPIE, 2019.03.27. 1부. |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023146141A1 (en) * | 2022-01-27 | 2023-08-03 | 한국과학기술연구원 | Method for determining lesion in medical image by using artificial intelligence, artificial intelligence neural network system performing same, and computer-readable recording medium having recorded thereon program for executing same in computer |
Also Published As
Publication number | Publication date |
---|---|
KR20200137768A (en) | 2020-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102314455B1 (en) | A Method and Apparatus for Segmentation of Orbital Bone in Head and Neck CT image by Using Deep Learning and Multi-Graylevel Network | |
US10970829B2 (en) | Synthesizing and segmenting cross-domain medical images | |
CN110956635A (en) | Lung segment segmentation method, device, equipment and storage medium | |
US20220254023A1 (en) | System and Method for Interpretation of Multiple Medical Images Using Deep Learning | |
US10311603B2 (en) | Correcting positron emission tomography image attenuation | |
EP3424017B1 (en) | Automatic detection of an artifact in patient image data | |
US9142030B2 (en) | Systems, methods and computer readable storage media storing instructions for automatically segmenting images of a region of interest | |
EP3457356A1 (en) | Method and apparatus for fully automated segmentation of joint using patient-specific optimal thresholding and watershed algorithm | |
JP2007082908A (en) | Radiographic image processing apparatus and method | |
EP3665643B1 (en) | X-ray image processing method and system and computer storage medium | |
CN111462139A (en) | Medical image display method, medical image display device, computer equipment and readable storage medium | |
KR102216022B1 (en) | A Method and Apparatus for Modeling Average Orbital Shape in Head and Neck CT image by Using Statistical Shape Model | |
CN112200780B (en) | Bone tissue positioning method, device, computer equipment and storage medium | |
US20220383491A1 (en) | Tissue boundary determination apparatus and method | |
JP2009160313A (en) | Image processing apparatus, image processing method, and computer program | |
US20220245797A1 (en) | Information processing apparatus, information processing method, and information processing program | |
WO2021197176A1 (en) | Systems and methods for tumor characterization | |
JP6642048B2 (en) | Medical image display system, medical image display program, and medical image display method | |
KR20220169134A (en) | Apparauts, system, method and program for deciphering tomography image of common bile duct stone using artificial intelligence | |
JP7404857B2 (en) | Image judgment device, image judgment method and program | |
KR20230049938A (en) | Method and apparatus for quantitative analysis of emphysema | |
KR102136107B1 (en) | Apparatus and method for alignment of bone suppressed chest x-ray image | |
US11138736B2 (en) | Information processing apparatus and information processing method | |
EP3935605A1 (en) | Deep reinforcement learning for computer assisted reading and analysis | |
CN112766333B (en) | Medical image processing model training method, medical image processing method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |