KR102314455B1 - A Method and Apparatus for Segmentation of Orbital Bone in Head and Neck CT image by Using Deep Learning and Multi-Graylevel Network - Google Patents

A Method and Apparatus for Segmentation of Orbital Bone in Head and Neck CT image by Using Deep Learning and Multi-Graylevel Network Download PDF

Info

Publication number
KR102314455B1
KR102314455B1 KR1020190064623A KR20190064623A KR102314455B1 KR 102314455 B1 KR102314455 B1 KR 102314455B1 KR 1020190064623 A KR1020190064623 A KR 1020190064623A KR 20190064623 A KR20190064623 A KR 20190064623A KR 102314455 B1 KR102314455 B1 KR 102314455B1
Authority
KR
South Korea
Prior art keywords
label
orbital
bone
brightness value
segmentation
Prior art date
Application number
KR1020190064623A
Other languages
Korean (ko)
Other versions
KR20200137768A (en
Inventor
홍헬렌
이민진
심규원
Original Assignee
서울여자대학교 산학협력단
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울여자대학교 산학협력단, 연세대학교 산학협력단 filed Critical 서울여자대학교 산학협력단
Priority to KR1020190064623A priority Critical patent/KR102314455B1/en
Publication of KR20200137768A publication Critical patent/KR20200137768A/en
Application granted granted Critical
Publication of KR102314455B1 publication Critical patent/KR102314455B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/505Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of bone

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pulmonology (AREA)
  • Theoretical Computer Science (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

두부경부 컴퓨터단층촬영영상(CT: computed tomography)에서의 안와뼈 분할 방법은, 상기 입력 영상에서 제1 밝기 값의 영역으로 구성된 제1 라벨 및 상기 제1 밝기 값보다 낮은 제2 밝기 값의 영역으로 구성된 제2 라벨을 설정하는, 제1라벨 및 제2라벨 설정단계; 및 상기 분할된 제1 라벨 및 상기 제2 라벨을 통합하여 안와뼈를 분할하는 단계;를 포함하고, 상기 제1 라벨 및 상기 제2 라벨은, 훈련 영상 및 다중 밝기 값을 고려한 네트워크를 이용하여 각각 기계학습된 제1 분할기 및 제2 분할기에 의하여 분할되는 것이다.The orbital bone segmentation method in head and neck computed tomography (CT) includes a first label composed of a region of a first brightness value in the input image and a region of a second brightness value lower than the first brightness value. a first label and a second label setting step of setting the configured second label; and dividing the orbital bone by integrating the divided first label and the second label, wherein the first label and the second label are each using a network considering a training image and multiple brightness values. It is divided by the machine-learned first and second dividers.

Description

두부경부 컴퓨터단층촬영영상에서의 안와뼈 분할 방법 및 장치{A Method and Apparatus for Segmentation of Orbital Bone in Head and Neck CT image by Using Deep Learning and Multi-Graylevel Network}{A Method and Apparatus for Segmentation of Orbital Bone in Head and Neck CT image by Using Deep Learning and Multi-Graylevel Network}

본 발명은 3차원 두부경부 컴퓨터단층촬영영상(CT: Computed tomography)에서의 안와뼈 분할 방법 및 장치에 관한 것으로, 보다 상세하게는 3차원 두부경부 컴퓨터단층촬영영상(CT:omputed tomography)에서 딥러닝 및 다중 밝기 값 네트워크를 이용한 안와뼈 분할 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for segmenting orbital bones in three-dimensional head and neck computed tomography (CT), and more particularly, deep learning in three-dimensional head and neck computed tomography (CT). and a method and apparatus for segmenting an orbital bone using a multi-luminance value network.

두부경부 컴퓨터 단층 촬영 영상에서 안와뼈 분할 및 추출은 안와뼈 골절의 진단 및 골절 부위의 재건에 필요한 플레이트 제작을 위한 중요한 전처리 작업으로 이용될 수 있다. Segmentation and extraction of orbital bone from head and neck computed tomography images can be used as an important pre-processing operation for diagnosing orbital bone fractures and manufacturing plates required for reconstruction of fractured sites.

두부경부 컴퓨터 단층 촬영 영상에서 안와뼈는 그 형태가 사람마다 다르며, 안와뼈는 높은 밝기 값을 갖는 두꺼운 뼈 영역과 주변 연조직(Soft tissue)과 유사한 낮은 밝기 값을 갖는 얇은 두께의 뼈 영역으로 다양한 밝기 값을 보이므로, 이를 자동으로 학습하여 정확하게 분할 및 추출하기에 어려움이 있다.In the head and neck computed tomography image, the shape of the orbital bone varies from person to person, and the orbital bone consists of a thick bone area with high brightness values and a thin bone area with low brightness values similar to surrounding soft tissues. Since it shows a value, it is difficult to accurately divide and extract it by automatically learning it.

특히, 종래의 기계학습 방법에 있어서 안와뼈 전체를 분할하기 위해 전체 영역으로 학습을 하는 과정에서 얇은 뼈 영역이 상대적으로 분할 정확도가 떨어지는 한계가 있었다.In particular, in the conventional machine learning method, in the process of learning the entire orbital bone to divide the entire orbital bone, there is a limitation in that the segmentation accuracy of the thin bone region is relatively poor.

본 발명은, 일 실시예에 따라 3차원 두부경부 컴퓨터단층촬영영상(CT: omputed tomography)에서 딥러닝 및 다중 밝기 값 네트워크를 이용한 안와뼈 분할 방법을 개시한다. 특히, 딥러닝 과정에서 상대적으로 높은 밝기 값 레벨을 갖는 피질 뼈(Cortical bone) 영역과 낮은 밝기 값 레벨을 갖는 안와 내벽과 안와 바닥 영역에 있는 얇은 뼈와 소주골 영역에 대하여 분리하여 기계 학습하기 때문에 안와 내벽과 안와 바닥영역에 있는 얇은 뼈 영역에 대한 분할 정확도를 개선하는 방법을 개시한다.The present invention discloses a method of segmenting an orbital bone using deep learning and a multi-brightness value network in a three-dimensional head and neck computed tomography (CT) image according to an embodiment. In particular, in the deep learning process, the cortical bone region having a relatively high brightness level and the thin bone and trabecular bone regions in the orbit inner wall and orbit bottom region having a low brightness level are machine-learned separately. Disclosed is a method for improving segmentation accuracy for thin bone regions in the orbital inner wall and orbital floor region.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 일 실시예에 따른 두부경부 컴퓨터단층촬영영상(CT: computed tomography)에서의 안와뼈 분할 방법은, 상기 입력 영상에서 제1 밝기 값의 영역으로 구성된 제1 라벨 및 상기 제1 밝기 값보다 낮은 제2 밝기 값의 영역으로 구성된 제2 라벨을 설정하는, 제1라벨 및 제2라벨 설정단계; 및 상기 분할된 제1 라벨 및 상기 제2 라벨을 통합하여 안와뼈를 분할하는 단계;를 포함하고, 상기 제1 라벨 및 상기 제2 라벨은, 훈련 영상 및 다중 밝기 값을 고려한 네트워크를 이용하여 각각 기계학습된 제1 분할기 및 제2 분할기에 의하여 분할되는 것이다.In the method for segmenting orbital bones in computed tomography (CT) of the head and neck according to an embodiment of the present invention, a first label composed of a region of a first brightness value in the input image and the first brightness value a first label and a second label setting step of setting a second label composed of an area having a low second brightness value; and dividing the orbital bone by integrating the divided first label and the second label, wherein the first label and the second label are each using a network considering a training image and multiple brightness values. It is divided by the machine-learned first and second dividers.

또한, 다른 일실시예로, 입력 영상의 밝기 값과 픽셀 크기를 정규화 하는 전처리 단계;를 더 포함한다In another embodiment, the method further includes a pre-processing step of normalizing the brightness value and the pixel size of the input image.

또한, 다른 일실시예로, 상기 전처리를 수행하는 단계는, 상기 밝기 값의 정규화를 위해 소정 범위의 밝기 값을 부호 없는 8비트 정수 값으로 변경 하는 단계를 포함한다.Also, in another embodiment, performing the preprocessing includes changing a brightness value within a predetermined range into an unsigned 8-bit integer value for normalizing the brightness value.

또한, 다른 일실시예로, 상기 제1 라벨은 안와뼈의 피질뼈 영역을 포함하고, 상기 제2 라벨은 안와 내벽 및 안와 바닥의 얇은 뼈 영역을 포함하는 것이다.Further, in another embodiment, the first label includes a cortical bone region of the orbital bone, and the second label includes a thin bone region of the inner wall of the orbit and the bottom of the orbit.

또한, 다른 일실시예로, 상기 제1 분할기는, 상기 제1 라벨에 대해 제1 라벨에 대응하는 단일 밝기 값 네트워크(SGB-Net)를 이용하여 기계학습되고, 상기 제2 분할기는, 상기 제2 라벨에 대해 제2 라벨에 대응하는 단일 밝기 값 네트워크를 이용하여 기계학습되는 것이다.Also, in another embodiment, the first divider is machine-learned using a single brightness value network (SGB-Net) corresponding to the first label for the first label, and the second divider is For two labels, it is machine learning using a single brightness value network corresponding to the second label.

또한, 다른 일실시예로, 상기 단일 밝기 값 네트워크(SGB-Net)는, 6개의 해상도 단계를 가진 연결경로 및 확장경로를 생성하고, 상기 연결경로에서 각 해상도 단계에 대해 파라메트릭(parametric) 정류 선형 단위(PReLU)를 수반하는 두번의 3X3 컨볼루션 및 스트라이드(stride)가 2인 2x2 맥스풀링(max-pooling)연산을 수행하고, 상기 확장경로에서 각 해상도 단계에 대해 상기 파라메트릭 정류 선형단위를 수반하는 두번의 3X3 컨볼루션을 수행하고, 각 해상도 단계별 업샘플링을 위해 두배의 진폭을 가지는 2x2 디컨볼루션을 수행하는 것이다. Also, in another embodiment, the single brightness value network (SGB-Net) generates a connection path and an extension path having six resolution steps, and parametric rectification for each resolution step in the connection path. Perform two 3X3 convolutions involving a linear unit (PReLU) and a 2x2 max-pooling operation with a stride of 2, and calculate the parametric rectified linear unit for each resolution step in the extension path. The following two 3X3 convolutions are performed, and 2x2 deconvolution with double amplitude is performed for upsampling for each resolution step.

또한, 다른 일실시예로, 상기 단일 밝기 값 네트워크(SGB-Net)는, 상기 확장경로의 모든 해상도의 단계에서, 디컨볼루션(deconvolution)을 통한 업샘플링이 수행된 영상의 출력 채널 수를 라벨(label) 수로 줄이는 1x1 컨볼루션을 수행하는 마지막 레이어를 포함하고, 상기 마지막 레이어는 출력되는 분할 라벨의 확률을 제공 하는 소프트맥스(softmax) 함수를 포함한다.In addition, in another embodiment, the single brightness value network (SGB-Net) labels the number of output channels of the image on which upsampling through deconvolution is performed in all resolution stages of the extension path. A last layer that performs 1x1 convolution to reduce the number of labels is included, and the last layer includes a softmax function that provides a probability of an output split label.

또한, 다른 일실시예로, 상기 제2 분할기는 2차원분할모듈 및 3차원분할모듈을 포함하고, 상기 제1라벨 및 제2라벨 설정단계는,상기 입력영상을 상기 2차원분할모듈 및 3차원분할모듈에 각각 입력하는 단계; 및 상기 2차원분할모듈과 3차원분할모듈)에서 분할된 2차원분할데이터와 3차원분할데이터를 결합하여 상기 제2라벨을 생성하는 단계;를 포함한다.Also, in another embodiment, the second divider includes a 2D division module and a 3D division module, and the first label and second label setting step comprises: converting the input image into the 2D division module and the 3D division module. each input to the division module; and generating the second label by combining the 2D divided data and the 3D divided data divided by the 2D division module and the 3D division module).

또한, 다른 일실시예로, 상기 2차원분할모듈은 RefineNet 기반의 2D 분할네트워크이고, 상기 3차원분할모듈은 U-Net 기반의 3D 분할네트워크이다.In another embodiment, the 2D division module is a RefineNet-based 2D division network, and the 3D division module is a U-Net based 3D division network.

또한, 다른 일실시예로, 상기 제1라벨 및 제2라벨 설정단계에서, 상기 3차원분할모듈은, 상기 2차원분할모듈에서 획득되는 2차원 영역을 포함하는 것으로서, 3차원 입력영상에서 추출된 3차원영역을 입력받는 것을 특징으로 한다.In another embodiment, in the step of setting the first label and the second label, the three-dimensional division module includes a two-dimensional area obtained from the two-dimensional division module, and is extracted from a three-dimensional input image. It is characterized in that a three-dimensional area is input.

본 발명의 다른 일실시예에 따른 안와뼈 분할장치는, 하나 이상의 프로세서; 및 상기 하나 이상의 프로세서에 의한 실행 시, 상기 하나 이상의 프로세서가 연산을 수행하도록 하는 명령들이 저장된 하나 이상의 메모리를 포함하고, 상기 하나 이상의 프로세서에 의해 수행되는 상기 연산은, 상기 입력 영상에서 제1 밝기 값의 영역으로 구성된 제1 라벨 및 상기 제1 밝기 값보다 낮은 제2 밝기 값의 영역으로 구성된 제2 라벨을 설정하는 연산; 및 상기 분할된 제1 라벨 및 상기 제2 라벨을 통합하여 최종안와뼈를 분할하는 연산을 포함하고, 상기 제1 라벨 및 상기 제2 라벨은, 훈련 영상 및 다중 밝기 값을 고려한 네트워크를 이용하여 각각 기계학습된 제1 분할기 및 제2 분할기에 의하여 분할되는 것이다.Orbital bone dividing apparatus according to another embodiment of the present invention, one or more processors; and one or more memories storing instructions that, when executed by the one or more processors, cause the one or more processors to perform an operation, wherein the operation performed by the one or more processors comprises: a first brightness value in the input image an operation of setting a first label composed of an area of , and a second label composed of an area of a second brightness value lower than the first brightness value; and an operation of segmenting the final orbital bone by integrating the divided first label and the second label, wherein the first label and the second label are machined using a network considering a training image and multiple brightness values, respectively. It is divided by the learned first divider and the second divider.

또한, 상기 제1 라벨은 안와뼈의 피질뼈 영역을 포함하고, 상기 제2 라벨은 안와 내벽 및 안와 바닥의 얇은 뼈 영역을 포함할 수 있다.In addition, the first label may include a cortical bone region of the orbital bone, and the second label may include a thin bone region of the orbital inner wall and orbital floor.

이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램, 그리고 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.In addition to this, another method for implementing the present invention, another system and a computer program for executing the method, and a computer-readable recording medium for recording the computer program may be further provided.

상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.According to the present invention as described above, it has various effects as follows.

일 실시예에 따른, 두부경부 영상에서 안와뼈 분할 방법 및 장치는, 개선된 안와뼈 분할 및 추출을 통해 안와뼈 골절의 진단 및 골절 부위의 재건에 필요한 플레이트 제작의 정확도를 향상시킬 수 있다. 나아가, 인체를 대상으로 하는 다양한 컴퓨터 단층 촬영 영상에서의 다양한 밝기 값을 갖는 뼈 구조에 대한 분할을 수행함에 있어, 유사한 방식으로 다중 밝기 값 레벨의 학습 기법을 적용하여 분할 정확도를 향상시킬 수 있다. According to an embodiment, the method and apparatus for segmenting orbital bone in a head and neck image may improve the accuracy of plate manufacturing required for diagnosis of an orbital bone fracture and reconstruction of a fracture site through improved segmentation and extraction of orbital bone. Furthermore, in performing segmentation on bone structures having various brightness values in various computed tomography images of a human body, it is possible to improve segmentation accuracy by applying a learning technique of multiple brightness values in a similar manner.

도 1은 일 실시예에 따른 두부경부 컴퓨터 단층촬영영상에서 안와뼈 분할방법을 설명하기 위한 개념도이다.
도 2는 일 실시예에 따른 두부경부 컴퓨터 단층촬영영상에서의 안와뼈 분할을 설명하기 위한 도이다.
도 3은 일 실시예에 따른 안와뼈 분할 방법을 설명하기 위한 순서도이다.
도 4는 일 실시예에 따른 다중 밝기 값 네트워크에서 기계학습을 수행하는 방법을 설명하기 위한 개념도이다.
도 5 및 도 6은 일 실시예에 따른 안와뼈 분할방법의 효과를 설명하기 위한 도이다.
도 7은 본 발명의 다른 일실시예에 따른 제2분할기 내에 2차원분할모듈과 3차원분할모듈을 포함하는 안와뼈 분할장치의 구성도이다.
도 8은 본 발명의 다른 일실시예에 따른 2D 분할네트워크와 3D 분할네트워크를 함께 활용하여 신규 입력영상에서 얇은 뼈를 분할하는 방법에 대한 순서도이다.
도 9 및 도 10은 본 발명의 다른 일 실시예에 따른 2D 분할네트워크와 3D 분할네트워크를 포함하는 제2분할기를 이용하여 안와뼈 분할방법의 효과를 설명하기 위한 도이다.
도 11은 일 실시 예에 따른 안와뼈 분할장치의 내부 구성을 개략적으로 나타낸 도이다.
1 is a conceptual diagram for explaining a method of segmenting an orbital bone in a head and neck computed tomography image according to an embodiment.
2 is a diagram for explaining orbital bone segmentation in a head and neck computed tomography image according to an embodiment.
3 is a flowchart illustrating a method of segmenting an orbital bone according to an embodiment.
4 is a conceptual diagram illustrating a method of performing machine learning in a multi-brightness value network according to an embodiment.
5 and 6 are diagrams for explaining the effect of the orbital bone segmentation method according to an embodiment.
7 is a block diagram of an orbital bone division apparatus including a 2D division module and a 3D division module in the second divider according to another embodiment of the present invention.
8 is a flowchart of a method of segmenting a thin bone in a new input image by using a 2D segmentation network and a 3D segmentation network together according to another embodiment of the present invention.
9 and 10 are diagrams for explaining the effect of the orbital bone segmentation method using a second divider including a 2D segmentation network and a 3D segmentation network according to another embodiment of the present invention.
11 is a diagram schematically showing the internal configuration of an orbital bone dividing device according to an embodiment.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments published below, but can be implemented in various different forms, and only these embodiments make the publication of the present invention complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used with the meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless clearly defined in particular.

본 명세서에서, '라벨'은 영상 내에서 설정된 특정 영역을 의미한다. 예를 들어, 라벨은 임상의에 의해 직접 설정된 영역을 의미할 수 있고, 또는 기계학습된 딥러닝 알고리즘에 의해 분할된 영역을 의미할 수도 있다.In this specification, a 'label' means a specific area set in an image. For example, the label may mean a region directly set by a clinician, or a region divided by a machine-learning deep learning algorithm.

본 명세서에서, '제1라벨'은 제1분할기 학습에 이용되는 것으로서, 두부경부 컴퓨터 단층촬영영상에서 추출되는 것을 의미한다.In this specification, the 'first label' is used for learning the first divider, and means that it is extracted from a head and neck computed tomography image.

본 명세서에서, '제2라벨'은 제2분할기 학습에 이용되는 것으로서, 두부경부 컴퓨터 단층촬영영상에서 추출되는 것을 의미한다.In the present specification, the 'second label' is used for second divider learning, and means that it is extracted from a head and neck computed tomography image.

본 명세서에서, '학습용 영상'은 기계학습모델을 학습 시키기 위해 구축된 영상데이터를 의미한다.In this specification, 'image for learning' refers to image data constructed to train a machine learning model.

본 명세서에서, '입력 영상'은 학습이 완료된 기계학습모델을 통해 원하는 범위 추출을 수행하고자 하는 영상데이터를 의미한다.In the present specification, an 'input image' refers to image data for which a desired range extraction is to be performed through a machine learning model that has been trained.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. As used herein, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components.

도 1은 일 실시예에 따른 두부경부 컴퓨터 단층촬영영상에서 안와뼈 분할방법을 설명하기 위한 개념도이다.1 is a conceptual diagram illustrating a method of segmenting an orbital bone in a head and neck computed tomography image according to an embodiment.

도 1을 참조하면, 일 실시예에 따른 두부경부 컴퓨터 단층촬영영상에서 안와뼈 분할 시스템은, 안와뼈 분할장치(100) 및 촬영장치(120)로 구성될 수 있다. 또한, 이러한 안와뼈 분할장치(100) 및 촬영장치(120)는 네트워크(110)로 연결될 수 있다. Referring to FIG. 1 , an orbital bone segmentation system in a head and neck computed tomography image according to an embodiment may include an orbital bone segmentation apparatus 100 and an imaging apparatus 120 . In addition, the orbital bone segmentation device 100 and the imaging device 120 may be connected to the network 110 .

우선, 일 실시예에 따른 촬영장치(120)는 두부경부(head and neck) 영상을 촬영하여 획득하는 역할을 수행한다. 여기서, 촬영장치(120)는 X-Ray 또는 컴퓨터 단층촬영(Computed Tomography; CT) 장치와 같이 질병을 진단하기 위해 인체의 내부를 촬영하는 장치를 의미할 수 있다. 촬영장치(120)는 기계 학습을 위한 훈련 영상 또는 안와뼈를 분할해 낼 필요가 있는 입력 영상을 생성할 수 있다.First, the photographing apparatus 120 according to an embodiment serves to capture and acquire a head and neck image. Here, the imaging device 120 may refer to a device for imaging the inside of a human body in order to diagnose a disease, such as an X-ray or a computed tomography (CT) device. The imaging device 120 may generate a training image for machine learning or an input image that needs to segment the orbital bone.

일 실시예에 따른 안와뼈 분할장치(100)는 촬영장치(120)에서 촬영된 두부경부 컴퓨터 단층 촬영 영상에서 딥러닝 및 다중 밝기 값 네트워크를 이용하여 안와뼈를 분할(segmentation)하는 역할을 수행한다. 특히, 안와뼈 분할장치(100)는 두부경부 컴퓨터 단층 촬영 영상에 대한 딥러닝 과정에서 상대적으로 높은 밝기 값 레벨을 갖는 피질 뼈(Cortical bone) 영역에 대하여 기계학습하고 낮은 밝기 값 레벨을 갖는 안와 내벽과 안와 바닥 영역에 있는 얇은 뼈(thin bone) 영역에 대하여 기계학습하기 때문에, 즉, 피질 뼈 영역과 얇은 뼈 영역을 각각 분리하여 기계학습하기 때문에, 소주골의 얇은 뼈 영역에 대한 분할 정확도를 개선할 수 있다. 여기서, 안와 내벽과 안와 바닥 영역에 있는 얇은 뼈 영역을 분리하여 기계학습할 때, 낮은 밝기 값 레벨을 가지는 소주골(trabecular bone)영역을 함께 분리하여 기계학습 할 수도 있다. The orbital bone segmentation apparatus 100 according to an embodiment performs a role of segmenting the orbital bone using deep learning and a multi-brightness value network in the head and neck computed tomography image captured by the photographing apparatus 120 . . In particular, the orbital bone segmentation apparatus 100 performs machine learning on a cortical bone region having a relatively high brightness level in the deep learning process for a head and neck computed tomography image, and an orbital inner wall having a low brightness level. Because machine learning is performed on the thin bone region in the and orbital floor region, that is, the cortical bone region and the thin bone region are separated and machine-learned, so the segmentation accuracy for the thin bone region of the trabecular bone is improved. can do. Here, when machine learning is performed by separating the thin bone area in the orbital inner wall and the orbital floor area, the trabecular bone area having a low brightness level may be separated together for machine learning.

즉, 안와뼈 분할장치(100)는 두부경부 컴퓨터 단층 촬영 영상에서 상대적으로 높은 밝기 값 레벨을 갖는 피질 뼈(Cortical bone) 영역에 대해 학습한 후 신규영상에서 피질 뼈(Cortical bone) 영역을 분할(segmentation)하는 제1분할부(또는 제1분할기)(101)와 낮은 밝기 값 레벨을 갖는 안와 내벽과 안와 바닥 영역에 있는 얇은 뼈(thin bone) 영역에 대해 학습한 후 신규 영상에서 얇은 뼈(thin bone) 영역을 분할(segmentation)하는 제2분할부(또는 제2분할기)(102)를 포함할 수 있다. 제1분할부(101) 및 제2분할부(102)의 세부적인 학습모델에 대한 상세한 설명은 후술한다.That is, the orbital bone segmentation apparatus 100 learns about a cortical bone region having a relatively high brightness level in the head and neck computed tomography image, and then divides the cortical bone region in the new image ( After learning about the first segmentation part (or first divider) 101 to be segmented and the thin bone region in the orbit inner wall and orbit floor region having a low brightness level, thin bone (thin bone) in the new image It may include a second division part (or a second divider) 102 for segmenting the bone) region. A detailed description of the detailed learning model of the first division unit 101 and the second division unit 102 will be described later.

일 실시예로, 안와뼈 분할장치(100)는 촬영장치와 물리적으로 분리된 별도의 컴퓨팅장치(예를 들어, 서버장치 또는 사용자클라이언트 장치)일 수도 있고, 촬영장치와 물리적으로 하나의 장치일 수도 있다. 예를 들어, 안와뼈 분할알고리즘(즉, 기 학습이 완료된 안와뼈 분할모델)이 포함된 소프트웨어가 사용자의 컴퓨터에 내장 또는 설치된 경우, 사용자의 컴퓨터가 안와뼈 분할장치(100)에 해당하고, 촬영장치에서 신규로 획득된 두부경부 컴퓨터 단층 촬영 영상을 바로 네트워크를 통해 수신하여 안와뼈 분할을 수행한다. 또한, 예를 들어, 안와뼈 분할장치가 기존의 영상데이터를 기반으로 학습이 완료된 학습모델을 포함하는 경우, 안와뼈분할장치(100)는 촬영장치와 하나의 장치로 제작되어 촬영된 두부경부 컴퓨터 단층 촬영 영상에서 바로 분리한 결과를 사용자 컴퓨터로 전달할 수 있다.In one embodiment, the orbital bone dividing device 100 may be a separate computing device (eg, a server device or a user client device) physically separated from the imaging device, or may be a physically single device with the imaging device. have. For example, when software including an orbital bone segmentation algorithm (that is, an orbital bone segmentation model for which pre-learning is completed) is built-in or installed in the user's computer, the user's computer corresponds to the orbital bone segmentation apparatus 100, and photographing The device directly receives the computed tomography image of the head and neck through the network to perform segmentation of the orbital bone. In addition, for example, when the orbital bone segmentation apparatus includes a learning model that has been trained based on existing image data, the orbital bone segmentation apparatus 100 is a head and neck computer that is manufactured and photographed as a single device with the photographing apparatus. The result of separation from the tomography image can be transmitted to the user's computer.

일 실시예에 따른 네트워크(110)는 무선 네트워크뿐만 아니라 유선 네트워크를 포함할 수도 있으며, 촬영장치(120)에서 촬영된 영상을 안와뼈 분할장치(100)로 전달하기 위한 다양한 수단이 모두 포함되는 것으로 이해될 수 있다. The network 110 according to an embodiment may include a wired network as well as a wireless network, and various means for transmitting the image captured by the imaging device 120 to the orbital bone segmentation device 100 are all included. can be understood

또한, 다른 일 실시예로, 안와뼈 분할장치(100)는, 입력 영상에서 제1 밝기 값의 영역으로 구성된 제1 라벨을 분할하기 위한 제1 분할기(101) 및 제1 밝기 값보다 낮은 밝기 값의 영역으로 구성된 제2 라벨을 분할하기 위한 제2 분할기(102)를 포함한다. 상기 제1 분할기는 피질뼈 영역이 라벨링된 자기공명영상을 학습함에 따라 새로운 자기공명영상에서 제1 라벨을 분할하는 소프트웨어(예를 들어, 학습모델 또는 분석모델)일 수 있다. 또한, 상기 제2 분할기는 얇은뼈 영역이 라벨링된 자기공명영상을 학습함에 따라 새로운 자기공명영상에서 제2 라벨을 분할하는 소프트웨어(예를 들어, 학습모델 또는 분석모델)일 수 있다. 또한, 예를 들어, 상기 안와뼈 분할장치(100)는, 복수의 컴퓨팅 장치를 포함하는 경우, 제1 분할기와 제2 분할기는 다른 컴퓨팅 장치에 포함될 수도 있고, 하나의 컴퓨팅 장치 내에 포함될 수도 있다.In addition, in another embodiment, the orbital bone segmentation apparatus 100 includes a first divider 101 for dividing a first label composed of a region of a first brightness value in an input image and a brightness value lower than the first brightness value. and a second divider 102 for dividing a second label composed of an area of . The first divider may be software (eg, a learning model or an analysis model) that divides the first label in a new MR image as the cortical bone region learns the labeled MR image. In addition, the second divider may be software (eg, a learning model or an analysis model) that divides the second label in a new MR image as it learns the MR image in which the thin bone region is labeled. Also, for example, when the orbital bone dividing apparatus 100 includes a plurality of computing devices, the first divider and the second divider may be included in another computing device or may be included in one computing device.

도 2는 일 실시예에 따른 두부경부 컴퓨터 단층촬영영상에서의 안와뼈 분할을 설명하기 위한 도이다. 2 is a diagram for explaining orbital bone segmentation in a head and neck computed tomography image according to an embodiment.

도 2의 (a)에 도시되듯이, 안와를 감싸는벽(orbital wall)(이하, 안와벽 이라 함)은 안와 외벽(orbital lateral wall, 201), 안와 지붕(orbital roof, 202), 안와 내벽(orbital medial wall, 203), 및 안와 바닥(orbital floor, 204)을 포함하는 사면의 피라미드 뼈 구조로 구성되며, 눈 및 눈과 인접한 신경을 보호한다. 또한, 안와벽은 높은 밝기 값의 피질 뼈와 낮은 밝기 값의 소주골(trabecular)과 얇은 뼈로 구성된다. 한편, 피질뼈와 얇은 뼈로 구성된 안와뼈 분할을 통해서 확인하고자 하는 안와골절은 가장 일반적인 골절의 하나이며, 특히 안와 내벽(203) 및 안와 바닥(204)에서 자주 발생한다. 즉, 안와뼈 골절에 따른 안와벽 재건을 위한 두개 안악면 수술(cranio-maxillofacial surgery)에서, 안구 위치를 지지하고 안와의 볼륨과 형태를 복원하기 위해 안와뼈의 분할이 필수적이다. As shown in (a) of Figure 2, the orbital wall (orbital wall) (hereinafter referred to as orbital wall) surrounding the orbit is the orbital lateral wall (orbital lateral wall, 201), orbital roof (orbital roof, 202), orbital inner wall ( Orbital medial wall, 203), and the orbital floor (orbital floor, 204), consisting of a pyramidal bone structure, including, and protects the eye and adjacent nerves to the eye. In addition, the orbital wall is composed of cortical bone of high brightness value and trabecular bone and thin bone of low brightness value. On the other hand, an orbital fracture to be confirmed through the segmentation of the orbital bone composed of cortical bone and thin bone is one of the most common fractures, and in particular frequently occurs in the orbital inner wall 203 and orbital floor 204 . That is, in cranio-maxillofacial surgery for orbital wall reconstruction following orbital bone fracture, segmentation of the orbital bone is essential to support the position of the eyeball and restore the volume and shape of the orbit.

한편, 도 2의 (a)에 도시된 것과 같은 3차원 CT(3D CT)는 안와뼈 구조에 대한 자세한 정보를 제공할 수 있기 때문에, 안와뼈 관련된 진단에서 핵심 기술이 되고 있다. 그러나 안와 내벽(203)과 안와 바닥(204)의 얇은 뼈는 입력 영상에서 이웃한 연조직과 비슷한 수준의 낮은 밝기 값을 가지므로 도 2의 (b)에 도시된 것과 같이, 기존의 문턱 기법으로 안와뼈를 분할하는 것은 어렵다. 여기에서, 화살표는 피질뼈를 가리키고 삼각형은 얇은 뼈를 가리킨다.Meanwhile, a three-dimensional CT (3D CT) as shown in FIG. However, since the thin bones of the orbital inner wall 203 and the orbital floor 204 have low brightness values similar to those of neighboring soft tissues in the input image, as shown in FIG. Splitting bones is difficult. Here, the arrow points to the cortical bone and the triangle points to the thin bone.

또한 도 2의 (c)는 300HU(Hounsfield Unit)의 임계 값을 이용하여 높은 밝기 값을 가진 피질뼈를 분할하려고 할 때, 낮은 밝기 값의 소주골 및 얇은 뼈는 거의 분할되지 않는 것을 보여준다. 반면에, 도 2의 (d)는 낮은 밝기 값을 가지는 소주골(trabecular) 및 얇은 뼈를 분할하기 위해 임계 값을 50HU로 낮추면 안와뼈 주위의 연조직으로의 누출이 발생 함을 보여준다. 도 2의 (c) 및 (d)에 도시된 화살표는 안와 내벽을 나타내고 삼각형은 안와 바닥영역을 나타낸다.Also, (c) of FIG. 2 shows that when a cortical bone having a high brightness value is divided using a threshold value of 300HU (Hounsfield Unit), the trabecular bone and thin bone having a low brightness value are hardly divided. On the other hand, Fig. 2(d) shows that when the threshold value is lowered to 50HU to divide the trabecular and thin bones having low brightness values, leakage into the soft tissue around the orbital bone occurs. The arrows shown in (c) and (d) of Fig. 2 indicate the inner wall of the orbit, and the triangle indicates the orbital floor region.

안와벽 재구성을 위한 수술을 위해서는 안구 위치를 유지하고 있는 안와의 부피와 모양을 복원하기 위한 안와뼈의 분할이 선행되어야 한다. 그러나, 안와뼈는 CT영상에서 밝기 값의 스펙트럼이 넓게 나타나기 때문에, 기존의 U-Net 기반 분할방법은 약한 밝기 값을 가지는 안와내벽 및 안와 바닥의 얇은뼈를 정확하게 분할하기 어려웠다. 따라서 일 실시예에 따른 안와뼈 분할 방법은 머리와 목의 CT 영상에서 높은 밝기 값(high intensity)을 가지는 대뇌 피질 뼈와 낮은 밝기 값(low intensity)을 가지는 얇은 뼈의 분할 정확도를 향상시키기 위해 다중 밝기 값 레벨을 이용한 네트워크(MGB-Net: multi-gray-bone Network)를 이용한다. 구체적으로 안와뼈 분할장치(100)는 안와 내벽(medial wall)과 안와 바닥(floor)의 얇은뼈의 과소-분할(under-segmentation)을 방지하기 위해 단일(single) 안와뼈 마스크를 피질뼈와 얇은 뼈를 위한 두 개의 마스크로 변환한다. 그리고, 안와뼈 분할장치(100)는 두 개의 단일 밝기 값 레벨의 네트워크(SGB-Net: Single-Gray-Bone-Net)를 각각 마스크들에 대해 훈련시킨 뒤, 입력영상에서 각각의 피질 뼈 및 얇은 뼈 마스크에 대한 분할의 결과를 통합시켜 전체 안와뼈를 분할 한다.For surgery to reconstruct the orbital wall, segmentation of the orbital bone to restore the volume and shape of the orbit that maintains the position of the eyeball must be preceded. However, since the orbital bone has a broad spectrum of brightness values in CT images, it was difficult to accurately segment the thin bones of the orbital medial wall and orbital floor, which have weak brightness values, using the conventional U-Net-based segmentation method. Therefore, the orbital bone segmentation method according to an embodiment is a multi-layered method to improve segmentation accuracy of cortical bones having high intensity values and thin bones having low intensity values in CT images of the head and neck. A network (MGB-Net: multi-gray-bone network) using the brightness level is used. Specifically, the orbital bone segmentation device 100 uses a single orbital bone mask to prevent under-segmentation of the thin bones of the medial wall and the floor of the orbit. Convert to two masks for bones. Then, the orbital bone segmentation apparatus 100 trains two single brightness level networks (SGB-Net: Single-Gray-Bone-Net) for each mask, and then, in the input image, each cortical bone and thin Segment the entire orbital bone by integrating the results of segmentation on the bone mask.

이하, 도 3 및 도 4를 참조하여 안와뼈 분할장치(100)의 동작 및 두부경부 컴퓨터 단층 촬영 영상에서의 안와뼈 분할방법을 상세히 설명한다.Hereinafter, an operation of the orbital bone segmentation apparatus 100 and a method of segmenting an orbital bone in a head and neck computed tomography image will be described in detail with reference to FIGS. 3 and 4 .

도 3은 일 실시예에 따른 안와뼈 분할 방법을 설명하기 위한 순서도이다.3 is a flowchart illustrating a method of segmenting an orbital bone according to an embodiment.

이하에서 도 3을 참조하여 설명할 각 단계는 도 11에 도시된 안와뼈 분할장치(100)의 프로세서(130)에 의하여 수행된다. 예를 들어, 안와뼈 분할장치(100)는 하나 이상의 컴퓨터일 수 있다. 즉, 안와뼈 분할장치(100)는 서버장치일 수도 있고, 사용자가 사용하는 클라이언트 장치일 수도 있다.Each step to be described below with reference to FIG. 3 is performed by the processor 130 of the orbital bone dividing apparatus 100 shown in FIG. 11 . For example, the orbital bone segmentation apparatus 100 may be one or more computers. That is, the orbital bone dividing device 100 may be a server device or a client device used by a user.

단계 S300에서, 안와뼈 분할 장치(100)는, 입력 영상의 밝기 값과 픽셀 크기를 정규화 하는 전처리할 수 있다. 다양한 입력 영상에서의 프로토콜 차이를 줄이기 위해 밝기 값과 픽셀크기에 대해서 정규화를 수행할 수 있다. 예를 들면, 밝기 값의 정규화를 위해 소정 범위의 밝기 값을 부호 없는 8비트 정수 값으로 변경 할수 있다. 또한 두부경부 컴퓨터 단층 촬영 영상에서 안와뼈를 추출하기 위한 관심영역(Region of Interest)을 추출할 수도 있다. 이때, 안와뼈에 대한 관찰을 위하여 밝기 값은 안와뼈를 중심으로 정규화 될 수 있다.In step S300, the orbital bone segmentation apparatus 100 may perform pre-processing for normalizing the brightness value and the pixel size of the input image. In order to reduce protocol differences in various input images, normalization can be performed on brightness values and pixel sizes. For example, in order to normalize the brightness value, a brightness value within a predetermined range may be changed to an unsigned 8-bit integer value. It is also possible to extract a region of interest for extracting orbital bones from a head and neck computed tomography image. At this time, for observation of the orbital bone, the brightness value may be normalized based on the orbital bone.

단계 S310에서, 안와뼈 분할 장치(100)는, 상기 입력 영상에서 상대적으로 높은 밝기 값의 영역으로 구성된 제1 라벨 및 상대적으로 낮은 밝기 값의 영역으로 구성된 제2 라벨을 설정할 수 있다. 여기서, 제1 라벨은 안와뼈의 피질뼈(cortical bone) 영역을 포함하고, 제2 라벨은 안와 내벽 및 안와 바닥의 얇은 뼈(thin bone) 영역을 포함할 수 있다. 한편, 일반적으로, 안와뼈의 피질뼈는 300HU 또는 그 이상의 밝기 값을 가지고, 안와 내벽과 안와 바닥의 얇은 뼈는 200HU 이하의 밝기 값을 갖는다. 따라서 두 마스크들을 서로 보완하기 위해, 피질 뼈와 얇은 뼈의 마스크들의 밝기 값을 중첩하여, 200HU보다는 크고 300HU보다는 낮은 밝기 값을 기준으로 제1 및 제2 라벨이 설정될 수 있다. In step S310, the orbital bone segmentation apparatus 100 may set a first label including an area having a relatively high brightness value and a second label including an area having a relatively low brightness value in the input image. Here, the first label may include a cortical bone region of the orbital bone, and the second label may include a thin bone region of the inner wall of the orbit and the bottom of the orbit. On the other hand, in general, the cortical bone of the orbital bone has a brightness value of 300 HU or more, and the thin bones of the orbital inner wall and the orbital floor have a brightness value of 200 HU or less. Accordingly, in order to complement the two masks, the first and second labels may be set based on the brightness values greater than 200HU and lower than 300HU by overlapping the brightness values of the masks of the cortical bone and the thin bone.

제1라벨 및 제2라벨을 설정하는 방법의 일 실시예로, 안와뼈 분할장치(100)는 훈련 영상(즉, 학습용 영상) 및 다중 밝기 값을 고려한 네트워크를 이용하여 각각 기계학습된 제1 분할기 및 제2 분할기를 통해 제1 라벨 및 제2 라벨을 분할할 수 있고, 여기에서, 기계학습은 컨볼루션 신경망 네트워크를 이용한 딥러닝 알고리즘을 수행하는 것을 포함할 수 있다. As an embodiment of the method for setting the first label and the second label, the orbital bone segmentation apparatus 100 is a first divider machine-learned using a training image (ie, an image for learning) and a network in consideration of multiple brightness values, respectively. and dividing the first label and the second label through a second divider, wherein machine learning may include performing a deep learning algorithm using a convolutional neural network network.

예를 들면, 제1 분할기는 제1 라벨에 대해 제1 라벨에 적합한 단일 밝기 값 네트워크(SGB-Net)를 이용하여 기계학습이 수행되고, 제2 분할기는 상기 제2 라벨에 대해 제2 라벨에 적합한 단일 밝기 값 네트워크를 이용하여 기계학습이 수행될 수 있다. 즉, 일 실시예에 따른 다중 밝기 값을 고려한 네트워크(MSB-Net)는 제1 라벨 및 제2 라벨 각각에 대한 단일 밝기 값 네트워크가 결합된 네트워크를 의미할 수 있다. 예를 들어, 안와뼈 분할장치(100)는 학습용 영상 데이터에서 의료진에 의해 제1라벨 및 제2라벨이 설정된 복수의 두부경부 컴퓨터 단층 촬영 영상(또는 전처리 과정이 수행된 두부경부 컴퓨터 단층 촬영 영상)을 이용하여 제1 분할기와 제2 분할기를 학습하는 과정을 수행한다.For example, the first divider performs machine learning for the first label using a single brightness value network (SGB-Net) suitable for the first label, and the second divider applies the second label to the second label. Machine learning can be performed using a suitable single brightness value network. That is, the network considering multiple brightness values (MSB-Net) according to an embodiment may mean a network in which a single brightness value network for each of the first label and the second label is combined. For example, the orbital bone segmentation apparatus 100 may include a plurality of head and neck computed tomography images (or head and neck computed tomography images on which pre-processing has been performed) in which the first label and the second label are set by the medical staff in the training image data. A process of learning the first divider and the second divider is performed using

구체적으로, 단일 밝기 값 네트워크(SGB-Net)를 이용하여 기계학습이 수행되는 과정은 다음과 같다. 종래의 U-Net 알고리즘과 유사하게 각각 6개의 해상도 단계를 가진 연결경로 및 확장경로를 생성하고, 상기 연결경로에서 각 해상도 단계에서 파라메트릭(parametric) 정류 선형 단위(PReLU)를 수반하는 두번의 3X3 컨볼루션 및 스트라이드(stride)가 2인 2x2 맥스풀링(max-pooling)연산을 수행하고, 상기 확장경로에서 각 해상도 단계에서 상기 파라메트릭 정류 선형단위를 수반하는 두번의 3X3 컨볼루션을 수행하고, 각 해상도 단계별 업샘플링을 위해 두배의 진폭을 가지는 2x2 디컨볼루션을 수행하는 과정을 포함할 수 있다. 또한 상기 단일 밝기 값 네트워크(SGB-Net)는, 상기 확장경로의 모든 해상도의 단계에서, 디컨볼루션(deconvolution)을 통한 업샘플링이 수행된 영상의 출력 채널 수를 라벨(label) 수로 줄이는 1x1 컨볼루션을 수행하는 마지막 레이어를 포함하고, 상기 마지막 레이어는 출력되는 분할 라벨의 확률을 제공 하는 소프트맥스(softmax) 함수 및 손실 함수를 포함할 수 있다.Specifically, the process in which machine learning is performed using a single brightness value network (SGB-Net) is as follows. Similar to the conventional U-Net algorithm, a connected path and an extended path each having six resolution steps are generated, and in the connected path, two 3X3 Perform 2x2 max-pooling operation with convolution and stride equal to 2, and perform two 3x3 convolutions involving the parametric rectified linear unit at each resolution step in the extension path, each For resolution step-by-step upsampling, it may include a process of performing 2x2 deconvolution having a double amplitude. In addition, the single brightness value network (SGB-Net) reduces the number of output channels of an image subjected to upsampling through deconvolution to the number of labels at all resolution stages of the extension path. A last layer for performing a solution may be included, and the last layer may include a softmax function and a loss function that provide a probability of an output segmentation label.

단계 S320에서, 안와뼈 분할장치(100)는, 분할된 제1 라벨 및 상기 제2 라벨을 통합하여 최종 안와뼈를 획득할 수 있다. 즉, 안와뼈 분할장치(100)는 기존에 촬영되어 제1라벨과 제2라벨이 추출된 두부경부 컴퓨터 단층 촬영 영상을 기반으로 학습이 완료된 안와뼈 분할모델을 통해 입력영상 내의 제1라벨(즉, 피질뼈 영역)과 제2라벨(즉, 소주골을 포함하는 얇은 뼈 영역)을 분할하고, 이를 결합하여 전체 안와뼈를 분할해낸다.In step S320, the orbital bone segmentation apparatus 100 may obtain the final orbital bone by integrating the divided first label and the second label. That is, the orbital bone segmentation device 100 uses the orbital bone segmentation model in which learning is completed based on the head and neck computed tomography image from which the first label and the second label are extracted and the first label (i.e., the first label in the input image). , the cortical bone region) and the second label (ie, the thin bone region including the trabecular bone) are divided, and the entire orbital bone is divided by combining them.

따라서, 일 실시예에 따른, 두부경부 영상에서 안와뼈 분할 방법 및 장치는, 개선된 안와뼈 분할 및 추출을 통해 안와뼈 골절의 진단 및 골절 부위의 재건에 필요한 플레이트 제작의 정확도를 향상시킬 수 있다. 나아가, 인체를 대상으로 하는 다양한 컴퓨터 단층 촬영 영상에서의 다양한 밝기 값을 갖는 뼈 구조에 대한 분할을 수행함에 있어, 유사한 방식으로 다중 밝기 값 레벨의 학습 기법을 적용하여 분할 정확도를 향상 시킬 수 있다. 도 4는 일 실시예에 따른 다중 밝기 값 네트워크에서 기계학습을 수행하는 방법을 설명하기 위한 개념도이다.Accordingly, the method and apparatus for segmenting orbital bone in a head and neck image according to an embodiment may improve the accuracy of plate manufacturing required for diagnosis of an orbital bone fracture and reconstruction of a fracture site through improved segmentation and extraction of orbital bone. . Furthermore, in performing segmentation on bone structures having various brightness values in various computed tomography images of the human body, it is possible to improve segmentation accuracy by applying a learning technique of multiple brightness values in a similar manner. 4 is a conceptual diagram illustrating a method of performing machine learning in a multi-brightness value network according to an embodiment.

도 4를 참조하면, 원본 영상(501)은 전처리 단계(502)에서, 서로 다른 수집 프로토콜로 인한 입력 이미지들 간 차이의 발생을 줄이기 위해, 입력 이미지에서 밝기 값 및 픽셀 크기의 정규화가 수행될 수 있다. Referring to FIG. 4 , in the pre-processing step 502 , the original image 501 may be subjected to normalization of brightness values and pixel sizes in the input image in order to reduce the occurrence of differences between input images due to different acquisition protocols. have.

밝기 값의 정규화(503)를 위해, 밝기 값은 [-200HU, 400HU]범위에서 부호 없는 8비트 정수 값 [0, 255]으로 변경된다. 여기서, 400HU보다 큰 밝기 값을 갖는 영역은 확실한 피질 뼈 영역을 의미하고, -200HU보다 낮은 밝기 값을 갖는 영역은 공기와 지방을 의미할 수 있다.For normalization 503 of the brightness value, the brightness value is changed to an unsigned 8-bit integer value [0, 255] in the range [-200HU, 400HU]. Here, a region having a brightness value greater than 400HU may mean a certain cortical bone region, and a region having a brightness value lower than -200HU may mean air and fat.

또한, 화소 간격 정규화(504)를 위해, 모든 이미지의 픽셀크기는 데이터의 다른 픽셀 크기를 균등하게 전체 데이터 중 가장 작은 픽셀 크기인 0.41x0. 41mm2 로 변경할 수 있다.Also, for pixel spacing normalization 504, the pixel size of all images equalizes the other pixel sizes of the data to the smallest pixel size among all data, 0.41x0. It can be changed to 41mm 2 .

또한, 원본 영상(501)에서 전처리가 수행된 뒤 소정 ROI(region of intent)영역으로 크롭되어 ROI 영상(505)이 생성 될 수 있다. In addition, after preprocessing is performed on the original image 501 , the ROI image 505 may be generated by being cropped to a predetermined region of intent (ROI) region.

한편, ROI 영상은 훈련영상(506) 또는 실제 안와뼈 분할을 위한 입력 영상(507)의 집합으로 구분될 수 있다. 다음으로 입력 영상은 낮은 밝기 값을 가진 얇은뼈 영역과 높은 밝기 값을 가진 피질뼈 영역에 대해 각각 다중 밝기 값 네트워크를 통해 기계학습 될 수 있다. Meanwhile, the ROI image may be divided into a training image 506 or a set of input images 507 for actual orbital bone segmentation. Next, the input image can be machine-learned through a multi-luminance value network for thin bone regions with low brightness values and cortical bone regions with high brightness values, respectively.

여기서, 다중 밝기 값 네트워크(MGB-Net)는 종래의 U-Net알고리즘으로 잘 알려져 있는, 심층 신경망 네트워크에서 발전되었다. 우선, 적어도 하나의 단일 밝기 값 네트워크(SGB-Net, 508, 509)를 포함하는 형태로 다중 밝기 값 네트워크를 구성한다. 단일 밝기 값 네트워크(SGB-Net)는 연결(concatenating) 경로와 확장(expanding) 경로로 구성되며, 각 경로는 6개의 레이어로 구성된다. 연결 경로의 각 계층은 2개의 컨볼루션 필터와 스트라이드(stride)가 2인 2x2 max-pooling 연산으로 구성되며, 확장 경로의 각 계층은 2개의 컨볼루션 필터와 2x2 업 샘플링 연산으로 구성된다. 모든 컨볼루션은 커널 크기가 3x3이고 제로 패딩 과 정류 선형 유닛 (Rectified Linear Unit; ReLu)을 수반한다. 확장 경로의 마지막 레이어는 1x1 컨볼루션(convolution)의 2가지 필터 {object, background}와 분할 라벨의 확률을 제공하는 소프트맥스(softmax) 함수로 구성된다. 또한, 손실 함수는 픽셀 단위 교차 엔트로피와 주사위 계수의 합으로 계산될 수 있다.Here, the multi-luminance value network (MGB-Net) is developed from the deep neural network, which is well known as the conventional U-Net algorithm. First, a multi-luminance value network is configured in a form including at least one single brightness value network (SGB-Net, 508, 509). The single brightness value network (SGB-Net) consists of a concatenating path and an expanding path, and each path consists of 6 layers. Each layer of the concatenated path consists of two convolution filters and a 2x2 max-pooling operation with a stride of 2, and each layer of the extension path consists of two convolution filters and a 2x2 upsampling operation. All convolutions have a kernel size of 3x3 and involve zero padding and a Rectified Linear Unit (ReLu). The last layer of the extension path consists of two filters {object, background} of a 1x1 convolution and a softmax function that provides the probability of the segmentation label. Also, the loss function may be calculated as the sum of pixel-wise cross entropy and dice coefficients.

한편, 입력 영상(507)은 통합 단계에서 안와 내벽과 안와 바닥의 얇은 뼈의 과소 분할(under segmentation)을 막기 위해, 하나의 안와뼈 마스크는 대뇌 피질의 뼈와 얇은 뼈에 대한 두 개의 마스크로 변환될 수 있다. 따라서, 기계 학습 단계에서 두 개의 SGB-Nets가 각각 개별적으로 얇은 뼈 마스크 및 피질 뼈 마스크에 대해 딥러닝을 수행(508, 509)한다. 즉, 두 SGB-Nets는 각각 2가지 종류의 데이터 셋으로 훈련된다. 예컨대, 피질 뼈 마스크는 피질 뼈 및 배경을 포함하고, 얇은 뼈 마스크는 얇은 뼈 및 배경을 포함할 수도 있다.Meanwhile, the input image 507 converts one orbital bone mask into two masks for cortical bone and thin bone in order to prevent under-segmentation of the orbital lining and thin bones of the orbital floor during the integration step. can be Therefore, in the machine learning step, two SGB-Nets perform deep learning (508, 509) on thin bone masks and cortical bone masks, respectively, respectively. That is, the two SGB-Nets are each trained on two types of data sets. For example, a cortical bone mask may include cortical bone and background, and a thin bone mask may include thin bone and background.

통합 단계에서(510) 각각의 SGB-Nets를 통한 피질 뼈(511) 및 얇은 뼈(512) 분할 결과가 통합(513)되어 최종 안와뼈 분할 결과(520)를 얻을 수 있다.In the integration step 510 , the results of segmenting the cortical bone 511 and the thin bone 512 through the respective SGB-Nets are integrated 513 to obtain a final orbital segmentation result 520 .

한편, 일반적으로, 안와뼈의 피질뼈는 300HU 또는 그 이상의 밝기 값을 가지고, 안와 내벽과 안와 바닥의 얇은 뼈는 200HU 이하의 밝기 값을 갖는다. 따라서 두 마스크들을 서로 보완하기 위해, 피질 뼈와 얇은 뼈의 마스크들의 밝기 값을 중첩하여, 최종 안와 뼈 분할 결과는 200HU보다는 크고 300HU보다는 낮은 밝기 값으로 설정될 수 있다.On the other hand, in general, the cortical bone of the orbital bone has a brightness value of 300 HU or more, and the thin bones of the orbital inner wall and the orbital floor have a brightness value of 200 HU or less. Therefore, in order to complement the two masks, by superimposing the brightness values of the masks of the cortical bone and the thin bone, the final orbital bone segmentation result can be set to a brightness value greater than 200HU and lower than 300HU.

도 5 및 도 6은 일 실시예에 따른 안와뼈 분할방법의 효과를 설명하기 위한 도이다.5 and 6 are diagrams for explaining the effect of the orbital bone segmentation method according to an embodiment.

도 5는 일 실시시예에 따른 다중 밝기 값 레벨을 이용한 네트워크의 질적 및 양적 성능을 나타낸다.5 shows qualitative and quantitative performance of a network using multiple brightness value levels according to an embodiment.

전체 안와뼈((a)-(e))와 안와 내벽 및 안와 바닥의 얇은 뼈((f)-(j))의 분할 성능 평가 결과를 도시한다(색상으로 강조된 부분이 분할된 영역을 의미함). 여기서 (a)와 (f)는 원본 CT 영상, (b)와 (g)는 임계값 300HU을 이용하는 방법(이하, 방법 A)을 통해 획득된 영상, (c)와 (h)는 RefineNet-101 방법(이하, 방법 B)을 통해 획득된 영상, (d)와 (i)는 전체 안와뼈에 대해 학습된 U-Net 방법(이하, 방법 C)을 통해 획득된 영상, (e)와 (j)는 일 실시예에 따른 다중 밝기 값 레벨을 이용한 안와뼈 분할 방법(이하, 방법 D)을 통해 획득된 영상을 도시한다.The segmentation performance evaluation results of the entire orbital bone ((a)-(e)) and the thin bones of the inner orbital wall and orbital floor ((f)-(j)) are shown (the area highlighted in color means the segmented area). ). Here, (a) and (f) are the original CT images, (b) and (g) are images acquired through the method (hereinafter, method A) using a threshold value of 300HU, (c) and (h) are RefineNet-101 Images obtained through the method (hereinafter, method B), (d) and (i) are images obtained through the U-Net method (hereinafter, method C) learned for the entire orbital bone, (e) and (j) ) shows an image obtained through the orbital bone segmentation method (hereinafter, method D) using multiple brightness value levels according to an embodiment.

우선, 정량적 평가를 위해, 평가대상이 되는 평가 ROI는 각 환자에 대해 다르게 정의된다. 분할된 안와뼈는 평가 ROI영역 내에서 평가되며, 평가 ROI영역 내에서 성능 측정은 민감도, 특이성 및 정확도를 사용하여 추정된다. 안와내벽과 안와 바닥의 얇은 뼈에서 감도, 주사위 유사 계수 (dice similarity coefficient: DSC) 및 교차 결합 (intersection-over-union: IoU)을 사용하여 성능 측정치가 추정 된다. 한편, 특이성과 정확성만을 이용한 성능 측정은 ROI의 배경 대비 얇은 뼈 비율이 매우 작기 때문에 세부 성능을 비교하고 평가하는데 적합하지 않을 수 있다.First, for quantitative evaluation, the evaluation ROI to be evaluated is defined differently for each patient. The segmented orbital bone is evaluated within the evaluation ROI area, and performance measures within the evaluation ROI area are estimated using sensitivity, specificity and accuracy. Performance measures were estimated using sensitivity, dice similarity coefficient (DSC) and intersection-over-union (IoU) in thin bones of the orbital lining and orbital floor. On the other hand, performance measurement using only specificity and accuracy may not be suitable for comparing and evaluating detailed performance because the ratio of thin bone to the background of the ROI is very small.

도 6은 일 실시예에 따른 안와뼈 분할 방법의 질적인 성능을 나타낸다. 질적 평가를 위해, 전체 안와뼈와 안와내벽 및 안와바닥의 얇은 뼈의 분할 결과는 두 임상실험의 분할 결과 및 라벨 사이에 중첩되어 표시된다. 전체 안와뼈에 관해, 방법 D의 민감도는 92.50%로 가장 좋은 성능을 나타낸다. 이것은 각각 방법 A, B, C와 비교하였을 때, 2.21 %, 4.05 %, 0.89 % 향상된 것이다.6 shows the qualitative performance of a method for segmenting an orbital bone according to an embodiment. For qualitative evaluation, the segmentation results of the entire orbital bone and the thin bones of the orbital medial wall and orbital floor are displayed superimposed between the segmentation results and labels of the two clinical trials. For the whole orbital bone, the sensitivity of Method D is 92.50%, which shows the best performance. This is 2.21 %, 4.05 %, and 0.89 % improvement compared with methods A, B, and C, respectively.

하지만, 방법 D의 특이성 및 정확도는 오히려 방법 A보다 낮다. 왜냐하면 방법 A는 피질 뼈에 대해서 좋은 성능을 보이지만 안와 내벽 및 안와 바닥의 얇은 뼈에 대해서는 낮은 성능을 보이기 때문이다. 방법 A는 임계값이 300HU로 고정되기 때문에 주변 연조직이 누출되어 민감도 측면에서는 가장 나쁜 성능을 보인다. 방법 B와 방법 C는 방법 A에 대해서 민감도를 각각 52.62 % 및 59.84 % 상승함을 보여준다. 하지만, 방법 B와 방법 C는 모두 단일 밝기레벨 네트워크를 나타낸다. However, the specificity and accuracy of method D is rather lower than that of method A. This is because Method A shows good performance on cortical bone but poor performance on thin bones of the orbital lining and orbital floor. Method A shows the worst performance in terms of sensitivity due to leakage of surrounding soft tissues because the threshold is fixed at 300HU. Method B and method C show that method A increases the sensitivity by 52.62% and 59.84%, respectively. However, both Method B and Method C represent a single brightness level network.

따라서, 일 실시예에 따른 안와뼈 분할 방법(방법 D)의 민감도 및 DSC는 67.61 %와 61.96 %로 방법 B에 비해 13.16 %p 와 14.83 %p, 방법 C에 비해 5.94 %p와 3.26 %p 증가했다. 특히, 방법 A와 비교하여 65.78 %p 및 58.23 %p 증가했음을 알 수 있다. 도 6에서 성능 평가 결과가 높게 나타난 값은 크게 표시되었다.Therefore, the sensitivity and DSC of the orbital segmentation method (Method D) according to an embodiment are 67.61% and 61.96%, 13.16%p and 14.83%p compared to Method B, and 5.94%p and 3.26%p increase compared to Method C did. In particular, it can be seen that 65.78 %p and 58.23 %p increase compared to method A. In FIG. 6 , a value indicating a high performance evaluation result is displayed as large.

한편, 다시 도 5를 참조하면, 방법 A는 피질 뼈는 쉽게 분할되었지만 얇은뼈는 거의 분할되지 못함을 알 수 있다. 또한 방법 B, C는 피질골의 경계에서의 과소 분할(under-segmentation) 경향을 나타내나, 방법 A보다 향상되었음을 알 수 있다. 방법 B, C에는 큰 차이가 없다. 하지만, 일 실시예에 따른 안와골 분할방법(방법 D)은 명시적으로 보다 안정적인 분할 결과를 나타냄을 알 수 있다.Meanwhile, referring back to FIG. 5 , it can be seen that, in Method A, the cortical bone is easily divided, but the thin bone is hardly divided. Also, methods B and C show a tendency to under-segmentation at the boundary of the cortical bone, but it can be seen that it is improved compared to method A. There is no significant difference between methods B and C. However, it can be seen that the orbital bone segmentation method (Method D) according to an embodiment explicitly shows a more stable segmentation result.

도 7은 본 발명의 다른 일실시예에 따른 제2분할기 내에 2차원분할모듈과 3차원분할모듈을 포함하는 안와뼈 분할장치의 구성도이다.7 is a block diagram of an orbital bone division apparatus including a 2D division module and a 3D division module in the second divider according to another embodiment of the present invention.

도 8은 본 발명의 다른 일실시예에 따른 2D 분할네트워크와 3D 분할네트워크를 함께 활용하여 신규 입력영상에서 얇은 뼈를 분할하는 방법에 대한 순서도이다.8 is a flowchart of a method of segmenting a thin bone in a new input image by using a 2D segmentation network and a 3D segmentation network together according to another embodiment of the present invention.

도 7을 참조하면, 본 발명의 다른 일실시예에 따른 안와뼈 분할장치(100)는, 소주골과 얇은 뼈(trabecular and thin bone)를 분리하는 과정(즉, 제2분할기(102))에서 2D분할 네트워크와 3D 분할 네트워크를 함께 이용한다. 예를 들어, 제2분할기(102)는 2D RefineNet과 3D U-Net을 각각 학습하여 둠에 따라, 소주골과 얇은 뼈를 정확하게 분리한다. 즉, 제2분할기(102)는 2차원 분할모듈 및 3차원 분할모듈을 포함한다.Referring to FIG. 7 , in the orbital bone dividing apparatus 100 according to another embodiment of the present invention, in the process of separating the trabecular and thin bone (ie, the second divider 102 ), A 2D segmentation network and a 3D segmentation network are used together. For example, the second divider 102 accurately separates the trabecular bone and the thin bone by learning 2D RefineNet and 3D U-Net, respectively. That is, the second divider 102 includes a two-dimensional division module and a three-dimensional division module.

제2분할기(102)가 2D분할 네트워크와 3D 분할 네트워크를 학습하는 구체적인 과정을 기술하면 다음과 같다.A detailed process for the second divider 102 to learn the 2D division network and the 3D division network is described as follows.

먼저, 도 8에서와 같이, 제2분할기(102) 내 2차원분할모듈(103)은 낮은 밝기값을 기반으로 학습용 영상데이터 내 얇은 뼈의 관심영역(Rolume of Interest; ROI)이 설정된 제2라벨을 학습한다. 구체적으로, 2차원분할모듈(103)은 안와뼈(Orbital bone)의 axial plane에 해당하는 2차원 영상에 관심영역(Region of Interset; ROI))를 입력받아서 학습을 수행한다.First, as shown in FIG. 8 , the 2D division module 103 in the second divider 102 sets a second label in which a Roll of Interest (ROI) of a thin bone in the image data for learning is set based on a low brightness value. to learn Specifically, the 2D segmentation module 103 performs learning by receiving a Region of Interset (ROI) as an input in a 2D image corresponding to the axial plane of the orbital bone.

제2분할기(102) 내 3차원분할모듈(104)은 안와뼈의 3차원 영상데이터에서 특정한 기준 밝기 값을 기반으로 얇은 뼈 관심영역(Volume of Interest; VOI)이 설정된 3차원 학습데이터를 학습한다. 이 때, 3차원분할모듈(104)은 2차원의 제2라벨에서 얇은 뼈가 존재하는 공간범위를 3차원 학습데이터로 설정할 수 있다. 3차원 학습데이터의 범위가 제한됨에 따라, 안와뼈 분할장치(100)는 안와뼈를 분할하는 속도가 향상될 수 있으며, 분할 정확도가 향상될 수 있다.The 3D division module 104 in the second divider 102 learns 3D learning data in which a thin bone volume of interest (VOI) is set based on a specific reference brightness value in 3D image data of the orbital bone. . At this time, the three-dimensional division module 104 may set the spatial range in which the thin bone exists in the two-dimensional second label as the three-dimensional learning data. As the range of 3D learning data is limited, the orbital bone segmentation apparatus 100 may improve the speed of segmenting the orbital bone, and may improve segmentation accuracy.

2차원분할모듈(103)과 3차원분할모듈(104)을 포함하는 제2분할기를 이용하는 일실시예로, S310에서, 안와뼈 분할장치(100)는, 입력영상을 제2분할기 내 2차원분할모듈(103)과 3차원분할모듈(104)에 각각 입력한다. 이 때, 2차원분할모듈(103)은 학습 시와 동일한 axial plane의 2차원영상을 입력받는다. 또한, 3차원분할모듈(104)은, 2차원분할모듈(103)에서 획득되는 얇은 뼈 영역을 포함하는 것으로서 3차원 입력영상에서 추출된 3차원영역(예를 들어, 직육면체 영역)을 입력받는다. 이를 통해, 3차원분할모듈(104)은 학습 시에 이용된 3차원 학습데이터와 동일한 사이즈로 추출된 3차원영상을 입력받을 수 있다.In an embodiment using a second divider including a two-dimensional segmentation module 103 and a three-dimensional segmentation module 104, in S310, the orbital bone segmentation apparatus 100 divides the input image into a second divider in two dimensions. It is input to the module 103 and the three-dimensional division module 104, respectively. At this time, the two-dimensional segmentation module 103 receives a two-dimensional image of the same axial plane as during learning. In addition, the 3D division module 104 receives a 3D area (eg, a rectangular parallelepiped area) extracted from the 3D input image as including the thin bone area obtained by the 2D division module 103 . Through this, the 3D segmentation module 104 may receive a 3D image extracted with the same size as 3D learning data used during learning.

그 후, 안와뼈 분할장치(100)는, 입력영상을 기반으로 2차원분할모듈(103)(예를 들어, RefineNet 기반의 2D 분할네트워크)과 3차원분할모듈(104)(예를 들어, U-Net 기반의 3D 분할네트워크)에서 분할된 2차원분할데이터와 3차원분할데이터를 결합한다. 즉, 안와뼈 분할장치(100)(특히, 제2분할기(102))는 2차원분할데이터를 활용하여 얇은 뼈의 전체적인 특성(Global context)과 축평면(axial plane)의 세부적인 특성을 획득하고, 3차원분할데이터를 활용하여 얇은 뼈의 세부적인 공간적 정보(spatial information)를 획득한다. Thereafter, the orbital bone segmentation apparatus 100 includes a two-dimensional segmentation module 103 (eg, a RefineNet-based 2D segmentation network) and a three-dimensional segmentation module 104 (eg, U -Combines the 2D segmented data and 3D segmented data segmented in a Net-based 3D segmentation network. That is, the orbital bone segmentation device 100 (in particular, the second segmenter 102) acquires the global context of thin bones and the detailed characteristics of the axial plane by using the two-dimensional segmentation data. , to acquire detailed spatial information of thin bones using 3D segmentation data.

이를 통해, 도 9 및 도 10에서와 같이, 안와뼈 분할장치는, 얇은 뼈(thin bone)를 분할하기 위해 2D 분할네트워크만을 이용할 때 발생하는 언더-세크멘테이션(under-segmentation: 실제보다 적게 분할되어 대상체의 일부가 누락) 문제와 인접한 얇은 뼈의 2차원 프레임(또는 슬라이스) 간에 연결성이 떨어지는 문제를 줄일 수 있다. 즉, 3D 분할네트워크에 의해 획득되는 3차원분할데이터에 포함된 공간적 정보를 함께 활용함에 따라, 안와뼈 분할장치(100)는 인접한 2차원 프레임(또는 슬라이스)간의 연결성이 높아져서 정확도가 향상된 최종 분할데이터를 획득할 수 있다.Through this, as in FIGS. 9 and 10 , the orbital bone segmentation apparatus under-segmentation (under-segmentation: segmentation smaller than the actual size) that occurs when only a 2D segmentation network is used to segment thin bone Thus, it is possible to reduce the problem of missing a part of the object) and the problem of poor connectivity between the two-dimensional frame (or slice) of adjacent thin bones. That is, as the spatial information included in the 3D segmentation data obtained by the 3D segmentation network is utilized together, the orbital bone segmentation apparatus 100 increases the connectivity between adjacent two-dimensional frames (or slices), resulting in improved final segmentation data. can be obtained.

도 11 은 일 실시 예에 따른 안와뼈 분할장치(100)의 내부 구성을 개략적으로 나타낸 도이다.11 is a diagram schematically showing the internal configuration of the orbital bone dividing device 100 according to an embodiment.

안와뼈 분할장치(100)는 후술하는 기능을 수행할 수 있는 기기로서, 예를 들어 서버 컴퓨터, 개인 컴퓨터 등으로 구성될 수 있다. 일 실시예에서, 안와뼈 분할장치(100)는 하나 이상의 프로세서(130) 및/또는 하나 이상의 메모리(140)를 포함할 수 있다. The orbital bone segmentation apparatus 100 is a device capable of performing a function to be described later, and may be configured as, for example, a server computer, a personal computer, or the like. In one embodiment, the orbital segmentation apparatus 100 may include one or more processors 130 and/or one or more memories 140 .

일 실시예에 따라 하나 이상의 프로세서(130)에 의해 수행되는 연산은, 입력 영상의 밝기 값과 픽셀 크기를 정규화하는 전처리 연산, 상기 입력 영상에서 높은 밝기 값의 영역으로 구성된 제1 라벨 및 낮은 밝기 값의 영역으로 구성된 제2 라벨을 설정하는 연산, 상기 제1 라벨을 분할하는 제1 분할기 및 상기 제2 라벨을 분할해 내는 제2 분할기를 훈련 영상 및 다중 밝기 값을 고려한 네트워크를 이용하여 각각 기계학습하는 연산 및 상기 기계학습이 수행된 제1 분할기 및 제2 분할기를 이용하여 상기 입력 영상에서 상기 제1 라벨 및 제2 라벨을 분할하고, 상기 제1 라벨 및 상기 제2 라벨을 통합하여 안와뼈를 분할하는 연산을 수행할 수 있다. 또한, 상술한 연산 이외에도, 일 실시예에 따른 안와뼈 분할장치(100)는 도 1 내지 도 4에서 상술된 안와뼈 분할방법을 수행할 수 있음을 통상의 기술자는 쉽게 이해할 수 있다.According to an embodiment, the operation performed by the one or more processors 130 includes a preprocessing operation for normalizing a brightness value and a pixel size of an input image, a first label composed of a region having a high brightness value in the input image, and a low brightness value An operation for setting a second label consisting of an area of dividing the first label and the second label in the input image using the first divider and the second divider on which the operation and the machine learning have been performed, and the orbital bone by integrating the first label and the second label A division operation can be performed. In addition, a person skilled in the art can easily understand that, in addition to the above-described operation, the orbital bone segmentation apparatus 100 according to an embodiment can perform the orbital bone segmentation method described above with reference to FIGS. 1 to 4 .

일 실시예에서는, 안와뼈 분할장치(100)의 이 구성요소들 중 적어도 하나가 생략되거나, 다른 구성요소가 안와뼈 분할장치(100)에 추가될 수 있다. 또한 추가적으로(additionally) 또는 대체적으로(alternatively), 일부의 구성요소들이 통합되어 구현되거나, 단수 또는 복수의 개체로 구현될 수 있다. 안와뼈 분할장치(100) 내, 외부의 구성요소들 중 적어도 일부의 구성요소들은 버스, GPIO(general purpose input/output), SPI(serial peripheral interface) 또는 MIPI(mobile industry processor interface) 등을 통해 서로 연결되어, 데이터 및/또는 시그널을 주고 받을 수 있다.In one embodiment, at least one of these components of the orbital bone division apparatus 100 may be omitted, or other components may be added to the orbital bone division apparatus 100 . In addition, additionally (additionally) or alternatively (alternatively), some of the components may be implemented as integrated, or may be implemented as a singular or a plurality of entities. At least some of the internal and external components of the orbital bone dividing device 100 are connected to each other via a bus, general purpose input/output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI). It can be connected to send and receive data and/or signals.

하나 이상의 메모리(140)는 다양한 데이터를 저장할 수 있다. 메모리(140)에 저장되는 데이터는, 안와뼈 분할장치(100)의 적어도 하나의 구성요소에 의해 획득되거나, 처리되거나, 사용되는 데이터로서, 소프트웨어(예: 프로그램)를 포함할 수 있다. 메모리(140)는, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 하나 이상의 메모리(140)는, 하나 이상의 프로세서(130)에 의한 실행 시, 하나 이상의 프로세서(130)가 연산을 수행하도록 하는 명령들을 저장할 수 있다. 일 실시예에서, 하나 이상의 메모리(140)는 하나 이상의 사용자에 대한 개인화 정보 및/또는 하나 이상의 상품에 대한 추천 정보를 저장할 수 있다. 본 개시에서, 프로그램 내지 명령은 메모리(140)에 저장되는 소프트웨어로서, 안와뼈 분할장치(100)의 리소스를 제어하기 위한 운영체제, 어플리케이션 및/또는 어플리케이션이 장치의 리소스들을 활용할 수 있도록 다양한 기능을 어플리케이션에 제공하는 미들 웨어 등을 포함할 수 있다.The one or more memories 140 may store various data. Data stored in the memory 140 is data obtained, processed, or used by at least one component of the orbital bone segmentation apparatus 100 , and may include software (eg, a program). Memory 140 may include volatile and/or non-volatile memory. The one or more memories 140 may store instructions that, when executed by the one or more processors 130 , cause the one or more processors 130 to perform an operation. In an embodiment, the one or more memories 140 may store personalization information for one or more users and/or recommendation information for one or more products. In the present disclosure, programs or commands are software stored in the memory 140 , and various functions are applied so that an operating system, an application, and/or an application for controlling the resources of the orbital bone division apparatus 100 can utilize the resources of the device. It may include middleware provided to .

하나 이상의 프로세서(130)는, 소프트웨어(예: 프로그램, 명령)를 구동하여 프로세서(130)에 연결된 안와뼈 분할장치(100)의 적어도 하나의 구성요소를 제어할 수 있다. 또한 프로세서(130)는 본 개시와 관련된 다양한 연산, 처리, 데이터 생성, 가공 등의 동작을 수행할 수 있다. 또한 프로세서(130)는 데이터 등을 메모리(140)로부터 로드하거나, 메모리(140)에 저장할 수 있다The one or more processors 130 may control at least one component of the orbital bone dividing apparatus 100 connected to the processor 130 by driving software (eg, a program, a command). In addition, the processor 130 may perform various operations, processing, data generation, processing, etc. related to the present disclosure. In addition, the processor 130 may load data or the like from the memory 140 or store it in the memory 140 .

일 실시예에서, 안와뼈 분할장치(100)는 통신 인터페이스(도시되지 않음)를 더 포함할 수 있다. 통신 인터페이스는, 안와뼈 분할장치(100)와 다른 서버 또는 다른 외부 장치(예: 촬영장치(120))간의 무선 또는 유선 통신을 수행할 수 있다. 예를 들어, 통신 인터페이스는 eMBB(enhanced Mobile Broadband), URLLC(Ultra Reliable Low-Latency Communications), MMTC(Massive Machine Type Communications), LTE(long-term evolution), LTE-A(LTE Advance), UMTS(Universal Mobile Telecommunications System), GSM(Global System for Mobile communications), CDMA(code division multiple access), WCDMA(wideband CDMA), WiBro(Wireless Broadband), WiFi(wireless fidelity), 블루투스(Bluetooth), NFC(near field communication), GPS(Global Positioning System) 또는 GNSS(global navigation satellite system) 등의 방식에 따른 무선 통신을 수행할 수 있다. In one embodiment, the orbital bone segmentation apparatus 100 may further include a communication interface (not shown). The communication interface may perform wireless or wired communication between the orbital bone dividing device 100 and another server or other external device (eg, the imaging device 120 ). For example, the communication interface is eMBB (enhanced Mobile Broadband), URLLC (Ultra Reliable Low-Latency Communications), MMTC (Massive Machine Type Communications), LTE (long-term evolution), LTE-A (LTE Advance), UMTS ( Universal Mobile Telecommunications System), GSM (Global System for Mobile communications), CDMA (code division multiple access), WCDMA (wideband CDMA), WiBro (Wireless Broadband), WiFi (wireless fidelity), Bluetooth (Bluetooth), NFC (near field) communication), a global positioning system (GPS), or a global navigation satellite system (GNSS) may perform wireless communication.

본 개시에 따른 안와뼈 분할장치(100)의 다양한 실시예들은 서로 조합될 수 있다. 각 실시예들은 경우의 수에 따라 조합될 수 있으며, 조합되어 만들어진 안와뼈 분할장치(100)의 실시예 역시 본 개시의 범위에 속한다. 또한 전술한 본 개시에 따른 안와뼈 분할장치(100)의 내/외부 구성 요소들은 실시예에 따라 추가, 변경, 대체 또는 삭제될 수 있다. 또한 전술한 안와뼈 분할장치(100)의 내/외부 구성 요소들은 하드웨어 컴포넌트로 구현될 수 있다.Various embodiments of the orbital bone dividing apparatus 100 according to the present disclosure may be combined with each other. Each embodiment may be combined according to the number of cases, and the embodiment of the orbital bone dividing device 100 made in combination also falls within the scope of the present disclosure. In addition, the internal/external components of the orbital bone dividing apparatus 100 according to the present disclosure described above may be added, changed, replaced, or deleted according to embodiments. In addition, the internal/external components of the orbital segmentation apparatus 100 described above may be implemented as hardware components.

한편, 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다.Meanwhile, the method according to an embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and carry out program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions may include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, with respect to the present invention, the preferred embodiments have been looked at. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention can be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments are to be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.

100: 안와뼈 분할장치
110: 네트워크
120: 촬영장치
100: orbital bone divider
110: network
120: shooting device

Claims (13)

안와뼈 분할장치에 의해 두부경부 컴퓨터단층촬영영상(CT: computed tomography)에서 안와뼈를 분할하는 방법에 있어서,
입력 영상에서 제1 밝기 값의 영역으로 구성된 제1 라벨 및 상기 제1 밝기 값보다 낮은 제2 밝기 값의 영역으로 구성된 제2 라벨을 설정하는, 제1라벨 및 제2라벨 설정단계; 및
상기 설정된 제1 라벨 및 상기 제2 라벨을 통합하여 안와뼈를 분할하는 단계;를 포함하고,
상기 제1 라벨 및 상기 제2 라벨은, 훈련 영상 및 다중 밝기 값을 고려한 네트워크를 이용하여 각각 기계학습된 제1 분할기 및 제2 분할기에 의하여 분할되는 것인, 방법.
In the method of segmenting the orbital bone in a head and neck computed tomography (CT) by an orbital bone segmentation device,
a first label and second label setting step of setting a first label composed of an area having a first brightness value and a second label composed of an area having a second brightness value lower than the first brightness value in the input image; and
Including; and dividing the orbital bone by integrating the set first label and the second label;
The method of claim 1, wherein the first label and the second label are divided by a first divider and a second divider that are machine-learned using a network considering a training image and multiple brightness values, respectively.
제 1항에 있어서,
입력 영상의 밝기 값과 픽셀 크기를 정규화 하는 전처리 단계;를 더 포함하는, 방법.
The method of claim 1,
The method further comprising; a preprocessing step of normalizing the brightness value and pixel size of the input image.
제 2항에 있어서,
상기 전처리를 수행하는 단계는
상기 밝기 값의 정규화를 위해 소정 범위의 밝기 값을 부호 없는 8비트 정수 값으로 변경 하는 단계를 포함하는, 방법.
3. The method of claim 2,
The pre-processing step is
and changing a brightness value within a predetermined range to an unsigned 8-bit integer value for normalizing the brightness value.
제 1항에 있어서,
상기 제1 라벨은 안와뼈의 피질뼈 영역을 포함하고, 상기 제2 라벨은 안와 내벽 및 안와 바닥의 얇은 뼈 영역을 포함하는 것인, 방법.
The method of claim 1,
wherein the first label comprises a cortical bone region of the orbital bone and the second label comprises a thin bone region of the orbital lining and orbital floor.
제 1항에 있어서,
상기 제1 분할기는, 상기 제1 라벨에 대해 제1 라벨에 대응하는 단일 밝기 값 네트워크(SGB-Net)를 이용하여 기계학습되고, 상기 제2 분할기는, 상기 제2 라벨에 대해 제2 라벨에 대응하는 단일 밝기 값 네트워크를 이용하여 기계학습되는 것인, 방법.
The method of claim 1,
The first divider is machine-learned by using a single brightness value network (SGB-Net) corresponding to a first label for the first label, and the second divider is machine learning using a corresponding single brightness value network.
제 5항에 있어서,
상기 단일 밝기 값 네트워크(SGB-Net)는,
6개의 해상도 단계를 가진 연결경로 및 확장경로를 생성하고;
상기 연결경로에서 각 해상도 단계에 대해 파라메트릭(parametric) 정류 선형 단위(PReLU)를 수반하는 두번의 3X3 컨볼루션 및 스트라이드(stride)가 2인 2x2 맥스풀링(max-pooling)연산을 수행하고; 및
상기 확장경로에서 각 해상도 단계에 대해 상기 파라메트릭 정류 선형단위를 수반하는 두번의 3X3 컨볼루션을 수행하고, 각 해상도 단계별 업샘플링을 위해 두배의 진폭을 가지는 2x2 디컨볼루션을 수행하는 것인, 방법.
6. The method of claim 5,
The single brightness value network (SGB-Net) is
generating a connection path and an extension path having 6 resolution levels;
performing two 3X3 convolutions involving a parametric rectified linear unit (PReLU) and a 2x2 max-pooling operation with a stride equal to 2 for each resolution step in the concatenated path; and
Performing two 3X3 convolutions involving the parametric rectified linear unit for each resolution step in the extension path, and performing 2×2 deconvolution with double amplitude for upsampling at each resolution step. Method, .
제 6항에 있어서,
상기 단일 밝기 값 네트워크(SGB-Net)는,
상기 확장경로의 모든 해상도의 단계에서, 디컨볼루션(deconvolution)을 통한 업샘플링이 수행된 영상의 출력 채널 수를 라벨(label) 수로 줄이는 1x1 컨볼루션을 수행하는 마지막 레이어를 포함하고,
상기 마지막 레이어는 출력되는 분할 라벨의 확률을 제공 하는 소프트맥스(softmax) 함수를 포함하는, 방법.
7. The method of claim 6,
The single brightness value network (SGB-Net) is
In all resolution steps of the extension path, including a last layer that performs 1x1 convolution to reduce the number of output channels of an image on which upsampling has been performed through deconvolution to the number of labels,
wherein the last layer comprises a softmax function giving the probability of the split label being output.
제 1항에 있어서,
상기 제2 분할기는 2차원분할모듈 및 3차원분할모듈을 포함하고,
상기 제1라벨 및 제2라벨 설정단계는,
상기 입력 영상을 상기 2차원분할모듈 및 3차원분할모듈에 각각 입력하는 단계; 및
상기 2차원분할모듈과 3차원분할모듈에서 분할된 2차원분할데이터와 3차원분할데이터를 결합하여 상기 제2라벨을 생성하는 단계;를 포함하는, 방법.
The method of claim 1,
The second divider includes a two-dimensional division module and a three-dimensional division module,
The step of setting the first label and the second label,
inputting the input image to the 2D division module and the 3D division module, respectively; and
Creating the second label by combining the 2D divided data and the 3D divided data divided by the 2D division module and the 3D division module to generate the second label.
제 8항에 있어서,
상기 2차원분할모듈은 RefineNet 기반의 2D 분할네트워크이고,
상기 3차원분할모듈은 U-Net 기반의 3D 분할네트워크인, 방법
9. The method of claim 8,
The 2D division module is a 2D division network based on RefineNet,
The 3D division module is a U-Net-based 3D division network, the method
제 8항에 있어서,
상기 제1라벨 및 제2라벨 설정단계에서,
상기 3차원분할모듈은, 상기 2차원분할모듈에서 획득되는 2차원 영역을 포함하는 것으로서, 3차원 입력영상에서 추출된 3차원영역을 입력받는 것을 특징으로 하는, 방법
9. The method of claim 8,
In the first label and second label setting step,
The 3D division module includes a 2D area obtained by the 2D division module, characterized in that it receives a 3D area extracted from a 3D input image.
하나 이상의 프로세서; 및
상기 하나 이상의 프로세서에 의한 실행 시, 상기 하나 이상의 프로세서가 연산을 수행하도록 하는 명령들이 저장된 하나 이상의 메모리를 포함하고,
상기 하나 이상의 프로세서에 의해 수행되는 상기 연산은,
입력 영상에서 제1 밝기 값의 영역으로 구성된 제1 라벨 및 상기 제1 밝기 값보다 낮은 제2 밝기 값의 영역으로 구성된 제2 라벨을 설정하는 연산; 및
상기 설정된 제1 라벨 및 상기 제2 라벨을 통합하여 최종안와뼈를 분할하는 연산을 포함하고,
상기 제1 라벨 및 상기 제2 라벨은, 훈련 영상 및 다중 밝기 값을 고려한 네트워크를 이용하여 각각 기계학습된 제1 분할기 및 제2 분할기에 의하여 분할되는 것인, 안와뼈 분할 장치.
one or more processors; and
one or more memories in which instructions that, when executed by the one or more processors, cause the one or more processors to perform operations are stored;
The operation performed by the one or more processors,
an operation of setting a first label composed of a region having a first brightness value and a second label composed of a region having a second brightness value lower than the first brightness value in the input image; and
Including the operation of dividing the final orbital bone by integrating the set first label and the second label,
The first label and the second label are divided by a first divider and a second divider machine-learned using a network considering a training image and multiple brightness values, respectively.
제 11항에 있어서,
상기 제1 라벨은 안와뼈의 피질뼈 영역을 포함하고, 상기 제2 라벨은 안와 내벽 및 안와 바닥의 얇은 뼈 영역을 포함하는 것인, 안와뼈 분할 장치.
12. The method of claim 11,
wherein the first label includes a cortical bone region of the orbital bone, and the second label includes a thin bone region of the orbital lining and orbital floor.
하드웨어인 컴퓨터와 결합되어, 제1항 내지 제10항 중 어느 한 항의 방법을 실행시키기 위하여 매체에 저장된, 컴퓨터 단층 촬영 영상에서의 안와뼈 분할 프로그램.In combination with a computer as hardware, any one of claims 1 to 10 is stored in the medium to execute the method, the orbital bone segmentation program in the computed tomography image.
KR1020190064623A 2019-05-31 2019-05-31 A Method and Apparatus for Segmentation of Orbital Bone in Head and Neck CT image by Using Deep Learning and Multi-Graylevel Network KR102314455B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190064623A KR102314455B1 (en) 2019-05-31 2019-05-31 A Method and Apparatus for Segmentation of Orbital Bone in Head and Neck CT image by Using Deep Learning and Multi-Graylevel Network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190064623A KR102314455B1 (en) 2019-05-31 2019-05-31 A Method and Apparatus for Segmentation of Orbital Bone in Head and Neck CT image by Using Deep Learning and Multi-Graylevel Network

Publications (2)

Publication Number Publication Date
KR20200137768A KR20200137768A (en) 2020-12-09
KR102314455B1 true KR102314455B1 (en) 2021-10-19

Family

ID=73787312

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190064623A KR102314455B1 (en) 2019-05-31 2019-05-31 A Method and Apparatus for Segmentation of Orbital Bone in Head and Neck CT image by Using Deep Learning and Multi-Graylevel Network

Country Status (1)

Country Link
KR (1) KR102314455B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023146141A1 (en) * 2022-01-27 2023-08-03 한국과학기술연구원 Method for determining lesion in medical image by using artificial intelligence, artificial intelligence neural network system performing same, and computer-readable recording medium having recorded thereon program for executing same in computer

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102330981B1 (en) * 2020-12-30 2021-12-02 이마고웍스 주식회사 Method of automatic segmentation of maxillofacial bone in ct image using deep learning
KR102488676B1 (en) * 2021-08-02 2023-01-13 서울여자대학교 산학협력단 Method and apparatus for improving z-axis resolution of ct images based on deep learning
KR102591587B1 (en) * 2021-08-26 2023-10-18 서울여자대학교 산학협력단 Medical image segmentation apparatus and method for segmentating medical image
KR102643071B1 (en) * 2021-09-30 2024-03-05 주식회사 에이치디엑스윌 Method for determining criterion of head rotation on cephalic ct radiographs, recording medium storing program for executing the same, and recording medium storing program for executing the same
KR102660127B1 (en) * 2023-04-06 2024-04-25 주식회사 써지컬에이아이 Apparatus and method for detecting center point of joint in x-ray image using heatmap

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101999220B1 (en) 2017-12-20 2019-07-11 재단법인 아산사회복지재단 3-dimensional artificial eye generation method, computer program for the same and 3-dimensional artificial eye generation system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101871601B1 (en) * 2016-11-30 2018-06-26 한국과학기술연구원 Method for generating surgery plan for orbital wall reconstruction, surgery plan server performing the same, and storage medium storing the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101999220B1 (en) 2017-12-20 2019-07-11 재단법인 아산사회복지재단 3-dimensional artificial eye generation method, computer program for the same and 3-dimensional artificial eye generation system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Min Jin Lee 외 3명, Orbital bone segmentation in head and neck CT images using multi-gray level fully convolutional networks, SPIE Medical imaing, 2019, 2019.03.15.*
Soyoung Lee 외 4명, Automatic segmentation of the orbital bone in 3D maxillofacial CT images with Double-Bone-Segmentation Network. SPIE, 2019.03.27. 1부.

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023146141A1 (en) * 2022-01-27 2023-08-03 한국과학기술연구원 Method for determining lesion in medical image by using artificial intelligence, artificial intelligence neural network system performing same, and computer-readable recording medium having recorded thereon program for executing same in computer

Also Published As

Publication number Publication date
KR20200137768A (en) 2020-12-09

Similar Documents

Publication Publication Date Title
KR102314455B1 (en) A Method and Apparatus for Segmentation of Orbital Bone in Head and Neck CT image by Using Deep Learning and Multi-Graylevel Network
US10970829B2 (en) Synthesizing and segmenting cross-domain medical images
CN110956635A (en) Lung segment segmentation method, device, equipment and storage medium
US20220254023A1 (en) System and Method for Interpretation of Multiple Medical Images Using Deep Learning
US10311603B2 (en) Correcting positron emission tomography image attenuation
EP3424017B1 (en) Automatic detection of an artifact in patient image data
US9142030B2 (en) Systems, methods and computer readable storage media storing instructions for automatically segmenting images of a region of interest
EP3457356A1 (en) Method and apparatus for fully automated segmentation of joint using patient-specific optimal thresholding and watershed algorithm
JP2007082908A (en) Radiographic image processing apparatus and method
EP3665643B1 (en) X-ray image processing method and system and computer storage medium
CN111462139A (en) Medical image display method, medical image display device, computer equipment and readable storage medium
KR102216022B1 (en) A Method and Apparatus for Modeling Average Orbital Shape in Head and Neck CT image by Using Statistical Shape Model
CN112200780B (en) Bone tissue positioning method, device, computer equipment and storage medium
US20220383491A1 (en) Tissue boundary determination apparatus and method
JP2009160313A (en) Image processing apparatus, image processing method, and computer program
US20220245797A1 (en) Information processing apparatus, information processing method, and information processing program
WO2021197176A1 (en) Systems and methods for tumor characterization
JP6642048B2 (en) Medical image display system, medical image display program, and medical image display method
KR20220169134A (en) Apparauts, system, method and program for deciphering tomography image of common bile duct stone using artificial intelligence
JP7404857B2 (en) Image judgment device, image judgment method and program
KR20230049938A (en) Method and apparatus for quantitative analysis of emphysema
KR102136107B1 (en) Apparatus and method for alignment of bone suppressed chest x-ray image
US11138736B2 (en) Information processing apparatus and information processing method
EP3935605A1 (en) Deep reinforcement learning for computer assisted reading and analysis
CN112766333B (en) Medical image processing model training method, medical image processing method and device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant