KR102236340B1 - A method and apparatus for segmentation of Cartilages by using Bone-Cartilage Complex Modeling in MR images - Google Patents

A method and apparatus for segmentation of Cartilages by using Bone-Cartilage Complex Modeling in MR images Download PDF

Info

Publication number
KR102236340B1
KR102236340B1 KR1020190036764A KR20190036764A KR102236340B1 KR 102236340 B1 KR102236340 B1 KR 102236340B1 KR 1020190036764 A KR1020190036764 A KR 1020190036764A KR 20190036764 A KR20190036764 A KR 20190036764A KR 102236340 B1 KR102236340 B1 KR 102236340B1
Authority
KR
South Korea
Prior art keywords
cartilage
bone
label
complex
segmentation
Prior art date
Application number
KR1020190036764A
Other languages
Korean (ko)
Other versions
KR20200114652A (en
Inventor
홍헬렌
이한상
Original Assignee
서울여자대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울여자대학교 산학협력단 filed Critical 서울여자대학교 산학협력단
Priority to KR1020190036764A priority Critical patent/KR102236340B1/en
Publication of KR20200114652A publication Critical patent/KR20200114652A/en
Application granted granted Critical
Publication of KR102236340B1 publication Critical patent/KR102236340B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

본 개시는, 자기공명 영상에서의 골-연골 복합체를 이용한 연골 분할 방법에 있어서, 자기공명 영상에서 골 라벨(Bone Label) 및 상기 골 영역에 인접한 소정 연골 라벨이 결합된 골-연골 복합체(Bone-Cartilage-Complex, BCC)를 구성하는 단계; 복수의 훈련 영상을 이용하여 상기 골-연골 복합체를 분할하기 위한 제1 딥러닝 분할기 및 상기 골 라벨을 분할하기 제2 딥러닝 분할기를 각각 기계학습하는 단계; 및 상기 제1 딥러닝 분할기를 이용하여 입력영상에서 분할된 골-연골 복합체와 상기 제2 딥러닝 분할기를 이용하여 상기 골-연골복합체에서 분할된 골 라벨의 차를 기초로 연골 라벨을 분할하는 단계를 포함할 수 있다.The present disclosure provides a method for segmenting cartilage using a bone-cartilage complex in a magnetic resonance image, in which a bone label and a predetermined cartilage label adjacent to the bone region are combined in a magnetic resonance image. Configuring Cartilage-Complex, BCC); Machine learning a first deep learning divider for segmenting the bone-cartilage complex using a plurality of training images and a second deep learning divider for segmenting the bone label, respectively; And dividing the cartilage label based on the difference between the bone-cartilage complex divided from the input image using the first deep learning divider and the bone label divided from the bone-cartilage complex using the second deep learning divider. It may include.

Description

자기공명 영상에서의 골-연골 복합체 모델링을 이용한 연골 분할 방법 및 장치{A method and apparatus for segmentation of Cartilages by using Bone-Cartilage Complex Modeling in MR images}A method and apparatus for segmentation of cartilages by using Bone-Cartilage Complex Modeling in MR images}

자기공명 영상에서의 골-연골 복합체 모델링을 이용한 연골 분할 방법 및 장치에 관한 것으로, 보다 상세하게는 딥러닝을 이용한 연골 분할 및 추출 방법에 있어서, 작은 크기의 연골 분할 정확도를 개선하기 위한 골-연골 복합체 모델링을 적용하여 향상된 연골 분할 방법 및 장치에 관한 것이다.It relates to a method and apparatus for cartilage segmentation using bone-cartilage complex modeling in magnetic resonance images, and more particularly, in a method for segmenting and extracting cartilage using deep learning, bone-cartilage for improving the accuracy of segmentation of small-sized cartilage. The present invention relates to a method and apparatus for improved cartilage segmentation by applying complex modeling.

무릎 관절염은 세계적으로 알려진 후천적 장애의 주요 원인이다. 최근 연구에서는 무릎 골관절염의 평생 발병 위험은 남녀 각각 40% 및 47%라고 언급하고 있으며, BMI가 30 이상인 경우 위험은 60%까지 높아진다고 한다. 그런데, 이러한 무릎 관절염의 주요원인은 무릎 연골의 기계적 마모 및 무릎 연골의 생화학적 변화 때문이라고 지적되고 있다. 따라서, 자기공명영상에서의 무릎 연골 분할 및 추출은 퇴행성관절염을 비롯한 무릎 연골 질환의 진단, 치료 계획 및 예후를 위한 중요한 전처리 작업으로 이용되고 있다. Knee arthritis is the leading cause of acquired disorders known worldwide. A recent study mentions that the lifetime risk of osteoarthritis of the knee is 40% and 47%, respectively, for men and women, and the risk increases to 60% if the BMI is 30 or higher. However, it is pointed out that the main causes of knee arthritis are mechanical wear of the knee cartilage and biochemical changes in the knee cartilage. Therefore, segmentation and extraction of knee cartilage in magnetic resonance images is used as an important pre-processing task for diagnosis, treatment planning, and prognosis of knee cartilage diseases including degenerative arthritis.

그런데, 자기공명영상에서 무릎 연골은 대퇴골 및 경골의 말단을 감싸는 얇은 막 형태로 나타나며 얇은 두께 및 작은 크기 때문에 정확한 분할 및 추출에 어려움이 있었다. 특히, 종래에는 연골 라벨 분할기를 직접 학습하는 과정에서 골에 비해 상대적으로 크기가 작은 연골의 분할 정확도가 떨어지는 한계가 있었고, 골관절염(OSTEOARTHRITIS) 평가를 위해 도입된 3차원 영상의 경우, 그 복잡성이 더욱 높아져, 평가의 성능 향상을 위해서는 자동화된 연골 분할이 필수적으로 요구되고 있다. However, in magnetic resonance images, the knee cartilage appears in the form of a thin film surrounding the ends of the femur and tibia, and due to its thin thickness and small size, it is difficult to accurately segment and extract. In particular, conventionally, in the process of directly learning a cartilage label splitter, there is a limitation in that the accuracy of segmentation of cartilage that is relatively small compared to bone is poor, and in the case of a 3D image introduced for the evaluation of osteoarthritis, the complexity is further increased. Therefore, in order to improve the evaluation performance, automated cartilage segmentation is indispensable.

대한민국 등록특허공보 제10-1223681호Korean Registered Patent Publication No. 10-1223681

일 실시예에 따른 자기공명 영상에서의 골-연골 복합체 모델링을 이용한 연골 분할 방법 및 장치는, 자기공명 영상에서 골 영역 및 골-연골 복합체를 의미 분할을 위한 다중 경로 세분화 네트워크(이하, RefineNet: Multi-Path Refinement)를 이용하여 높은 정확도로 연골(cartilage) 영역을 분리할 수 있다. 특히, 종래의 작은 크기의 연골 분할에 대한 기계학습 방식에서 골-연골 복합체 모델링을 이용하여 크기 제약을 줄임으로써 학습 효율을 높이고 연골분할 정확도를 개선할 수 있다.A method and apparatus for segmenting cartilage using bone-cartilage complex modeling in a magnetic resonance image according to an embodiment is a multi-path segmentation network for semantic segmentation of a bone region and a bone-cartilage complex in a magnetic resonance image (hereinafter, RefineNet: Multi -Path Refinement) can be used to separate the cartilage area with high accuracy. In particular, it is possible to improve learning efficiency and improve cartilage segmentation accuracy by reducing size constraints by using bone-cartilage complex modeling in a conventional machine learning method for small-sized cartilage segmentation.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 일 실시예에 따른 자기공명 영상에서의 골-연골 복합체 모델링을 이용한 무릎 연골 분할 방법은, 자기공명 영상인 학습용 영상데이터에서 골 라벨 및 골 영역에 인접한 소정 연골 라벨이 결합된 골-연골 복합체(Bone-Cartilage-Complex, BCC)를 구성하는 단계; 복수의 훈련 영상을 이용하여 상기 골-연골 복합체를 분할하기 위한 제1 딥러닝 분할기 및 상기 골 라벨을 분할하기 위한 제2 딥러닝 분할기를 각각 기계학습하되, 상기 복수의 훈련영상은 상기 학습용 영상데이터에서 골 라벨이 레이블링되어 상기 제1 딥러닝 분할기 학습에 이용되는 제1 훈련영상과 상기 입력영상에서 골-연골 복합체가 레이블링되어 상기 제2 딥러닝 분할기 학습에 이용되는 제2 훈련영상을 포함하는 것인, 단계; 및 상기 제1 딥러닝 분할기를 이용하여 입력영상에서 분할된 골-연골 복합체와 상기 제2 딥러닝 분할기를 이용하여 상기 골-연골복합체에서 분할된 골 라벨의 차를 기초로 연골 라벨을 분할하되, 상기 입력영상은 연골 추출이 수행되는 신규 자기공명영상인, 연골 라벨 분할단계를 포함한다.A method for segmenting knee cartilage using bone-cartilage complex modeling in a magnetic resonance image according to an embodiment of the present invention is a bone-cartilage in which a bone label and a predetermined cartilage label adjacent to a bone region are combined in the learning image data, which is a magnetic resonance image. Constructing a complex (Bone-Cartilage-Complex, BCC); Machine learning a first deep learning divider for segmenting the bone-cartilage complex using a plurality of training images and a second deep learning divider for segmenting the bone label, respectively, wherein the plurality of training images is the training image data Including a first training image that is labeled with a bone label and used for learning the first deep learning splitter, and a second training image that is labeled with a bone-cartilage complex in the input image and used for learning the second deep learning splitter. Phosphorus, step; And segmenting the cartilage label based on the difference between the bone-cartilage complex divided from the input image using the first deep learning divider and the bone label divided from the bone-cartilage complex using the second deep learning divider, The input image includes a cartilage label segmentation step, which is a new magnetic resonance image in which cartilage extraction is performed.

또한, 다른 일실시예로, 상기 골-연골 복합체는 대퇴골 및 대퇴부 연골 라벨과, 경골 및 경골연골 라벨을 포함하고, 상기 골 라벨은 상기 대퇴골 라벨 및 상기 경골 라벨을 포함한다.In another embodiment, the bone-cartilage complex includes a femur and femur cartilage label, and a tibia and tibia cartilage label, and the bone label includes the femur label and the tibia label.

또한, 다른 일실시예로, 상기 기계학습하는 단계는, 상기 학습용 영상데이터에 해당하는 자기공명영상인 3차원 영상에서, 관상, 축상, 및 시상면의 세 방향에서 각각의 이차원 영상을 분할하여 학습하고, 각각의 이차원 영상에서 추출된 세가지의 결과 라벨을 다수투표(majority voting) 방식으로 혼합하여 최종 2.5차원 분할 라벨을 추출하는 것이다.In another embodiment, in the machine learning step, in the three-dimensional image, which is a magnetic resonance image corresponding to the learning image data, learning by dividing each two-dimensional image in three directions of a coronal, axial, and sagittal plane. Then, the three result labels extracted from each 2D image are mixed in a majority voting method to extract a final 2.5D segmented label.

또한, 다른 일실시예로, 상기 연골 라벨 분할단계는, 의미 분할을 위한 다중 경로 세분화 네트워크(RefineNet) 알고리즘을 이용하여 상기 입력영상에서 상기 골 라벨과 상기 골-연골 복합체 영역을 분할하는 것이다.In another embodiment, in the step of segmenting the cartilage label, the bone label and the bone-cartilage complex region are segmented from the input image using a multipath segmentation network (RefineNet) algorithm for semantic segmentation.

본 발명의 다른 실시 예에 따른 자기공명 영상에서의 골연골 복합체 모델링을 이용한 무릎 연골 분할 장치는,하나 이상의 프로세서; 및 상기 하나 이상의 프로세서에 의한 실행 시, 상기 하나 이상의 프로세서가 연산을 수행하도록 하는 명령들이 저장된 하나 이상의 메모리를 포함하고, 상기 하나 이상의 프로세서에 의해 수행되는 상기 연산은, 자기공명 영상인 학습용 영상데이터에서 골 라벨(Bone Label) 및 상기 골 영역에 인접한 소정 연골 라벨이 결합된 골-연골 복합체(Bone-Cartilage-Complex, BCC)를 구성하는 연산; 복수의 훈련 영상을 이용하여 상기 골-연골 복합체를 분할하기 위한 제1 딥러닝 분할기 및 상기 골 라벨을 분할하기 제2 딥러닝 분할기를 각각 기계학습하는 연산; 및 상기 제1 딥러닝 분할기를 이용하여 입력영상에서 분할된 골-연골 복합체와 상기 제2 딥러닝 분할기를 이용하여 상기 골-연골복합체에서 분할된 골 라벨의 차를 기초로 연골 라벨을 분할하는 연산을 포함하되, 상기 복수의 훈련영상은 상기 학습용 영상데이터에서 골 라벨이 레이블링되어 상기 제1 딥러닝 분할기 학습에 이용되는 제1 훈련영상과 상기 입력영상에서 골-연골 복합체가 레이블링되어 상기 제2 딥러닝 분할기 학습에 이용되는 제2 훈련영상을 포함하는 것이고, 상기 입력영상은 연골 추출이 수행되는 신규 자기공명영상이다.An apparatus for segmenting knee cartilage using osteochondral complex modeling in a magnetic resonance image according to another embodiment of the present invention includes: at least one processor; And at least one memory in which instructions for causing the at least one processor to perform an operation when executed by the at least one processor are stored, and the operation performed by the at least one processor is An operation of constructing a bone-cartilage-complex (BCC) in which a bone label and a predetermined cartilage label adjacent to the bone region are combined; An operation of machine learning a first deep learning divider for segmenting the bone-cartilage complex using a plurality of training images and a second deep learning divider for segmenting the bone label, respectively; And an operation of dividing a cartilage label based on the difference between the bone-cartilage complex divided from the input image using the first deep learning divider and the bone label divided from the bone-cartilage complex using the second deep learning divider. Including, wherein the plurality of training images are labeled with a bone label in the training image data, and a bone-cartilage complex is labeled in the first training image used for learning the first deep learning divider and the input image, It includes a second training image used for learning the running splitter, and the input image is a new magnetic resonance image from which cartilage extraction is performed.

또한, 다른 일실시예로, 상기 골-연골 복합체는 대퇴골 및 대퇴부 연골과 경골 및 경골연골 라벨을 포함하고, 상기 골 라벨은 상기 대퇴골 라벨 및 상기 경골 라벨을 포함한다.In another embodiment, the bone-cartilage complex includes femur and femur cartilage and tibia and tibia cartilage labels, and the bone label includes the femur label and the tibia label.

또한, 다른 일실시예로, 상기 기계학습하는 연산은, 상기 학습용 영상데이터에 해당하는 자기공명영상인 3차원 영상에서, 관상, 축상, 시상면의 세 방향에서 각각의 이차원 영상을 분할하여 학습하고, 각각에서 추출된 세가지의 결과 라벨을 다수투표(majority voting) 방식으로 혼합하여 최종 2.5차원 분할 라벨을 추출하는 것이다.In another embodiment, the machine learning operation is performed by dividing each two-dimensional image in three directions of a coronal, axial, and sagittal plane in a three-dimensional image, which is a magnetic resonance image corresponding to the learning image data. , The final 2.5-dimensional segmentation label is extracted by mixing the three result labels extracted from each in a majority voting method.

본 발명의 또 다른 일 실시예에 따른 자기공명 영상에서의 골-연골 복합체 모델링을 이용한 무릎 연골 분할 방법은, 골-연골 복합체를 포함하는 입력영상을 획득하는 단계; 및 상기 입력영상에서 분할된 골-연골 복합체와 상기 골-연골복합체에서 분할된 골 라벨의 차를 기초로 연골 라벨을 분할하는 단계를 포함하고, 상기 골-연골 복합체는, 복수의 훈련 영상을 이용하여 학습된 제1 딥러닝 분할기에 의하여 분할되고, 상기 골 라벨은, 복수의 훈련 영상을 이용하여 학습된 제2 딥러닝 분할기에 의하여 분할되고, 상기 복수의 훈련 영상은 자기공명 영상에서 골 라벨 및 골 영역에 인접한 소정 연골 라벨이 결합된 골-연골 복합체(Bone-Cartilage-Complex, BCC)가 레이블링 된 것이다.In accordance with another embodiment of the present invention, a method for segmenting knee cartilage using bone-cartilage complex modeling in a magnetic resonance image includes: obtaining an input image including a bone-cartilage complex; And dividing a cartilage label based on a difference between the bone-cartilage complex divided in the input image and the bone label divided in the bone-cartilage complex, wherein the bone-cartilage complex uses a plurality of training images. Is divided by the learned first deep learning divider, the goal label is divided by a second deep learning divider learned using a plurality of training images, and the plurality of training images are divided into a goal label and Bone-Cartilage-Complex (BCC) to which a predetermined cartilage label adjacent to the bone region is bound is labeled.

이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램, 그리고 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.In addition to this, another method for implementing the present invention, another system and a computer program for executing the method, and a computer-readable recording medium for recording the computer program may be further provided.

상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.According to the present invention as described above, it has various effects as follows.

우선, 일 실시예에 따른 무릎 연골 분할 방법은, 골-연골 복합체 분할을 이용하여 무릎 연골 분할 정확도를 개선하여, 무릎 연골 관련 질병 진단 및 추적의 효율을 높일 수 있다.First, the knee cartilage division method according to an embodiment may improve the accuracy of knee cartilage division by using bone-cartilage complex division, thereby increasing the efficiency of diagnosing and tracking knee cartilage-related diseases.

특히, 무릎 연골 이외에도, 작은 크기로 인해 분할 및 추출이 어려운 의료 생체조직의 분할에 있어 유사한 방식의 복합체 추출 방식을 적용하여 추출 정확도를 개선할 수 있다.In particular, it is possible to improve the extraction accuracy by applying a complex extraction method in a similar manner in the division of medical biological tissues, which are difficult to divide and extract due to their small size, in addition to the knee cartilage.

도 1은 일 실시예에 따른 연골 분할 방법을 설명하기 위한 개념도이다.
도 2는 일 실시예에 따른 무릎 연골을 설명하기 위한 도이다.
도 3은 일 실시예에 따른 연골 분할 방법을 설명하기 위한 순서도이다.
도 4는 일 실시예에 따른 골-연골 복합체 모델링을 이용한 무릎 연골 분할 방법을 보다 상세하게 설명하기 위한 도이다.
도 5 내지 도 7은 일 실시예에 따른 골-연골 복합체를 이용한 연골 분할 방법의 정확도를 설명하기 위한 도이다.
도 8은 일 실시예에 따른 연골 분할장치의 내부 구성을 개략적으로 나타낸 도이다.
1 is a conceptual diagram illustrating a method of dividing cartilage according to an exemplary embodiment.
2 is a view for explaining the knee cartilage according to an embodiment.
3 is a flowchart illustrating a method of dividing cartilage according to an exemplary embodiment.
4 is a view for explaining in more detail a method of dividing knee cartilage using bone-cartilage complex modeling according to an embodiment.
5 to 7 are diagrams for explaining the accuracy of a cartilage segmentation method using a bone-cartilage complex according to an embodiment.
8 is a diagram schematically showing the internal configuration of a cartilage splitting device according to an embodiment.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments to be posted below, but may be implemented in various different forms, and only these embodiments make the posting of the present invention complete, and common knowledge in the technical field to which the present invention pertains. It is provided to completely inform the scope of the invention to those who have, and the invention is only defined by the scope of the claims. The same reference numerals refer to the same elements throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used with meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terms used in the present specification are for describing exemplary embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used herein, “comprises” and/or “comprising” do not exclude the presence or addition of one or more other elements other than the mentioned elements.

도 1은 일 실시예에 따른 연골 분할 방법을 설명하기 위한 개념도이다.1 is a conceptual diagram illustrating a cartilage segmentation method according to an exemplary embodiment.

도 1을 참조하면, 일 실시예에 따른 연골 분할 시스템은, 연골 분할장치(100) 및 촬영장치(120)를 포함할 수 있다. 또한, 이러한 연골 분할장치(100) 및 촬영장치(120)는 네트워크(110)로 연결될 수 있다. Referring to FIG. 1, a cartilage splitting system according to an embodiment may include a cartilage splitting device 100 and a photographing device 120. In addition, the cartilage splitting device 100 and the photographing device 120 may be connected to the network 110.

우선, 일 실시예에 따른 촬영장치(120)는 자기공명 영상을 촬영한다. 여기서 촬영되는 자기공명 영상(MR)은 무릎연골의 분할이 필요한 대상영상이거나, 연골 분할장치(100)를 기계학습 시키기 위한 훈련영상일 수 있다. 여기서, 촬영장치(120)는 자기공명(MR: Magnetic Resonance) 영상을 촬영하는 장치와 같이 인체의 내부의 뼈와 연골을 촬영할 수 있는 장치를 의미할 수 있다.First, the photographing apparatus 120 according to an embodiment photographs a magnetic resonance image. The magnetic resonance image (MR) photographed here may be a target image that requires segmentation of knee cartilage, or may be a training image for machine learning the cartilage segmentation apparatus 100. Here, the photographing apparatus 120 may mean a device capable of photographing bones and cartilage inside a human body, such as a device that photographs a magnetic resonance (MR) image.

본 발명의 일 실시예로, 상기 연골 분할장치(100)는 자기공명영상을 학습 또는 분석하는 프로그램을 포함하는 컴퓨팅장치(예를 들어, 서버장치)일 수 있다. 예를 들어, 상기 연골 분할장치(100)는 골 영역 및 골-연골 복합체를 분할하기 위해 자기공명영상 데이터를 기반으로 학습을 수행하고, 학습된 결과를 기반으로 골 영역 및 골-연골 복합체 분할을 통해 연골 영역을 추출하는 프로그램을 포함하는 컴퓨팅 장치일 수 있다. 또한, 예를 들어, 상기 연골 분할장치(100)는, 이미 골 영역 및 골-연골 복합체 분할을 위한 학습이 완료된 학습모델이 포함됨에 따라, 상기 학습모델 기반으로 골 영역 및 골-연골 복합체 분할을 통해 연골 영역을 추출하는 프로그램을 포함하는 하나 이상의 컴퓨팅 장치일 수 있다. 구체적으로, 상기 연골 분할장치(100)에서 수행되는 프로세스는, 컴퓨팅 장치 내의 프로세서(도 8 참조)에서 수행될 수 있다. 구체적으로, 일 실시예에 따른 연골 분할장치(100)는, 자기공명영상을 학습하는 과정부터 수행하는 경우, 자기공명 영상에서 골 영역 및 골-연골 복합체를 의미분할을 위한 다중 경로 세분화 네트워크(RefineNet: Multi-Path Refinement Networks for High-Resolution Semantic Segmentation)를 이용하여 높은 정확도로 학습하고, 그 차를 이용하여 연골(cartilage) 영역을 분리할 수 있다. 특히, 종래의 작은 크기의 연골 분할에 대한 기계학습 방식에서 골연골 복합체 모델링을 이용하여 크기 제약을 줄임으로써 학습 효율을 높이고 연골분할 정확도를 개선할 수 있다.In an embodiment of the present invention, the cartilage segmentation device 100 may be a computing device (eg, a server device) including a program for learning or analyzing a magnetic resonance image. For example, the cartilage segmentation apparatus 100 performs learning based on magnetic resonance image data to segment a bone region and a bone-cartilage complex, and divides a bone region and a bone-cartilage complex based on the learned result. It may be a computing device including a program for extracting a cartilage region through. In addition, for example, as the cartilage segmentation device 100 includes a learning model that has already been trained for segmentation of a bone region and a bone-cartilage complex, segmentation of a bone region and a bone-cartilage complex is performed based on the learning model. It may be one or more computing devices including a program for extracting a cartilage region through. Specifically, the process performed by the cartilage segmentation apparatus 100 may be performed by a processor (refer to FIG. 8) in the computing device. Specifically, when the cartilage segmentation apparatus 100 according to an embodiment is performed from the process of learning a magnetic resonance image, a multi-path segmentation network for semantic division of a bone region and a bone-cartilage complex in a magnetic resonance image (RefineNet : Multi-Path Refinement Networks for High-Resolution Semantic Segmentation) can be used to learn with high accuracy, and the cartilage area can be separated using the difference. In particular, it is possible to improve learning efficiency and improve cartilage segmentation accuracy by reducing size constraints using osteocartilage complex modeling in a conventional machine learning method for segmenting cartilage of a small size.

따라서, 무릎 연골 관련 질병 진단 및 추적의 효율을 높일 수 있을 뿐 아니라, 무릎 연골 이외에도, 작은 크기로 인해 분할 및 추출이 어려운 의료 생체조직의 분할에 있어 유사한 방식의 복합체 추출 방식을 적용하여 추출 정확도를 개선할 수 있다.Therefore, not only can the efficiency of diagnosis and tracking of diseases related to knee cartilage be improved, but also the extraction accuracy is improved by applying a similar complex extraction method to the division of medical biological tissues, which are difficult to divide and extract due to their small size, in addition to knee cartilage. It can be improved.

한편, 일 실시예에 따른 네트워크(110)는 무선 네트워크뿐만 아니라 유선 네트워크를 포함할 수도 있으며, 촬영장치(120)에서 촬영된 영상을 연골 분할 장치(100)로 전달하기 위한 다양한 수단이 모두 포함되는 것으로 이해될 수 있다.Meanwhile, the network 110 according to an embodiment may include a wired network as well as a wireless network, and various means for transmitting an image captured by the photographing device 120 to the cartilage segmentation device 100 are all included. Can be understood as.

또한, 다른 일 실시예로, 연골 분할장치(100)는, 골-연골 복합체를 분할하기 위한 제1 딥러닝 분할기 및 상기 골 라벨을 분할하기 위한 제2 딥러닝 분할기를 포함한다. 상기 제1 딥러닝 분할기는 골-연골 복합체가 라벨링된 자기공명영상을 학습함에 따라 새로운 자기공명영상에서 골-연골 복합체를 분할하는 소프트웨어(예를 들어, 학습모델 또는 분석모델)일 수 있다. 또한, 상기 제2 딥러닝 분할기는 골(즉, 무릎 뼈)이 라벨링된 자기공명영상을 학습함에 따라 새로운 자기공명영상에서 골 라벨을 분할하는 소프트웨어(예를 들어, 학습모델 또는 분석모델)일 수 있다. 또한, 예를 들어, 상기 연골 분할장치(100)는, 복수의 컴퓨팅 장치를 포함하는 경우, 제1 딥러닝 분할기와 제2 딥러닝 분할기는 다른 컴퓨팅 장치에 포함될 수도 있고, 하나의 컴퓨팅 장치 내에 포함될 수도 있다.In addition, in another embodiment, the cartilage splitting apparatus 100 includes a first deep learning splitter for splitting a bone-cartilage complex and a second deep learning splitter for splitting the bone label. The first deep learning divider may be software (eg, a learning model or an analysis model) that divides a bone-cartilage complex from a new magnetic resonance image as the bone-cartilage complex learns a labeled magnetic resonance image. In addition, the second deep learning divider may be software (for example, a learning model or an analysis model) that divides a bone label from a new magnetic resonance image as it learns a magnetic resonance image labeled with a bone (i.e., a knee bone). have. In addition, for example, when the cartilage segmentation device 100 includes a plurality of computing devices, the first deep learning divider and the second deep learning divider may be included in other computing devices, or included in one computing device. May be.

도 2는 일 실시예에 따른 무릎 뼈와 연골을 설명하기 위한 도이다.2 is a view for explaining a knee bone and cartilage according to an embodiment.

도 2를 참조하면, 대퇴골(femur, 201)과 경골(tibia, 202) 사이에 대퇴부 연골(femoral cartilage)과 경골 연골(tibial meniscus)을 포함하는 무릎 연골(Knee Cartilage, 203)이 위치하여 무릎의 하중을 분산시키고 관절이 부드럽게 움직이도록 보호하는 역할을 한다. 구체적으로, 도 2의 (b)의 자기공명영상 내에서 별도의 색상(즉, 보라색, 붉은색, 파란색, 노란색 등의 유채색)이 부여되어 표시된 전체 영역이 무릎연골(Knee Cartilage, 203)에 해당한다.2, between the femur (femur, 201) and the tibia (tibia, 202), the knee cartilage (Knee Cartilage, 203) including femoral cartilage and tibial meniscus is located, It distributes the load and protects the joints to move smoothly. Specifically, in the magnetic resonance image of FIG. 2 (b), a separate color (ie, chromatic colors such as purple, red, blue, yellow, etc.) is given and the displayed entire area corresponds to the knee cartilage (Knee Cartilage, 203). do.

그런데, 도 2를 참조하면 자기공명영상에서 무릎연골(203)은 대퇴골(201) 및 경골(202)의 말단을 감싸는 얇은 막 형태로 나타나며 얇은 두께 및 작은 크기 때문에 정확한 분할 및 추출에 어려움이 있다. 특히, 종래에는 연골 라벨 분할기를 직접 학습하는 과정에서 골에 비해 상대적으로 크기가 작은 연골의 분할 정확도가 떨어지는 한계가 있었고, 골관절염(OSTEOARTHRITIS) 평가를 위해 도입된 3차원 영상의 경우, 그 복잡성이 더욱 높아져, 평가의 성능 향상을 위해서는 자동화된 연골 분할이 필수적으로 요구되고 있다. However, referring to FIG. 2, in the magnetic resonance image, the knee cartilage 203 appears in the form of a thin film surrounding the ends of the femur 201 and the tibia 202, and it is difficult to accurately segment and extract because of its thin thickness and small size. In particular, conventionally, in the process of directly learning a cartilage label splitter, there is a limitation in that the accuracy of segmentation of cartilage that is relatively small compared to bone is poor, and in the case of a 3D image introduced for the evaluation of osteoarthritis, the complexity is further increased. Therefore, in order to improve the evaluation performance, automated cartilage segmentation is indispensable.

특히, 연골을 사람이 직접 수동으로 분할하는 경우, 연골은 여러 조각으로 뻗어 있는 얇고, 가늘고 긴 곡선 구조를 가지고 있어, 이를 분할하는 것은 힘들고 주관적이다. 따라서, 연골의 자동 분할을 위한 다양한 방법이 제안되어왔다. 여기에는 손으로 만들어진 기능을 사용한 학습 기반 분류자 및 활성 모양/모델, 지도 기반 방법, 레벨 세트 및 그래프 컷과 같은 강도 또는 모양의 통계 분포에 의존하는 비 학습 기반 접근법이 포함된다. In particular, when a person manually divides cartilage, the cartilage has a thin, thin, and long curved structure that extends into several pieces, and it is difficult and subjective to divide it. Therefore, various methods have been proposed for automatic segmentation of cartilage. These include learning-based classifiers using handcrafted features and non-learning-based approaches that rely on statistical distributions of intensity or shape, such as active shapes/models, map-based methods, level sets, and graph cuts.

예를 들면, 슬관절 연골(osteoarthritis)의 분할을 위한 자기공명영상 촬영은 골관절염의 진단 및 치료 계획 수립에 있어, 그리고 다양한 임상 과제에 있어 중요한 과정이다. 최근에 심부 분할 네트워크(DSN: Deep segmentation networks)가 연골 분할에 적용되어 유망한 결과를 보여주었다. 그러나 DSN은 네트워크가 다중 클래스 세분화를 학습하는 동안 연골과 같은 작은 물체를 무시하는 경향이 있다는 점에서 연골 세분화에 한계가 있었다. 따라서, 일 실시예에 따른 골-연골-복합체(BCC: bone-cartilage-complex) 모델링에서 일 실시예에 따른 골-BCC-차이점(BCD: bone-BCC-difference) 추출법을 이용하여 DSN 기반 연골 분할을 수행하는 경우 이러한 한계를 극복할 수 있다.For example, magnetic resonance imaging for segmentation of osteoarthritis is an important process in diagnosing osteoarthritis and establishing treatment plans, and in various clinical tasks. Recently, deep segmentation networks (DSN) have been applied to cartilage segmentation, showing promising results. However, DSN has limitations in cartilage segmentation in that the network tends to ignore small objects such as cartilage while learning multi-class segmentation. Therefore, in bone-cartilage-complex (BCC) modeling according to an embodiment, DSN-based cartilage segmentation using a bone-BCC-difference (BCD) extraction method according to an embodiment If you do, you can overcome these limitations.

즉, DSN의 작은 연골 무시를 극복하기 위해, 단일 마스크에 뼈와 연골을 결합한 골-연골-복합체(BCC)를 구축할 수 있다. 그 다음으로 BCC와 뼈를 각각 분할하고, 분할된 BCC에서 분할된 뼈를 차감하여 연골 영역을 추출할 수 있다. 이때, 2.5D 분할화를 적용하여, 과반수 투표로 여러 평면에서 다중 분할 마스크를 평균화 하여 분할화 정확도를 더욱 향상시킬 수 있다. 특히, 도 5 내지 도 7에서 후술 되듯이, 일 실시예에 따른 연골 분할 방법(BCD-Net)은 대퇴골과 경골 연골에서 각각 평균 98.1 %와 83.8 %의 DSC를 얻었으며 SKI10 공공 챌린지 검증 데이터 세트에서는 가장 높은 수준의 성능이 검증되었다.That is, in order to overcome the neglect of small cartilage in DSN, a bone-cartilage-complex (BCC) can be constructed that combines bone and cartilage in a single mask. Then, the BCC and the bone are divided, and the cartilage region can be extracted by subtracting the divided bone from the divided BCC. At this time, by applying 2.5D segmentation, the segmentation accuracy can be further improved by averaging multiple segmentation masks in multiple planes by majority vote. In particular, as will be described later in FIGS. 5 to 7, the cartilage segmentation method (BCD-Net) according to an embodiment obtained an average of 98.1% and 83.8% DSC in femur and tibia cartilage, respectively, and in the SKI10 public challenge verification data set The highest level of performance has been verified.

도 3은 본 발명의 일 실시예에 따른 연골 분할장치(100)에 의한 연골 분할 방법을 설명하기 위한 순서도이다.3 is a flowchart illustrating a method of dividing cartilage by the cartilage dividing apparatus 100 according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시예에 따른 연골 분할 방법은, 단계 S300에서, 연골 분할장치(100)에 의해 자기공명 영상인 학습용 영상데이터에서 골 라벨(Bone Label) 및 상기 골 영역에 인접한 소정 연골 라벨이 결합된 골-연골 복합체(Bone-Cartilage-Complex, BCC)를 구성한다. 여기서, 골-연골 복합체는 대퇴골 및 대퇴부 연골 라벨, 및 경골 및 경골연골 라벨을 포함하고, 상기 골 라벨은 상기 대퇴골 라벨 및 상기 경골 라벨을 포함하는 마스크 또는 영역을 의미 할 수 있다. 물론, 이러한 구성에 한정되는 것은 아니며, 골 라벨과 연골 라벨이 인접한 인체의 모든 구조에 적용되어 골-연골 복합체를 구성할 수 있다. 일 실시예로, 상기 학습용 영상데이터는 기 획득된 무릎 자기공명영상일 수 있다. 단계 S310에서, 연골 분할 방법은, 복수의 훈련 영상을 이용하여 골-연골 복합체를 분할하기 위한 제1 딥러닝 분할기 및 골 라벨을 분할하기 제2 딥러닝 분할기를 각각 기계 학습을 수행한다. 일 실시예로, 상기 복수의 훈련영상은, 상기 학습용 영상데이터에서 골 라벨이 레이블링되어 상기 제1 딥러닝 분할기 학습에 이용되는 제1 훈련영상과 상기 입력영상에서 골-연골 복합체가 레이블링되어 상기 제2 딥러닝 분할기 학습에 이용되는 제2 훈련영상을 포함하는 것일 수 있다.Referring to FIG. 3, in the cartilage segmentation method according to an embodiment of the present invention, in step S300, a bone label and the bone region in the learning image data, which is a magnetic resonance image, are A bone-cartilage-Complex (BCC) is formed in which adjacent predetermined cartilage labels are bound. Here, the bone-cartilage complex includes a femur and femur cartilage label, and a tibia and tibia cartilage label, and the bone label may mean a mask or region including the femur label and the tibia label. Of course, it is not limited to this configuration, and the bone label and the cartilage label are applied to all structures of the adjacent human body to constitute a bone-cartilage complex. In one embodiment, the training image data may be a previously acquired knee magnetic resonance image. In step S310, in the cartilage segmentation method, a first deep learning divider for segmenting a bone-cartilage complex using a plurality of training images and a second deep learning divider for segmenting a bone label, respectively, perform machine learning. In one embodiment, in the plurality of training images, a bone label is labeled in the training image data, and a bone-cartilage complex is labeled in the input image and a first training image used for learning the first deep learning divider. 2 It may include a second training image used for learning the deep learning divider.

예를 들면, 일 실시예에 따른 연골 분할 방법에서, 제1 딥러닝 분할기 및 제2 딥러닝 분할기는 도 4에 대한 설명에서 후술하는 의미 분할을 위한 다중 경로 세분화 네트워크(RefineNet) 알고리즘을 활용하여 기계학습되어, 입력영상에서 골-연골 복합체 및 골 라벨을 분할할 수 있다.For example, in the cartilage segmentation method according to an embodiment, the first deep learning divider and the second deep learning divider use a multipath segmentation network (RefineNet) algorithm for semantic segmentation described later in the description of FIG. By learning, it is possible to segment the bone-cartilage complex and the bone label from the input image.

단계 S320에서, 연골 분할 방법은, 입력영상에서 제1 딥러닝 분할기를 이용하여 분할된 골-연골 복합체와 제2 딥러닝 분할기를 이용하여 분할된 골 라벨의 차를 기초로 연골 라벨을 분할한다. 이 때, 상기 입력영상은 연골 추출이 수행되는 신규 자기공명영상이다.In step S320, the cartilage segmentation method divides the cartilage label based on the difference between the bone-cartilage complex segmented using the first deep learning divider in the input image and the segmented bone label using the second deep learning segmenter. In this case, the input image is a new magnetic resonance image in which cartilage extraction is performed.

한편, 일 실시예에 따른 연골 분할 방법은 3차원 영상 대신 관상, 축상, 및 시상면의 세 방향에서 각각의 이차원 영상 분할로 학습하고, 각각의 이차원영상에서 추출된 세가지의 결과라벨을 다수투표(majority voting) 방식으로 혼합하여 최종 2.5차원 분할 라벨을 추출할 수 있다. On the other hand, the cartilage segmentation method according to an embodiment learns by segmenting each two-dimensional image in three directions of coronal, axial, and sagittal instead of a three-dimensional image, and multiplying three result labels extracted from each two-dimensional image ( The final 2.5-dimensional division label can be extracted by mixing in the majority voting) method.

따라서 일 실시예에 따른 무릎 연골 분할 방법은 골-연골 복합체 분할을 통해 연골분할을 간접적으로 학습하되 골에 비해 상대적으로 작은 연골에 대한 크기 제약을 줄임으로써 학습 효율을 높이고 연골분할 정확도를 개선할 수 있다. 또한, 본 발명의 일 실시예에 따른 자기공명 영상에서의 골-연골 복합체 모델링을 이용한, 연골 분할장치에 의한 무릎 연골 분할 방법은, 골-연골 복합체를 포함하는 입력영상을 획득하는 단계; 및 제1 딥러닝 분할기를 이용하여 입력영상에서 분할된 골-연골 복합체와 제2 딥러닝 분할기를 이용하여 상기 골-연골복합체에서 분할된 골 라벨의 차를 기초로 연골 라벨을 분할하는 단계를 포함한다. 상기 제1 딥러닝 분할기는, 복수의 훈련 영상을 학습하여 상기 골-연골 복합체를 분할하는 것이고, 상기 제2 딥러닝 분할기는 복수의 훈련 영상을 학습하여 골 라벨을 분할하는 것이고, 상기 복수의 훈련 영상은 자기공명 영상에서 골 라벨 및 골 영역에 인접한 소정 연골 라벨이 결합된 골-연골 복합체(Bone-Cartilage-Complex, BCC)가 레이블링 된 것일 수 있다.Therefore, the knee cartilage segmentation method according to an embodiment indirectly learns cartilage segmentation through bone-cartilage complex segmentation, but improves learning efficiency and improves cartilage segmentation accuracy by reducing the size constraint on cartilage that is relatively small compared to bone. have. In addition, a method for segmenting knee cartilage by a cartilage segmentation apparatus using bone-cartilage complex modeling in a magnetic resonance image according to an embodiment of the present invention includes: obtaining an input image including a bone-cartilage complex; And dividing the cartilage label based on the difference between the bone-cartilage complex divided from the input image using the first deep learning divider and the bone label divided from the bone-cartilage complex using a second deep learning divider. do. The first deep learning divider learns a plurality of training images to divide the bone-cartilage complex, the second deep learning divider learns a plurality of training images to divide a bone label, and the plurality of training images The image may be labeled with a bone-cartilage-Complex (BCC) in which a bone label and a predetermined cartilage label adjacent to the bone region are combined in a magnetic resonance image.

즉, 연골 분할장치(100)는 이미 골 라벨 또는 골-연골 복합체가 라벨링된 복수의 자기공명영상을 기반으로 학습이 완료된 제1 딥러닝 분할기와 제2 딥러닝 분할기를 포함할 수 있다. 이 때, 상기 연골 분할장치(100)는 기 학습완료된 제1 딥러닝 분할기와 제2 딥러닝 분할기를 기반으로 신규로 획득된 무릎영역의 자기공명영상에서 골 라벨과 골-연골 복합체를 분리한 후, 차를 계산하여 연골 라벨만을 분할해낼 수 있다.That is, the cartilage segmentation apparatus 100 may include a first deep learning divider and a second deep learning divider that have been trained based on a plurality of magnetic resonance images already labeled with a bone label or a bone-cartilage complex. At this time, the cartilage segmentation device 100 separates the bone label and the bone-cartilage complex from the newly acquired magnetic resonance image of the knee region based on the first deep learning divider and the second deep learning divider that have already been learned. , By calculating the difference, only the cartilage label can be segmented.

이하, 도 4 내지 도 7을 참조하여 일 실시 예에 따른 골-연골 복합체 모델링을 이용한 무릎 연골 분할 방법 및 효과를 보다 상세하게 설명한다.Hereinafter, a method and effect of splitting knee cartilage using bone-cartilage complex modeling according to an embodiment will be described in more detail with reference to FIGS. 4 to 7.

도 4를 참조하면, 일 실시예에 따른 연골 분할 방법(BCD-Net)은 (1) BCCs와 골 라벨(Bone-Only) 마스크에 대해 2 개의 DSN을 훈련시키는 동작, (2) BCDs로 연골 마스크를 추출하는 동작, (3) 다중 뷰 다수 투표에 의한 2.5 차원 분할화(segmentation)를 수행할 수 있다.4, the cartilage segmentation method (BCD-Net) according to an embodiment includes (1) training two DSNs for BCCs and bone-only masks, and (2) cartilage masking with BCDs. (3) 2.5-dimensional segmentation by multi-view majority voting can be performed.

우선, 골-연골 복합체들(BCCs)과 골 라벨(Bone-Only) 마스크 각각에 대해 2 개의 DSN을 훈련시키는 단계는 다음 단계를 수행할 수 있다. First, training two DSNs for each of the bone-cartilage complexes (BCCs) and bone-only masks may perform the following steps.

연골 분할 작업을 두 개의 복잡한 분할화와 그 차이 추출의 작업으로 변환하기 위해 BCC, 대퇴골의 골 라벨, 및 경골의 골 라벨에 대한 마스크를 각각 구성(401)하고 두 개의 DSN에 대해 훈련 집합의 영상을 이용한 기계학습을 반복하여 훈련시킨다. 향후, 훈련된 DSN은 테스트 이미지(402)가 입력되었을 때 보다 정확한 연골을 분할하는데 이용된다. 여기서, BCC는 뼈와 연골이 결합된 복합체 마스크를 생성하여 구성된다. 구체적으로, 수동으로 분할된 대퇴골(FB), 경골(TB), 대퇴 연골(FC) 및 경골 연골(TC)의 마스크가 있는 각 훈련 영상(401)에 대해 단계 S403의 박스 이미지를 참조하면 대퇴 BCC(FBCC = FB + FC) 및 경골 BCC(TBCC = TB + TC)가 있는 두 개의 BCC {FBCC, TBCC}가 도시된다. 단계 S404의 박스 이미지는 DSN을 트레이닝하기 위해 2 개의 골 라벨 마스크 (FB, TB)가 구성되는 일 예를 나타낸다.In order to transform the cartilage segmentation operation into two complex segmentation and extraction of the difference, masks for BCC, femur bone label, and tibia bone label were respectively constructed (401), and images of training set for two DSNs. Machine learning is repeatedly trained using. In the future, the trained DSN is used to segment more accurate cartilage when the test image 402 is input. Here, the BCC is constructed by creating a complex mask in which bone and cartilage are combined. Specifically, referring to the box image of step S403 for each training image 401 with a mask of manually divided femur (FB), tibia (TB), femoral cartilage (FC), and tibial cartilage (TC), femoral BCC Two BCCs {FBCC, TBCC} with (FBCC = FB + FC) and tibial BCC (TBCC = TB + TC) are shown. The box image of step S404 shows an example in which two goal label masks (FB and TB) are configured to train the DSN.

따라서, 단계 S403 및 S404에서 두 DSN은 각각 BCC{FBCC, TBCC}와 골 라벨 마스크 {FB, TB}의 두 가지 클래스 데이터 세트를 이용하여 각각 개별적으로 학습될 수 있다. 한편, 컨볼루션 뉴럴 네트워크(CNN)구조에 기반한 DSN은 고 해상도 이미지 분류 문제를 해결하기 위해, 이미지와 분할 마스크 간의 매핑을 직접 학습할 수 있다. 예를 들면, DSN 모델 중 하나인 Refine-net이 BCC 및 골 라벨 마스크의 분할을 학습하는 데 사용될 수 있다.Accordingly, in steps S403 and S404, the two DSNs may be individually learned using two class data sets of BCC{FBCC, TBCC} and goal label mask {FB, TB}, respectively. Meanwhile, a DSN based on a convolutional neural network (CNN) structure can directly learn the mapping between an image and a segmentation mask in order to solve a high-resolution image classification problem. For example, Refine-net, one of the DSN models, can be used to learn the segmentation of BCC and goal label masks.

다음으로, 단계 S405에서 연골 마스크는 골-BCC-차이(BCD)를 이용하여 추출된다.Next, in step S405, the cartilage mask is extracted using the bone-BCC-difference (BCD).

구체적으로, BCC와 골 라벨의 차이 형태로 연골 마스크를 추출하기 위해 DSN 분할과 BCD 추출이 수행된다. 먼저, 두 개의 훈련 된 DSN을 사용하여 테스트 이미지에 대한 BCC 및 골 라벨 마스크의 분할이 각각 수행된다. 각 테스트 이미지에 대해 분할된 BCC {FBCC, TBCC}에서 분할된 골 라벨 마스크{FB, TB}를 뺀 BCD를 이용하여 연골 마스크를 생성한다. 여기서 대퇴연골(FC = FBCC - FB) 및 경골연골(TC = TBCC - TB) 분할의 오차를 더 줄이기 위해, BCD 마스크의 구성요소 전부를 연산에 활용하는 것이 아니라, 가장 큰 3D 연결 요소만이 연골 마스크(FC 및 TC)로 결정될 수 있다. Specifically, DSN segmentation and BCD extraction are performed to extract a cartilage mask in the form of a difference between BCC and bone label. First, segmentation of the BCC and bone label mask for the test image is performed using two trained DSNs, respectively. For each test image, a cartilage mask is generated using the BCD obtained by subtracting the divided bone label mask {FB, TB} from the divided BCC {FBCC, TBCC}. Here, in order to further reduce the error in the division of femoral cartilage (FC = FBCC-FB) and tibia cartilage (TC = TBCC-TB), not all of the components of the BCD mask are used for calculation, but only the largest 3D connecting element It can be determined by the masks FC and TC.

단계 S406에서는 다중 뷰 다수투표 방식에 의한 2.5 차원 분할화(segmentation)가 수행될 수 있다.In step S406, 2.5-dimensional segmentation may be performed according to a multi-view majority voting method.

3D 의료 이미지의 경우, 3D 분할화가 일반적으로 2D 분할화 보다 성능을 향상시키는 것으로 알려져 있다. 그러나 3D 이미지에 대한 DSN 학습은 메모리 비용이 많이 소요되므로 많은 연구에서 메모리 비용을 줄이면서 정확도를 향상시키기 위해 2.5 차원(2.5D) 분할화가 이용되고 있다. 특히, 다중 뷰 2.5D 분할에서, 다중 2D 분할은 상이한 이미지 평면상에서 수행되고, 분할 마스크는 도 4의 단계 S406에 도시 된 바와 같이 다수 투표에 방식 의해 평균화 된다. 즉, 시상면(S, Sagittal), 관상면(C, coronal), 축면(A, axial)을 포함하는 3 개의 직교 평면에서 다중 뷰 2.5차원 분할을 수행하여 BCD-Net의 정확성을 더욱 향상시킬 수 있다.In the case of 3D medical images, 3D segmentation is generally known to improve performance over 2D segmentation. However, since DSN learning for 3D images requires a lot of memory cost, 2.5-dimensional (2.5D) segmentation is used in many studies to reduce memory cost and improve accuracy. In particular, in the multi-view 2.5D segmentation, multiple 2D segmentation is performed on different image planes, and the segmentation mask is averaged by a majority vote as shown in step S406 of FIG. 4. In other words, the accuracy of BCD-Net can be further improved by performing multi-view 2.5-dimensional segmentation on three orthogonal planes including sagittal planes (S, sagittal), coronal planes (C, coronal), and axial planes (A, axial). have.

한편, 세 평면 {S, C, A}에 대한 BCD-Net 분할화가 먼저 수행될 수도 있다. 이때, 서로 다른 이미지 평면에 있는 BCD-Net의 매개 변수는 모두 동일하고, 각 평면에 대해 2D 분할 마스크를 누적하여 각 평면의 분할 볼륨을 형성하며, 3 개의 분할된 볼륨은 MV에 의해 평균화 되어 최종 분할 마스크(407)를 구성할 수 있다. 이러한 방식으로 분할화에 공간 정보가 반영될 수 있게 되면, 2.5 차원 분할화에서 분할화 오류를 보다 줄일 수도 있다.Meanwhile, BCD-Net segmentation for three planes {S, C, A} may be performed first. At this time, the parameters of BCD-Net on different image planes are all the same, and 2D division masks are accumulated for each plane to form a divided volume for each plane, and the three divided volumes are averaged by MV and finalized. A division mask 407 can be configured. If spatial information can be reflected in segmentation in this way, segmentation errors can be further reduced in 2.5-dimensional segmentation.

이하, 도 5 내지 도 7을 참조하여, 일 실시예에 따른 골-연골 복합체를 이용한 연골 분할 방법의 정확도를 설명한다.Hereinafter, the accuracy of a method for segmenting cartilage using a bone-cartilage complex according to an embodiment will be described with reference to FIGS. 5 to 7.

도 5 내지 도 7은, 일 실시예에 따른 연골 분할 방법의 유효성을 검증하기 위해, 무릎 MRI 연골 분할을 위한 SKI10 공개 챌린지 데이터 세트(도 5의 (a))에서 실험 결과를 도시한다. SKI10 데이터 세트는 60 개의 훈련과 40 개의 검증 이미지로 구성된 100 개의 무릎 MRI 이미지를 제공한다. 모든 이미지에서 데이터 세트는 FB, TB, FC 및 TC의 네 가지 클래스의 수동 분할 마스크를 제공한다. 여기서, 40 개의 검증 이미지의 경우, 데이터 세트는 평가 ROI 마스크를 제공한다. 이 데이터 세트는 평균 복셀 크기가 0.4 mm x 0.4 mm x 1 mm이고 평균 해상도가 290 x 340 x 110 인 대부분 1.5T T1-강조(T1-weighted) 시상 MRI 스캔을 제공한다. 실험에서 DSN은 60 개의 교육 이미지와 분할 마스크로, 시상면, 관상면, 축면에서 각각 13,012, 13,439 및 16,407의 2D 슬라이스 수를 가질 수 있다.5 to 7 show experimental results in the SKI10 open challenge data set (FIG. 5A) for knee MRI cartilage segmentation in order to verify the effectiveness of the cartilage segmentation method according to an embodiment. The SKI10 dataset provides 100 knee MRI images consisting of 60 training and 40 validation images. In all images, the data set provides four classes of manual segmentation masks: FB, TB, FC and TC. Here, for 40 verification images, the data set provides the evaluation ROI mask. This data set provides mostly 1.5T T1-weighted sagittal MRI scans with an average voxel size of 0.4 mm x 0.4 mm x 1 mm and an average resolution of 290 x 340 x 110. In the experiment, the DSN is 60 training images and segmentation masks, and can have the number of 2D slices of 13,012, 13,439 and 16,407 in the sagittal, coronal, and axial planes, respectively.

일 실시예에 따른 연골 분할 방법(BCD-Net)의 성능은 정성적뿐만 아니라 정량적으로도 평가된다. 우선 일 실시예에 따른 BCD를 검증하기 위해 FB, TB, FC, TC의 4 가지 클래스로 학습 된 ReineNet을 도시한다(도 5의 (b)). 그리고, 2.5D 분할 효과를 확인하기 위해 세 가지 2D 세분화 결과(S, C, A)와 2.5D 세분화 결과(MV)도 비교한다(도 5의 (c)).The performance of the cartilage segmentation method (BCD-Net) according to an embodiment is evaluated quantitatively as well as qualitatively. First, in order to verify the BCD according to an embodiment, ReineNet learned in four classes of FB, TB, FC, and TC is shown (Fig. 5(b)). And, in order to confirm the 2.5D segmentation effect, three 2D segmentation results (S, C, A) and 2.5D segmentation results (MV) are also compared (Fig. 5(c)).

또한 다수의 투표를 통해 세 개의 2D RefinNet과 세 개의 2D BCD-Net을 포함하여 총 6개의 분할 마스크를 평균화하는 BCD-Net(MV6) 방법 또한 수행하였다(도 5의 (d)). 도 5에 도시되듯이 이러한 세분화 결과의 정성평가는 시각적으로 수행될 수 있으며, 일 실시예에 따른 분할 방법이 향상된 분할 정확도를 가짐을 알 수 있다. In addition, a BCD-Net (MV6) method of averaging a total of 6 division masks including three 2D RefinNets and three 2D BCD-Nets through a number of votes was also performed (Fig. 5(d)). As shown in FIG. 5, the qualitative evaluation of the segmentation result can be performed visually, and it can be seen that the segmentation method according to an embodiment has improved segmentation accuracy.

다음으로, 정량적 평가에서, 4 가지 등급에 대한 다이스 유사 계수 (DSC)가 계산되고 비교되었다. 또한 평균 대칭 표면 거리 (RMSD), 부피 중첩 오차 (VOE) 및 평균 오차를 포함하여 챌린지 제공 기준을 평가하여 SKI10 참가자의 결과와 SKI10 참가자의 결과를 비교했다.Next, in the quantitative evaluation, the Dice Similarity Coefficient (DSC) for the four grades was calculated and compared. We also evaluated the challenge delivery criteria, including mean symmetric surface distance (RMSD), volume overlap error (VOE), and mean error to compare the results of SKI10 participants with those of SKI10 participants.

도 5를 참조하면, 첫 번째와 세 번째 행에서 볼 수 있듯이 FC는 RefineNet 결과에서 과소 분화되는 경향이 있지만 일 실시예에 따른 BCD-Net에서는 이러한 과소 분화가 상당부분 만회됨을 알 수 있다. 마찬가지로, 두 번째와 세 번째 행에 표시된 바와 같이, TC는 RefineNet 결과에서 TB의 과도한 세분화로 인해 세그먼트가 손실되는 반면, 일 실시예에 따른 BCD-Net에서 대부분 보정됨을 알 수 있다. 즉, DSN이 기존의 4 클래스에 대해 기계학습을 수행하였을 때 DSN은 뼈와 연골을 구별하는 작은 연골을 무시하는 경향이 있어 세그먼테이션 오류가 발생한다. 그러나 일 실시예에 따른 BCD-Net에서는 뼈와 연골 부류간에 어떠한 충돌도 없으므로 연골 무시로 인한 분할 오류에 상대적으로 견고함을 알 수 있다. 일 실시예에 따른 BCD-Net의 개선 결과를 설명하기 위해 도 5의 (c)와 (d)를 살펴보면, BCD-Net(MV) 및 BCD-Ne(MV6)의 결과는 도 5의 (e)에 도시된 수동으로 분할된 정답값과 시각적으로 가장 유사함을 알 수 있다.Referring to FIG. 5, as can be seen in the first and third rows, FC tends to be under-differentiated in the RefineNet results, but it can be seen that such under-differentiation is largely compensated for in the BCD-Net according to an embodiment. Likewise, as indicated in the second and third rows, it can be seen that the segment is lost due to excessive subdivision of TB in the RefineNet result, while TC is mostly corrected in the BCD-Net according to an embodiment. That is, when the DSN performs machine learning on the existing 4 classes, the DSN tends to ignore the small cartilage that distinguishes bone and cartilage, resulting in a segmentation error. However, in the BCD-Net according to an embodiment, since there is no collision between the bone and cartilage classes, it can be seen that it is relatively robust to a segmentation error due to cartilage neglect. Looking at (c) and (d) of FIG. 5 to describe the improvement result of BCD-Net according to an embodiment, the results of BCD-Net (MV) and BCD-Ne (MV6) are shown in (e) of FIG. It can be seen that it is most visually similar to the manually divided correct answer value shown in FIG.

한편, 도 6은 실험에 따른 DSC(Dice similarity coefficients) 비교 결과를 수치 값으로 보여준다. 2D RefineNet 결과에서 (1) TB와 TC의 DSC는 일반적으로 FB와 FC의 DSC보다 낮으며 (2) 평면 간의 성능은 S> C> A로 정렬될 수 있음을 관찰할 수 있다. 또한 2D BCD 결과에서, (1) TB와 TC의 DSC는 일반적으로 RefinNet보다 개선되었지만 FB와 FC는 그렇지 못하였고 (2) 관상면에서의 성능은 ReineNet보다 훨씬 향상되었고, 시상 및 축 평면에 있는 것들은 그렇지 않음을 알 수 있다. 일 실시예에 따른 BCD-Net이 BCD 추출 덕분에 TB 및 TC와 같은 상대적으로 작은 구조의 정확도를 향상시키는 것으로 분석될 수 있다. 한편, 2.5D 분할은 RefineNet과 BCD-Net 방법 모두에서 뼈와 연골 세분화가 전반적으로 개선되었음을 보여준다. 마지막으로 BCD-Net(MV6)은 RefinNet 및 BCD-Net 결과를 포함하는 모든 마스크 클래스에 대해 최고의 DSC를 달성 하였다.Meanwhile, FIG. 6 shows the comparison result of DSC (Dice similarity coefficients) according to the experiment as a numerical value. From the 2D RefineNet results, it can be observed that (1) DSCs of TB and TC are generally lower than those of FB and FC, and (2) the performance between planes can be aligned with S>C>A. In addition, in the 2D BCD results, (1) DSC of TB and TC generally improved than RefinNet, but FB and FC did not, and (2) performance in the coronal plane was significantly improved than ReineNet, and those in the sagittal and axial planes were You can see that it is not. It can be analyzed that the BCD-Net according to an embodiment improves the accuracy of relatively small structures such as TB and TC thanks to BCD extraction. On the other hand, 2.5D segmentation shows that bone and cartilage segmentation was improved overall in both RefineNet and BCD-Net methods. Finally, BCD-Net (MV6) achieved the best DSC for all mask classes, including RefinNet and BCD-Net results.

도 7은 SKI10 챌린지 검증 데이터 세트의 성능 평가 및 비교를 도시한다. 도 7을 참조하면 연골 분할에서 BCD-Net(MV) 및 BCD-Net(MV6)은 SegNet 및 U-Net과 같은 종래의 다른 DSN을 능가 할뿐만 아니라 FC 및 TC 추출의 최첨단 정확도를 달성할 수 있음을 알 수 있다. 뼈 세분화에서 우리의 방법은 최첨단 수준의 ASD(mm)를 나타내지만 FB 및 TB에 대해서는 약간 더 높은 RMSD(mm)를 나타내며 이전 DSN 기반 방법에서 뼈 마스크의 추가 사후 처리 보완으로 개선 될 것으로 간주될 수 있다. 또한, (1) DSN이 연골 세분화에 매우 효과적임이 입증되며, (2) 일 실시예에 따른 BCD-Net이 DSN의 성능을 향상시킬 수 있음을 확인할 수 있다.7 shows performance evaluation and comparison of the SKI10 challenge verification data set. Referring to Figure 7, in cartilage segmentation, BCD-Net (MV) and BCD-Net (MV6) can not only surpass other conventional DSNs such as SegNet and U-Net, but also achieve cutting-edge accuracy of FC and TC extraction. Can be seen. In bone segmentation, our method exhibits a state-of-the-art level of ASD (mm), but a slightly higher RMSD (mm) for FB and TB, and can be considered to be improved by supplementing the additional post-processing of bone masks in previous DSN-based methods have. In addition, it can be seen that (1) DSN is very effective in cartilage segmentation, and (2) BCD-Net according to an embodiment can improve the performance of DSN.

도 8은 일 실시예에 따른 연골 분할장치의 내부 구성을 개략적으로 나타낸 도이다.8 is a diagram schematically showing the internal configuration of a cartilage splitting device according to an embodiment.

연골 분할장치(100)는 후술하는 기능을 수행할 수 있는 기기로서, 예를 들어 서버 컴퓨터, 개인 컴퓨터 등으로 구성될 수 있다. 일 실시 예에서, 연골 분할장치(100)는 하나 이상의 프로세서(130) 및/또는 하나 이상의 메모리(140)를 포함할 수 있다.The cartilage splitting apparatus 100 is a device capable of performing a function to be described later, and may be configured with, for example, a server computer, a personal computer, or the like. In an embodiment, the cartilage segmentation apparatus 100 may include one or more processors 130 and/or one or more memories 140.

일 실시예에 따라 하나 이상의 프로세서(130)에 의해 수행되는 연산은, 자기공명 영상인 학습용 영상데이터에서 골 라벨(Bone Label) 및 상기 골 영역에 인접한 소정 연골 라벨이 결합된 골-연골 복합체(Bone-Cartilage-Complex, BCC)를 구성하는 연산, 복수의 훈련 영상을 이용하여 상기 골-연골 복합체를 분할하기 위한 제1 딥러닝 분할기 및 상기 골 라벨을 분할하기 위한 제2 딥러닝 분할기를 각각 기계학습하는 연산, 및 제1 딥러닝 분할기를 이용하여 입력영상에서 분할된 골-연골 복합체와 상기 제2 딥러닝 분할기를 이용하여 분할된 골 라벨의 차를 기초로 연골 라벨을 분할하는 연산을 포함할 수 있다. 일 실시예로, 상기 복수의 훈련영상은 상기 학습용 영상데이터에서 골 라벨이 레이블링되어 상기 제1 딥러닝 분할기 학습에 이용되는 제1 훈련영상과 상기 입력영상에서 골-연골 복합체가 레이블링되어 상기 제2 딥러닝 분할기 학습에 이용되는 제2 훈련영상을 포함하는 것일 수 있다. 또한, 상기 입력영상은 연골 추출이 수행되는 신규 자기공명영상이다. 즉, 새로운 환자의 자기공명영상에서 연골영역을 추출하여야 하는 경우, 신규 환자의 자기공명영상이 입력영상으로 연골 분할장치에 입력될 수 있다.According to an embodiment, an operation performed by one or more processors 130 is a bone-cartilage complex in which a bone label and a predetermined cartilage label adjacent to the bone region are combined in the training image data, which is a magnetic resonance image. -Cartilage-Complex, BCC), a first deep learning divider for segmenting the bone-cartilage complex using a plurality of training images, and a second deep learning divider for segmenting the bone label, respectively. And an operation of dividing a cartilage label based on a difference between the bone-cartilage complex divided from the input image using the first deep learning divider and the bone label divided using the second deep learning divider. have. In one embodiment, the plurality of training images are labeled with a bone label in the training image data, and a bone-cartilage complex is labeled in the first training image used for learning the first deep learning splitter and the input image, and the second It may include a second training image used for learning the deep learning divider. In addition, the input image is a new magnetic resonance image in which cartilage extraction is performed. That is, when it is necessary to extract the cartilage region from the magnetic resonance image of a new patient, the magnetic resonance image of the new patient may be input to the cartilage segmentation apparatus as an input image.

물론 이러한 연산에만 한정되는 것은 아니며, 일 실시 예에 따른 연골 분할장치(100)는 도 1 내지 도 7에서 상술 된 연골 분할 방법들을 수행할 수 있음은 통상의 기술자에게 자명하다.Of course, it is not limited to these operations, and it is obvious to a person skilled in the art that the cartilage segmentation apparatus 100 according to an exemplary embodiment can perform the cartilage segmentation methods described above in FIGS. 1 to 7.

일 실시예에서는, 연골 분할장치(100)의 이 구성요소들 중 적어도 하나가 생략되거나, 다른 구성요소가 연골 분할장치(100)에 추가될 수 있다. 또한 추가적으로(additionally) 또는 대체적으로(alternatively), 일부의 구성요소들이 통합되어 구현되거나, 단수 또는 복수의 개체로 구현될 수 있다. 연골 분할장치(100) 내, 외부의 구성요소들 중 적어도 일부의 구성요소들은 버스, GPIO(general purpose input/output), SPI(serial peripheral interface) 또는 MIPI(mobile industry processor interface) 등을 통해 서로 연결되어, 데이터 및/또는 시그널을 주고받을 수 있다.In one embodiment, at least one of these components of the cartilage splitting device 100 may be omitted, or another component may be added to the cartilage splitting device 100. In addition, additionally or alternatively, some components may be integrated and implemented, or may be implemented as a singular or plural entity. At least some of the components inside and outside the cartilage segmentation apparatus 100 are connected to each other through a bus, general purpose input/output (GPIO), serial peripheral interface (SPI), mobile industry processor interface (MIPI), etc. As a result, data and/or signals can be exchanged.

하나 이상의 메모리(140)는 다양한 데이터를 저장할 수 있다. 메모리(140)에 저장되는 데이터는, 연골 분할장치(100)의 적어도 하나의 구성요소에 의해 획득되거나, 처리되거나, 사용되는 데이터로서, 소프트웨어(예: 프로그램)를 포함할 수 있다. 메모리(140)는, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 하나 이상의 메모리(140)는, 하나 이상의 프로세서(130)에 의한 실행 시, 하나 이상의 프로세서(130)가 연산을 수행하도록 하는 명령들을 저장할 수 있다. 일 실시예에서, 하나 이상의 메모리(140)는 하나 이상의 사용자에 대한 개인화 정보 및/또는 하나 이상의 상품에 대한 추천 정보를 저장할 수 있다. 본 개시에서, 프로그램 내지 명령은 메모리(140)에 저장되는 소프트웨어로서, 연골 분할장치(100)의 리소스를 제어하기 위한 운영체제, 어플리케이션 및/또는 어플리케이션이 장치의 리소스들을 활용할 수 있도록 다양한 기능을 어플리케이션에 제공하는 미들 웨어 등을 포함할 수 있다.One or more memories 140 may store various types of data. Data stored in the memory 140 is data acquired, processed, or used by at least one component of the cartilage segmentation apparatus 100, and may include software (eg, a program). The memory 140 may include volatile and/or nonvolatile memory. The one or more memories 140 may store instructions for causing the one or more processors 130 to perform an operation when executed by the one or more processors 130. In one embodiment, the one or more memories 140 may store personalized information for one or more users and/or recommendation information for one or more products. In the present disclosure, programs or commands are software stored in the memory 140, and various functions are applied to the application so that the operating system, application, and/or application for controlling the resources of the cartilage division apparatus 100 can utilize the resources of the device. It may include middleware and the like to be provided.

하나 이상의 프로세서(130)는, 소프트웨어(예: 프로그램, 명령)를 구동하여 프로세서(130)에 연결된 연골 분할장치(100)의 적어도 하나의 구성요소를 제어할 수 있다. 또한 프로세서(130)는 본 개시와 관련된 다양한 연산, 처리, 데이터 생성, 가공 등의 동작을 수행할 수 있다. 또한 프로세서(130)는 데이터 등을 메모리(140)로부터 로드하거나, 메모리(140)에 저장할 수 있다The one or more processors 130 may control at least one component of the cartilage splitting apparatus 100 connected to the processor 130 by driving software (eg, a program or command). In addition, the processor 130 may perform various operations related to the present disclosure, processing, data generation, and processing. In addition, the processor 130 may load data, etc. from the memory 140 or may store the data in the memory 140.

일 실시예에서, 연골 분할장치(100)는 통신 인터페이스(도시되지 않음)를 더 포함할 수 있다. 통신 인터페이스는, 연골 분할장치(100)와 다른 서버 또는 다른 외부 장치(예: 촬영장치(120))간의 무선 또는 유선 통신을 수행할 수 있다. 예를 들어, 통신 인터페이스는 eMBB(enhanced Mobile Broadband), URLLC(Ultra Reliable Low-Latency Communications), MMTC(Massive Machine Type Communications), LTE(long-term evolution), LTE-A(LTE Advance), UMTS(Universal Mobile Telecommunications System), GSM(Global System for Mobile communications), CDMA(code division multiple access), WCDMA(wideband CDMA), WiBro(Wireless Broadband), WiFi(wireless fidelity), 블루투스(Bluetooth), NFC(near field communication), GPS(Global Positioning System) 또는 GNSS(global navigation satellite system) 등의 방식에 따른 무선 통신을 수행할 수 있다. In one embodiment, the cartilage segmentation apparatus 100 may further include a communication interface (not shown). The communication interface may perform wireless or wired communication between the cartilage segmentation apparatus 100 and another server or another external device (eg, the photographing apparatus 120). For example, the communication interface is eMBB (enhanced mobile broadband), URLLC (Ultra Reliable Low-Latency Communications), MMTC (Massive Machine Type Communications), LTE (long-term evolution), LTE-A (LTE Advance), UMTS ( Universal Mobile Telecommunications System), GSM (Global System for Mobile communications), CDMA (code division multiple access), WCDMA (wideband CDMA), WiBro (Wireless Broadband), WiFi (wireless fidelity), Bluetooth, NFC (near field) communication), a global positioning system (GPS), or a global navigation satellite system (GNSS).

본 개시에 따른 연골 분할장치(100)의 다양한 실시예들은 서로 조합될 수 있다. 각 실시예들은 경우의 수에 따라 조합될 수 있으며, 조합되어 만들어진 연골 분할장치(100)의 실시예 역시 본 개시의 범위에 속한다. 또한 전술한 본 개시에 따른 연골 분할장치(100)의 내/외부 구성 요소들은 실시예에 따라 추가, 변경, 대체 또는 삭제될 수 있다. 또한 전술한 연골 분할장치(100)의 내/외부 구성 요소들은 하드웨어 컴포넌트로 구현될 수 있다.Various embodiments of the cartilage splitting apparatus 100 according to the present disclosure may be combined with each other. Each of the embodiments may be combined according to the number of cases, and embodiments of the cartilage splitting apparatus 100 made by combining are also within the scope of the present disclosure. In addition, the internal/external components of the cartilage splitting apparatus 100 according to the present disclosure described above may be added, changed, replaced, or deleted according to embodiments. In addition, the internal/external components of the aforementioned cartilage splitting apparatus 100 may be implemented as hardware components.

한편, 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다.Meanwhile, the method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of the program instructions may include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been looked at around its preferred embodiments. Those of ordinary skill in the art to which the present invention pertains will be able to understand that the present invention may be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered from an illustrative point of view rather than a limiting point of view. The scope of the present invention is shown in the claims rather than the above description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.

100: 연골 분할 장치
110: 네트워크
120: 촬영장치
100: cartilage segmentation device
110: network
120: photographing device

Claims (10)

컴퓨터에 의한, 자기공명 영상에서의 골-연골 복합체를 이용한 연골 분할 방법에 있어서,
자기공명 영상인 학습용 영상데이터에서 골 라벨 및 골 영역에 인접한 소정 연골 라벨이 결합된 골-연골 복합체(Bone-Cartilage-Complex, BCC)를 구성하는 단계;
상기 학습용 영상데이터에서 골 라벨이 레이블링된 복수의 훈련 영상을 이용하여 상기 골-연골 복합체를 분할하기 위한 제1 딥러닝 분할기 및 상기 골 라벨을 분할하기 위한 제2 딥러닝 분할기를 각각 기계학습하는 단계; 및
상기 제1 딥러닝 분할기를 이용하여 입력영상에서 분할된 골-연골 복합체와 상기 제2 딥러닝 분할기를 이용하여 상기 골-연골 복합체에서 분할된 골 라벨의 차를 기초로 연골 라벨을 분할하되, 상기 입력영상은 연골 추출이 수행되는 신규 자기공명 영상인, 연골 라벨 분할단계를 포함하는, 방법.
In a method for segmenting cartilage using a bone-cartilage complex in a magnetic resonance image by a computer,
Constructing a bone-cartilage-complex (BCC) in which a bone label and a predetermined cartilage label adjacent to the bone region are combined from the learning image data, which is a magnetic resonance image;
Machine learning a first deep learning divider for segmenting the bone-cartilage complex and a second deep learning divider for segmenting the bone label using a plurality of training images labeled with a bone label from the training image data, respectively. ; And
The cartilage label is divided based on the difference between the bone-cartilage complex divided from the input image using the first deep learning divider and the bone label divided from the bone-cartilage complex using the second deep learning divider, The input image comprises a cartilage label segmentation step, which is a new magnetic resonance image in which cartilage extraction is performed.
제 1항에 있어서,
상기 골-연골 복합체는 대퇴골 및 대퇴부 연골 라벨과, 경골 및 경골연골 라벨을 포함하고, 상기 골 라벨은 상기 대퇴골 라벨 및 상기 경골 라벨을 포함하는, 방법.
The method of claim 1,
The bone-cartilage complex comprises a femur and femur cartilage label, and a tibia and tibia cartilage label, and the bone label comprises the femur label and the tibia label.
제1 항에 있어서,
상기 복수의 훈련영상은 상기 학습용 영상데이터에서 골 라벨이 레이블링되어 상기 제1 딥러닝 분할기 학습에 이용되는 제1 훈련영상과 상기 입력영상에서 골-연골 복합체가 레이블링되어 상기 제2 딥러닝 분할기 학습에 이용되는 제2 훈련영상을 포함하는, 방법.
The method of claim 1,
The plurality of training images are labeled with a bone label in the training image data, and a bone-cartilage complex is labeled in the first training image and the input image to be used for learning the first deep learning divider. A method comprising a second training image to be used.
제 1항에 있어서,
상기 기계학습하는 단계는, 상기 학습용 영상데이터에 해당하는 자기공명 영상인 3차원 영상에서, 관상, 축상, 및 시상면의 세 방향에서 각각의 이차원 영상을 분할하여 학습하고, 각각의 이차원 영상에서 추출된 세가지의 결과 라벨을 다수투표(majority voting) 방식으로 혼합하여 최종 2.5차원 분할 라벨을 추출하는 것인, 방법.
The method of claim 1,
The machine learning step includes learning by dividing each two-dimensional image in three directions of a coronal, axial, and sagittal plane from a three-dimensional image, which is a magnetic resonance image corresponding to the learning image data, and extracting from each two-dimensional image. The method of extracting a final 2.5-dimensional segmentation label by mixing the three result labels in a majority voting method.
제 1항에 있어서,
상기 연골 라벨 분할단계는, 의미 분할을 위한 다중 경로 세분화 네트워크(RefineNet) 알고리즘을 이용하여 상기 입력영상에서 상기 골 라벨과 상기 골-연골 복합체 영역을 분할하는 것인, 방법.
The method of claim 1,
The cartilage label segmentation step is to segment the bone label and the bone-cartilage complex region in the input image using a multi-path segmentation network (RefineNet) algorithm for semantic segmentation.
하나 이상의 프로세서; 및
상기 하나 이상의 프로세서에 의한 실행 시, 상기 하나 이상의 프로세서가 연산을 수행하도록 하는 명령들이 저장된 하나 이상의 메모리를 포함하고,
상기 하나 이상의 프로세서에 의해 수행되는 상기 연산은,
자기공명 영상인 학습용 영상데이터에서 골 라벨(Bone Label) 및 상기 골 영역에 인접한 소정 연골 라벨이 결합된 골-연골 복합체(Bone-Cartilage-Complex, BCC)를 구성하는 연산;
상기 학습용 영상데이터에서 골 라벨이 레이블링된 복수의 훈련 영상을 이용하여 상기 골-연골 복합체를 분할하기 위한 제1 딥러닝 분할기 및 상기 골 라벨을 분할하기 제2 딥러닝 분할기를 각각 기계학습하는 연산; 및
상기 제1 딥러닝 분할기를 이용하여 입력영상에서 분할된 골-연골 복합체와 상기 제2 딥러닝 분할기를 이용하여 상기 골-연골복합체에서 분할된 골 라벨의 차를 기초로 연골 라벨을 분할하는 연산을 포함하되, 상기 입력영상은 연골 추출이 수행되는 신규 자기공명영상인, 골-연골 복합체를 이용한 연골 분할 장치.
One or more processors; And
When executed by the at least one processor, the at least one processor includes at least one memory that stores instructions that cause the at least one processor to perform an operation,
The operation performed by the one or more processors,
An operation of constructing a bone-cartilage-complex (BCC) in which a bone label and a predetermined cartilage label adjacent to the bone region are combined from the learning image data, which is a magnetic resonance image;
Machine learning a first deep learning divider for segmenting the bone-cartilage complex and a second deep learning divider for segmenting the bone label using a plurality of training images labeled with a bone label from the training image data; And
An operation of dividing a cartilage label based on the difference between the bone-cartilage complex divided from the input image using the first deep learning divider and the bone label divided from the bone-cartilage complex using the second deep learning divider. Including, wherein the input image is a new magnetic resonance image in which cartilage extraction is performed, a cartilage segmentation apparatus using a bone-cartilage complex.
제 6항에 있어서,
상기 골-연골 복합체는 대퇴골 및 대퇴부 연골과 경골 및 경골연골 라벨을 포함하고, 상기 골 라벨은 상기 대퇴골 라벨 및 상기 경골 라벨을 포함하는, 연골 분할 장치.
The method of claim 6,
The bone-cartilage complex includes femur and femur cartilage and tibia and tibia cartilage label, and the bone label includes the femur label and the tibia label.
제 6항에 있어서,
상기 기계학습하는 연산은, 상기 학습용 영상데이터에 해당하는 자기공명영상인 3차원 영상에서, 관상, 축상, 및 시상면의 세 방향에서 각각의 이차원 영상을 분할하여 학습하고, 각각의 이차원 영상에서 추출된 세가지의 결과 라벨을 다수투표(majority voting) 방식으로 혼합하여 최종 2.5차원 분할 라벨을 추출하는 것인, 연골 분할 장치.
The method of claim 6,
The machine learning operation includes learning by dividing each two-dimensional image in three directions of a coronal, axial, and sagittal plane from a three-dimensional image, which is a magnetic resonance image corresponding to the learning image data, and extracting from each two-dimensional image. The cartilage segmentation device to extract the final 2.5-dimensional segmentation label by mixing the three result labels in a majority voting method.
컴퓨터에 의한, 자기공명 영상에서의 골-연골 복합체를 이용한 연골 분할 방법에 있어서,
골-연골 복합체를 포함하는 입력영상을 획득하는 단계; 및
상기 입력영상에서 분할된 골-연골 복합체와 상기 골-연골복합체에서 분할된 골 라벨의 차를 기초로 연골 라벨을 분할하는 단계를 포함하고,
상기 골-연골 복합체는, 복수의 훈련 영상을 이용하여 학습된 제1 딥러닝 분할기에 의하여 분할되고,
상기 골 라벨은, 복수의 훈련 영상을 이용하여 학습된 제2 딥러닝 분할기에 의하여 분할되고,
상기 복수의 훈련 영상은 자기공명 영상에서 골 라벨 및 골 영역에 인접한 소정 연골 라벨이 결합된 골-연골 복합체(Bone-Cartilage-Complex, BCC)가 레이블링 된 것인, 방법.
In a method for segmenting cartilage using a bone-cartilage complex in a magnetic resonance image by a computer,
Obtaining an input image including a bone-cartilage complex; And
Including the step of dividing a cartilage label based on a difference between the bone-cartilage complex divided in the input image and the bone label divided in the bone-cartilage complex,
The bone-cartilage complex is divided by a first deep learning divider learned using a plurality of training images,
The goal label is divided by a second deep learning divider learned using a plurality of training images,
The plurality of training images is a bone-cartilage complex (Bone-Cartilage-Complex, BCC), in which a bone label and a predetermined cartilage label adjacent to a bone region are combined in a magnetic resonance image, is labeled.
하드웨어인 컴퓨터와 결합되어, 제1항 내지 제5항 및 제9항 중 어느 한 항의 방법을 실행시키기 위하여 매체에 저장된, 자기공명 영상에서의 골-연골 복합체를 이용한 연골 분할 프로그램.A cartilage segmentation program using a bone-cartilage complex in a magnetic resonance image, which is combined with a computer as hardware and stored in a medium to execute the method of any one of claims 1 to 5 and 9.
KR1020190036764A 2019-03-29 2019-03-29 A method and apparatus for segmentation of Cartilages by using Bone-Cartilage Complex Modeling in MR images KR102236340B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190036764A KR102236340B1 (en) 2019-03-29 2019-03-29 A method and apparatus for segmentation of Cartilages by using Bone-Cartilage Complex Modeling in MR images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190036764A KR102236340B1 (en) 2019-03-29 2019-03-29 A method and apparatus for segmentation of Cartilages by using Bone-Cartilage Complex Modeling in MR images

Publications (2)

Publication Number Publication Date
KR20200114652A KR20200114652A (en) 2020-10-07
KR102236340B1 true KR102236340B1 (en) 2021-04-02

Family

ID=72883835

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190036764A KR102236340B1 (en) 2019-03-29 2019-03-29 A method and apparatus for segmentation of Cartilages by using Bone-Cartilage Complex Modeling in MR images

Country Status (1)

Country Link
KR (1) KR102236340B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090306496A1 (en) 2008-06-04 2009-12-10 The Board Of Trustees Of The Leland Stanford Junior University Automatic segmentation of articular cartilage from mri
JP2013526992A (en) 2010-06-01 2013-06-27 シナーク・インコーポレイテッド Computer-based analysis of MRI images

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101223681B1 (en) 2011-03-11 2013-01-21 한국외국어대학교 연구산학협력단 Automatic Segmentation device and method of Cartilage in Magnetic Resonance Image
KR101371942B1 (en) * 2012-06-25 2014-03-10 한양대학교 산학협력단 Hippocampus extraction method and system using a graph-cuts algorithm combined with atlas-based segmentation and morphological opening
KR101769808B1 (en) * 2015-11-19 2017-08-21 삼성전자주식회사 Cartilage segmentation apparatus and the method from knee mr images
KR102211688B1 (en) * 2018-11-30 2021-02-02 서울여자대학교 산학협력단 A method and apparatus for meniscus segmentation in Knee MR images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090306496A1 (en) 2008-06-04 2009-12-10 The Board Of Trustees Of The Leland Stanford Junior University Automatic segmentation of articular cartilage from mri
JP2013526992A (en) 2010-06-01 2013-06-27 シナーク・インコーポレイテッド Computer-based analysis of MRI images

Also Published As

Publication number Publication date
KR20200114652A (en) 2020-10-07

Similar Documents

Publication Publication Date Title
US10970829B2 (en) Synthesizing and segmenting cross-domain medical images
JP7181963B2 (en) Atlas-based segmentation using deep learning
US10842445B2 (en) System and method for unsupervised deep learning for deformable image registration
Carass et al. Comparing fully automated state-of-the-art cerebellum parcellation from magnetic resonance images
Navab et al. Medical Image Computing and Computer-Assisted Intervention–MICCAI 2015: 18th International Conference, Munich, Germany, October 5-9, 2015, Proceedings, Part III
CN109741343B (en) T1WI-fMRI image tumor collaborative segmentation method based on 3D-Unet and graph theory segmentation
KR102211688B1 (en) A method and apparatus for meniscus segmentation in Knee MR images
KR102314455B1 (en) A Method and Apparatus for Segmentation of Orbital Bone in Head and Neck CT image by Using Deep Learning and Multi-Graylevel Network
CN109636806B (en) Three-dimensional nuclear magnetic resonance pancreas image segmentation method based on multi-step learning
Jain et al. Localization of common carotid artery transverse section in B-mode ultrasound images using faster RCNN: a deep learning approach
JP2023540910A (en) Connected Machine Learning Model with Collaborative Training for Lesion Detection
JPWO2020110774A1 (en) Image processing equipment, image processing methods, and programs
CN113935943A (en) Method, device, computer equipment and storage medium for intracranial aneurysm identification detection
Agarwala et al. A-UNet: Attention 3D UNet architecture for multiclass segmentation of Brain Tumor
KR102236340B1 (en) A method and apparatus for segmentation of Cartilages by using Bone-Cartilage Complex Modeling in MR images
KR102216022B1 (en) A Method and Apparatus for Modeling Average Orbital Shape in Head and Neck CT image by Using Statistical Shape Model
Lachinov Segmentation of Thoracic Organs Using Pixel Shuffle.
CN113379770B (en) Construction method of nasopharyngeal carcinoma MR image segmentation network, image segmentation method and device
Mansour et al. Kidney segmentations using cnn models
Ghosal et al. A deep adaptive convolutional network for brain tumor segmentation from multimodal MR images
Neubert et al. Automated intervertebral disc segmentation using probabilistic shape estimation and active shape models
CN115148341B (en) AI structure sketching method and system based on body position recognition
Vi et al. Automatic Extraction of Liver Region from Medical Images by Using an MFUnet
CN115063419B (en) Extraction method of neuroimaging biomarker based on interpretable integrated 3DCNN
CN116109605B (en) Medical image tumor segmentation system, training set construction method and model training method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant