KR102549694B1 - Apparatus for deep-learning based automatic pectoralis muscle segmentation and recording medium in which a program for excuting a prcess of the same is recorded - Google Patents
Apparatus for deep-learning based automatic pectoralis muscle segmentation and recording medium in which a program for excuting a prcess of the same is recorded Download PDFInfo
- Publication number
- KR102549694B1 KR102549694B1 KR1020210006189A KR20210006189A KR102549694B1 KR 102549694 B1 KR102549694 B1 KR 102549694B1 KR 1020210006189 A KR1020210006189 A KR 1020210006189A KR 20210006189 A KR20210006189 A KR 20210006189A KR 102549694 B1 KR102549694 B1 KR 102549694B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- pectoralis major
- major muscle
- artificial intelligence
- intelligence model
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5217—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/02—Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computerised tomographs
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/02—Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computerised tomographs
- A61B6/032—Transmission computed tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
흉부 CT 영상을 이용하여 딥러닝 기법을 활용하여 대흉근 영역에 대한 자동 측정을 수행하는 딥러닝 기반 자동 대흉근 측정 장치 및 그 방법을 실행하기 위한 프로그램이 기록된 기록매체가 개시된다. 본 발명의 실시예에 따른 딥러닝 기반 자동 대흉근 측정 장치는: 분류화 인공지능 모델에 의해, 대상체에 대해 획득된 제1 흉부 전산화 단층촬영(CT) 영상의 제1 관상면 영상으로부터 대흉근이 존재하는 제1 수평면 영상들을 판별하도록 구성되는 대흉근 존재 영역 판별부; 및 분할 인공지능 모델에 의해, 대흉근이 존재하는 것으로 판별된 제1 수평면 영상들에서 특징들을 추출하는 영역 분할을 통해 대흉근의 영역을 분할하도록 구성되는 대흉근 영역 분할부;를 포함한다.Disclosed are a deep learning-based automatic pectoralis major muscle measuring device that automatically measures the pectoralis major muscle region using a deep learning technique using a chest CT image, and a recording medium on which a program for executing the method is recorded. Deep learning-based automatic pectoralis major muscle measuring device according to an embodiment of the present invention: the pectoralis major muscle is present from a first coronal plane image of a first chest computed tomography (CT) image obtained for an object by a classification artificial intelligence model a pectoralis major muscle region determination unit configured to determine first horizontal plane images; and a pectoralis major region segmentation unit configured to divide a region of the pectoralis major muscle through region segmentation that extracts features from the first horizontal plane images in which the pectoralis major muscle is determined to exist by the segmentation artificial intelligence model.
Description
본 발명은 흉부 CT 영상을 이용하여 딥러닝 기법을 활용하여 대흉근 영역에 대한 자동 측정을 수행하는 기술에 관한 것이다.The present invention relates to a technique for automatically measuring the pectoralis major muscle region using a deep learning technique using a chest CT image.
대흉근(pectoralis muscle)은 어깨 관절의 움직임을 담당하는 중요한 역할을 하는 근육이다. 대흉근은 팔을 구부릴 수 있도록 도우며, 팔의 확장을 용이하게 한다. 또한, 대흉근은 강제 호흡이 필요한 경우 가슴과 갈비뼈를 들어올리는 것을 도와 공기를 들이마셔 폐가 팽창하도록 하는 등의 호흡근 역할도 한다. 따라서 대흉근의 크기와 근질은 호흡과 관련된 수치 및 질환 진행도와 필연적으로 큰 관계를 가지고 있으며, 다양한 폐질환의 진행도 및 진척도, 특히 근육 감소량과도 관계가 큰 질환인 만성 폐쇄성 폐질환(COPD; Chronic Obstructive Pulmonary Disease)과 관계가 큰 것으로 알려져 있다.The pectoralis muscle is a muscle that plays an important role in the movement of the shoulder joint. The pectoralis major muscle helps to flex the arm and facilitates arm extension. The pectoralis major also serves as a respiratory muscle, helping to lift the chest and ribs when forced breathing is necessary, inhaling air and allowing the lungs to expand. Therefore, the size and muscle quality of the pectoralis major muscle inevitably has a great relationship with the level and progression of the disease related to breathing, and the progression and progress of various lung diseases, especially chronic obstructive pulmonary disease (COPD; Chronic Obstructive Pulmonary Disease) is known to have a great relationship.
한편, 흉부 전산화 단층촬영(CT; Computed Tomography)은 흉부의 단면상의 영상을 획득하는 기술로, 흉부 진단에 이용하는 검사법으로 널리 활용되고 있다. 현재 의료계에서는 주로 CT 영상의 특정 슬라이스(slice) 위치에 해당하는 2D 단면에서의 측정 결과를 이용하여 대흉근의 크기를 측정하고 있다. 그러나, 2D 단면에서의 측정 방법은 환자의 자세나 의료진의 숙련도에 따라 환자의 대흉근의 크기가 다르게 측정되는 점에서 한계가 있다.On the other hand, chest computed tomography (CT; Computed Tomography) is a technique for acquiring cross-sectional images of the chest, and is widely used as a test method used for chest diagnosis. Currently, in the medical world, the size of the pectoralis major muscle is mainly measured using a measurement result in a 2D cross section corresponding to a specific slice position of a CT image. However, the measurement method in the 2D section has a limitation in that the size of the pectoralis major muscle of the patient is measured differently depending on the patient's posture or the skill level of the medical staff.
본 발명은 흉부 CT 영상을 이용하여 딥러닝 기법을 활용하여 대흉근 영역에 대한 자동 측정을 수행하는 딥러닝 기반 자동 대흉근 측정 장치 및 그 방법을 실행하기 위한 프로그램이 기록된 기록매체를 제공하기 위한 것이다.An object of the present invention is to provide a deep learning-based automatic pectoralis major muscle measuring device that performs automatic measurement of the pectoralis major muscle region using a deep learning technique using a chest CT image and a recording medium on which a program for executing the method is recorded.
또한, 본 발명은 환자의 자세나 의료 전문가의 임상적 판단에 따라 대흉근 측정 결과가 변화되지 않으며, 대흉근 영역에 대한 측정 정확도를 높일 수 있는 딥러닝 기반 자동 대흉근 측정 기술을 제공하기 위한 것이다.In addition, the present invention is to provide a deep learning-based automatic pectoralis major measurement technology that does not change the pectoralis major measurement result according to the patient's posture or the clinical judgment of a medical expert and can increase the measurement accuracy of the pectoralis major muscle area.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to the above-mentioned object, and other objects not mentioned will be clearly understood by those skilled in the art from the description below.
본 발명의 실시예에 따른 딥러닝 기반 자동 대흉근 측정 장치는: 분류화 인공지능 모델에 의해, 대상체에 대해 획득된 제1 흉부 전산화 단층촬영(CT) 영상의 제1 관상면 영상으로부터 대흉근이 존재하는 제1 수평면 영상들을 판별하도록 구성되는 대흉근 존재 영역 판별부; 및 분할 인공지능 모델에 의해, 대흉근이 존재하는 것으로 판별된 제1 수평면 영상들에서 특징들을 추출하는 영역 분할을 통해 대흉근의 영역을 분할하도록 구성되는 대흉근 영역 분할부;를 포함한다.Deep learning-based automatic pectoralis major muscle measuring device according to an embodiment of the present invention: the pectoralis major muscle is present from a first coronal plane image of a first chest computed tomography (CT) image obtained for an object by a classification artificial intelligence model a pectoralis major muscle region determination unit configured to determine first horizontal plane images; and a pectoralis major region segmentation unit configured to divide a region of the pectoralis major muscle through region segmentation that extracts features from the first horizontal plane images in which the pectoralis major muscle is determined to exist by the segmentation artificial intelligence model.
본 발명의 실시예에 따른 딥러닝 기반 자동 대흉근 측정 장치는: 제2 흉부 CT 영상의 제2 관상면 영상에 대흉근 존재 영역이 라벨링된 제1 학습 영상을 이용하여 상기 분류화 인공지능 모델을 학습시키도록 구성되는 분류화 인공지능 모델 학습부; 및 상기 제2 흉부 CT 영상의 제2 수평면 영상에 대흉근 영역이 라벨링된 제2 학습 영상을 이용하여 상기 분할 인공지능 모델을 학습시키도록 구성되는 분할 인공지능 모델 학습부;를 더 포함할 수 있다.The deep learning-based automatic pectoralis major muscle measuring device according to an embodiment of the present invention: trains the classification artificial intelligence model using a first learning image in which a pectoralis major muscle present region is labeled in a second coronal plane image of a second chest CT image. Classification artificial intelligence model learning unit configured to; and a segmentation artificial intelligence model learning unit configured to train the segmentation artificial intelligence model using a second training image in which the pectoralis major muscle region is labeled in a second horizontal plane image of the second chest CT image.
상기 대흉근 존재 영역 판별부는: 상기 제1 흉부 CT 영상으로부터 컬러 합성 처리된 상기 제1 관상면 영상을 획득하고, 상기 분류화 인공지능 모델 학습부에 의해 학습된 상기 분류화 인공지능 모델을 이용하여 상기 제1 관상면 영상 내 대흉근 존재 영역을 예측하여 상기 제1 흉부 CT 영상의 복수의 수평면 영상들 중 상기 제1 수평면 영상들을 추출하도록 구성될 수 있다.The pectoralis major muscle presence region determination unit: obtains the first coronal plane image processed by color synthesis from the first chest CT image, and uses the classification artificial intelligence model learned by the classification artificial intelligence model learning unit to determine the It may be configured to extract the first horizontal plane images from among the plurality of horizontal plane images of the first chest CT image by predicting the presence region of the pectoralis major muscle in the first coronal plane image.
상기 대흉근 존재 영역 판별부는: 상기 제1 흉부 CT 영상의 적층된 관상면 영상들 중에서 적층 순번을 기준으로 중간 부분에 해당하는 관상면 위치들을 확인하고; 상기 관상면 영상들 중에서 상기 관상면 위치들에 해당하는 복수의 회색조 관상면 영상들을 추출하고; 상기 복수의 회색조 관상면 영상들을 하나로 합성하여 컬러 관상면 영상을 획득하고; 상기 컬러 관상면 영상을 설정된 길이로 맞추어 상기 제1 관상면 영상을 획득하고; 그리고 상기 제1 관상면 영상으로부터 상기 분류화 인공지능 모델에 의해 상기 제1 수평면 영상들을 판별하도록 구성될 수 있다.The pectoralis major muscle presence region determination unit: identifies coronal plane positions corresponding to the middle portion based on the stacking order among the stacked coronal plane images of the first chest CT image; extracting a plurality of grayscale coronal plane images corresponding to the coronal plane locations from among the coronal plane images; synthesizing the plurality of grayscale coronal plane images into one to obtain a color coronal plane image; acquiring the first coronal plane image by matching the color coronal plane image to a set length; And it may be configured to determine the first horizontal plane images by the classification artificial intelligence model from the first coronal plane image.
상기 복수의 회색조 관상면 영상들은 상기 제2 관상면 영상들의 적층 순번을 기준으로, 3/8, 4/8 및 5/8의 관상면 위치들에 해당하는 제2 관상면 영상들을 포함할 수 있다.The plurality of grayscale coronal plane images may include second coronal plane images corresponding to 3/8, 4/8, and 5/8 coronal plane positions based on the stacking order of the second coronal plane images. .
상기 대흉근 영역 분할부는: 상기 분할 인공지능 모델 학습부에 의해 학습된 상기 분할 인공지능 모델을 이용하여 대흉근 예측 영상을 생성하고; 그리고 상기 대흉근 예측 영상에서 노이즈에 해당하는 미소 영역들을 제외하여 상기 대흉근의 영역을 분할하도록 구성될 수 있다.The pectoralis major region segmentation unit: generates a prediction image of the pectoralis major muscle using the segmentation artificial intelligence model learned by the segmentation artificial intelligence model learning unit; In addition, the pectoralis major muscle region may be segmented by excluding small regions corresponding to noise from the pectoralis major muscle prediction image.
상기 대흉근 영역 분할부는: 상기 대흉근 예측 영상을 이진화 처리하여 설정된 픽셀값을 가지는 이진화 영상을 생성하고; 상기 이진화 영상에서 인접한 픽셀들을 연결하여 그룹핑하여 상기 이진화 영상을 다수의 영역들로 분할하고; 그리고 상기 다수의 영역들의 넓이를 각각 산출하고, 넓이가 기준값 이하인 영역을 제외하여 대흉근을 측정하도록 구성될 수 있다.The pectoralis major region segmentation unit: generates a binarized image having set pixel values by binarizing the pectoralis major muscle predicted image; dividing the binary image into a plurality of regions by connecting and grouping adjacent pixels in the binary image; In addition, the area of each of the plurality of areas may be calculated, and the pectoralis major muscle may be measured by excluding areas having an area less than or equal to a reference value.
상기 분류화 인공지능 모델은 에피션트넷(EfficientNet) 모델을 기반으로 완전연결층이 추가되어 구현될 수 있다. 상기 분할 인공지능 모델은: 제1 컨볼루션 처리 및 풀링 처리를 복수의 컨트랙팅 레이어를 통해 순차적으로 반복하여 수행하도록 구성되는 컨트랙팅 패스; 제2 컨볼루션 처리 및 업 샘플링 처리를 복수의 익스펜딩 레이어를 통해 순차적으로 반복하여 수행하도록 구성되는 익스펜시브 패스; 및 상기 컨트랙팅 패스에서 추출된 제1 특징 맵을 상기 익스펜시브 패스로 전달하도록 구성되는 스킵 커넥션부;를 포함할 수 있다.The classification artificial intelligence model may be implemented by adding a fully connected layer based on the EfficientNet model. The segmentation artificial intelligence model includes: a contracting pass configured to sequentially and repeatedly perform a first convolution process and a pooling process through a plurality of contracting layers; an expansive pass configured to sequentially and repeatedly perform second convolution processing and up-sampling processing through a plurality of expanding layers; and a skip connection unit configured to transfer the first feature map extracted from the contracting path to the expansive path.
상기 익스펜시브 패스는 상기 복수의 익스펜딩 레이어에 각각 적용되는 어텐션 모듈을 포함할 수 있다. 상기 어텐션 모듈은: 상기 스킵 커넥션부에 의해 상기 컨트랙팅 패스의 컨트랙팅 레이어로부터 상기 제1 특징 맵을 전달받고; 상기 익스펜시브 패스의 제1 익스펜딩 레이어로부터 제2 특징 맵을 전달받고; 상기 제1 특징 맵과 상기 제2 특징 맵을 기반으로 제3 컨볼루션 처리, 렐루 활성화 처리, 및 시그모이드 처리를 수행하여 어텐션 맵을 생성하고; 그리고 상기 어텐션 맵을 상기 익스펜시브 패스의 제2 익스펜딩 레이어로 전달하도록 구성될 수 있다.The expansive pass may include an attention module applied to each of the plurality of expanding layers. The attention module: receives the first feature map from the contracting layer of the contracting path by the skip connection unit; receiving a second feature map from the first expending layer of the expansive pass; generating an attention map by performing third convolution processing, relu activation processing, and sigmoid processing based on the first feature map and the second feature map; And it may be configured to transfer the attention map to a second expanding layer of the expensive pass.
본 발명의 실시예에 따르면, 딥러닝 기반 자동 대흉근 측정 방법을 실행하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체가 제공된다. 상기 딥러닝 기반 자동 대흉근 측정 방법은: 분류화 인공지능 모델에 의해, 대상체에 대해 획득된 제1 흉부 전산화 단층촬영(CT) 영상의 제1 관상면 영상으로부터 대흉근이 존재하는 제1 수평면 영상들을 판별하는 단계; 및 분할 인공지능 모델에 의해, 대흉근이 존재하는 것으로 판별된 제1 수평면 영상들에서 특징들을 추출하는 영역 분할을 통해 대흉근의 영역을 분할하는 단계;를 포함한다.According to an embodiment of the present invention, a computer-readable recording medium on which a program for executing a deep learning-based automatic pectoralis major muscle measurement method is recorded is provided. The deep learning-based automatic pectoralis major muscle measurement method: discriminates first horizontal plane images in which the pectoralis major muscle is present from a first coronal plane image of a first chest computed tomography (CT) image obtained for an object by a classification artificial intelligence model; doing; and segmenting a region of the pectoralis major muscle through region segmentation of extracting features from the first horizontal plane images in which the pectoralis major muscle is determined to be present by the segmentation artificial intelligence model.
상기 딥러닝 기반 자동 대흉근 측정 방법은: 분류화 인공지능 모델 학습부에 의해, 제2 흉부 CT 영상의 제2 관상면 영상에 대흉근 존재 영역이 라벨링된 제1 학습 영상을 이용하여 상기 분류화 인공지능 모델을 학습시키는 단계; 및 분할 인공지능 모델 학습부에 의해, 상기 제2 흉부 CT 영상의 제2 수평면 영상에 대흉근 영역이 라벨링된 제2 학습 영상을 이용하여 상기 분할 인공지능 모델을 학습시키는 단계;를 더 포함할 수 있다.The deep learning-based automatic pectoralis major muscle measurement method: The classification artificial intelligence model learning unit uses a first learning image in which the pectoralis major muscle presence region is labeled in a second coronal plane image of a second chest CT image by a classification artificial intelligence model learning unit. training the model; and learning the segmentation artificial intelligence model using a second training image in which the pectoralis major muscle region is labeled in a second horizontal plane image of the second chest CT image by a segmentation artificial intelligence model learning unit. .
상기 제1 수평면 영상들을 판별하는 단계는: 상기 제1 흉부 CT 영상으로부터 컬러 합성 처리된 상기 제1 관상면 영상을 획득하고, 상기 분류화 인공지능 모델 학습부에 의해 학습된 상기 분류화 인공지능 모델을 이용하여 상기 제1 관상면 영상 내 대흉근 존재 영역을 예측하여 상기 제1 흉부 CT 영상의 복수의 수평면 영상들 중 상기 제1 수평면 영상들을 추출하는 단계를 포함할 수 있다.The step of determining the first horizontal plane images may include: obtaining the first coronal plane image subjected to color synthesis processing from the first chest CT image, and the classification artificial intelligence model learned by the classification artificial intelligence model learning unit. The method may include extracting the first horizontal plane images from among a plurality of horizontal plane images of the first chest CT image by predicting a region in which the pectoralis major muscle exists in the first coronal plane image using .
상기 제1 수평면 영상들을 판별하는 단계는: 상기 제1 흉부 CT 영상의 적층된 관상면 영상들 중에서 적층 순번을 기준으로 중간 부분에 해당하는 관상면 위치들을 확인하는 단계; 상기 관상면 영상들 중에서 상기 관상면 위치들에 해당하는 복수의 회색조 관상면 영상들을 추출하는 단계; 상기 복수의 회색조 관상면 영상들을 하나로 합성하여 컬러 관상면 영상을 획득하는 단계; 상기 컬러 관상면 영상을 설정된 길이로 맞추어 상기 제1 관상면 영상을 획득하는 단계; 및 상기 제1 관상면 영상으로부터 상기 분류화 인공지능 모델에 의해 상기 제1 수평면 영상들을 판별하는 단계를 포함할 수 있다.The determining of the first horizontal plane images may include: identifying coronal plane positions corresponding to an intermediate portion based on stacking order among the stacked coronal plane images of the first chest CT image; extracting a plurality of grayscale coronal plane images corresponding to the coronal plane locations from among the coronal plane images; obtaining a color coronal plane image by combining the plurality of grayscale coronal plane images into one; acquiring the first coronal plane image by fitting the color coronal plane image to a set length; and determining the first horizontal plane images from the first coronal plane image by the classification artificial intelligence model.
상기 대흉근의 영역을 분할하는 단계는: 상기 분할 인공지능 모델 학습부에 의해 학습된 상기 분할 인공지능 모델을 이용하여 대흉근 예측 영상을 생성하는 단계; 및 상기 대흉근 예측 영상에서 노이즈에 해당하는 미소 영역들을 제외하여 상기 대흉근의 영역을 분할하는 단계를 포함할 수 있다.The segmenting of the pectoralis major muscle region may include: generating a prediction image of the pectoralis major muscle using the segmentation artificial intelligence model learned by the segmentation artificial intelligence model learning unit; and dividing the region of the pectoralis major muscle by excluding small regions corresponding to noise from the prediction image of the pectoralis major muscle.
상기 대흉근의 영역을 분할하는 단계는: 상기 대흉근 예측 영상을 이진화 처리하여 설정된 픽셀값을 가지는 이진화 영상을 생성하는 단계; 상기 이진화 영상에서 인접한 픽셀들을 연결하여 그룹핑하여 상기 이진화 영상을 다수의 영역들로 분할하는 단계; 및 상기 다수의 영역들의 넓이를 각각 산출하고, 넓이가 기준값 이하인 영역을 제외하여 대흉근을 측정하는 단계를 포함할 수 있다.The dividing of the pectoralis major muscle region may include: generating a binarized image having set pixel values by binarizing the pectoralis major muscle prediction image; dividing the binary image into a plurality of regions by connecting and grouping adjacent pixels in the binary image; and calculating the area of each of the plurality of areas, and measuring the pectoralis major muscle by excluding areas having an area less than or equal to a reference value.
본 발명의 실시예에 의하면, 흉부 CT 영상을 이용하여 딥러닝 기법을 활용하여 대흉근 영역에 대한 자동 측정을 수행하는 딥러닝 기반 자동 대흉근 측정 장치 및 그 방법을 실행하기 위한 프로그램이 기록된 기록매체가 제공된다.According to an embodiment of the present invention, a deep learning-based automatic pectoralis major muscle measuring device for performing automatic measurement of the pectoralis major muscle area using a deep learning technique using a chest CT image and a recording medium recording a program for executing the method are Provided.
또한, 본 발명의 실시예에 의하면, 환자의 자세나 의료 전문가의 임상적 판단에 따라 대흉근 측정 결과가 변화되는 것을 방지할 수 있으며, 대흉근 영역에 대한 측정 정확도를 높일 수 있다.In addition, according to an embodiment of the present invention, it is possible to prevent changes in measurement results of the pectoralis major muscle depending on a patient's posture or a clinical judgment of a medical professional, and it is possible to increase the measurement accuracy of the pectoralis major muscle region.
도 1은 본 발명의 실시예에 따른 딥러닝 기반 자동 대흉근 측정 장치의 구성도이다.
도 2는 본 발명의 실시예에 따른 딥러닝 기반 자동 대흉근 측정 장치를 구성하는 딥러닝 기반 자동 대흉근 측정부의 구성도이다.
도 3은 본 발명의 실시예에 따른 본 발명의 실시예에 따른 딥러닝 기반 자동 대흉근 측정 장치를 구성하는 분류화 인공지능 모델의 개념도이다.
도 4는 본 발명의 실시예에 따른 본 발명의 실시예에 따른 딥러닝 기반 자동 대흉근 측정 장치를 구성하는 분할 인공지능 모델의 개념도이다.
도 5는 본 발명의 실시예에 따라 컴퓨터로 판독 가능한 기록매체에 기록된 프로그램에 의해 실행되는 딥러닝 기반 자동 대흉근 측정 방법의 순서도이다.
도 6은 도 5의 단계 S130을 나타낸 순서도이다.
도 7은 도 6의 실시예에 따라 제1 관상면 영상을 획득하는 과정을 설명하기 위한 예시도이다.
도 8은 도 6의 단계 S160을 나타낸 순서도이다.
도 9는 본 발명의 실시예에 따라 예측된 대흉근 영역의 분할 결과를 나타낸 도면이다.
도 10은 본 발명의 실시예에 따라 딥러닝 기반으로 대흉근이 존재하는 수평면 영상을 추출한 결과를 나타낸 도면이다.
도 11은 본 발명의 실시예에 따라 딥러닝 기반으로 수평면 영상에서 대흉근 영역을 분할한 결과를 나타낸 도면이다.1 is a configuration diagram of a device for automatically measuring the pectoralis major muscle based on deep learning according to an embodiment of the present invention.
2 is a configuration diagram of a deep learning-based automatic pectoralis major muscle measuring unit constituting a deep learning-based automatic pectoralis major muscle measuring device according to an embodiment of the present invention.
3 is a conceptual diagram of a classification artificial intelligence model constituting the deep learning-based automatic pectoralis major measurement device according to an embodiment of the present invention according to an embodiment of the present invention.
4 is a conceptual diagram of a segmented artificial intelligence model constituting the deep learning-based automatic pectoralis major muscle measuring device according to an embodiment of the present invention according to an embodiment of the present invention.
5 is a flowchart of a deep learning-based automatic pectoralis major muscle measuring method executed by a program recorded on a computer-readable recording medium according to an embodiment of the present invention.
6 is a flowchart illustrating step S130 of FIG. 5 .
FIG. 7 is an exemplary diagram for explaining a process of acquiring a first coronal plane image according to the embodiment of FIG. 6 .
8 is a flowchart illustrating step S160 of FIG. 6 .
9 is a diagram showing a segmentation result of a predicted pectoralis major muscle region according to an embodiment of the present invention.
10 is a diagram showing the result of extracting a horizontal plane image in which the pectoralis major muscle is present based on deep learning according to an embodiment of the present invention.
11 is a diagram showing results of segmenting a pectoralis major muscle region from a horizontal plane image based on deep learning according to an embodiment of the present invention.
본 발명의 목적 및 효과, 그리고 그것들을 달성하기 위한 기술적 구성들은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다.Objects and effects of the present invention, and technical configurations for achieving them will become clear with reference to the embodiments described later in detail in conjunction with the accompanying drawings. In describing the present invention, if it is determined that a detailed description of a known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of a user or operator.
그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.However, the present invention is not limited to the embodiments disclosed below and may be implemented in a variety of different forms. Only these embodiments are provided to complete the disclosure of the present invention and to fully inform those skilled in the art of the scope of the invention, and the present invention is defined by the scope of the claims. only become Therefore, the definition should be made based on the contents throughout this specification.
본 명세서에서 사용되는 '~부, ~모듈'은 적어도 하나의 기능이나 동작을 처리하는 단위로서, 예를 들어 소프트웨어, FPGA 또는 하드웨어 구성요소를 의미할 수 있다. '~부, ~모듈'에서 제공하는 기능은 복수의 구성요소에 의해 분리되어 수행되거나, 다른 추가적인 구성요소와 통합될 수도 있다. 본 명세서의 '~부, ~모듈'은 반드시 소프트웨어 또는 하드웨어에 한정되지 않으며, 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고, 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 이하에서는 도면을 참조하여 본 발명의 실시예에 대해서 구체적으로 설명하기로 한다.'~unit, ~module' used in this specification is a unit that processes at least one function or operation, and may mean, for example, software, FPGA, or hardware component. Functions provided by '~part, ~module' may be performed separately by a plurality of components or may be integrated with other additional components. '~unit, ~module' in this specification is not necessarily limited to software or hardware, and may be configured to be in an addressable storage medium or configured to be reproduced by one or more processors. Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
본 발명의 실시예에 따른 딥러닝 기반 자동 대흉근 측정 장치는 대상체(환자)에 대해 획득된 제1 흉부 전산화 단층촬영 영상(3D 흉부 CT 영상)의 제1 관상면 영상으로부터 대흉근(pectoralis muscle)이 존재하는 제1 수평면 영상들을 판별하는 딥러닝 기반의 분류화 인공지능 모델과, 대흉근이 존재하는 것으로 판별된 제1 수평면 영상들에서 특징들을 추출하는 영역 분할을 통해 대흉근의 영역을 분할하는 딥러닝 기반의 분할 인공지능 모델을 포함한다.In the deep learning-based automatic pectoralis major muscle measurement device according to an embodiment of the present invention, the pectoralis muscle is present from the first coronal plane image of the first chest computed tomography image (3D chest CT image) acquired for the subject (patient). A deep learning-based classification artificial intelligence model that discriminates the first horizontal plane images of the pectoralis major muscle, and a deep learning-based division of the pectoralis major muscle region through region segmentation that extracts features from the first horizontal plane images in which the pectoralis major muscle is determined to exist. It includes a segmented AI model.
본 발명의 실시예에 따른 딥러닝 기반 자동 대흉근 측정 장치는 3D 초음파 영상의 관상면(Coronal) 영상을 통해 대흉근이 존재하는 수평면(Axial) 영상들을 판별(detection)하고, 대흉근이 존재한다고 판단된 수평면 CT 영상에서 실제 대흉근의 영역을 분할(segmentation) 할 수 있다.The deep learning-based automatic pectoralis major muscle measurement device according to an embodiment of the present invention determines axial images in which the pectoralis major muscle exists through a coronal image of a 3D ultrasound image, and detects the horizontal plane in which the pectoralis major muscle is present. In the CT image, the actual pectoralis major muscle region can be segmented.
본 발명의 실시예에 따른 딥러닝 기반 자동 대흉근 측정 장치는 3D 흉부 CT 영상 중 수평면 영상만을 사용하는 것이 아니라, 3D 흉부 CT 영상의 수평면 영상과 함께 관상면 영상을 사용하여 대흉근 측정에 활용함으로써, 2D 대흉근이 아닌 3D 대흉근 영역을 측정할 수 있다.The deep learning-based automatic pectoralis major muscle measuring device according to an embodiment of the present invention does not use only the horizontal plane image of the 3D chest CT image, but uses the coronal plane image together with the horizontal plane image of the 3D chest CT image to measure the pectoralis major muscle. The 3D pectoralis major muscle area, not the pectoralis major muscle, can be measured.
또한, 본 발명의 실시예에 따른 딥러닝 기반 자동 대흉근 측정 장치는 3D CT 영상을 이용하면서도, 3D 볼륨을 직접적으로 활용하지 않고, 인공지능 모델에 의해 해당 영역에서의 특징을 추출하는 방식으로, 2.5D 환자정보를 활용하여 대흉근에 해당하는 3D 영역을 추출할 수 있다.In addition, the deep learning-based automatic pectoralis major muscle measurement device according to an embodiment of the present invention uses a 3D CT image, but does not directly utilize a 3D volume, and extracts features in a corresponding area by an artificial intelligence model. D Using the patient information, the 3D region corresponding to the pectoralis major muscle can be extracted.
상술한 바와 같은 본 발명의 실시예에 따른 딥러닝 기반 자동 대흉근 측정 장치에 의하면, 딥러닝 기반으로 학습된 다수의 인공지능 모델(분류화 인공지능 모델, 분할 인공지능 모델)을 기반으로 대흉근 영역에 대한 자동 측정을 수행할 수 있다.According to the deep learning-based automatic pectoralis major muscle measuring device according to an embodiment of the present invention as described above, the pectoralis major muscle area is measured based on a plurality of artificial intelligence models (classified artificial intelligence model, segmented artificial intelligence model) learned based on deep learning. automatic measurements can be made.
본 발명의 실시예에 따른 딥러닝 기반 자동 대흉근 측정 장치에 의하면, 환자의 자세에 따라 대흉근 측정 결과가 변화되는 것을 방지하고, 의료 전문가의 임상적 판단에 따라 대흉근 측정 결과가 좌우되는 것을 방지할 수 있으며, 대흉근 영역에 대한 측정 정확도를 높일 수 있다.According to the deep learning-based automatic pectoralis major muscle measuring device according to an embodiment of the present invention, it is possible to prevent the pectoralis major muscle measurement result from changing depending on the patient's posture and to prevent the pectoralis major muscle measurement result from being influenced by the clinical judgment of a medical expert. It is possible to increase the measurement accuracy of the pectoralis major muscle area.
도 1은 본 발명의 실시예에 따른 딥러닝 기반 자동 대흉근 측정 장치의 구성도이다. 도 1을 참조하면, 본 발명의 실시예에 따른 딥러닝 기반 자동 대흉근 측정 장치(10)는 사용자 인터페이스부(20), 입력부(30), 딥러닝 기반 자동 대흉근 측정부(40), 저장부(50), 표시부(60), 및 제어부(70)를 포함할 수 있다.1 is a configuration diagram of a device for automatically measuring the pectoralis major muscle based on deep learning according to an embodiment of the present invention. Referring to FIG. 1 , the deep learning-based automatic pectoralis major
사용자 인터페이스부(20)는 의사 등의 의료전문가가 딥러닝 기반의 자동 대흉근 측정을 위한 프로그램을 실행하기 위한 각종 명령을 입력하도록 제공될 수 있다. 사용자 인터페이스부(20)는 예를 들어, 키보드, 마우스, 터치패드, 전자펜, 음성 인식부 등의 입력 인터페이스를 포함할 수 있다.The
입력부(30)는 딥러닝 기반의 자동 대흉근 측정을 위해 필요한 각종 데이터, 예를 들어, 의료전문가가 사용자 인터페이스부(20)를 이용하여 지정한 환자의 흉부 전산화 단층촬영(CT) 영상을 입력받도록 제공될 수 있다. 입력부(30)는 흉부 CT 장치로부터 데이터를 전송받거나, 저장부(50)로부터 데이터를 입력받을 수 있다.The
딥러닝 기반 자동 대흉근 측정부(40)는 딥러닝 기반으로 학습된 다수의 인공지능 모델(분류화 인공지능 모델, 분할 인공지능 모델)을 이용하여 환자의 흉부 CT 영상으로부터 대흉근 영역이나 대흉근 크기(면적) 등을 자동으로 측정하는 프로세스를 수행할 수 있다.The deep learning-based automatic pectoralis
저장부(50)는 환자의 흉부 CT 영상, 딥러닝 기반으로 다수의 인공지능 모델(분류화 인공지능 모델, 분할 인공지능 모델)을 학습하기 위한 프로그램, 학습된 다수의 인공지능 모델을 기반으로 환자의 대흉근 영역과 대흉근 크기 등을 자동 측정하는 프로세스를 수행하는 프로그램 등을 저장할 수 있다.The
표시부(60)는 환자의 흉부 CT 영상, 흉부 CT 영상의 관상면 영상들, 시상면 영상들, 수평면 영상들, 딥러닝 기반 자동 대흉근 측정부(40)에 의해 흉부 CT 영상으로부터 예측된 대흉근 영역, 대흉근 면적 등의 정보를 의료 단말기의 디스플레이 화면을 통해 표시하도록 제공될 수 있다.The
제어부(70)는 사용자 인터페이스부(20), 입력부(30), 딥러닝 기반 자동 대흉근 측정부(40), 저장부(50), 및 표시부(60) 등의 각종 구성요소를 제어하여 인공지능 모델을 이용하여 환자의 흉부 CT 영상으로부터 대흉근 영역이나 대흉근 크기 등을 측정하는 프로세스를 수행하는 적어도 하나의 프로세서를 포함할 수 있다.The
도 2는 본 발명의 실시예에 따른 딥러닝 기반 자동 대흉근 측정 장치를 구성하는 딥러닝 기반 자동 대흉근 측정부의 구성도이다. 도 2를 참조하면, 딥러닝 기반 자동 대흉근 측정부(40)는 대흉근 존재 영역 판별부(100), 대흉근 영역 분할부(200), 분류화 인공지능 모델 학습부(300) 및 분할 인공지능 모델 학습부(400)를 포함할 수 있다.2 is a configuration diagram of a deep learning-based automatic pectoralis major muscle measuring unit constituting a deep learning-based automatic pectoralis major muscle measuring device according to an embodiment of the present invention. Referring to FIG. 2 , the deep learning-based automatic pectoralis
대흉근 존재 영역 판별부(100)는 대상체(환자)에 대해 획득된 제1 흉부 CT 영상의 제1 관상면 영상(coronal image)으로부터, 제1 흉부 CT 영상의 수평면 영상들(axial images) 중 대흉근이 존재하는 제1 수평면 영상들을 판별하는 분류화 인공지능 모델(110)을 포함할 수 있다.The pectoralis major muscle presence
대흉근 영역 분할부(200)는 제1 흉부 CT 영상의 수평면 영상들 중 대흉근이 존재하는 것으로 판별된 제1 수평면 영상들에서 특징들을 추출하는 영역 분할(segmentation)을 통해 제1 수평면 영상들에서 대흉근의 영역을 분할하는 분할 인공지능 모델(210)을 포함할 수 있다.The pectoralis major muscle
분류화 인공지능 모델 학습부(300)와, 분할 인공지능 모델 학습부(400)는 다수의 학습 영상(예를 들어, 인공지능 모델의 학습을 위한 3D 흉부 CT 영상의 다수의 관상면 영상 및 다수의 수평면 영상)을 이용하여 분류화 인공지능 모델(110)과 분할 인공지능 모델(210)을 학습시킬 수 있다.The classification artificial intelligence
분류화 인공지능 모델 학습부(300)는 제2 흉부 CT 영상의 제2 관상면 영상 내에 대흉근 존재 영역(대흉근이 존재하는 관상면 위치들)이 라벨링된 다수의 제1 학습 영상을 이용하여 대흉근이 존재하는 수평면 영상들의 분류(classification)를 위한 분류화 인공지능 모델(110)을 학습시킬 수 있다.The classification artificial intelligence
분할 인공지능 모델 학습부(400)는 제2 흉부 CT 영상의 제2 수평면 영상 내에 대흉근 영역이 라벨링된 다수의 제2 학습 영상(대흉근에 해당하는 영역과 대흉근이 아닌 영역이 구별된 수평면 영상)을 이용하여 제1 수평면 내 대흉근 영역의 분할을 위한 분할 인공지능 모델(210)을 학습시킬 수 있다.The segmentation artificial intelligence
도 3은 본 발명의 실시예에 따른 본 발명의 실시예에 따른 딥러닝 기반 자동 대흉근 측정 장치를 구성하는 분류화 인공지능 모델의 개념도이다. 분류화 인공지능 모델(110)은 에피션트넷(EfficientNet) 모델(112)을 기반으로 완전연결층(Fully Connected Layer)(114)이 추가되어 구현될 수 있다.3 is a conceptual diagram of a classification artificial intelligence model constituting a deep learning-based automatic pectoralis major muscle measuring device according to an embodiment of the present invention according to an embodiment of the present invention. The classification
실시예에서, 에피션트넷 모델은 "EfficientNet-b6" 모델을 기반으로 구현될 수 있다. 에피션트넷 모델은 알려진 바와 같이, 어댑티브에버리지풀(AdaptiveAvgPool2d), 드롭아웃(Dropout), 리니어(Linear) 프로세스를 추가적으로 동작시킬 수 있다.In an embodiment, the EfficientNet model may be implemented based on the “EfficientNet-b6” model. As is known, the adaptive net model can additionally operate AdaptiveAvgPool2d, Dropout, and Linear processes.
에피션트넷 모델에서, 어댑티브에버리지풀은 입력 값의 형태를 리니어하게 바꾸어 주는 역할을 한다. 드롭아웃은 오버피팅(overfitting)을 막기 위한 것으로, 계수를 0.5로 설정할 경우 절반의 네트워크를 생략하는 역할을 할 수 있다. 리니어 프로세스는 출력 피쳐(feature)의 수를 결정하는 역할을 한다.In the adaptive net model, the adaptive average pool plays a role in linearly changing the shape of the input value. Dropout is to prevent overfitting, and if the coefficient is set to 0.5, it can serve to omit half of the network. The linear process serves to determine the number of output features.
도 4는 본 발명의 실시예에 따른 본 발명의 실시예에 따른 딥러닝 기반 자동 대흉근 측정 장치를 구성하는 분할 인공지능 모델의 개념도이다. 분할 인공지능 모델(210)은 영상 크기를 줄여나가는 컨트랙팅 패스(220), 영상 크기를 키워나가는 익스펜시브 패스(230), 및 스킵 커넥션부(240)를 포함할 수 있다.4 is a conceptual diagram of a segmented artificial intelligence model constituting a deep learning-based automatic pectoralis major muscle measuring device according to an embodiment of the present invention. The segmentation
컨트랙팅 패스(contracting path)(220)는 제1 컨볼루션(convolution) 처리 및 풀링(pooling) 처리(예를 들어, 맥스 풀링 처리, 평균 풀링 처리 등)를 복수의 컨트랙팅 레이어(contracting layer)를 통해 순차적으로 반복하여 수행할 수 있다.The
익스펜시브 패스(expansive path)(230)는 제2 컨볼루션 처리 및 업 샘플링(up sampling) 처리를 복수의 익스펜딩 레이어(expanding layer)를 통해 순차적으로 반복하여 수행할 수 있다.The
스킵 커넥션부(skip connection unit)(240)는 컨트랙팅 패스(220)의 컨트랙팅 레이어에서 추출된 제1 특징 맵(컨볼루션 영상)을 컨트랙팅 레이어와 대응하는 익스펜시브 패스(230)의 익스펜딩 레이어로 전달할 수 있다.The
익스펜시브 패스(230)는 복수의 어텐션 모듈(attention module)(232)을 포함할 수 있다. 어텐션 모듈(232)은 익스펜시브 패스(230)의 복수의 익스펜딩 레이어에 각각 적용될 수 있다. 실시예에서, 분할 인공지능 모델(210)은 어텐션 모듈(232)이 익스펜시브 패스(230)에 추가된 유넷(U-Net) 모델로 구현될 수 있다.The
어텐션 모듈(232)은 스킵 커넥션부(240)에 의해 컨트랙팅 패스(220)의 컨트랙팅 레이어로부터 제1 특징 맵을 전달받고, 익스펜시브 패스(230)의 제1 익스펜딩 레이어로부터 제2 특징 맵을 전달받을 수 있다.The
어텐션 모듈(232)은 전달받은 제1 특징 맵과 제2 특징 맵을 기반으로 제3 컨볼루션 처리, 렐루(ReLU) 활성화 처리, 및 시그모이드(Sigmoid) 처리를 수행하여 어텐션 맵을 생성할 수 있다.The
어텐션 모듈(232)은 컨볼루션(Convolution) -> 배치 노멀라이제이션(Batch Normalization)/컨볼루션 -> 배치 노멀라이제이션 -> 렐루 활성화 함수(ReLu) -> 컨볼루션 -> 배치 노멀라이제이션 -> 시그모이드(Sigmoid) 순의 처리를 수행할 수 있다.The
또한, 유넷 모델에는 학습률을 조절하기 위한 스케듈러(scheduler)로서, 리듀스엘알온플래튜(ReduceLROnPlateau)가 적용될 수 있다. 매트릭(metric) 개선이 중지된 경우 학습 정체, 학습률 감소에 의해 이익을 얻을 수 있도록, 에폭(epoch) 수에 대한 개선이 보이지 않는 경우 학습률을 50%씩 감소시키도록 구동될 수 있다.In addition, ReduceLROnPlateau may be applied to the UNET model as a scheduler for adjusting the learning rate. It can be driven to decrease the learning rate by 50% if no improvement is seen for the number of epochs, so that learning plateaus when the metric improvement stops, benefiting from the learning rate reduction.
익스펜시브 패스(230)의 제1 익스펜딩 레이어의 어텐션 모듈(232)에 의해 생성된 어텐션 맵은 익스펜시브 패스(230)의 제1 익스펜딩 레이어에 연결된 제2 익스펜딩 레이어로 전달될 수 있다.The attention map generated by the
분할 인공지능 모델(2120)은 커스텀 손실함수(custom loss function)을 이용하여 흉부 영역에 해당하는 영상 중앙 위쪽 부분의 가중치(weight)를 증가시켜 대흉근에 해당하는 영역분할 처리를 하도록 구성될 수 있다.The segmentation artificial intelligence model 2120 may be configured to perform region segmentation processing corresponding to the pectoralis major muscle by increasing a weight of a central upper part of the image corresponding to the chest region using a custom loss function.
실시예에서, 대흉근 존재 영역 판별부(100)는 대흉근 측정의 대상체인 환자의 제1 흉부 CT 영상으로부터 컬러 합성 처리된 제1 관상면 영상을 획득할 수 있다. 환자의 제1 흉부 CT 영상으로부터 획득된 제1 관상면 영상은 분류화 인공지능 모델(110)에 입력될 수 있다.In an embodiment, the pectoralis major muscle presence
대흉근 존재 영역 판별부(100)는 분류화 인공지능 모델 학습부(300)에 의해 학습된 분류화 인공지능 모델(110)을 이용하여 제1 관상면 영상 내 대흉근 존재 영역을 예측하여 제1 흉부 CT 영상의 복수의 수평면 영상들 중 제1 수평면 영상들을 추출할 수 있다.The pectoralis major muscle
제1 흉부 CT 영상으로부터 제1 관상면 영상을 획득하기 위하여, 대흉근 존재 영역 판별부(100)는 먼저 환자에 대해 획득된 제1 흉부 CT 영상의 적층된 관상면 영상들 중에서 적층 순번을 기준으로 중간 부분에 해당하는 관상면 위치들을 확인할 수 있다.In order to acquire a first coronal plane image from the first chest CT image, the pectoralis major muscle presence
다음으로, 대흉근 존재 영역 판별부(100)는 제1 흉부 CT 영상의 관상면 영상들 중에서 관상면 위치들에 해당하는 복수의 회색조(grayscale) 관상면 영상들을 추출할 수 있다.Next, the pectoralis major muscle presence
실시예에서, 제1 흉부 CT 영상의 관상면 영상들 중에서 추출되는 복수의 회색조 관상면 영상들은 적층 순번을 기준으로, 3/8, 4/8 및 5/8의 관상면 위치들에 해당하는 3개의 관상면 영상들을 포함할 수 있다. 단, 관상면 위치들은 CT 영상 크기에 따라 다르게 설정될 수도 있다.In an embodiment, the plurality of grayscale coronal images extracted from the coronal plane images of the first chest CT image are 3 corresponding to 3/8, 4/8, and 5/8 coronal plane positions based on the stacking order. Coronal plane images of dogs may be included. However, the coronal plane positions may be set differently according to the size of the CT image.
다음으로, 대흉근 존재 영역 판별부(100)는 설정된 관상면 위치들에 해당하는 복수의 회색조 관상면 영상들(예를 들어, 3/8, 4/8 및 5/8의 관상면 위치들에 해당하는 3개의 관상면 영상들)을 이어 붙여 각각 RGB 컬러를 담당할 수 있도록 하나로 합성하여 컬러 관상면 영상을 획득할 수 있다.Next, the pectoralis major muscle presence
다음으로, 대흉근 존재 영역 판별부(100)는 컬러 관상면 영상을 설정된 길이로 맞추어 제1 관상면 영상을 획득할 수 있다. 예를 들어, 관상면 영상의 높이를 설정 길이(예를 들어, 416)으로 맞추기 위해, 관상면 영상이 설정 길이인 416 보다 길면 아래 부분을 자르고, 설정 길이인 416 보다 짧으면 가장 아래 행과 같은 배열을 아래 부분에 추가하여 설정 길이인 416으로 맞출 수 있다.Next, the pectoralis major muscle presence
대흉근 존재 영역 판별부(100)는 제1 관상면 영상으로부터 분류화 인공지능 모델(110)에 의해 제1 흉부 CT 영상의 수평면 영상들 중 대흉근이 존재하는 제1 수평면 영상들을 판별할 수 있다.The pectoralis major muscle
대흉근 영역 분할부(200)는 분할 인공지능 모델 학습부(400)에 의해 학습된 분할 인공지능 모델(210)을 이용하여 대흉근 예측 영상을 생성하고, 대흉근 예측 영상에서 노이즈에 해당하는 미소 영역들(작은 크기의 영역들)을 제외하여 대흉근의 영역을 분할할 수 있다.The pectoralis major
노이즈 제거 과정을 보다 구체적으로 설명하면, 대흉근 영역 분할부(200)는 분할 인공지능 모델 학습부(400)에서 출력되는 대흉근 예측 영상을 이진화 처리하여 설정된 픽셀값을 가지는 이진화 영상을 생성할 수 있다.To describe the noise removal process in more detail, the pectoralis major
대흉근 영역 분할부(200)는 예를 들어, 임계값(threshold)에 기반한 이진화 처리한 후, 픽셀 값이 '1'인 픽셀들만을 남김으로써, 이진화 영상을 생성할 수 있다.The pectoralis major
다음으로, 대흉근 영역 분할부(200)는 이진화 영상에서 인접한 픽셀들을 연결하여 그룹핑하여 이진화 영상을 다수의 영역들(예를 들어, 픽셀값 '1'을 가지는 영역들)로 분할할 수 있다.Next, the pectoralis major
이때, 대흉근 영역 분할부(200)는 예를 들어, 커넥티드 컴포넌트 위드 스탯(Connected Component With Stats)을 통해 인접한 픽셀들을 연결 및 그룹핑한 후 라벨링을 수행할 수 있다.At this time, the pectoralis major
다음으로, 대흉근 영역 분할부(200)는 이진화 영상에서 분할된 다수의 영역들의 넓이를 각각 산출하고, 넓이가 기준값(예를 들어, 픽셀 10개에 해당하는 기준 넓이) 이하인 영역을 제외하여 대흉근을 측정할 수 있다.Next, the pectoralis major muscle
도 5는 본 발명의 실시예에 따라 컴퓨터로 판독 가능한 기록매체에 기록된 프로그램에 의해 실행되는 딥러닝 기반 자동 대흉근 측정 방법의 순서도이다. 도 1, 도 2 및 도 5를 참조하면, 다수의 학습 영상을 획득되면, 분류화 인공지능 모델 학습부(300)와, 분할 인공지능 모델 학습부(400)는 다수의 학습 영상을 이용하여 분류화 인공지능 모델(110)과 분할 인공지능 모델(210)을 학습시킬 수 있다(S110, S120).5 is a flowchart of a method for automatically measuring the pectoralis major muscle based on deep learning executed by a program recorded on a computer-readable recording medium according to an embodiment of the present invention. Referring to FIGS. 1, 2 and 5, when a plurality of training images are acquired, the classification artificial intelligence
분류화 인공지능 모델 학습부(300)는 제2 흉부 CT 영상의 제2 관상면 영상 내에 대흉근 존재 영역이 라벨링된 다수의 제1 학습 영상을 이용하여 분류화 인공지능 모델(110)을 학습시킬 수 있다.The classification artificial intelligence
분할 인공지능 모델 학습부(400)는 제2 흉부 CT 영상의 제2 수평면 영상 내에 대흉근 영역이 라벨링된 다수의 제2 학습 영상을 이용하여 분할 인공지능 모델(210)을 학습시킬 수 있다.The segmentation artificial intelligence
대흉근 존재 영역 판별부(100)는 대상체(환자)에 대해 획득된 제1 흉부 CT 영상으로부터 제1 관상면 영상(coronal image)을 획득하고, 분류화 인공지능 모델(110)에 의해 제1 관상면 영상으로부터 제1 흉부 CT 영상의 수평면 영상들(axial images)에 대흉근이 존재하는지 여부를 판별할 수 있다(S130, S140).The pectoralis major muscle presence
대흉근 영역 분할부(200)는 분할 인공지능 모델(210)에 의해 제1 흉부 CT 영상의 수평면 영상들 중 대흉근이 존재하는 것으로 판별된 제1 수평면 영상들에서 특징들을 추출하는 영역 분할(segmentation)을 통해 3D 흉부 CT 영상의 수평면 영상에서 대흉근 예측 영상을 생성하고, 예측된 대흉근 예측 영상에서 노이즈 영역을 제외하여 대흉근 영역을 분할할 수 있다(S150, S160).The pectoralis major
도 6은 도 5의 단계 S130을 나타낸 순서도이다. 도 7은 도 6의 실시예에 따라 제1 관상면 영상을 획득하는 과정을 설명하기 위한 예시도이다. 도 1, 도 2, 도 5 내지 도 7을 참조하면, 제1 흉부 CT 영상으로부터 제1 관상면 영상을 획득하기 위하여, 대흉근 존재 영역 판별부(100)는 먼저 환자에 대해 획득된 제1 흉부 CT 영상의 적층된 관상면 영상들 중에서 적층 순번을 기준으로 중간 부분에 해당하는 관상면 위치들을 확인할 수 있다(S132).6 is a flowchart illustrating step S130 of FIG. 5 . FIG. 7 is an exemplary diagram for explaining a process of acquiring a first coronal plane image according to the embodiment of FIG. 6 . Referring to FIGS. 1, 2, and 5 to 7 , in order to acquire a first coronal plane image from a first chest CT image, the pectoralis major muscle presence
다음으로, 대흉근 존재 영역 판별부(100)는 제1 흉부 CT 영상의 관상면 영상들 중에서 관상면 위치들에 해당하는 복수의 회색조(grayscale) 관상면 영상들(11, 12, 13)을 추출할 수 있다(S134).Next, the pectoralis major muscle presence
실시예에서, 제1 흉부 CT 영상의 관상면 영상들 중에서 추출되는 복수의 회색조 관상면 영상들은 적층 순번을 기준으로, 3/8, 4/8 및 5/8의 관상면 위치들에 해당하는 3개의 관상면 영상들(11, 12, 13)을 포함할 수 있다. 관상면 위치들은 CT 영상 크기에 따라 다르게 설정될 수도 있다.In an embodiment, the plurality of grayscale coronal images extracted from the coronal plane images of the first chest CT image are 3 corresponding to 3/8, 4/8, and 5/8 coronal plane positions based on the stacking order. It may include
다음으로, 대흉근 존재 영역 판별부(100)는 설정된 관상면 위치들에 해당하는 복수의 회색조 관상면 영상들(예를 들어, 3/8, 4/8 및 5/8의 관상면 위치들에 해당하는 3개의 관상면 영상들)을 이어 붙여 각각 RGB 컬러를 담당할 수 있도록 하나로 합성하여 컬러 관상면 영상(14)을 획득할 수 있다(S136).Next, the pectoralis major muscle presence
다음으로, 대흉근 존재 영역 판별부(100)는 컬러 관상면 영상(14)을 설정된 길이로 맞추어 제1 관상면 영상(15)을 획득할 수 있다(S138). 예를 들어, 관상면 영상의 높이를 설정 길이로 맞추기 위해, 관상면 영상이 설정 길이 보다 길면 아래 부분을 자르고, 설정 길이 보다 짧으면 가장 아래 행과 같은 배열을 아래에 추가해 길이를 맞출 수 있다.Next, the pectoralis major muscle presence
이후, 대흉근 존재 영역 판별부(100)는 제1 관상면 영상으로부터 분류화 인공지능 모델(110)에 의해 제1 흉부 CT 영상의 수평면 영상들 중 대흉근이 존재하는 제1 수평면 영상들을 판별할 수 있다.Thereafter, the pectoralis major muscle
대흉근 영역 분할부(200)는 분할 인공지능 모델 학습부(400)에 의해 학습된 분할 인공지능 모델(210)을 이용하여 대흉근 예측 영상을 생성하고, 대흉근 예측 영상에서 노이즈에 해당하는 미소 영역들(작은 크기의 영역들)을 제외하여 대흉근의 영역을 분할할 수 있다.The pectoralis major
도 8은 도 6의 단계 S160을 나타낸 순서도이다. 도 9는 본 발명의 실시예에 따라 예측된 대흉근 영역의 분할 결과를 나타낸 도면이다. 도 1, 도 2, 도 6, 도 8 및 도 9를 참조하면, 대흉근 영역 분할부(200)는 분할 인공지능 모델 학습부(400)에서 출력되는 대흉근 예측 영상을 이진화 처리하여 설정된 픽셀값을 가지는 이진화 영상을 생성할 수 있다(S162).8 is a flowchart illustrating step S160 of FIG. 6 . 9 is a diagram showing a segmentation result of a predicted pectoralis major muscle region according to an embodiment of the present invention. Referring to FIGS. 1, 2, 6, 8, and 9 , the pectoralis major
대흉근 영역 분할부(200)는 예를 들어, 임계값(threshold)에 기반한 이진화 처리한 후, 픽셀 값이 '1'인 픽셀들만을 남김으로써, 이진화 영상을 생성할 수 있다.The pectoralis major
다음으로, 대흉근 영역 분할부(200)는 이진화 영상에서 인접한 픽셀들을 연결하여 그룹핑하여 이진화 영상을 다수의 영역들(예를 들어, 픽셀값 '1'을 가지는 영역들)로 분할할 수 있다(S164).Next, the pectoralis major
이때, 대흉근 영역 분할부(200)는 예를 들어, 커넥티드컴포넌트위드스탯(Connected Component With Stats)을 통해 인접한 픽셀들을 연결 및 그룹핑한 후 라벨링을 수행할 수 있다.At this time, the pectoralis major
다음으로, 대흉근 영역 분할부(200)는 이진화 영상에서 분할된 다수의 영역들의 넓이를 각각 산출하고, 넓이가 기준값(예를 들어, 픽셀 10개에 해당하는 기준 넓이) 이하인 영역을 제외하여 대흉근을 측정할 수 있다(S166).Next, the pectoralis major muscle
도 10은 본 발명의 실시예에 따라 딥러닝 기반으로 대흉근이 존재하는 수평면 영상을 추출한 결과를 나타낸 도면이다. 도 10의 (a)는 3D 흉부 CT 영상에서 추출된 제1 관상면 영상, (b)는 마스크 영역, (c)는 예측 마스크 영역, (d)는 대흉근 영역(PM)과 비-대흉근 영역(Non-PM)으로 예측된 수평면 영상 슬라이스 범위를 나타낸다.10 is a diagram showing the result of extracting a horizontal plane image in which the pectoralis major muscle is present based on deep learning according to an embodiment of the present invention. 10 (a) is a first coronal plane image extracted from a 3D chest CT image, (b) is a mask area, (c) is a predicted mask area, (d) is a pectoralis major muscle area (PM) and a non-pectoral muscle area ( Non-PM) indicates the predicted horizontal plane image slice range.
도 10의 (b)에 도시된 마스크 영역은 대흉근이 존재하는 수평면들에 해당하는 영역을 나타내며, 도 10의 (c)에 도시된 예측 마스크 영역은 분류화 인공지능 모델에 의해 분류한 수평면들에 해당하는 영역을 나타낸다. 본 발명의 실시예에 따라 딥러닝 기반의 인공지능 모델에 의해 자동 대흉근 측정을 수행하여 대흉근이 존재하는 수평면 영상 슬라이스를 판별한 결과, 약 95%의 높은 정확도를 나타내는 것으로 측정되었다.The mask area shown in (b) of FIG. 10 represents the area corresponding to the horizontal planes where the pectoralis major muscle exists, and the predicted mask area shown in (c) of FIG. 10 corresponds to the horizontal planes classified by the classification artificial intelligence model. indicates the corresponding area. According to an embodiment of the present invention, automatic pectoralis major measurement was performed by a deep learning-based artificial intelligence model to determine a horizontal plane image slice in which the pectoralis major muscle was present, and it was measured to have a high accuracy of about 95%.
도 11은 본 발명의 실시예에 따라 딥러닝 기반으로 수평면 영상에서 대흉근 영역을 분할한 결과를 나타낸 도면이다. 도 11의 (a)는 수평면 영상에서 대흉근 영역에 해당하는 마스크이고, 도 11의 (b)는 딥러닝 기반의 분할 인공지능 모델에 의해 예측된 대흉근 영역이고, (c)는 (a)의 결과와 (b)의 결과 간의 차이이다. 본 발명의 실시예에 따라 딥러닝 기반의 인공지능 모델에 의해 수평면 영상에서 대흉근 영역을 분할한 결과, 약 90%의 높은 정확도로 대흉근 영역을 예측하였다.11 is a diagram showing results of segmenting the pectoralis major muscle region from a horizontal plane image based on deep learning according to an embodiment of the present invention. Figure 11 (a) is a mask corresponding to the pectoralis major muscle area in the horizontal plane image, Figure 11 (b) is the pectoralis major muscle area predicted by the deep learning-based segmentation artificial intelligence model, (c) is the result of (a) is the difference between the result of and (b). According to an embodiment of the present invention, as a result of segmenting the pectoralis major muscle area in a horizontal plane image by a deep learning-based artificial intelligence model, the pectoralis major muscle area was predicted with a high accuracy of about 90%.
상술한 바와 같은 본 발명의 실시예에 따른 딥러닝 기반 자동 대흉근 측정 방법을 실행하기 위한 프로그램이 기록된 기록매체에 의하면, 딥러닝 기반으로 학습된 다수의 인공지능 모델(분류화 인공지능 모델, 분할 인공지능 모델)을 기반으로 대흉근 영역에 대한 자동 측정을 수행할 수 있다.According to the recording medium on which the program for executing the deep learning-based automatic pectoralis major muscle measurement method according to the embodiment of the present invention as described above is recorded, a plurality of artificial intelligence models learned based on deep learning (classification artificial intelligence model, segmentation Based on artificial intelligence model), automatic measurement of the pectoralis major muscle area can be performed.
본 발명의 실시예에 의하면, 3D 초음파 영상의 관상면(Coronal) 영상을 통해 대흉근이 존재하는 수평면(Axial) 영상들을 판별하고, 대흉근이 존재한다고 판단된 수평면 CT 영상에서 실제 대흉근의 영역을 분할할 수 있다.According to an embodiment of the present invention, it is possible to discriminate axial images in which the pectoralis major muscle exists through a coronal image of a 3D ultrasound image, and divide an actual pectoralis major muscle area in the horizontal plane CT image in which the pectoralis major muscle is determined to exist. can
또한, 본 발명의 실시예에 의하면, 3D CT 영상 중 수평면 영상만을 사용하는 것이 아니라, 수평면 영상과 함께 관상면 영상을 사용하여 대흉근 측정에 활용함으로써, 2D 대흉근이 아닌 3D 대흉근을 측정할 수 있다.In addition, according to an embodiment of the present invention, it is possible to measure the 3D pectoralis major muscle rather than the 2D pectoralis major muscle by using the coronal plane image together with the horizontal plane image to measure the pectoralis major muscle, rather than using only the horizontal plane image among the 3D CT images.
또한, 본 발명의 실시예에 의하면, 3D CT 영상을 이용하면서도, 3D 볼륨을 직접적으로 활용하지 않고, 인공지능 모델에 의해 해당 영역에서의 특징을 추출하여, 2.5D 환자정보를 활용하여 대흉근에 해당하는 3D 영역을 추출할 수 있다.In addition, according to an embodiment of the present invention, while using a 3D CT image, without directly utilizing a 3D volume, features in the corresponding area are extracted by an artificial intelligence model, and 2.5D patient information is used to detect the pectoralis major muscle. 3D regions can be extracted.
또한, 본 발명의 실시예에 의하면, 환자의 자세 변화나 의료 전문가의 임상적 판단에 따라 대흉근 측정 결과가 변화되는 것을 방지할 수 있으며, 대흉근 영역에 대한 측정 정확도를 높일 수 있다.In addition, according to an embodiment of the present invention, it is possible to prevent the pectoralis major muscle measurement result from being changed according to a patient's posture change or a medical expert's clinical judgment, and it is possible to increase the measurement accuracy of the pectoralis major muscle region.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an example of the technical idea of the present invention, and various modifications and variations can be made to those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed according to the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.
10: 딥러닝 기반 자동 대흉근 측정 장치
20: 사용자 인터페이스부
30: 입력부
40: 딥러닝 기반 자동 대흉근 측정부
50: 저장부
60: 표시부
70: 제어부
100: 대흉근 존재 영역 판별부
110: 분류화 인공지능 모델
200: 대흉근 영역 분할부
210: 분할 인공지능 모델
300: 분류화 인공지능 모델 학습부
400: 분할 인공지능 모델 학습부10: Deep learning-based automatic pectoralis major measuring device
20: user interface unit
30: input unit
40: deep learning-based automatic pectoralis major measurement unit
50: storage unit
60: display unit
70: control unit
100: Pectoralis major muscle presence area determining unit
110: Classification artificial intelligence model
200: pectoralis major area division
210: Segmented AI Model
300: classification artificial intelligence model learning unit
400: Segmented artificial intelligence model learning unit
Claims (14)
분할 인공지능 모델에 의해, 대흉근이 존재하는 것으로 판별된 제1 수평면 영상들에서 특징들을 추출하는 영역 분할을 통해 대흉근의 영역을 분할하도록 구성되는 대흉근 영역 분할부;를 포함하는, 딥러닝 기반 자동 대흉근 측정 장치.a pectoralis major muscle presence region determining unit configured to determine first horizontal plane images in which the pectoralis major muscle is present from a first coronal plane image of a first chest computed tomography (CT) image acquired of the object by a classification artificial intelligence model; and
A deep learning-based automatic pectoralis major muscle area segmentation unit configured to segment a region of the pectoralis major muscle through region segmentation that extracts features from the first horizontal plane images in which the pectoralis major muscle is determined to exist by the segmentation artificial intelligence model; measuring device.
제2 흉부 CT 영상의 제2 관상면 영상에 대흉근 존재 영역이 라벨링된 제1 학습 영상을 이용하여 상기 분류화 인공지능 모델을 학습시키도록 구성되는 분류화 인공지능 모델 학습부; 및
상기 제2 흉부 CT 영상의 제2 수평면 영상에 대흉근 영역이 라벨링된 제2 학습 영상을 이용하여 상기 분할 인공지능 모델을 학습시키도록 구성되는 분할 인공지능 모델 학습부;를 더 포함하는, 딥러닝 기반 자동 대흉근 측정 장치.According to claim 1,
a classification artificial intelligence model learning unit configured to train the classification artificial intelligence model using a first training image in which a pectoralis major muscle presence region is labeled in a second coronal image of a second chest CT image; and
Further comprising a deep learning-based segmentation artificial intelligence model learning unit configured to train the segmentation artificial intelligence model using a second training image in which the pectoralis major muscle region is labeled in a second horizontal plane image of the second chest CT image. Automatic pectoralis major measurement device.
상기 대흉근 존재 영역 판별부는:
상기 제1 흉부 CT 영상으로부터 컬러 합성 처리된 상기 제1 관상면 영상을 획득하고, 상기 분류화 인공지능 모델 학습부에 의해 학습된 상기 분류화 인공지능 모델을 이용하여 상기 제1 관상면 영상 내 대흉근 존재 영역을 예측하여 상기 제1 흉부 CT 영상의 복수의 수평면 영상들 중 상기 제1 수평면 영상들을 추출하도록 구성되는, 딥러닝 기반 자동 대흉근 측정 장치.According to claim 2,
The pectoralis major muscle presence region determination unit:
The first coronal plane image processed by color synthesis from the first chest CT image is obtained, and the pectoralis major muscle in the first coronal plane image is obtained by using the classification artificial intelligence model learned by the classification artificial intelligence model learning unit. A deep learning-based automatic pectoralis major muscle measuring device configured to predict an existing region and extract the first horizontal plane images from among a plurality of horizontal plane images of the first chest CT image.
상기 대흉근 존재 영역 판별부는:
상기 제1 흉부 CT 영상의 적층된 관상면 영상들 중에서 적층 순번을 기준으로 중간 부분에 해당하는 관상면 위치들을 확인하고;
상기 관상면 영상들 중에서 상기 관상면 위치들에 해당하는 복수의 회색조 관상면 영상들을 추출하고;
상기 복수의 회색조 관상면 영상들을 하나로 합성하여 컬러 관상면 영상을 획득하고;
상기 컬러 관상면 영상을 설정된 길이로 맞추어 상기 제1 관상면 영상을 획득하고; 그리고
상기 제1 관상면 영상으로부터 상기 분류화 인공지능 모델에 의해 상기 제1 수평면 영상들을 판별하도록 구성되는, 딥러닝 기반 자동 대흉근 측정 장치.According to claim 3,
The pectoralis major muscle presence region determination unit:
identifying coronal plane positions corresponding to the middle portion based on the stacking order among the stacked coronal plane images of the first chest CT image;
extracting a plurality of grayscale coronal plane images corresponding to the coronal plane locations from among the coronal plane images;
synthesizing the plurality of grayscale coronal plane images into one to obtain a color coronal plane image;
acquiring the first coronal plane image by matching the color coronal plane image to a set length; and
Deep learning-based automatic pectoralis major measurement device configured to determine the first horizontal plane images by the classification artificial intelligence model from the first coronal plane image.
상기 복수의 회색조 관상면 영상들은 적층 순번을 기준으로, 3/8, 4/8 및 5/8의 관상면 위치들에 해당하는 제2 관상면 영상들을 포함하는, 딥러닝 기반 자동 대흉근 측정 장치.According to claim 4,
The plurality of grayscale coronal plane images include second coronal plane images corresponding to coronal plane positions of 3/8, 4/8 and 5/8 based on the stacking order.
상기 대흉근 영역 분할부는:
상기 분할 인공지능 모델 학습부에 의해 학습된 상기 분할 인공지능 모델을 이용하여 대흉근 예측 영상을 생성하고; 그리고
상기 대흉근 예측 영상에서 노이즈에 해당하는 미소 영역들을 제외하여 상기 대흉근의 영역을 분할하도록 구성되는, 딥러닝 기반 자동 대흉근 측정 장치.According to claim 2,
The pectoralis major region division is:
generating a prediction image of the pectoralis major muscle using the segmentation artificial intelligence model learned by the segmentation artificial intelligence model learning unit; and
A deep learning-based automatic pectoralis major measuring device configured to divide the region of the pectoralis major muscle by excluding small regions corresponding to noise in the pectoralis major muscle prediction image.
상기 대흉근 영역 분할부는:
상기 대흉근 예측 영상을 이진화 처리하여 설정된 픽셀값을 가지는 이진화 영상을 생성하고;
상기 이진화 영상에서 인접한 픽셀들을 연결하여 그룹핑하여 상기 이진화 영상을 다수의 영역들로 분할하고; 그리고
상기 다수의 영역들의 넓이를 각각 산출하고, 넓이가 기준값 이하인 영역을 제외하여 대흉근을 측정하도록 구성되는, 딥러닝 기반 자동 대흉근 측정 장치.According to claim 6,
The pectoralis major region division is:
generating a binarized image having set pixel values by binarizing the predicted pectoralis major image;
dividing the binary image into a plurality of regions by connecting and grouping adjacent pixels in the binary image; and
A deep learning-based automatic pectoralis major measuring device configured to calculate the area of each of the plurality of areas and measure the pectoralis major muscle excluding areas in which the area is less than or equal to a reference value.
상기 분류화 인공지능 모델은 에피션트넷(EfficientNet) 모델을 기반으로 완전연결층이 추가되어 구현되고,
상기 분할 인공지능 모델은:
제1 컨볼루션 처리 및 풀링 처리를 복수의 컨트랙팅 레이어를 통해 순차적으로 반복하여 수행하도록 구성되는 컨트랙팅 패스;
제2 컨볼루션 처리 및 업 샘플링 처리를 복수의 익스펜딩 레이어를 통해 순차적으로 반복하여 수행하도록 구성되는 익스펜시브 패스; 및
상기 컨트랙팅 패스에서 추출된 제1 특징 맵을 상기 익스펜시브 패스로 전달하도록 구성되는 스킵 커넥션부;를 포함하고,
상기 익스펜시브 패스는 상기 복수의 익스펜딩 레이어에 각각 적용되는 어텐션 모듈을 포함하고,
상기 어텐션 모듈은:
상기 스킵 커넥션부에 의해 상기 컨트랙팅 패스의 컨트랙팅 레이어로부터 상기 제1 특징 맵을 전달받고;
상기 익스펜시브 패스의 제1 익스펜딩 레이어로부터 제2 특징 맵을 전달받고;
상기 제1 특징 맵과 상기 제2 특징 맵을 기반으로 제3 컨볼루션 처리, 렐루 활성화 처리, 및 시그모이드 처리를 수행하여 어텐션 맵을 생성하고; 그리고
상기 어텐션 맵을 상기 익스펜시브 패스의 제2 익스펜딩 레이어로 전달하도록 구성되는, 딥러닝 기반 자동 대흉근 측정 장치.According to claim 1,
The classification artificial intelligence model is implemented by adding a fully connected layer based on the EfficientNet model,
The segmented artificial intelligence model is:
A contracting pass configured to sequentially and repeatedly perform a first convolution process and a pooling process through a plurality of contracting layers;
an expansive pass configured to sequentially and repeatedly perform second convolution processing and up-sampling processing through a plurality of expanding layers; and
A skip connection unit configured to transfer the first feature map extracted from the contracting path to the expansive path;
The expansive pass includes an attention module applied to each of the plurality of expanding layers,
The Attention module:
receiving the first feature map from the contracting layer of the contracting path by the skip connection unit;
receiving a second feature map from the first expending layer of the expansive pass;
generating an attention map by performing third convolution processing, relu activation processing, and sigmoid processing based on the first feature map and the second feature map; and
Deep learning-based automatic pectoralis major measurement device configured to transfer the attention map to a second expanding layer of the expensive pass.
상기 딥러닝 기반 자동 대흉근 측정 방법은:
분류화 인공지능 모델에 의해, 대상체에 대해 획득된 제1 흉부 전산화 단층촬영(CT) 영상의 제1 관상면 영상으로부터 대흉근이 존재하는 제1 수평면 영상들을 판별하는 단계; 및
분할 인공지능 모델에 의해, 대흉근이 존재하는 것으로 판별된 제1 수평면 영상들에서 특징들을 추출하는 영역 분할을 통해 대흉근의 영역을 분할하는 단계;를 포함하는, 컴퓨터로 판독 가능한 기록 매체.A computer-readable recording medium on which a program for executing a deep learning-based automatic pectoralis major measurement method is recorded,
The deep learning-based automatic pectoralis major measurement method:
determining first horizontal plane images in which the pectoralis major muscle is present from a first coronal plane image of a first chest computed tomography (CT) image acquired of the object by a classification artificial intelligence model; and
A computer-readable recording medium comprising: segmenting a region of the pectoralis major muscle through region segmentation of extracting features from the first horizontal plane images in which the pectoralis major muscle is determined to be present by a segmentation artificial intelligence model.
상기 딥러닝 기반 자동 대흉근 측정 방법은:
분류화 인공지능 모델 학습부에 의해, 제2 흉부 CT 영상의 제2 관상면 영상에 대흉근 존재 영역이 라벨링된 제1 학습 영상을 이용하여 상기 분류화 인공지능 모델을 학습시키는 단계; 및
분할 인공지능 모델 학습부에 의해, 상기 제2 흉부 CT 영상의 제2 수평면 영상에 대흉근 영역이 라벨링된 제2 학습 영상을 이용하여 상기 분할 인공지능 모델을 학습시키는 단계;를 더 포함하는, 컴퓨터로 판독 가능한 기록 매체.According to claim 9,
The deep learning-based automatic pectoralis major measurement method:
learning the classification artificial intelligence model using a first training image in which a pectoralis major muscle region is labeled in a second coronal plane image of a second chest CT image by a classification artificial intelligence model learning unit; and
Learning the segmentation artificial intelligence model by a segmentation artificial intelligence model learning unit using a second training image in which the pectoralis major muscle region is labeled in a second horizontal plane image of the second chest CT image; A readable recording medium.
상기 제1 수평면 영상들을 판별하는 단계는:
상기 제1 흉부 CT 영상으로부터 컬러 합성 처리된 상기 제1 관상면 영상을 획득하고, 상기 분류화 인공지능 모델 학습부에 의해 학습된 상기 분류화 인공지능 모델을 이용하여 상기 제1 관상면 영상 내 대흉근 존재 영역을 예측하여 상기 제1 흉부 CT 영상의 복수의 수평면 영상들 중 상기 제1 수평면 영상들을 추출하는 단계를 포함하는, 컴퓨터로 판독 가능한 기록 매체.According to claim 10,
The step of determining the first horizontal plane images is:
The first coronal plane image processed by color synthesis from the first chest CT image is obtained, and the pectoralis major muscle in the first coronal plane image is obtained by using the classification artificial intelligence model learned by the classification artificial intelligence model learning unit. and extracting the first horizontal plane images from among a plurality of horizontal plane images of the first chest CT image by predicting an existing region.
상기 제1 수평면 영상들을 판별하는 단계는:
상기 제1 흉부 CT 영상의 적층된 관상면 영상들 중에서 적층 순번을 기준으로 중간 부분에 해당하는 관상면 위치들을 확인하는 단계;
상기 관상면 영상들 중에서 상기 관상면 위치들에 해당하는 복수의 회색조 관상면 영상들을 추출하는 단계;
상기 복수의 회색조 관상면 영상들을 하나로 합성하여 컬러 관상면 영상을 획득하는 단계;
상기 컬러 관상면 영상을 설정된 길이로 맞추어 상기 제1 관상면 영상을 획득하는 단계; 및
상기 제1 관상면 영상으로부터 상기 분류화 인공지능 모델에 의해 상기 제1 수평면 영상들을 판별하는 단계를 포함하는, 컴퓨터로 판독 가능한 기록 매체.According to claim 11,
The step of determining the first horizontal plane images is:
identifying coronal plane positions corresponding to an intermediate portion based on a stacking order among the stacked coronal plane images of the first chest CT image;
extracting a plurality of grayscale coronal plane images corresponding to the coronal plane locations from among the coronal plane images;
obtaining a color coronal plane image by combining the plurality of grayscale coronal plane images into one;
acquiring the first coronal plane image by fitting the color coronal plane image to a set length; and
and determining the first horizontal plane images from the first coronal plane image by the classification artificial intelligence model.
상기 대흉근의 영역을 분할하는 단계는:
상기 분할 인공지능 모델 학습부에 의해 학습된 상기 분할 인공지능 모델을 이용하여 대흉근 예측 영상을 생성하는 단계; 및
상기 대흉근 예측 영상에서 노이즈에 해당하는 미소 영역들을 제외하여 상기 대흉근의 영역을 분할하는 단계를 포함하는, 컴퓨터로 판독 가능한 기록 매체.According to claim 10,
The step of dividing the region of the pectoralis major muscle is:
generating a prediction image of the pectoralis major muscle using the segmentation artificial intelligence model learned by the segmentation artificial intelligence model learning unit; and
A computer-readable recording medium comprising the step of dividing the pectoralis major muscle region by excluding small regions corresponding to noise from the pectoralis major muscle prediction image.
상기 대흉근의 영역을 분할하는 단계는:
상기 대흉근 예측 영상을 이진화 처리하여 설정된 픽셀값을 가지는 이진화 영상을 생성하는 단계;
상기 이진화 영상에서 인접한 픽셀들을 연결하여 그룹핑하여 상기 이진화 영상을 다수의 영역들로 분할하는 단계; 및
상기 다수의 영역들의 넓이를 각각 산출하고, 넓이가 기준값 이하인 영역을 제외하여 대흉근을 측정하는 단계를 포함하는, 컴퓨터로 판독 가능한 기록 매체.According to claim 13,
The step of dividing the region of the pectoralis major muscle is:
generating a binarized image having set pixel values by binarizing the predicted pectoralis major image;
dividing the binary image into a plurality of regions by connecting and grouping adjacent pixels in the binary image; and
Calculating the area of each of the plurality of areas, and measuring the pectoralis major muscle excluding areas whose area is less than or equal to a reference value, computer-readable recording medium.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210006189A KR102549694B1 (en) | 2021-01-15 | 2021-01-15 | Apparatus for deep-learning based automatic pectoralis muscle segmentation and recording medium in which a program for excuting a prcess of the same is recorded |
PCT/KR2021/020284 WO2022154334A1 (en) | 2021-01-15 | 2021-12-30 | Deep learning-based automatic pectoralis major muscle measurement device, and recording medium with program for executing same method recorded thereon |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210006189A KR102549694B1 (en) | 2021-01-15 | 2021-01-15 | Apparatus for deep-learning based automatic pectoralis muscle segmentation and recording medium in which a program for excuting a prcess of the same is recorded |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220103506A KR20220103506A (en) | 2022-07-22 |
KR102549694B1 true KR102549694B1 (en) | 2023-06-29 |
Family
ID=82448310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210006189A KR102549694B1 (en) | 2021-01-15 | 2021-01-15 | Apparatus for deep-learning based automatic pectoralis muscle segmentation and recording medium in which a program for excuting a prcess of the same is recorded |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102549694B1 (en) |
WO (1) | WO2022154334A1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020048707A (en) | 2018-09-25 | 2020-04-02 | 特定非営利活動法人エキスパートイメージングアンドインターベンショナルサポート | Image processing device, image processing method and image processing program |
CN110956632A (en) | 2020-01-02 | 2020-04-03 | 广州柏视医疗科技有限公司 | Method and device for automatically detecting pectoralis major region in molybdenum target image |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101144964B1 (en) * | 2010-10-21 | 2012-05-11 | 전남대학교산학협력단 | System for Detection of Interstitial Lung Diseases and Method Therefor |
US11264135B2 (en) * | 2017-11-10 | 2022-03-01 | Siemens Medical Solutions Usa, Inc. | Machine-aided workflow in ultrasound imaging |
KR20190060606A (en) * | 2017-11-24 | 2019-06-03 | 삼성전자주식회사 | Apparatus and method for diagnosis of medical image |
KR20180020191A (en) * | 2018-02-13 | 2018-02-27 | 삼성전자주식회사 | Apparatus for detecting lesion, method for detecting lesion and lesion diagnosis apparatus |
KR101981202B1 (en) * | 2018-12-11 | 2019-05-22 | 메디컬아이피 주식회사 | Method and apparatus for reconstructing medical image |
KR102206621B1 (en) * | 2019-03-11 | 2021-01-22 | 가천대학교 산학협력단 | Programs and applications for sarcopenia analysis using deep learning algorithms |
JP7334900B2 (en) * | 2019-05-20 | 2023-08-29 | 国立研究開発法人理化学研究所 | Discriminator, learning device, method, program, trained model and storage medium |
-
2021
- 2021-01-15 KR KR1020210006189A patent/KR102549694B1/en active IP Right Grant
- 2021-12-30 WO PCT/KR2021/020284 patent/WO2022154334A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020048707A (en) | 2018-09-25 | 2020-04-02 | 特定非営利活動法人エキスパートイメージングアンドインターベンショナルサポート | Image processing device, image processing method and image processing program |
CN110956632A (en) | 2020-01-02 | 2020-04-03 | 广州柏视医疗科技有限公司 | Method and device for automatically detecting pectoralis major region in molybdenum target image |
Also Published As
Publication number | Publication date |
---|---|
KR20220103506A (en) | 2022-07-22 |
WO2022154334A1 (en) | 2022-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111557665B (en) | Dense body marker estimation from camera data for patient positioning in medical imaging | |
US20220386998A1 (en) | Automated ultrasound video interpretation of a body part with one or more convolutional neural networks | |
KR102251242B1 (en) | Apparatus and Method for Computer Aided Diagnosis | |
US8244012B2 (en) | Computer aided detection of pulmonary embolism with local characteristic features in CT angiography | |
El-Baz et al. | Computer-aided diagnosis systems for lung cancer: challenges and methodologies | |
US11216683B2 (en) | Computer aided scanning method for medical device, medical device, and readable storage medium | |
CN110796613B (en) | Automatic identification method and device for image artifacts | |
JP4999163B2 (en) | Image processing method, apparatus, and program | |
Park et al. | A multistage approach to improve performance of computer-aided detection of pulmonary embolisms depicted on CT images: Preliminary investigation | |
US20230038364A1 (en) | Method and system for automatically detecting anatomical structures in a medical image | |
JP2011526508A (en) | Segmentation of medical images | |
KR102519515B1 (en) | Information processing device, information processing method, computer program | |
CN111653356A (en) | New coronary pneumonia screening method and new coronary pneumonia screening system based on deep learning | |
US9275452B2 (en) | Method and system for automatically determining compliance of cross sectional imaging scans with a predetermined protocol | |
JP2021069793A (en) | Image processing device, image processing method and program | |
JP2023517058A (en) | Automatic detection of tumors based on image processing | |
JP6589144B2 (en) | Posture estimation method and posture estimation apparatus | |
JP2009288917A (en) | Information processor, information processing method and program | |
US9947094B2 (en) | Medical image processing device, operation method therefor, and medical image processing program | |
KR102549694B1 (en) | Apparatus for deep-learning based automatic pectoralis muscle segmentation and recording medium in which a program for excuting a prcess of the same is recorded | |
CN110246143A (en) | Lung CT image assists detection processing device | |
KR102483122B1 (en) | System and method for determining condition of fetal nervous system | |
EP3454301A1 (en) | Method for detecting and labelling coronary artery calcium | |
Menchón-Lara et al. | Measurement of Carotid Intima-Media Thickness in ultrasound images by means of an automatic segmentation process based on machine learning | |
Caban et al. | Texture-based computer-aided diagnosis system for lung fibrosis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |