WO2023182569A1 - 인공지능 기반의 두경부 특정 조직에 대한 밀도값 판별 방법 및 장치 - Google Patents

인공지능 기반의 두경부 특정 조직에 대한 밀도값 판별 방법 및 장치 Download PDF

Info

Publication number
WO2023182569A1
WO2023182569A1 PCT/KR2022/005623 KR2022005623W WO2023182569A1 WO 2023182569 A1 WO2023182569 A1 WO 2023182569A1 KR 2022005623 W KR2022005623 W KR 2022005623W WO 2023182569 A1 WO2023182569 A1 WO 2023182569A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
voxel
images
density value
interest
Prior art date
Application number
PCT/KR2022/005623
Other languages
English (en)
French (fr)
Inventor
홍내영
팽진
Original Assignee
주식회사 쓰리디오엔에스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 쓰리디오엔에스 filed Critical 주식회사 쓰리디오엔에스
Publication of WO2023182569A1 publication Critical patent/WO2023182569A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the present invention relates to an artificial intelligence-based method and device for determining density values for specific tissues of the head and neck. Preprocessing 3D CT images for each density value section to extract multiple voxel images, and converting the extracted voxel images into an artificial intelligence model.
  • the present invention relates to an artificial intelligence-based method and device for determining density values for specific tissues of the head and neck that can determine density values for specific tissues of the head and neck by classifying images of interest by inputting them into the image of interest and then backtracking the order of voxel images based on the images of interest. .
  • DICOM data output from the equipment must be input into the system.
  • cone beam CT and general medical CT have different density distributions for each manufacturer, making analysis difficult.
  • Prior patents include Registered Patent No. 10-2033743 (deep learning-based CT image noise reduction device and method), but it only discloses a technology for noise reduction in CT images using a deep learning model.
  • the problem to be solved by the present invention is to provide an artificial intelligence-based density value determination method and device for a specific head and neck tissue that can determine the density value for a specific head and neck tissue based on artificial intelligence.
  • the method of determining the density value for a specific head and neck tissue based on artificial intelligence of the present invention includes the steps of a CT image acquisition unit acquiring CT images of the patient's head and neck from CT equipment of multiple different manufacturers, and a voxel image extraction unit. Extracting a plurality of voxel images for each density value section from the acquired CT image, merging the extracted plurality of voxel images, and the image classification unit of interest inputs the merged voxel images into the image selection model of interest to estimate the position value. It includes the step of classifying images of interest including the step.
  • the artificial intelligence-based device for determining density values for specific head and neck tissues of the present invention includes a CT image acquisition unit that acquires CT images of the patient's head and neck from CT equipment of multiple different manufacturers, and density value determination from the acquired CT images.
  • a voxel image extraction unit that extracts multiple voxel images for each value section and merges the multiple extracted voxel images, an image classification unit of interest that inputs the merged voxel images into an image of interest selection model to estimate the position value, and an estimation unit. It includes a density value determination unit that determines the density value by backtracking the order of a plurality of voxel images using the position value.
  • the density value of a specific tissue in the head and neck can be determined from CT images output from various CT equipment regardless of manufacturer.
  • CT images can be automatically classified by density value section, providing more convenient patient diagnosis and analysis.
  • Figure 1 is a flowchart illustrating a method for determining density values for specific tissues of the head and neck based on artificial intelligence according to an embodiment of the present invention.
  • Figure 2 is a configuration diagram illustrating an artificial intelligence-based density value determination device for a specific head and neck tissue according to an embodiment of the present invention.
  • Figures 3 and 4 are diagrams illustrating a method of extracting voxel images for each density value section according to an embodiment of the present invention.
  • Figure 5 is a diagram illustrating a method for classifying images of interest and determining density values according to an embodiment of the present invention.
  • Figure 6 is a conceptual diagram explaining an image of interest selection model according to an embodiment of the present invention.
  • Figure 1 is a flowchart illustrating a method for determining density values for specific tissues of the head and neck based on artificial intelligence according to an embodiment of the present invention.
  • the CT image acquisition unit of the density value determination device acquires CT images of the patient's head and neck from CT equipment of multiple different manufacturers (S101).
  • the voxel image extraction unit of the density value determination device extracts a plurality of voxel images for each density value section from the acquired CT image (S103). Since the bone density value in the acquired CT image is not known, the density value section can be set by specifying the minimum and maximum density values of the CT image data. At this time, the minimum value can be checked sequentially from the smallest density value in the CT image data to specify the part where the density value suddenly increases, and the maximum value can be checked in reverse order from the largest density value in the CT image data to determine a certain number of density values. It can be specified as a section exceeding .
  • the voxel image extraction unit of the density value determination device merges multiple extracted voxel images (S105).
  • the image-of-interest classification unit of the density value determination device estimates the position value by inputting the merged voxel image into the image-of-interest selection model (S107).
  • the image classification unit of interest can estimate the position value of a desired two-dimensional image among the component two-dimensional images in the extracted three-dimensional image.
  • the image classification unit of interest can estimate a specific numerical value (e.g., depth value) from a 3D image through a 3D CNN regression model.
  • the density value determination unit of the density value determination device determines the density value by backtracking the order of a plurality of voxel images based on the image of interest classified using the estimated position value (S107).
  • the estimated specific value is a value corresponding to the depth value and can be converted to a specific density value through a backtracking process.
  • the density value determination unit can derive the location value through an image selection model of interest and find the density value by backtracking based on this.
  • the backtracking is calculated by mapping the position value derived from the image selection model of interest to the maximum (max) and minimum (min) values of density. In other words, the backtracking formula is ((max - min) * (inferred value)) + min.
  • the present invention can find a specific body tissue density by training a model to find the density of desired tissues such as teeth and skin as well as bones.
  • Figure 2 is a configuration diagram illustrating an artificial intelligence-based density value determination device for a specific head and neck tissue according to an embodiment of the present invention.
  • the density value determination device 100 includes a CT image acquisition unit 110, a voxel image extraction unit 120, an image of interest classification unit 130, a density value determination unit 140, and a model learning unit ( 150), an output unit 160, a storage unit 170, and a control unit 180.
  • the CT image acquisition unit 110 acquires a CT image of the patient's head and neck from the CT equipment 200. Although the present invention is described using a CT image of the patient's head and neck, the imaging area of the patient is not limited to the head and neck.
  • the CT image acquisition unit 110 can acquire CT images of the patient's head and neck from CT equipment of different manufacturers.
  • the voxel image extraction unit 120 can extract a plurality of voxel images for each density value section from the acquired CT image.
  • the voxel image extraction unit 120 may preset sections for density values and perform preprocessing to extract voxel images for each set section.
  • the minimum value of the section for the density value is designated as the part where the density value suddenly increases by sequentially checking from the smallest density value in the CT image data, and the maximum value is checked in reverse order from the largest density value in the CT image data. It can be designated as a section where the density value exceeds a certain number.
  • the number of voxel images extracted from the voxel image extraction unit 120 is not limited.
  • the voxel image extraction unit 120 may sequentially assign numbers to the extracted voxel images from low-density voxel images to high-density voxel images. Extracted voxel images can be created with a quality that can be confirmed even when viewed by a human.
  • the voxel image extraction unit 120 can merge the extracted voxel images into one 3D voxel image.
  • the image of interest classification unit 130 may estimate the position value by inputting the 3D voxel image into the image of interest selection model.
  • the image-of-interest selection model is a CNN (convolutional neural network) model learned through training data in advance in the model learning unit, and is a model capable of selecting images of interest that want to be classified among multiple images.
  • the image of interest is a voxel image with the density value of most interest among a plurality of extracted voxel images.
  • the interest image selection model extracts necessary features by passing the image received as input through multiple layers consisting of a convolution layer and a Maxpooling layer, and the extracted features are divided into a fully connected layer.
  • the connected layer is designed to receive and extract feature values between 0 and 1.
  • the feature extraction module which consists of a convolutional layer and a max pooling layer, trains an optimized feature extraction process to help the fully connected layer, a numerical extraction module, determine appropriate values.
  • the fully connected layer of the numerical extraction unit which receives these optimized features as input, is finally trained to determine which numerical value to extract among the values between 0 and 1.
  • the interest image selection model can extract an appropriate value from the input image through connection between the feature extraction module and the numerical value extraction module.
  • the density value determination unit 140 may determine the density value by backtracking the order of multiple voxel images based on the image of interest classified using the estimated position value.
  • the density value determination unit 140 can determine the density value using the number assigned to the voxel image.
  • the density value determination unit can derive the location value through an image selection model of interest and find the density value by backtracking based on this.
  • the backtracking is calculated by mapping the position value derived from the image selection model of interest to the maximum (max) and minimum (min) values of density.
  • the model learning unit 150 learns the relationship between voxel images and images of interest using a CNN-based image of interest selection model.
  • the output unit 160 may output the density value determined by the density value determination unit to provide it to the user.
  • the storage unit 170 may store CT images acquired from multiple CT equipment, extracted voxel images, classified images of interest, and determined density values.
  • the control unit 180 is installed with operating software to control each configuration of the density value determination device, and includes a CT image acquisition unit, a voxel image extraction unit, an image of interest classification unit, a density value determination unit, a model learning unit, an output unit, and a storage unit. You can control it.
  • Figures 3 and 4 are diagrams illustrating a method of extracting voxel images for each density value section according to an embodiment of the present invention.
  • the CT image acquisition unit 110 may acquire a CT image from the CT equipment 200, and the voxel image extraction unit 120 may extract voxel images for each density value section.
  • the first voxel image 121 is extracted from the first section with a lower density value
  • the second voxel image 122 is extracted from the second section with a higher density value than the first section
  • the second voxel image 122 is extracted with a higher density value than the second section.
  • the third voxel image 123 may be extracted from the third section
  • the fourth voxel image 124 may be extracted from the fourth section with the highest density.
  • a three-dimensional voxel image 125 is generated by merging the first to fourth voxel images.
  • CT images output from a plurality of CT equipment (200, 200a, 200b) of different manufacturers have different density distributions, and the voxel image extraction unit 120 has different density distributions.
  • Voxel images can be extracted from CT images for each preset density value section.
  • the first voxel image 121 is extracted from the first section with a low density value
  • the second voxel image 122 is extracted from the second section with a higher density value than the first section.
  • the third voxel image 123 may be extracted from the third section with a higher density value than the second section
  • the fourth voxel image 124 may be extracted from the fourth section with the highest density.
  • a 3D voxel image 125 is created by merging multiple extracted voxel images.
  • the first voxel image 121a is extracted from the first section with a low density value
  • the second voxel image 122a is extracted from the second section with a higher density value than the first section.
  • the third voxel image 123a may be extracted from the third section with a higher density value than the second section
  • the fourth voxel image 124a may be extracted from the fourth section with the highest density.
  • a 3D voxel image 125a is generated by merging multiple extracted voxel images.
  • the first voxel image 121b is extracted from the first section with a low density value
  • the second voxel image 122b is extracted from the second section with a higher density value than the first section.
  • the third voxel image 123b may be extracted from the third section with a higher density value than the second section
  • the fourth voxel image 124b may be extracted from the fourth section with the highest density.
  • a 3D voxel image 125b is generated by merging multiple extracted voxel images.
  • the image of interest that the user wants to select in the first CT equipment 200 is the fourth voxel image 124
  • the image of interest that the user wants to select in the second CT equipment 200a is the third voxel image 123a
  • the image of interest that the user wishes to select in the third CT equipment 200b may be the second voxel image 122b.
  • voxel images can be extracted for each density value section in the voxel image extraction unit.
  • Figure 5 is a diagram illustrating a method for classifying images of interest and determining density values according to an embodiment of the present invention.
  • voxel images with a low density value are sequentially extracted from voxel images with a high density value, and a plurality of extracted voxel images are merged.
  • Create a 3D voxel image A 3D voxel image is input to the image of interest selection model of the image of interest classification unit to estimate the position value, and the density value can be determined by backtracking based on the image of interest classified through the position value estimated by the density value determination unit. .
  • the determined density value may be output from the output unit and provided to the user.
  • Figure 6 is a conceptual diagram explaining an image of interest selection model according to an embodiment of the present invention.
  • a merged 3D voxel image 610 is input to the image selection model of interest, it passes through multiple layers consisting of a convolution layer (620) and a Maxpooling layer (630). While doing this, necessary features are extracted, and the extracted features can be received by a fully connected layer (640) and extracted as a feature value (650) between 0 and 1.
  • the feature extraction module which consists of a convolutional layer 620 and a max pooling layer 630, trains an optimized feature extraction process to help the fully connected layer 640, a numerical extraction module, determine an appropriate numerical value.
  • the fully connected layer 640 of the numerical extraction module which receives these optimized features as input, is finally trained to determine which numerical value to extract among the values between 0 and 1.
  • the interest image selection model can extract an appropriate value from the input image through connection between the feature extraction module and the numerical value extraction module.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Primary Health Care (AREA)
  • Image Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pulmonology (AREA)
  • Theoretical Computer Science (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)

Abstract

본 발명은 인공지능 기반의 두경부 특정 조직에 대한 밀도값 판별 방법에 관한 것이다. 본 발명은 CT이미지 획득부가 다수개의 서로 다른 제조사의 CT장비들로부터 환자의 두경부를 촬영한 CT이미지를 획득하는 단계와, 복셀이미지추출부가 획득한 CT이미지로부터 밀도값 구간별로 다수개의 복셀이미지들을 추출하고, 추출된 다수개의 복셀이미지들을 병합하는 단계와, 관심이미지분류부가 병합된 복셀이미지를 관심이미지선별모델에 입력하여 위치값을 추정하는 단계를 포함하는 관심이미지를 분류하는 단계를 포함한다.

Description

인공지능 기반의 두경부 특정 조직에 대한 밀도값 판별 방법 및 장치
본 발명은 인공지능 기반의 두경부 특정 조직에 대한 밀도값 판별 방법 및 장치에 관한 것으로, 3차원CT이미지를 밀도값 구간별로 전처리하여 다수개의 복셀이미지들로 추출하고, 추출된 복셀이미지들을 인공지능모델에 입력하여 관심이미지를 분류한 후 관심이미지를 기준으로 복셀이미지들의 순서를 역추적함으로써 두경부 특정 조직에 대한 밀도값 판별이 가능한 인공지능 기반의 두경부 특정 조직에 대한 밀도값 판별 방법 및 장치에 관한 것이다.
환자 진단을 위한 콘빔CT(conebeam CT)나 일반적인 메디컬CT에서 출력된 데이터를 분석하기 위해 장비에서 출력된 DICOM데이터를 시스템으로 입력해야 한다. 입력된 데이터를 분석할 때에는 두경부 특정 조직의 밀도값을 알아야 분석에 필요한 정보를 찾아내기 용이한데, 콘빔CT나 일반적인 메디컬CT는 제조사마다 서로 다른 밀도 분포를 가지고 있어 분석이 어려운 문제가 있다.
선행특허로는 등록특허 제10-2033743호(딥러닝 기반 CT 이미지 잡음 저감 장치 및 방법)이 있으나, 딥러닝 모델을 이용하여 CT 이미지의 잡음 저감을 수행하는 기술을 개시하고 있을 뿐이다.
본 발명이 해결하고자 하는 과제는 인공지능 기반으로 두경부 특정 조직에 대한 밀도값 판별이 가능한 인공지능 기반의 두경부 특정 조직에 대한 밀도값 판별 방법 및 장치를 제공하는 데 있다.
본 발명의 인공지능 기반의 두경부 특정 조직에 대한 밀도값 판별 방법은, CT이미지 획득부가 다수개의 서로 다른 제조사의 CT장비들로부터 환자의 두경부를 촬영한 CT이미지를 획득하는 단계와, 복셀이미지추출부가 획득한 CT이미지로부터 밀도값 구간별로 다수개의 복셀이미지들을 추출하고, 추출된 다수개의 복셀이미지들을 병합하는 단계와, 관심이미지분류부가 병합된 복셀이미지를 관심이미지선별모델에 입력하여 위치값을 추정하는 단계를 포함하는 관심이미지를 분류하는 단계를 포함한다.
본 발명의 인공지능 기반의 두경부 특정 조직에 대한 밀도값 판별 장치는, 다수개의 서로 다른 제조사의 CT장비로부터 환자의 두경부를 촬영한 CT이미지를 획득하는 CT이미지 획득부와, 획득한 CT이미지로부터 밀도값 구간별로 다수개의 복셀이미지들을 추출하고, 추출된 다수개의 복셀이미지를 병합하는 복셀이미지추출부와, 병합된 복셀이미지를 관심이미지선별모델에 입력하여 위치값을 추정하는 관심이미지분류부와, 추정된 위치값을 이용하여 다수개의 복셀이미지의 순서를 역추적하여 밀도값을 판별하는 밀도값판별부를 포함한다.
본 발명에 의하면 제조사와 상관없이 다양한 CT장비들로부터 출력된 CT이미지에서 두경부 특정 조직의 밀도값을 판별할 수 있다.
또한, 자동으로 밀도값 구간별로 구분하여 CT이미지를 분류할 수 있어 보다 편리하게 환자 진단 및 분석을 제공할 수 있다.
도 1은 본 발명의 실시예에 따른 인공지능 기반의 두경부 특정 조직에 대한 밀도값 판별 방법을 설명하는 흐름도이다.
도 2는 본 발명의 실시예에 따른 인공지능 기반의 두경부 특정 조직에 대한 밀도값 판별 장치를 설명하는 구성도이다.
도 3과 도 4는본 발명의 실시예에 따른 밀도값 구간별 복셀이미지 추출하는 방법을 설명하는 도면이다.
도 5는 본 발명의 실시예에 따른 관심이미지를 분류하여 밀도값을 판별하는 방법을 설명하는 도면이다.
도 6은 본 발명의 실시예에 따른 관심이미지선별모델을 설명하는 개념도이다.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시 된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.
본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에서 상세하게 설명하고자 한다. 그러나 이는 본 발명의 개념에 따른 실시예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 또는 대체물을 포함한다.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로서, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 본 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 본 명세서에 첨부된 도면들을 참조하여 본 발명의 실시예들을 상세히 설명한다.
도 1은 본 발명의 실시예에 따른 인공지능 기반의 두경부 특정 조직에 대한 밀도값 판별 방법을 설명하는 흐름도이다.
도 1을 참조하면, 밀도값 판별 장치의 CT이미지획득부는 다수개의 서로 다른 제조사의 CT장비들로부터 환자의 두경부를 촬영한 CT이미지를 획득한다(S101). 밀도값 판별 장치의 복셀이미지추출부는 획득한 CT이미지로부터 밀도값 구간별로 다수개의 복셀이미지들을 추출한다(S103). 획득한 CT이미지에서 뼈의 밀도값을 모르기 때문에, CT이미지 데이터의 밀도값의 최소값과 최대값을 지정하여 밀도값 구간을 설정할 수 있다. 이때, 최소값은 CT이미지 데이터에서 가장 작은 밀도값에서부터 순차적으로 검사하여 갑자기 밀도 수치가 증가하는 부분을 지정할 수 있고, 최대값은 CT이미지 데이터에서 가장 큰 밀도 값에서 역순으로 검사하여 밀도 수치가 일정 개수를 넘는 구간으로 지정할 수 있다.
밀도값 판별 장치의 복셀이미지추출부는 추출된 다수개의 복셀이미지들을 병합한다(S105). 밀도값 판별 장치의 관심이미지분류부는 병합된 복셀이미지를 관심이미지선별모델에 입력하여 위치값을 추정한다(S107). 관심이미지분류부는 추출된 3차원이미지에서 그 구성요소인 2차원이미지들 중 원하는 2차원이미지의 위치값을 추정할 수 있다. 관심이미지분류부는 3차원이미지에서 3D CNN regression 모델을 통해 특정 수치 값(예컨대, 깊이값)을 추정할 수 있다.
밀도값 판별 장치의 밀도값판별부는 추정된 위치값을 이용하여 분류된 관심이미지를 기준으로 다수개의 복셀이미지의 순서를 역추적하여 밀도값을 판별한다(S107). 추정된 특정수치는 깊이값에 대응되는 값으로 역추적과정을 통해 특정밀도값으로 환산될 수 있다. 밀도값판별부는 관심이미지선별모델을 통해 위치 값을 도출하고, 이를 기반으로 역추적하여 밀도 값을 찾아낼 수 있다. 상기 역추적은 관심이미지선별모델이 도출한 위치 값을 밀도의 최대(max)값 및 최소(min)값에 맵핑하여 연산하는 것이다. 즉, 역추적 계산식은 ((max - min) * (추론값)) + min 이다. 본 발명은 뼈 뿐만 아니라 치아나 피부 등 원하는 조직의 밀도를 찾아내도록 모델을 학습시키면, 특정 신체 조직 밀도를 찾아낼 수 있다.
도 2는 본 발명의 실시예에 따른 인공지능 기반의 두경부 특정 조직에 대한 밀도값 판별 장치를 설명하는 구성도이다.
도 2를 참조하면, 밀도값 판별 장치(100)는 CT이미지획득부(110), 복셀이미지추출부(120), 관심이미지분류부(130), 밀도값판별부(140), 모델학습부(150), 출력부(160), 저장부(170), 제어부(180)를 포함한다.
CT이미지획득부(110)는 CT장비(200)로부터 환자의 두경부를 촬영한 CT이미지를 획득한다. 본 발명에서 환자의 두경부를 촬영한 CT이미지로 설명하고 있으나 환자의 촬영 부위를 두경부로 한정하는 것은 아니다. CT미지획득부(110)는 서로 다른 제조사의 CT장비들로부터 환자의 두경부를 촬영한 CT이미지를 획득할 수 있다.
복셀이미지추출부(120)는 획득한 CT이미지로부터 밀도값 구간별로 다수개의 복셀이미지들을 추출할 수 있다. 복셀이미지추출부(120)는 밀도값에 대한 구간을 미리 설정하고, 설정된 구간별로 복셀이미지를 추출하는 전처리를 수행할 수 있다. 이때, 밀도값에 대한 구간의 최소값은 CT이미지 데이터에서 가장 작은 밀도값에서부터 순차적으로 검사하여 갑자기 밀도 수치가 증가하는 부분으로 지정하고, 최대값은 CT이미지 데이터에서 가장 큰 밀도 값에서 역순으로 검사하여 밀도 수치가 일정 개수를 넘는 구간으로 지정할 수 있다.
복셀이미지추출부(120)에서 추출되는 복셀이미지의 갯수는 제한되지 않는다. 복셀이미지추출부(120)는 추출된 복셀이미지들을 밀도가 낮은 복셀이미지부터 밀도가 높은 복셀이미지까지 순차적으로 번호를 할당할 수 있다. 추출된 복셀이미지들은 사람이 보았을 때에도 확인이 가능할 정도의 품질로 생성될 수 있다.
복셀이미지추출부(120)는 추출된 복셀이미지들을 하나의 3차원 복셀이미지로 병합할 수 있다.
관심이미지분류부(130)는 3차원 복셀이미지를 관심이미지선별모델에 입력하여 위치값을 추정할 수 있다. 상기 관심이미지선별모델은 모델학습부에서 미리 학습데이터를 통해 학습된 CNN(convolutional neural network)모델로서 다수개의 이미지들 중에 분류를 원하는 관심이미지를 선별이 가능한 모델이다. 상기 관심이미지는 다수개의 추출된 복셀이미지 중 가장 관심있는 밀도값을 갖는 복셀이미지이다.
상기 관심이미지선별모델은 입력으로 받은 이미지를 컨볼루션 레이어(Convolution layer)와 맥스풀링 레이어(Maxpooling layer)로 이루어진 다수의 레이어를 통과하면서 필요한 특징들을 추출해내고, 추출된 특징들은 풀리 커넥티드 레이어(Fully connected layer)가 받아서 0 ~ 1 사이의 특징값으로 추출하도록 설계되어 있다. 컨볼루션 레이어와 맥스풀링 레이어로 이루어진 특징 추출모듈은 수치 추출모듈인 풀리 커넥티드 레이어가 적합한 수치를 판단하도록 돕기 위해 최적화된 특징추출 과정을 훈련하게 된다. 이렇게 최적화된 특징들을 입력으로 받은 수치추출부의 풀리 커넥티드 레이어는 최종적으로 0 ~ 1사이의 값 중 어떤 수치를 추출할 것인지를 판단하도록 훈련받게 된다. 상기 관심이미지선별모델은 상기 특징추출모듈과 상기 수치추출모듈간의 연결을 통해 입력된 이미지를 적절한 수치로 추출할 수 있게 된다.
밀도값판별부(140)는 추정된 위치값을 이용하여 분류된 관심이미지를 기준으로 다수개의 복셀이미지의 순서를 역추적하여 밀도값을 판별할 수 있다. 밀도값판별부(140)는 복셀이미지에 할당된 번호를 이용하여 밀도값을 판별할 수 있다. 밀도값판별부는 관심이미지선별모델을 통해 위치값을 도출하고, 이를 기반으로 역추적하여 밀도값을 찾아낼 수 있다. 상기 역추적은 관심이미지선별모델이 도출한 위치 값을 밀도의 최대(max)값 및 최소(min)값에 맵핑하여 연산한다.
모델학습부(150)는 CNN 기반의 관심이미지선별모델을 이용하여 복셀이미지들과 관심이미지 사이의 관계를 학습한다.
출력부(160)는 밀도값판별부에서 판별된 밀도값을 사용자에게 제공하도록 출력할 수 있다.
저장부(170)는 다수개의 CT장비로부터 획득한 CT이미지, 추출된 복셀이미지들, 분류된 관심이미지, 판별된 밀도값을 저장할 수 있다.
제어부(180)는 밀도값 판별 장치의 각 구성을 제어하기 위한 운영 소프트웨어가 설치되어 CT이미지획득부, 복셀이미지추출부, 관심이미지분류부, 밀도값판별부, 모델학습부, 출력부, 저장부를 제어할 수 있다.
도 3과 도 4는 본 발명의 실시예에 따른 밀도값 구간별 복셀이미지 추출하는 방법을 설명하는 도면이다.
도 3을 참조하면, CT장비(200)로부터 CT이미지획득부(110)가 CT이미지를 획득하고, 복셀이미지추출부(120)에서 밀도값 구간별로 복셀이미지를 추출할 수 있다. 밀도값이 낮은 제1구간에서 제1복셀이미지(121)가 추출되고, 제1구간보다 밀도값이 높은 제2구간에서 제2복셀이미지(122)가 추출되고, 제2구간보다 밀도값이 높은 제3구간에서 제3복셀이미지(123)가 추출되고, 밀도가 가장 높은 제4구간에서 제4복셀이미지(124)가 추출될 수 있다. 제1복셀이미지 내지 제4복셀이미지를 병합하여 3차원의 복셀이미지(125)를 생성한다.
도 4를 참조하면, 제조사가 서로 다른 다수개의 CT장비들(200, 200a, 200b)에서 출력된 CT이미지들은 서로 다른 밀도분포를 가지고 있고, 복셀이미지추출부(120)는 서로 다른 밀도분포를 가진 CT이미지들에서 미리 설정된 밀도값 구간별로 복셀이미지를 추출할 수 있다.
제1CT장비(200)에서 획득한 CT이미지는 밀도값이 낮은 제1구간에서 제1복셀이미지(121)가 추출되고, 제1구간보다 밀도값이 높은 제2구간에서 제2복셀이미지(122)가 추출되고, 제2구간보다 밀도값이 높은 제3구간에서 제3복셀이미지(123)가 추출되고, 밀도가 가장 높은 제4구간에서 제4복셀이미지(124)가 추출될 수 있다. 추출된 다수개의 복셀이미지들을 병합하여 3차원 복셀이미지(125)를 생성한다.
제2CT장비(200a)에서 획득한 CT이미지는 밀도값이 낮은 제1구간에서 제1복셀이미지(121a)가 추출되고, 제1구간보다 밀도값이 높은 제2구간에서 제2복셀이미지(122a)가 추출되고, 제2구간보다 밀도값이 높은 제3구간에서 제3복셀이미지(123a)가 추출되고, 밀도가 가장 높은 제4구간에서 제4복셀이미지(124a)가 추출될 수 있다. 추출된 다수개의 복셀이미지들을 병합하여 3차원 복셀이미지(125a)를 생성한다. 제3CT장비(200b)에서 획득한 CT이미지는 밀도값이 낮은 제1구간에서 제1복셀이미지(121b)가 추출되고, 제1구간보다 밀도값이 높은 제2구간에서 제2복셀이미지(122b)가 추출되고, 제2구간보다 밀도값이 높은 제3구간에서 제3복셀이미지(123b)가 추출되고, 밀도가 가장 높은 제4구간에서 제4복셀이미지(124b)가 추출될 수 있다. 추출된 다수개의 복셀이미지들을 병합하여 3차원 복셀이미지(125b)를 생성한다.
이때, 제1CT장비(200)에서 사용자가 선별하고자 하는 관심이미지는 제4복셀이미지(124)이고, 제2CT장비(200a)에서 사용자가 선별하고자 하는 관심이미지는 제3복셀이미지(123a)이고, 제3CT장비(200b)에서 사용자가 선별하고자 하는 관심이미지는 제2복셀이미지(122b)일 수 있다. 즉, 제조사가 서로 달라 밀도분포가 서로 다르더라도 복셀이미지추출부에서 밀도값 구간별로 복셀이미지들을 추출할 수 있다.
도 5는 본 발명의 실시예에 따른 관심이미지를 분류하여 밀도값을 판별하는 방법을 설명하는 도면이다.
도 5를 참조하면, 밀도값 판별 장치(100)의 복셀이미지추출부(120)에서는 밀도값이 낮은 복셀이미지부터 밀도값이 높은 복셀이미지가 순차적으로 추출되고, 추출된 다수개의 복셀이미지들이 병합되어 3차원 복셀이미지를 생성한다. 관심이미지 분류부의 관심이미지선별모델에 3차원 복셀이미지가 입력되어 위치값을 추정하고, 밀도값 판별부에서 추정된 위치값을 통해 분류된 관심이미지를 기준으로 역추적하여 밀도값을 판별할 수 있다. 판별된 밀도값은 출력부에서 출력되어 사용자에게 제공될 수 있다.
도 6은 본 발명의 실시예에 따른 관심이미지선별모델을 설명하는 개념도이다. 도 6을 참조하면, 관심이미지선별모델은 병합된 3차원 복셀이미지(610)이 입력되면, 컨볼루션 레이어(Convolution layer; 620)와 맥스풀링 레이어(Maxpooling layer; 630)로 이루어진 다수의 레이어를 통과하면서 필요한 특징들을 추출하고, 추출된 특징들은 풀리 커넥티드 레이어(Fully connected layer; 640)가 받아서 0 ~ 1 사이의 특징값(650)으로 추출할 수 있다.
컨볼루션 레이어(620)와 맥스풀링 레이어(630)로 이루어진 특징 추출모듈은 수치 추출모듈인 풀리 커넥티드 레이어(640)가 적합한 수치를 판단하도록 돕기 위해 최적화된 특징추출 과정을 훈련하게 된다. 이렇게 최적화된 특징들을 입력으로 받은 수치추출모듈의 풀리 커넥티드 레이어(640)는 최종적으로 0 ~ 1사이의 값 중 어떤 수치를 추출할 것인지를 판단하도록 훈련하게 된다. 상기 관심이미지선별모델은 상기 특징추출모듈과 상기 수치추출모듈간의 연결을 통해 입력된 이미지를 적절한 수치로 추출할 수 있다.
발명의 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.

Claims (5)

  1. 인공지능 기반의 두경부 특정 조직에 대한 밀도값 판별 방법에 있어서,
    CT이미지 획득부가 다수개의 서로 다른 제조사의 CT장비들로부터 환자의 두경부를 촬영한 CT이미지를 획득하는 단계;
    복셀이미지추출부가 획득한 CT이미지로부터 밀도값 구간별로 다수개의 복셀이미지들을 추출하고, 추출된 다수개의 복셀이미지들을 병합하는 단계; 및
    관심이미지분류부가 병합된 복셀이미지를 관심이미지선별모델에 입력하여 위치값을 추정하는 단계를 포함하는 관심이미지를 분류하는 단계를 포함하는 인공지능 기반의 두경부 특정 조직에 대한 밀도값 판별 방법.
  2. 제1항에 있어서,
    밀도값판별부가 추정된 위치값을 이용하여 다수개의 복셀이미지의 순서를 역추적하여 밀도값을 판별하는 단계를 더 포함하는 인공지능 기반의 두경부 특정 조직에 대한 밀도값 판별 방법.
  3. 제2항에 있어서,
    상기 다수개의 복셀이미지들은 낮은 밀도부터 높은 밀도까지 순서대로 출력되는 인공지능 기반의 두경부 특정 조직에 대한 밀도값 판별 방법.
  4. 제2항에 있어서,
    상기 역추적은 관심이미지선별모델이 도출한 위치 값을 밀도의 최대(max)값 및 최소(min)값에 맵핑하여 연산하는 것을 특징으로 하는 인공지능 기반의 두경부 특정 조직에 대한 밀도값 판별 방법.
  5. 인공지능 기반의 두경부 특정 조직에 대한 밀도값 판별 장치에 있어서,
    다수개의 서로 다른 제조사의 CT장비로부터 환자의 두경부를 촬영한 CT이미지를 획득하는 CT이미지 획득부;
    획득한 CT이미지로부터 밀도값 구간별로 다수개의 복셀이미지들을 추출하고, 추출된 다수개의 복셀이미지를 병합하는 복셀이미지추출부;
    병합된 복셀이미지를 관심이미지선별모델에 입력하여 위치값을 추정하는 관심이미지분류부; 및
    추정된 위치값을 이용하여 다수개의 복셀이미지의 순서를 역추적하여 밀도값을 판별하는 밀도값판별부를 포함하는 인공지능 기반의 두경부 특정 조직에 대한 밀도값 판별 장치.
PCT/KR2022/005623 2022-03-24 2022-04-19 인공지능 기반의 두경부 특정 조직에 대한 밀도값 판별 방법 및 장치 WO2023182569A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0036713 2022-03-24
KR1020220036713A KR102516949B1 (ko) 2022-03-24 2022-03-24 인공지능 기반의 두경부 특정 조직에 대한 밀도값 판별 방법 및 장치

Publications (1)

Publication Number Publication Date
WO2023182569A1 true WO2023182569A1 (ko) 2023-09-28

Family

ID=85936641

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/005623 WO2023182569A1 (ko) 2022-03-24 2022-04-19 인공지능 기반의 두경부 특정 조직에 대한 밀도값 판별 방법 및 장치

Country Status (2)

Country Link
KR (1) KR102516949B1 (ko)
WO (1) WO2023182569A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009183468A (ja) * 2008-02-06 2009-08-20 Toshiba Corp 放射線治療用線量分布測定装置および放射線治療用線量分布測定プログラム
KR20190018913A (ko) * 2017-08-16 2019-02-26 서울대학교산학협력단 골밀도 측정 시스템 및 방법
KR102248191B1 (ko) * 2019-04-19 2021-05-04 연세대학교 산학협력단 콘빔 컴퓨터 단층촬영 영상에서 콘빔아티팩트를 보정하는 방법 및 장치, 그것을 포함하는 콘빔 컴퓨터 단층촬영 장치
KR20210054925A (ko) * 2019-11-06 2021-05-14 주식회사 나노포커스레이 골밀도 산출을 위한 관심영역 추출 시스템 및 방법
KR20220014933A (ko) * 2020-07-29 2022-02-08 전남대학교산학협력단 Pmct 스캔 영상으로부터 연령 추정 방법 및 시스템

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102201643B1 (ko) * 2018-11-27 2021-01-12 주식회사 레이 콘빔 씨티를 이용한 치아 골밀도 추정방법 및 골밀도 추정장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009183468A (ja) * 2008-02-06 2009-08-20 Toshiba Corp 放射線治療用線量分布測定装置および放射線治療用線量分布測定プログラム
KR20190018913A (ko) * 2017-08-16 2019-02-26 서울대학교산학협력단 골밀도 측정 시스템 및 방법
KR102248191B1 (ko) * 2019-04-19 2021-05-04 연세대학교 산학협력단 콘빔 컴퓨터 단층촬영 영상에서 콘빔아티팩트를 보정하는 방법 및 장치, 그것을 포함하는 콘빔 컴퓨터 단층촬영 장치
KR20210054925A (ko) * 2019-11-06 2021-05-14 주식회사 나노포커스레이 골밀도 산출을 위한 관심영역 추출 시스템 및 방법
KR20220014933A (ko) * 2020-07-29 2022-02-08 전남대학교산학협력단 Pmct 스캔 영상으로부터 연령 추정 방법 및 시스템

Also Published As

Publication number Publication date
KR102516949B1 (ko) 2023-04-03

Similar Documents

Publication Publication Date Title
WO2020050635A1 (ko) 기계 학습 및 영상 처리 알고리즘을 이용하여 의료 영상의 혈관들을 자동으로 영역화하는 방법 및 시스템
CN111127441B (zh) 一种基于图节点嵌入的多模态脑影像抑郁识别方法和系统
JP6947759B2 (ja) 解剖学的対象物を自動的に検出、位置特定、及びセマンティックセグメンテーションするシステム及び方法
KR101864380B1 (ko) 수술영상데이터 학습시스템
WO2020122357A1 (ko) 의료영상 재구성 방법 및 그 장치
CN107563434B (zh) 一种基于三维卷积神经网络的脑部mri图像分类方法、装置
KR20190088375A (ko) 수술영상데이터 학습시스템
WO2021060700A1 (ko) 비디오투시 연하검사 판독 장치 및 방법
CN112419248B (zh) 基于小目标检测神经网络的耳硬化病灶检测及诊断系统
WO2021015507A2 (ko) 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 방법 및 장치
WO2021045507A2 (ko) Ct 영상 기반 부위별 대뇌 피질 수축율 예측 방법 및 장치
WO2020101264A1 (ko) 관상동맥석회화점수 산정 방법 및 장치
CN112907581A (zh) 一种基于深度学习的mri多类脊髓肿瘤分割方法
WO2022010075A1 (ko) 의료영상을 기초로 인체 조직을 분석하는 방법 및 그 장치
CN111461065A (zh) 管状结构识别方法、装置、计算机设备和可读存储介质
CN111462139A (zh) 医学图像显示方法、装置、计算机设备和可读存储介质
WO2023182569A1 (ko) 인공지능 기반의 두경부 특정 조직에 대한 밀도값 판별 방법 및 장치
CN110559007A (zh) 头颅ct平扫影像智能诊断系统及其诊断方法
CN113762285A (zh) 一种分析和处理医学影像的系统及方法
WO2020263002A1 (ko) 혈관 세그멘테이션 방법
CN112102234B (zh) 基于目标检测神经网络的耳硬化病灶检测及诊断系统
KR20190049524A (ko) 의료 영상 전송 방법 및 그에 따른 의료 영상 장치
WO2021222506A1 (en) Method and apparatus to classify structures in an image
WO2023182702A1 (ko) 디지털 병리이미지의 인공지능 진단 데이터 처리 장치 및 그 방법
WO2023008849A1 (ko) 3차원 치아 이미지 표시 장치 및 방법, 그리고 3차원 치아 이미지 표시 장치를 학습시키는 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22933742

Country of ref document: EP

Kind code of ref document: A1