KR102271614B1 - 3D anatomical landmark detection method and apparatus - Google Patents
3D anatomical landmark detection method and apparatus Download PDFInfo
- Publication number
- KR102271614B1 KR102271614B1 KR1020190154562A KR20190154562A KR102271614B1 KR 102271614 B1 KR102271614 B1 KR 102271614B1 KR 1020190154562 A KR1020190154562 A KR 1020190154562A KR 20190154562 A KR20190154562 A KR 20190154562A KR 102271614 B1 KR102271614 B1 KR 102271614B1
- Authority
- KR
- South Korea
- Prior art keywords
- reference point
- dimensional
- projection image
- image data
- point detection
- Prior art date
Links
- 238000001514 detection method Methods 0.000 title claims description 51
- 238000009877 rendering Methods 0.000 claims abstract description 32
- 238000003062 neural network model Methods 0.000 claims abstract description 27
- 210000000988 bone and bone Anatomy 0.000 claims description 26
- 238000002591 computed tomography Methods 0.000 claims description 12
- 230000002787 reinforcement Effects 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 9
- 238000012546 transfer Methods 0.000 claims description 9
- 238000007408 cone-beam computed tomography Methods 0.000 claims description 5
- 238000002595 magnetic resonance imaging Methods 0.000 claims description 3
- 210000003625 skull Anatomy 0.000 claims description 2
- 238000003325 tomography Methods 0.000 claims description 2
- 238000000034 method Methods 0.000 abstract description 25
- 238000012545 processing Methods 0.000 description 16
- 238000010801 machine learning Methods 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000010990 cephalometric method Methods 0.000 description 4
- 239000003795 chemical substances by application Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 210000001519 tissue Anatomy 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 238000012730 cephalometry Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5223—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A61B6/14—
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/51—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5217—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30016—Brain
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Physics & Mathematics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Surgery (AREA)
- Biophysics (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Quality & Reliability (AREA)
- Pulmonology (AREA)
- Computer Graphics (AREA)
- Physiology (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 3차원 기준점 검출 방법 및 장치에 관한 것으로, 본 발명에 따른 방법은 3차원 영상 데이터에 볼륨 렌더링을 수행하여 2차원 투영 이미지를 생성하는 단계, 학습된 신경망 모델을 이용하여, 2차원 투영 이미지에서 기준점에 대응하는 특징점을 검출하는 단계, 3차원 영상 데이터에서, 특징점과 2차원 좌표값이 동일한 복셀들의 복셀값들을 추출하는 단계, 특징점을 지나고 2차원 투영 이미지에 수직인 축 방향에 대해 추출된 복셀값들의 그래디언트값들을 구하는 단계, 그리고 복셀값들과 그래디언트값들이 미리 정해진 조건을 만족하는 축 상의 위치를 기준점의 위치로 검출하는 단계를 포함한다.The present invention relates to a method and apparatus for detecting a three-dimensional reference point, the method according to the present invention comprises the steps of performing volume rendering on three-dimensional image data to generate a two-dimensional projection image, and using a learned neural network model, two-dimensional projection Detecting a feature point corresponding to a reference point from an image, extracting voxel values of voxels having the same two-dimensional coordinate value as the feature point from 3D image data, extracting with respect to an axial direction passing through the feature point and perpendicular to the two-dimensional projection image obtaining gradient values of the obtained voxel values, and detecting, as a position of a reference point, a position on an axis at which the voxel values and the gradient values satisfy a predetermined condition.
Description
본 발명은 3차원 해부학적 기준점 검출 방법 및 장치에 관한 것으로, 보다 자세하게는 3차원 영상 데이터 처리의 복잡성을 극복하고 3차원 해부학적 기준점을 정확하게 검출할 수 있는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for detecting a 3D anatomical reference point, and more particularly, to a method and apparatus capable of overcoming the complexity of processing 3D image data and accurately detecting a 3D anatomical reference point.
X-ray 이미지 기반 두부 계측 분석법(Cephalometry)은 브로드벤트(Broadbent)에 의해 소개된 이후, 교정 진단 및 치료계획수립을 위해 널리 사용되고 있으며, 현재에 이르러 치과 치료에 필수 요소가 되었다. 두개악안면 구조 분석에서 전후방적 관계를 이용한 두부 계측 분석연구가 주를 이루면서 2차원 정면과 측면의 X-ray 영상을 이용한 두부 계측 분석이 주로 이루어졌다. X-ray 이미지를 이용한 두부 계측 분석은 해부학적 기준점(Landmark)을 찾는 과정이 필요하다. 기준점을 찾는 일은 고도의 숙련된 전문의가 필요하지만, 시간 집약적이면서 반복적인 작업이 대부분이다. 이를 극복하기 위하여 영상처리기반의 자동화나 반자동화 알고리즘이 제안되었다.Since X-ray image-based cephalometry was introduced by Broadbent, it has been widely used for orthodontic diagnosis and treatment planning, and has now become an essential element in dental treatment. In the craniomaxillofacial structure analysis, head measurement analysis using an anterior-posterior relationship was mainly conducted, and head measurement analysis using two-dimensional frontal and lateral X-ray images was mainly performed. Head measurement analysis using X-ray images requires a process of finding anatomical landmarks. Finding a reference point requires a highly skilled specialist, but most of it is a time-intensive and repetitive task. To overcome this, an image processing-based automation or semi-automation algorithm has been proposed.
최근에는 3차원 전산화 단층촬영(Computed Tomography, CT)을 이용한 두부 계측 분석으로 빠르게 변하고 있다. 전산화 단층촬영을 통한 3차원의 볼륨 영상은 복잡한 해부학적 구조물의 내부를 원하는 방향으로 관찰할 수 있다. 또한, 영상의 왜곡, 확대와 중첩 없이 중요 부위를 자세히 관찰할 수 있다. 또한, 고대조도 공간분해능(high contrast spatial resolution)을 통한 물리적 밀도차이가 작은 조직 간의 구별이 가능하게 되면서 매우 유용한 진단 자료로 이용되고 있다. 2차원 두부 계측 분석과 마찬가지로 3차원 두부 계측 분석 역시 기준점(landmark)을 찾는 것이 필수적이다.Recently, it is rapidly changing to head measurement analysis using 3D computed tomography (CT). The three-dimensional volume image through computed tomography can observe the interior of complex anatomical structures in a desired direction. In addition, important parts can be observed in detail without distortion, magnification and overlap of the image. In addition, it is being used as a very useful diagnostic data as it is possible to distinguish between tissues with a small difference in physical density through high contrast spatial resolution. Like the 2D cephalometric analysis, it is essential to find a landmark in the 3D cephalometric analysis.
그러나 2차원 두부 계측 분석과 달리, 3차원 공간상에서의 기준점은 기하학적인 복잡도와 다루는 점의 개수가 증가하기 때문에, 작업의 복잡도가 높아지게 된다.However, unlike the 2D cephalometric analysis, since the geometrical complexity of the reference point in the 3D space and the number of points to be handled increases, the complexity of the operation increases.
최근의 딥러닝(Deep-Learning) 기반의 영상처리 알고리즘은 영상에서 유의미한 정보를 추출 또는 분류해 낼 수 있는 비선형 필터를 데이터 기반의 학습을 통하여 만드는 것으로 볼 수 있다. 데이터의 특징에 따라 적합한 비선형의 필터를 학습을 통해 만들기 때문에 이전의 모델 기반의 영상처리 알고리즘보다 높은 성능을 보이며, 그 영역이 의료영상분야로 확대되고 있다. Recent deep-learning-based image processing algorithms can be viewed as creating nonlinear filters that can extract or classify meaningful information from images through data-based learning. Because it creates a suitable nonlinear filter through learning according to the characteristics of the data, it shows higher performance than the previous model-based image processing algorithm, and the field is expanding to the medical imaging field.
그런데 3차원 데이터를 처리하는 딥러닝 기반 모델은 매개변수, 컴퓨팅 자원 및 계산 복잡도가 증가하는 어려움이 있다. 이러한 한계를 극복하기 위하여 데이터 리샘플링을 수행하고 3차원 콘볼루션 신경망(Convolutional Neural Network, CNN) 모델을 이용한 두부 계측점 국부화 방법이 제안되고 있으나 3차원 상에서의 국부화의 오차가 임상에서 사용하기에는 적합하지 않은 성능을 보이고 있다.However, deep learning-based models that process 3D data have difficulties in increasing parameters, computing resources, and computational complexity. To overcome this limitation, data resampling and a method of localizing the head measurement points using a three-dimensional convolutional neural network (CNN) model have been proposed, but the error of localization in three dimensions is not suitable for clinical use. shows non-performing performance.
따라서 본 발명이 해결하고자 하는 기술적 과제는 3차원 영상 데이터에서 3차원 기준점을 검출할 수 있는 방법 및 장치를 제공하는 것이다.Accordingly, the technical problem to be solved by the present invention is to provide a method and an apparatus capable of detecting a 3D reference point from 3D image data.
상기한 기술적 과제를 해결하기 위한 본 발명에 따른 3차원 기준점 검출 방법은, 3차원 영상 데이터에 볼륨 렌더링(Volume Rendering)을 수행하여 2차원 투영 이미지를 생성하는 단계, 학습된 신경망 모델을 이용하여, 상기 2차원 투영 이미지에서 기준점에 대응하는 특징점(Feature Point)을 검출하는 단계, 상기 3차원 영상 데이터에서, 상기 특징점과 2차원 좌표값이 동일한 복셀들의 복셀값들을 추출하는 단계, 상기 특징점을 지나고 상기 2차원 투영 이미지에 수직인 축 방향에 대한 상기 추출된 복셀값들의 그래디언트값들을 구하는 단계, 그리고 상기 복셀값들과 상기 그래디언트값들이 미리 정해진 조건을 만족하는 상기 축 상의 위치를 상기 기준점의 위치로 검출하는 단계를 포함한다.The three-dimensional reference point detection method according to the present invention for solving the above technical problem includes the steps of performing volume rendering on three-dimensional image data to generate a two-dimensional projection image, using a learned neural network model, detecting a feature point corresponding to a reference point in the two-dimensional projection image; extracting voxel values of voxels having the same two-dimensional coordinate value as the feature point from the three-dimensional image data; obtaining gradient values of the extracted voxel values in an axial direction perpendicular to the two-dimensional projection image, and detecting a position on the axis at which the voxel values and the gradient values satisfy a predetermined condition as the position of the reference point including the steps of
뼈를 가시화하기 위한 전달함수(Transfer Function)를 통해 상기 3차원 영상 데이터에 대한 볼륨 렌더링을 수행하여 상기 2차원 투영 이미지를 생성할 수 있다.The 2D projection image may be generated by performing volume rendering on the 3D image data through a transfer function for visualizing the bone.
상기 2차원 투영 이미지를 생성하는 단계는, 상기 3차원 영상 데이터에서 기준면을 기준으로 관심 영역의 반대 방향에 위치한 복셀들의 복셀값을 투명 처리가 되는 값으로 지정하는 전처리 단계, 그리고 상기 전처리된 3차원 영상 데이터에 대한 볼륨 렌더링을 수행하여 상기 2차원 투영 이미지를 생성하는 단계를 포함할 수 있다.The generating of the 2D projection image may include a preprocessing step of designating voxel values of voxels located in a direction opposite to the ROI with respect to a reference plane in the 3D image data as transparent values, and the preprocessed 3D image data. The method may include generating the 2D projected image by performing volume rendering on the image data.
상기 미리 정해진 조건은 상기 기준점의 특성에 따라 다르게 정해질 수 있다.The predetermined condition may be differently determined according to characteristics of the reference point.
상기 미리 정해진 조건은, 상기 기준점이 뼈의 외측에 있는 경우, 기준점 추정 위치의 복셀값이 뼈에 해당하는 HU(Hounsfield Unit) 값 범위 내에 있고, 상기 기준점 추정 위치의 그래디언트값과 상기 축 상에서 상기 기준점 추정 위치의 이전 또는 이후 위치의 그래디언트값의 합이 미리 정해진 기준 이상인 것으로 설정될 수 있다.The predetermined condition is that when the reference point is outside the bone, the voxel value of the reference point estimated position is within a HU (Hounsfield Unit) value range corresponding to the bone, and the gradient value of the reference point estimated location and the reference point on the axis The sum of the gradient values of the positions before or after the estimated position may be set to be equal to or greater than a predetermined reference.
상기 신경망 모델은, 3차원 영상 데이터에 광선 추적 볼륨 렌더링을 수행하여 획득되는 2차원 투영 이미지로 이루어진 학습 데이터를 이용한 강화 학습을 통해 특징점을 검출하도록 학습될 수 있다.The neural network model may be trained to detect feature points through reinforcement learning using learning data formed of a two-dimensional projection image obtained by performing ray tracing volume rendering on three-dimensional image data.
상기한 기술적 과제를 해결하기 위한 본 발명에 따른 컴퓨터 판독 가능한 기록 매체는, 3차원 영상 데이터에 볼륨 렌더링을 수행하여 2차원 투영 이미지를 생성하는 명령어 세트, 학습된 신경망 모델을 이용하여, 상기 2차원 투영 이미지에서 기준점에 대응하는 특징점을 검출하는 명령어 세트, 상기 3차원 영상 데이터에서, 상기 특징점과 2차원 좌표값이 동일한 복셀들의 복셀값들을 추출하는 명령어 세트, 상기 특징점을 지나고 상기 2차원 투영 이미지에 수직인 축 방향에 대한 상기 추출된 복셀값들의 그래디언트값들을 구하는 명령어 세트, 그리고 상기 복셀값들과 상기 그래디언트값들이 미리 정해진 조건을 만족하는 상기 축 상의 위치를 상기 기준점의 위치로 검출하는 명령어 세트를 포함한다.The computer-readable recording medium according to the present invention for solving the above technical problem is, by using a set of instructions for generating a two-dimensional projection image by performing volume rendering on three-dimensional image data, and a learned neural network model, the two-dimensional A command set for detecting a feature point corresponding to a reference point in a projection image, a command set for extracting voxel values of voxels having the same two-dimensional coordinate value as the feature point from the 3D image data, to the two-dimensional projection image after passing the feature point A set of instructions for obtaining gradient values of the extracted voxel values with respect to a vertical axis direction, and a set of instructions for detecting a position on the axis at which the voxel values and the gradient values satisfy a predetermined condition as the position of the reference point include
상기한 기술적 과제를 해결하기 위한 본 발명에 따른 3차원 기준점 검출 장치는, 3차원 영상 데이터에 볼륨 렌더링을 수행하여 2차원 투영 이미지를 생성하는 2차원 투영 이미지 생성부, 학습된 신경망 모델을 이용하여, 상기 2차원 투영 이미지에서 기준점에 대응하는 특징점을 검출하는 특징점 검출부, 상기 3차원 영상 데이터에서, 상기 특징점과 2차원 좌표값이 동일한 복셀들의 복셀값들을 추출하는 복셀값 추출부, 상기 특징점을 지나고 상기 2차원 투영 이미지에 수직인 축 방향에 대한 상기 추출된 복셀값들의 그래디언트값들을 구하는 그래디언트값 계산부, 그리고 상기 복셀값들과 상기 그래디언트값들이 미리 정해진 조건을 만족하는 상기 축 상의 위치를 상기 기준점의 위치로 검출하는 기준점 검출부를 포함한다.A three-dimensional reference point detection apparatus according to the present invention for solving the above technical problem is a two-dimensional projection image generator for generating a two-dimensional projection image by performing volume rendering on three-dimensional image data, using a learned neural network model , a feature point detector for detecting a feature point corresponding to a reference point in the two-dimensional projection image, a voxel value extractor for extracting voxel values of voxels having the same two-dimensional coordinate value as the feature point from the 3D image data, passing the feature point a gradient value calculator for obtaining gradient values of the extracted voxel values in an axial direction perpendicular to the two-dimensional projection image, and a position on the axis at which the voxel values and the gradient values satisfy a predetermined condition as the reference point It includes a reference point detection unit for detecting the position of.
본 발명에 의하면 3차원 영상 데이터 처리의 복잡성을 극복하면서 3차원 기준점을 정확하게 검출할 수 있는 장점이 있다.According to the present invention, there is an advantage in that the 3D reference point can be accurately detected while overcoming the complexity of 3D image data processing.
도 1은 본 발명의 실시예에 따른 3차원 기준점 검출 시스템의 구성을 나타낸 도면이다.
도 2는 볼륨 렌더링을 통해 생성되는 2차원 투영 이미지를 예시한 것이다.
도 3은 객체의 두부를 위에서 바라본 뷰 방향에서의 2차원 투영 이미지를 예시한 것이다.
도 4는 전처리된 3차원 영상 데이터에 대한 볼륨 렌더링을 통해 생성되는 2차원 투영 이미지를 예시한 것이다.
도 5는 본 발명에 의한 Nasion 포인트에 대응하는 특징점이 검출된 2차원 투영 이미지를 나타낸 것이다.
도 6은 도 5에서 검출된 Nasion 특징점에 대응하는 복셀값들을 추출하는 것을 설명하기 위한 모식도이다.
도 7은 도 6에서 추출된 복셀값들이 저장된 라인 버퍼의 복셀값 프로파일 그래프이다.
도 8은 본 발명에 따라 구해지는 복셀값 프로파일 데이터와 그래디언트값 프로파일 데이터를 함께 나타낸 것이다.
도 9는 본 발명에 따른 3차원 기준점 검출 방법을 설명하기 위한 흐름도이다.1 is a diagram showing the configuration of a three-dimensional reference point detection system according to an embodiment of the present invention.
2 illustrates a two-dimensional projection image generated through volume rendering.
3 illustrates a two-dimensional projection image in a view direction when the head of the object is viewed from above.
4 illustrates a 2D projection image generated through volume rendering of preprocessed 3D image data.
5 shows a two-dimensional projection image in which a feature point corresponding to a Nasion point according to the present invention is detected.
FIG. 6 is a schematic diagram for explaining extraction of voxel values corresponding to the Nasion feature points detected in FIG. 5 .
FIG. 7 is a voxel value profile graph of a line buffer in which the voxel values extracted in FIG. 6 are stored.
8 is a view showing both the voxel value profile data and the gradient value profile data obtained according to the present invention.
9 is a flowchart illustrating a method for detecting a three-dimensional reference point according to the present invention.
그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.Then, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those of ordinary skill in the art can easily implement them.
도 1은 본 발명의 일 실시예에 따른 3차원 기준점 검출 시스템의 구성을 나타낸 도면이다.1 is a diagram showing the configuration of a three-dimensional reference point detection system according to an embodiment of the present invention.
도 1을 참고하면, 본 발명에 따른 3차원 기준점 검출 시스템은 영상 획득 장치(200), 영상 저장 장치(300) 및 3차원 기준점 검출 장치(100)를 포함할 수 있다.Referring to FIG. 1 , the 3D reference point detection system according to the present invention may include an
영상 획득 장치(200)는 객체에 대한 3차원(three dimension, 3D) 영상 데이터를 획득하는 장치이다. 여기서 3차원 영상 데이터는 CT(Computed Tomography), CBCT(Cone Beam Computed Tomography), MRI(Magnetic resonance imaging), PET(Positron Emmission Tomography) 또는 SPECT(Single-Photon Emmission Computed Tomography) 등의 타입으로 획득되는 데이터일 수 있다. 객체는 두부(Skull) 등과 같은 신체 부위일 수 있다.The
영상 저장 장치(300)는 영상 획득 장치(200)에서 획득되었거나 외부의 의료기관 또는 연구기관을 포함한 외부 의료영상정보 제공기관으로부터 제공되는 3차원 영상 데이터를 저장할 수 있다.The
3차원 기준점 검출 장치(100)는 영상 획득 장치(200) 또는 영상 저장 장치(300)로부터 제공되는 3차원 영상 데이터로부터 3차원 기준점(landmark point)을 검출할 수 있다.The 3D reference
이를 위해 3차원 기준점 검출 장치(100)는 데이터 수신부(110), 2차원 투영 이미지 생성부(120), 기계 학습부(130), 특징점 검출부(140), 복셀값 추출부(150), 그래디언트값 계산부(160), 기준점 검출부(170), 저장부(180), 표시부(185) 및 제어부(190)를 포함할 수 있다.To this end, the 3D reference
실시예에 따라 기계 학습부(130)는 3차원 기준점 검출 장치(100)에 포함되지 않고, 별도의 장치로 구축될 수도 있다. 3차원 기준점 검출 장치(100)는 별도의 장치에서 학습된 특징점 검출 알고리즘을 제공받아 이용할 수도 있다.According to an embodiment, the
데이터 수신부(110)는 영상 획득 장치(200) 또는 영상 저장 장치(300)에서 3차원 영상 데이터를 수신할 수 있다.The
2차원 투영 이미지 생성부(120)는 3차원 영상 데이터에 볼륨 렌더링을 수행하여 2차원 투영 이미지를 생성할 수 있다.The 2D
볼륨 렌더링은 3차원 복셀(voxel) 데이터를 2차원 투영 이미지로 투영시켜서 보여주는 방법이다. 예컨대 광선 추적 볼륨 렌더링 방법은 투영 방향으로 가상의 광선(ray)을 생각하여 미리 설정된 복셀값에 따른 색상, 투명도를 고려하여 광선을 따라 값을 누적시키면 3차원 데이터를 2차원 화면에 가시화할 수 있다. Volume rendering is a method of displaying 3D voxel data by projecting it into a 2D projection image. For example, the ray tracing volume rendering method considers a virtual ray in the projection direction and accumulates values along the ray in consideration of color and transparency according to preset voxel values, so that 3D data can be visualized on a 2D screen. .
여기서 복셀값은 CT의 경우 HU 값이 사용될 수 있다. 물론 CT가 아닌 다른 모달리티(modality)의 3차원 영상 데이터이면, 해당 모달리티에 따른 신호 강도를 나타내는 값이 복셀값으로 이용될 수 있다.Here, the voxel value may be a HU value in the case of CT. Of course, in the case of 3D image data having a modality other than CT, a value indicating signal strength according to the modality may be used as a voxel value.
3차원 영상 데이터에 뼈를 가시화하기 위한 전달함수를 적용하여 볼륨 렌더링을 수행하면 도 2에 예시한 것과 같은 2차원 투영 이미지를 획득할 수 있다.When volume rendering is performed by applying a transfer function for visualizing bones to 3D image data, a 2D projection image as illustrated in FIG. 2 may be obtained.
도 2는 볼륨 렌더링을 통해 생성되는 2차원 투영 이미지를 예시한 것이다.2 illustrates a two-dimensional projection image generated through volume rendering.
본 발명에 따른 실시예에서 2차원 투영 이미지는 두부를 앞에서 바라본 뷰(Anterior View), 뒤에서 바라본 뷰(Posterior View), 위에서 바라본 뷰(Superior View), 밑에서 바라본 뷰(Inferior View), 좌측에서 바라본 뷰(Left View) 및 우측에서 바라본 뷰(Right View) 등이 이용될 수 있다. 물론 두부가 아닌 다른 신체 부위의 기준점을 검출하고자 할 경우, 해당 신체 부위에 대한 2차원 투영 이미지일 수도 있다. 그리고 뷰 방향도 다양하게 적용할 수도 있다.In an embodiment according to the present invention, the two-dimensional projection image is a view from the front (Anterior View), a view from the back (Posterior View), a view from above (Superior View), a view from below (Inferior View), a view from the left (Left View) and a view viewed from the right (Right View) may be used. Of course, when a reference point of a body part other than the head is to be detected, it may be a two-dimensional projection image of the corresponding body part. Also, the view direction can be applied in various ways.
한편 실시예에 따라 2차원 투영 이미지 생성부(120)는 3차원 영상 데이터에 미리 정해진 전처리를 수행할 수 있다. 그리고 2차원 투영 이미지 생성부(120)는 전처리된 3차원 영상 데이터에 볼륨 렌더링을 수행하여, 원하는 2차원 투영 이미지를 생성할 수도 있다. 가령 2차원 투영 이미지 생성부(120)는 3차원 영상 데이터에서 일정한 기준면을 기준으로 관심 신체 영역의 반대 방향에 위치한 복셀값을 투명 처리가 되는 값으로 지정할 수 있다. 그 후 2차원 투영 이미지 생성부(120)는 비관심 영역을 투명하게 처리한 후 관심 영역을 가시화하기 위한 전달함수를 3차원 영상 데이터에 적용하여 볼륨 렌더링을 수행함으로써 원하는 신체 부위에 대한 2차원 투영 이미지를 생성할 수 있다.Meanwhile, according to an embodiment, the 2D
여기서 기준면은 시상면(sagittal plane), 관상면(coronal plane), 수평면(horizontal plane) 또는 정중시상면(midsagittal plane) 등으로 정해질 수 있다. 물론 그 외 다른 기준면이 적용될 수도 있다.Here, the reference plane may be determined as a sagittal plane, a coronal plane, a horizontal plane, or a midsagittal plane. Of course, other reference planes may be applied.
기계 학습부(130)는 2차원 투영 이미지에서 2차원 특징점을 검출하는 신경망 모델을 지도 학습(supervised learning)이나 강화 학습(reinforcement learning)을 통해 훈련할 수 있다. 여기서 2차원 특징점은 2차원 투영 이미지에서 3차원 기준점에 대응하는 점이다.The
이하에서 설명의 편의를 위해 2차원 특징점은 특징점으로, 3차원 기준점은 기준점으로 간단하게 지칭한다.Hereinafter, for convenience of description, a two-dimensional feature point is simply referred to as a feature point, and a three-dimensional reference point is simply referred to as a reference point.
기계 학습부(130)는 전문의, 임상의 등에 의해 특징점이 라벨링(labelling)된 다수의 2차원 투영 이미지를 학습 데이터로 이용하여 신경망 모델을 훈련할 수 있다. 여기서 신경망 모델은 콘볼루션 신경망(Convolution neural network)(CNN)과 같은 기계학습 알고리즘 형태일 수 있다. 콘볼루션 신경망은 AlexNet, VGGNet, GoogLeNet, ResNet 등과 같은 심층 CNN 모델로 구현될 수 있다.The
기계 학습부(130)에서 강화 학습을 통해 신경망 모델이 2차원 투영 이미지에서 2차원 특징점을 검출하는 방법에 대해 보다 자세히 설명한다.A method in which the neural network model detects two-dimensional feature points in a two-dimensional projection image through reinforcement learning in the
강화학습이란 대표적으로 구글의 알파고에 적용된 기술로써 특정 상태(state)에서 최고의 보상(reward)을 받기 위해 어떠한 정책(policy)을 통한 행동(action)을 취해서 다음 상태(state)로 나아갈지를 매우 많은 경우에 대해 학습을 통해 최적의 행동을 선택할 수 있도록 학습하는 방법을 말한다.Reinforcement learning is a technology typically applied to Google's AlphaGo. In order to receive the best reward in a specific state, there is a lot of information about what policy to take and how to proceed to the next state. It refers to a method of learning so that the optimal behavior can be selected through learning.
구체적으로 강화 학습의 대상이 되는 컴퓨터 프로그램을 에이전트(agent)라고도 한다. 에이전트는 주어진 상태(state)에서 자신이 취할 행동(action)을 표현하는 정책(policy)을 수립한다. 에이전트가 최대의 보상을 받을 수 있는 정책을 수립하도록 학습시키는 것이 강화 학습의 목표이다.Specifically, a computer program targeted for reinforcement learning is also called an agent. The agent establishes a policy that expresses the action to be taken by the agent in a given state. The goal of reinforcement learning is to train agents to formulate policies that will receive maximum rewards.
본 실시예에서는 수학식 1에 예시한 것과 같이 이전 추정점(Pi-1)과 특징점(Pt) 사이의 거리에서 현재 추정점(Pi)과 특징점(Pt) 사이의 거리를 뺀 값을 보상으로 사용하여 강화학습한 예를 나타내었다. 즉 추정점과 특징점 사이의 거리가 줄어들수록 보상이 커지는 방식으로 강화 학습을 수행할 수 있다.In this embodiment, a value obtained by subtracting the distance between the currently estimated point (P i) and the characteristic point (P t) in the distance between the previous estimation point (P i-1) and the characteristic point (P t) as illustrated in equation [1 An example of reinforcement learning using as a reward is shown. That is, reinforcement learning can be performed in such a way that the reward increases as the distance between the estimation point and the feature point decreases.
[수학식 1][Equation 1]
R = D(Pi-1, Pt) - D(Pi, Pt)R = D(P i-1 , P t ) - D(P i , P t )
여기서 R은 보상, D(Pi-1, Pt)는 이전 추정점(Pi-1)과 특징점(Pt) 사이의 거리, D(Pi, Pt)는 현재 추정점(Pi)과 특징점(Pt) 사이의 거리이다.where R is the reward, D(P i-1 , P t ) is the distance between the previous estimation point (P i-1 ) and the feature point (P t ), and D(P i , P t ) is the current estimation point (P i ) ) and the feature point (P t ).
물론 기계 학습부(130)는 여기서 예시한 것 외에 다른 학습 방법에 의해서 2차원 투영 이미지에서 특징점을 검출할 수 있도록 신경망 모델을 학습시킬 수도 있다.Of course, the
기계 학습부(130)에서 특징점을 잘 추출할 수 있는 뷰(View) 방향별로 각각의 신경망 모델이 훈련될 수도 있다.Each neural network model may be trained for each view direction from which the
도 3은 환자 두부를 위에서 바라본 뷰 방향에서의 2차원 투영 이미지를 예시한 것이다.3 illustrates a two-dimensional projection image in the direction of the patient's head viewed from above.
도 3에 예시한 것과 같이 두부를 위에서 바라본 뷰(Superior View) 방향에서 브레그마 포인트(Bregma point)의 경우 가장 명확하게 보인다. 따라서 기준점이 브레그마 포인트인 경우 Superior View에서 특징점이 라벨링된 2차원 투영 이미지로 학습 데이터를 구성하여 신경망 모델을 학습시킬 수 있다.As illustrated in FIG. 3 , the Bregma point is most clearly seen in the direction of the view when the head is viewed from above (Superior View). Therefore, if the reference point is a bregma point, the neural network model can be trained by composing the training data in the two-dimensional projection image labeled with the feature point in Superior View.
한편 Nasion 포인트(Nasion point)의 경우, 환자 두부를 앞에서 바라본 본 뷰(Anterior View) 방향에서 잘 확인할 수 있다. 따라서 기준점이 Nasion 포인트인 경우 Anterior View에서 특징점이 라벨링된 2차원 투영 이미지로 학습 데이터를 구성하여 신경망 모델을 학습시킬 수 있다.On the other hand, in the case of the Nasion point, the patient's head can be seen well in the direction of the Anterior View. Therefore, when the reference point is the Nasion point, the neural network model can be trained by composing the training data in the two-dimensional projection image labeled with the feature point in the Anterior View.
이와 같이 브레그마 포인트나 Nasion 포인트와 같이 두부의 바깥쪽에 위치한 기준점은 두부를 외부에서 바라본 뷰 방향의 2차원 투영 이미지를 이용하여 학습할 수 있다.As such, a reference point located on the outside of the head, such as a bregma point or a Nasion point, can be learned using a two-dimensional projection image in the view direction when the head is viewed from the outside.
한편 턱뼈의 안쪽에 위치한 하악공 포인트(Mandibular foramen point)(F 점)의 경우 3차원 영상 데이터에 대한 전처리를 먼저 수행한 후 볼륨 렌더링을 수행하여 획득된 2차원 투영 이미지를 이용하여 신경망 모델을 학습할 수 있다.On the other hand, in the case of the mandibular foramen point (point F) located on the inside of the jawbone, the neural network model is learned using the 2D projection image obtained by performing volume rendering after preprocessing the 3D image data first. can do.
도 4는 전처리 된 3차원 영상 데이터에 대한 볼륨 렌더링을 통해 생성되는 2차원 투영 이미지를 예시한 것이다.4 illustrates a 2D projection image generated through volume rendering of preprocessed 3D image data.
도 4(a)는 우측 하악공 포인트(right F; RF를 보기 위해 3차원 영상 데이터에서 두부의 좌측 부분의 복셀값을 공기(air)에 해당하는 '-1024'으로 지정하는 전처리를 수행하고 나서, 뼈에 해당하는 전달함수를 통해 볼륨 렌더링을 수행하여 획득한 2차원 투영 이미지를 나타낸 것이다.FIG. 4(a) shows the right mandibular foramen point (right F; after performing pre-processing of designating the voxel value of the left part of the head as '-1024' corresponding to air in the 3D image data to see the RF) , shows a two-dimensional projection image obtained by performing volume rendering through a transfer function corresponding to a bone.
도 4(b)는 좌측 하악공 포인트(left F; LF)를 보기 위해 3차원 영상 데이터에서 두부의 좌측 부분의 복셀값을 공기에 해당하는 '-1024'으로 지정하는 전처리를 수행한 후 뼈에 해당하는 전달함수를 통해 볼륨 렌더링을 수행하여 획득한 2차원 투영 이미지를 나타낸 것이다.Fig. 4(b) shows the bone after pre-processing in which the voxel value of the left part of the head is designated as '-1024' corresponding to air in the 3D image data to view the left mandibular foramen point (left F; LF). It shows a two-dimensional projection image obtained by performing volume rendering through a corresponding transfer function.
이와 같이 검출 대상 기준점의 위치에 따라 잘 확인할 수 있는 뷰 방향으로 생성된 2차원 투영 이미지를 이용하여 학습할 수 있다. 필요한 경우 기준면을 기준으로 관심 영역의 반대 영역에 대해서 투명 처리하고 나서 생성된 2차원 투영 이미지를 이용하여 학습할 수도 있다. 물론 여기서 설명한 방법 외에도 다양한 방법으로 3차원 영상 데이터에서 획득되는 2차원 투영 이미지에서 다양한 특징점을 획득할 수 있도록 학습할 수 있다.As described above, it is possible to learn by using a two-dimensional projection image generated in a view direction that can be easily confirmed according to the position of the detection target reference point. If necessary, it is also possible to learn using a two-dimensional projection image generated after transparent processing of the region opposite to the region of interest with respect to the reference plane. Of course, in addition to the method described here, it is possible to learn to acquire various feature points from a two-dimensional projection image obtained from three-dimensional image data by various methods.
다시 도 1을 참고하면, 특징점 검출부(140)는 학습된 신경망 모델을 이용하여, 2차원 투영 이미지에서 기준점에 대응하는 특징점을 검출할 수 있다.Referring back to FIG. 1 , the
도 5는 본 발명에 의한 Nasion 포인트에 대응하는 특징점이 검출된 2차원 투영 이미지를 나타낸 것이다.5 shows a two-dimensional projection image in which a feature point corresponding to a Nasion point according to the present invention is detected.
도 5에 예시한 것과 같이 Anterior View 방향(즉 2차원 투영 이미지의 수직축 방향)의 2차원 투영 이미지에서 Nasion 포인트에 대응하는 특징점이 검출되면, Nasion 포인트의 2차원 좌표값(XNa, ZNa)을 구할 수 있다. 그러나 아직까지는 Nasion 포인트의 깊이 정보, 즉 Y 축 상의 위치는 구할 수 없다.As illustrated in FIG. 5 , when a feature point corresponding to the Nasion point is detected in the 2D projection image in the Anterior View direction (ie, the vertical axis direction of the 2D projection image), the 2D coordinate value of the Nasion point (X Na , Z Na ) can be obtained However, the depth information of the Nasion point, that is, the position on the Y-axis, cannot be obtained yet.
도 6은 도 5에서 검출된 Nasion 특징점에 대응하는 복셀값들을 추출하는 것을 설명하기 위한 모식도이다.FIG. 6 is a schematic diagram for explaining extraction of voxel values corresponding to the Nasion feature points detected in FIG. 5 .
도 6을 참고하면, Nasion 특징점(XNa, ZNa)을 지나고 도 5의 2차원 투영 이미지에 수직인 축(Y)에 위치하는 복셀들을 추출할 수 있다. 축(Y)에 위치하는 복셀들은 2차원 좌표값(XNa, ZNa)이 동일하다.Referring to FIG. 6 , voxels passing through the Nasion feature point (X Na , Z Na ) and positioned on the axis Y perpendicular to the 2D projection image of FIG. 5 may be extracted. The voxels positioned on the axis Y have the same two-dimensional coordinate values (X Na , Z Na ).
복셀값 추출부(150)는 특징점 검출부(140)에서 검출된 특징점과 2차원 좌표값이 동일한 복셀들의 복셀값들을 3차원 영상 데이터에서 추출할 수 있다. 가령 복셀값 추출부(150)는 저장부(180)에 저장된 3차원 영상 데이터에서 축(Y)에 위치하는 복셀들을 복셀값을 추출하여 복셀 라인 버퍼(Line buffer)에 임시 저장할 수 있다. 복셀 라인 버퍼에는 Y 축 방향으로 일정 간격으로 복셀값이 나열되게 된다.The
Nasion 포인트와 같이 두부 계측 분석 등에서 주로 찾는 기준점들은 주로 뼈 외부의 점들이다. 따라서 나머지 한 축(예컨대 위 실시예에서 Y 축)에서 뼈에 해당하는 첫 번째 위치를 알아내면 된다. 물론 기준점이 뼈 내부에 위치한 경우는 뼈에 해당하는 마지막 위치를 알아내면 된다. 기준점의 특성에 따라 나머지 한 축에서 기준점의 위치를 검출하는 구체적 조건 등은 달라질 수 있다.The reference points that are mainly found in cephalometric analysis, such as Nasion points, are mainly points outside the bone. Therefore, it is enough to find out the first position corresponding to the bone on the other axis (eg, the Y axis in the above embodiment). Of course, if the reference point is located inside the bone, the last position corresponding to the bone may be found. Specific conditions for detecting the position of the reference point on the other axis may vary according to the characteristics of the reference point.
도 7은 도 6에서 추출된 복셀값들이 저장된 라인 버퍼의 복셀값 프로파일 그래프이다.FIG. 7 is a voxel value profile graph of a line buffer in which the voxel values extracted in FIG. 6 are stored.
도 7에서 세로 축은 HU 값이고, 가로 축은 축(Y) 상의 복셀 위치를 나타낸다.In FIG. 7 , the vertical axis indicates the HU value, and the horizontal axis indicates the position of the voxel on the axis (Y).
도 7에 예시한 라인 버퍼의 복셀값 프로파일은 좌측에서 우측으로 이동하면서 대략 80번째 위치에서 뼈 외부를 만나 HU 값이 급격하게 높아지고 다시 뼈 내부가 나타나는 것을 보여준다. 현재 찾고자 하는 기준점들은 주로 뼈 외부의 점들이기 때문에 2차원 좌표값이 추정된 2축(X축, Z축)이 아닌 나머지 한 축(예컨대 Y축)의 복셀값 프로파일에서 뼈에 해당하는 첫 번째 위치를 알아내면 된다. 그러나 영상 데이터마다 특성이 다르기 때문에, 도 7에 예시한 복셀값 프로파일만으로 뼈에 해당하는 위치를 단순 추정해내기 어려울 수 있다.The voxel value profile of the line buffer illustrated in FIG. 7 shows that, while moving from left to right, it meets the outside of the bone at approximately the 80th position, and the HU value sharply increases and the inside of the bone appears again. Since the current reference points are mainly points outside the bone, the first position corresponding to the bone in the voxel value profile of the other axis (e.g., the Y axis) rather than the two axes (X axis, Z axis) in which the two-dimensional coordinate value is estimated. to find out However, since characteristics of each image data are different, it may be difficult to simply estimate a position corresponding to a bone only with the voxel value profile illustrated in FIG. 7 .
뼈(bone)와 피부 조직(skin tissue), 피부와 공기 등의 경계면에서 복셀값의 변화량이 커진다. 따라서 정확도를 높이기 위해서 라인 버퍼에 저장된 복셀값에 그래디언트를 취하여 구해지는 그래디언트값으로 이루어지는 그래디언트 프로파일을 함께 고려할 수 있다.At the interface between bone and skin tissue, skin and air, etc., the amount of change in the voxel value increases. Therefore, in order to increase accuracy, a gradient profile composed of a gradient value obtained by taking a gradient to a voxel value stored in the line buffer may be considered together.
라인 버퍼에 특정한 축 상에서 일정 간격으로 떨어져 있는 복셀들의 복셀값이 저장된다. 여기서 그래디언트 연산은 라인 버퍼 상 현재 위치와 다음 위치의 복셀값의 차이를 구하는 것일 수 있다. Voxel values of voxels spaced apart from each other on a specific axis are stored in the line buffer. Here, the gradient operation may be to obtain a difference between the voxel values of the current position and the next position on the line buffer.
그래디언트값 계산부(160)는 특징점이 검출된 2차원 투영 이미지에 수직인 축 방향(도 6에서 Y 방향)에 대한 복셀값들의 변화량에 대응하는 그래디언트값들을 계산할 수 있다. 그래디언트값 계산부(160)에서 계산된 그래디언트값들은 그래디언트 라인 버퍼에 임시 저장될 수 있다.The
기준점 검출부(170)는 복셀값 프로파일과 그래디언트 프로파일을 이용하여 기준점을 검출할 수 있다. 기준점 검출부(170)는 복셀값 프로파일과 그래디언트값 프로파일을 이용하여 미리 정해진 조건을 만족하는 나머지 한 축 상에서의 기준점의 위치를 검출할 수 있다.The
도 8은 본 발명에 따라 구해지는 복셀값 프로파일 데이터와 그래디언트값 프로파일 데이터를 함께 나타낸 것이다.8 is a view showing both the voxel value profile data and the gradient value profile data obtained according to the present invention.
도 8을 참고하면, 그래프(Linebuf)(L)는 도 6에서 Y축의 각 위치에서 추출된 복셀값 프로파일을 나타낸다. 그리고 그래프(Gradient)(G)는 도 6에서 Y축의 각 위치에서 계산된 그래디언트값 프로파일을 나타낸다.Referring to FIG. 8 , a graph Linebuf L represents a voxel value profile extracted from each position of the Y-axis in FIG. 6 . And the graph (Gradient) (G) shows the gradient value profile calculated at each position of the Y-axis in FIG. 6 .
피부 조직에 해당하는 구간(A)을 살펴보면, Y축의 대략 60번째 위치부터 복셀값(HU 값)이 급격하게 증가하나, HU 값이 '0'보다 작다. Looking at the section A corresponding to the skin tissue, the voxel value (HU value) rapidly increases from the approximately 60th position on the Y-axis, but the HU value is less than '0'.
한편 뼈에 해당하는 구간(B)을 살펴보면 Y축의 대략 75번째 위치부터 HU 값이 급격하게 증가하고, HU 값이 '0'보다 크다.Meanwhile, looking at the section (B) corresponding to the bone, the HU value rapidly increases from the 75th position on the Y-axis, and the HU value is greater than '0'.
따라서 뼈 외부에 해당하는 기준점 위치를 검출하는 조건으로 HU 값이 '0'보다 크고, 뼈 외부부분에서 HU 값이 급격하게 증가하면서 변화량이 커지므로 그래디언트 값이 미리 정해진 기준 이상인 Y축 상의 첫 번째 위치로 설정할 수 있다. Therefore, as a condition for detecting the position of the reference point outside the bone, the HU value is greater than '0', and the change amount increases as the HU value increases rapidly in the outer part of the bone. can be set to
또한 잡음(noise)이나 객체 특성 등으로 인한 오검출을 방지하기 위해서, 그래디언트값 조건을 현재 위치와 이웃 위치의 그래디언트값의 합이 미리 정해진 기준 이상인 경우로 설정할 수도 있다. 예컨대 Y 축의 N번째 위치의 그래디언트값과 N+1번째 위치(또는 N-1번째 위치)의 그래디언트값의 합이 미리 정해진 기준 이상인 Y축 상의 첫 번째 위치로 설정할 수도 있다.In addition, in order to prevent erroneous detection due to noise or object characteristics, the gradient value condition may be set to a case in which the sum of the gradient values of the current position and the neighboring position is equal to or greater than a predetermined criterion. For example, the sum of the gradient value of the N-th position of the Y-axis and the gradient value of the N+1-th position (or the N-1th position) may be set as the first position on the Y-axis equal to or greater than a predetermined reference.
도 8에서는 HU 값이 양수이고, 현재 위치와 다음 위치의 그래디언트값의 합이 '300' 이상인 조건하에서 Y 축 77번째 위치가 기준점의 Y 축 위치로 검출된 것을 예시한 것이다.8 illustrates that the 77th Y-axis position is detected as the Y-axis position of the reference point under the condition that the HU value is positive and the sum of the gradient values of the current position and the next position is '300' or more.
다시 강조하지만 나머지 한 축에서 기준점의 위치를 검출하는 복셀값과 그래디언트값 조건은 기준점의 특성에 따라 다르게 정해질 수 있는 것으로 이해되어야 한다.Again, it should be understood that the conditions for the voxel value and the gradient value for detecting the position of the reference point on the other axis may be set differently depending on the characteristics of the reference point.
저장부(180)는 3차원 기준점 검출 장치(100)의 동작과 관련된 각종 데이터 및 프로그램 등을 저장할 수 있다. 저장부(180)는 앞서 설명한 나머지 한 축에 위치한 복셀들의 복셀값을 저장하는 복셀 라인 버퍼, 복셀 라인 버퍼에 저장된 복셀값들을 나머지 한 축 방향으로 그래디언트를 취해서 구해진 그래디언트값들이 임시 저장되는 그래디언트 라인 버퍼 등을 포함할 수 있다.The
저장부(180)는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 메모리 장치로 구현될 수 있다.The
표시부(185)는 3차원 기준점 검출 장치(100)의 동작과 관련된 각종 정보를 화면에 표시할 수 있다. 표시부(185)는 LCD 디스플레이 장치, LED 디스플레이 장치 등과 같은 디스플레이 장치로 구현될 수 있다.The
제어부(190)는 3차원 기준점 검출 장치(100)의 전체적인 동작을 제어할 수 있다.The
도 9는 본 발명에 따른 3차원 기준점 검출 방법을 설명하기 위한 흐름도이다.9 is a flowchart illustrating a method for detecting a three-dimensional reference point according to the present invention.
도 9를 참고하면, 먼저 2차원 투영 이미지 생성부(120)는 환자의 두부 등과 같은 신체 부위를 촬영한 3차원 영상 데이터에 미리 정해진 전처리를 수행할 수 있다(S900). 단계(S900)는 실시예에 따라 생략될 수도 있다. 단계(S900)에서 2차원 투영 이미지 생성부(120)는 3차원 영상 데이터에서 일정한 기준면을 기준으로 관심 영역의 반대 방향에 위치한 복셀들의 복셀값을 투명 처리가 되는 값으로 지정하는 전처리를 수행할 수 있다.Referring to FIG. 9 , first, the 2D
2차원 투영 이미지 생성부(120)는 3차원 영상 데이터에 볼륨 렌더링을 수행하여 2차원 투영 이미지를 생성할 수 있다(S910). 단계(S910)에서 2차원 투영 이미지 생성부(120)는 3차원 영상 데이터에 관심 영역을 가시화하기 위한 전달함수를 적용하여 볼륨 렌더링을 수행함으로써 원하는 2차원 투영 이미지를 생성할 수 있다. 예컨대 3차원 영상 데이터에 뼈를 가시화하기 위한 전달함수를 적용하여 볼륨 렌더링을 수행하면 도 2에 예시한 것과 같은 2차원 투영 이미지를 획득할 수 있다.The 2D
다음으로 특징점 검출부(140)는 미리 학습된 신경망 모델을 이용하여, 2차원 투영 이미지에서 기준점에 대응하는 특징점을 검출할 수 있다(S920). 단계(S920)에서 기준점의 3차원 좌표값 중에서 2차원 좌표값을 구할 수 있다. 2차원 투영 이미지가 XZ 평면에 있는 경우, 기준점의 X 좌표값과 Z 좌표값을 구할 수 있다.Next, the
이후 복셀값 추출부(150)는 특징점 검출부(140)에서 검출된 특징점과 2차원 좌표값이 동일한 복셀들의 복셀값들을 3차원 영상 데이터에서 추출할 수 있다(S930).Thereafter, the
다음으로 그래디언트값 계산부(160)는 특징점이 검출된 2차원 투영 이미지에 수직인 축 방향(2차원 투영 이미지가 XZ 평면에 있는 경우 Y 축 방향)에 대한 복셀값들의 변화량에 대응하는 그래디언트값들을 계산할 수 있다(S940). Next, the
마지막으로 기준점 검출부(170)는 단계(S930)에 구해진 복셀값들과 단계(S940)에서 구해진 그래디언트값들을 기초로 나머지 축(예컨대 기준점의 X, Z 좌표값이 정해진 경우 Y 축)에서 기준점의 위치를 검출할 수 있다(S950). 단계(S950)에서 기준점의 위치는 기준점의 특성에 따라 미리 정해진 조건을 만족하는 Y 축 상의 위치로 정해질 수 있다.Finally, the
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented by a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the apparatus, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA) array), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. may be permanently or temporarily embody in The software may be distributed over networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.
실시 예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and carry out program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.
100: 3차원 기준점 검출 장치
110: 데이터 수신부 120: 2차원 투영 이미지 생성부
130: 기계 학습부 140: 특징점 검출부
150: 복셀값 추출부 160: 그래디언트값 계산부
170: 기준점 검출부 180: 저장부
185: 표시부 190: 제어부
200: 영상 획득 장치
300: 영상 저장 장치100: 3D reference point detection device
110: data receiving unit 120: two-dimensional projection image generating unit
130: machine learning unit 140: feature point detection unit
150: voxel value extraction unit 160: gradient value calculation unit
170: reference point detection unit 180: storage unit
185: display unit 190: control unit
200: image acquisition device
300: video storage device
Claims (27)
특징점 검출부에서 학습된 신경망 모델을 이용하여, 상기 2차원 투영 이미지에서 기준점에 대응하는 특징점을 검출하는 단계,
복셀값 추출부에서 상기 3차원 영상 데이터에서, 상기 특징점과 2차원 좌표값이 동일한 복셀들의 복셀값들을 추출하는 단계,
그래디언트값 계산부에서 상기 특징점을 지나고 상기 2차원 투영 이미지에 수직인 축 방향에 대한 상기 추출된 복셀값들의 그래디언트값들을 구하는 단계, 그리고
기준점 검출부에서 상기 복셀값들과 상기 그래디언트값들이 미리 정해진 조건을 만족하는 상기 축 상의 위치를 상기 기준점의 위치로 검출하는 3차원 기준점 검출 방법.generating a two-dimensional projection image by performing volume rendering on the three-dimensional image data in the two-dimensional projection image generator;
detecting a feature point corresponding to a reference point in the two-dimensional projection image using the neural network model learned by the feature point detector;
extracting, by a voxel value extracting unit, voxel values of voxels having the same two-dimensional coordinate value as the feature point from the 3D image data;
obtaining gradient values of the extracted voxel values with respect to an axial direction passing through the feature point and perpendicular to the two-dimensional projection image in a gradient value calculator; and
A three-dimensional reference point detection method in which a reference point detection unit detects, as a location of the reference point, a position on the axis where the voxel values and the gradient values satisfy a predetermined condition.
상기 2차원 투영 이미지 생성부에서 뼈를 가시화하기 위한 전달함수(Transfer function)를 통해 상기 3차원 영상 데이터에 대한 볼륨 렌더링을 수행하여 상기 2차원 투영 이미지를 생성하는 3차원 기준점 검출 방법.In claim 1,
A 3D reference point detection method for generating the 2D projection image by performing volume rendering on the 3D image data through a transfer function for visualizing the bone in the 2D projection image generator.
상기 2차원 투영 이미지를 생성하는 단계는,
상기 3차원 영상 데이터에서 기준면을 기준으로 관심 영역의 반대 방향에 위치한 복셀들의 복셀값을 투명 처리가 되는 값으로 지정하는 전처리 단계, 그리고
상기 전처리된 3차원 영상 데이터에 대한 볼륨 렌더링을 수행하여 상기 2차원 투영 이미지를 생성하는 단계
를 포함하는 3차원 기준점 검출 방법.In claim 2,
The step of generating the two-dimensional projection image,
a pre-processing step of designating voxel values of voxels located in a direction opposite to the region of interest with respect to the reference plane in the 3D image data as values to be transparent;
generating the 2D projected image by performing volume rendering on the preprocessed 3D image data
A three-dimensional reference point detection method comprising a.
상기 기준면은 시상면(sagittal plane), 관상면(coronal plane), 수평면(horizontal plane) 또는 정중시상면(midsagittal plane)으로 정해지는 3차원 기준점 검출 방법.In claim 3,
The reference plane is a three-dimensional reference point detection method determined by a sagittal plane, a coronal plane, a horizontal plane, or a midsagittal plane.
상기 3차원 영상 데이터는,
CT(Computed Tomography), CBCT(Cone Beam Computed Tomography), MRI(Magnetic resonance imaging), PET(Positron Emmission Tomography), 및 SPECT(Single-Photon Emmission Computed Tomography) 중 어느 하나인 3차원 기준점 검출 방법. In claim 3,
The 3D image data is
A three-dimensional reference point detection method that is any one of Computed Tomography (CT), Cone Beam Computed Tomography (CBCT), Magnetic Resonance Imaging (MRI), Positron Emmission Tomography (PET), and Single-Photon Emmission Computed Tomography (SPECT).
상기 미리 정해진 조건은,
상기 기준점의 특성에 따라 다르게 정해지는 3차원 기준점 검출 방법.In claim 3,
The predetermined condition is
A three-dimensional reference point detection method that is differently determined according to the characteristics of the reference point.
상기 신경망 모델은,
3차원 영상 데이터에 광선 추적 볼륨 렌더링을 수행하여 획득되는 2차원 투영 이미지로 이루어진 학습 데이터를 이용한 강화 학습을 통해 특징점을 검출하도록 학습된 3차원 기준점 검출 방법.In claim 3,
The neural network model is
A three-dimensional reference point detection method learned to detect feature points through reinforcement learning using learning data consisting of a two-dimensional projection image obtained by performing ray tracing volume rendering on three-dimensional image data.
상기 학습된 신경망 모델은,
2차원 투영 이미지가 생성된 뷰(View) 방향별로 특징점을 검출하도록 학습된 복수의 신경망 모델을 포함하는 3차원 기준점 검출 방법.In claim 3,
The learned neural network model is,
A three-dimensional reference point detection method comprising a plurality of neural network models trained to detect feature points for each view direction in which a two-dimensional projection image is generated.
상기 신경망 모델은,
이전 추정점(Pi-1)과 특징점(Pt) 사이의 거리에서 현재 추정점(Pi)과 특징점(Pt) 사이의 거리를 뺀 값을 보상으로 사용하여 강화학습되는 3차원 기준점 검출 방법.In claim 3,
The neural network model is
3D reference point detection in reinforcement learning using the value obtained by subtracting the distance between the current estimation point (P i ) and the feature point (P t ) from the distance between the previous estimation point (P i-1 ) and the feature point (P t ) as compensation Way.
상기 3차원 영상 데이터는,
환자 두부(skull)를 촬영하여 획득한 것인 3차원 기준점 검출 방법.In claim 3,
The 3D image data is
A three-dimensional reference point detection method obtained by photographing a patient's skull.
상기 2차원 투영 이미지는,
상기 환자 두부를 앞에서 바라본 뷰(Anterior View), 뒤에서 바라본 뷰(Posterior View), 위에서 바라본 뷰(Superior View), 밑에서 바라본 뷰(Inferior View), 좌측에서 바라본 뷰(Left View) 및 우측에서 바라본 뷰(Right View) 중 하나인 3차원 기준점 검출 방법.11. In claim 10,
The two-dimensional projection image is,
The patient's head viewed from the front (Anterior View), the back view (Posterior View), the top view (Superior View), the bottom view (Inferior View), the left view (Left View) and the right view ( Right View) is one of the three-dimensional reference point detection method.
상기 복셀값은 HU(Hounsfield Unit) 값인 3차원 기준점 검출 방법.In claim 3,
The voxel value is a three-dimensional reference point detection method that is a HU (Hounsfield Unit) value.
상기 미리 정해진 조건은,
상기 기준점이 뼈의 외측에 있는 경우,
기준점 추정 위치의 복셀값이 뼈에 해당하는 HU 값 범위 내에 있고,
상기 기준점 추정 위치의 그래디언트값과 상기 축 상에서 상기 기준점 추정 위치의 이전 또는 이후 위치의 그래디언트값의 합이 미리 정해진 기준 이상인 것으로 설정되는 3차원 기준점 검출 방법.In claim 12,
The predetermined condition is
When the reference point is outside the bone,
The voxel value of the estimated position of the reference point is within the HU value range corresponding to the bone,
A three-dimensional reference point detection method, wherein the sum of the gradient value of the reference point estimated position and the gradient value of the position before or after the reference point estimated position on the axis is set to be equal to or greater than a predetermined reference point.
학습된 신경망 모델을 이용하여, 상기 2차원 투영 이미지에서 기준점에 대응하는 특징점을 검출하는 명령어 세트,
상기 3차원 영상 데이터에서, 상기 특징점과 2차원 좌표값이 동일한 복셀들의 복셀값들을 추출하는 명령어 세트,
상기 특징점을 지나고 상기 2차원 투영 이미지에 수직인 축 방향에 대한 상기 추출된 복셀값들의 그래디언트값들을 구하는 명령어 세트, 그리고
상기 복셀값들과 상기 그래디언트값들이 미리 정해진 조건을 만족하는 상기 축 상의 위치를 상기 기준점의 위치로 검출하는 명령어 세트
를 포함하는 컴퓨터 판독 가능한 기록 매체.A set of instructions for generating a two-dimensional projection image by performing volume rendering on three-dimensional image data;
A set of instructions for detecting a feature point corresponding to a reference point in the two-dimensional projection image using the learned neural network model;
a command set for extracting voxel values of voxels having the same two-dimensional coordinate value as the feature point from the 3D image data;
a set of instructions for obtaining gradient values of the extracted voxel values with respect to an axial direction passing through the feature point and perpendicular to the two-dimensional projection image, and
A set of instructions for detecting a position on the axis at which the voxel values and the gradient values satisfy a predetermined condition as the position of the reference point
A computer-readable recording medium comprising a.
학습된 신경망 모델을 이용하여, 상기 2차원 투영 이미지에서 기준점에 대응하는 특징점을 검출하는 특징점 검출부,
상기 3차원 영상 데이터에서, 상기 특징점과 2차원 좌표값이 동일한 복셀들의 복셀값들을 추출하는 복셀값 추출부,
상기 특징점을 지나고 상기 2차원 투영 이미지에 수직인 축 방향에 대한 상기 추출된 복셀값들의 그래디언트값들을 구하는 그래디언트값 계산부, 그리고
상기 복셀값들과 상기 그래디언트값들이 미리 정해진 조건을 만족하는 상기 축 상의 위치를 상기 기준점의 위치로 검출하는 기준점 검출부
를 포함하는 3차원 기준점 검출 장치.A two-dimensional projection image generator for generating a two-dimensional projection image by performing volume rendering on three-dimensional image data;
A feature point detection unit that detects a feature point corresponding to a reference point in the two-dimensional projection image using the learned neural network model;
a voxel value extractor configured to extract voxel values of voxels having the same two-dimensional coordinate value as the feature point from the 3D image data;
a gradient value calculator for obtaining gradient values of the extracted voxel values in an axial direction passing through the feature point and perpendicular to the two-dimensional projection image; and
a reference point detection unit configured to detect a position on the axis at which the voxel values and the gradient values satisfy a predetermined condition as the position of the reference point
A three-dimensional reference point detection device comprising a.
상기 2차원 투영 이미지 생성부는,
뼈를 가시화하기 위한 전달함수를 통해 상기 3차원 영상 데이터에 대한 볼륨 렌더링을 수행하여 상기 2차원 투영 이미지를 생성하는 3차원 기준점 검출 장치.16. In claim 15,
The two-dimensional projection image generating unit,
A three-dimensional reference point detection apparatus for generating the two-dimensional projection image by performing volume rendering on the three-dimensional image data through a transfer function for visualizing a bone.
상기 2차원 투영 이미지 생성부는,
상기 3차원 영상 데이터에서 기준면을 기준으로 관심 영역의 반대 방향에 위치한 복셀들의 복셀값을 투명 처리가 되는 값으로 지정하는 전처리 및, 상기 전처리된 3차원 영상 데이터에 대한 볼륨 렌더링을 수행하여 상기 2차원 투영 이미지를 생성을 수행하는 3차원 기준점 검출 장치.17. In claim 16,
The two-dimensional projection image generating unit,
In the 3D image data, a preprocessing of designating voxel values of voxels located in a direction opposite to the region of interest with respect to a reference plane as values to be transparently processed, and volume rendering of the preprocessed 3D image data are performed to the 2D image data. A three-dimensional reference point detection device for generating a projected image.
상기 기준면은 시상면, 관상면, 수평면 또는 정중시상면으로 정해지는 3차원 기준점 검출 장치.In claim 17,
The reference plane is a three-dimensional reference point detection device that is defined as a sagittal plane, a coronal plane, a horizontal plane, or a midsagittal plane.
상기 3차원 영상 데이터는,
CT, CBCT, MRI, PET, 및 SPECT 중 어느 하나인 3차원 기준점 검출 장치. In claim 17,
The 3D image data is
A three-dimensional reference point detection device that is any one of CT, CBCT, MRI, PET, and SPECT.
상기 미리 정해진 조건은,
상기 기준점의 특성에 따라 다르게 정해지는 3차원 기준점 검출 장치.In claim 17,
The predetermined condition is
A three-dimensional reference point detection apparatus that is differently determined according to the characteristics of the reference point.
상기 신경망 모델은,
3차원 영상 데이터에 볼륨 렌더링을 수행하여 획득되는 2차원 투영 이미지로 이루어진 학습 데이터를 이용한 강화 학습을 통해 특징점을 검출하도록 학습된 3차원 기준점 검출 장치.In claim 17,
The neural network model is
A three-dimensional reference point detection apparatus trained to detect a feature point through reinforcement learning using learning data consisting of a two-dimensional projection image obtained by performing volume rendering on three-dimensional image data.
상기 학습된 신경망 모델은,
2차원 투영 이미지가 생성된 뷰(View) 방향별로 특징점을 검출하도록 학습된 복수의 신경망 모델을 포함하는 3차원 기준점 검출 장치.In claim 17,
The learned neural network model is,
A three-dimensional reference point detection apparatus comprising a plurality of neural network models trained to detect feature points for each view direction in which a two-dimensional projection image is generated.
상기 신경망 모델은,
이전 추정점(Pi-1)과 특징점(Pt) 사이의 거리에서 현재 추정점(Pi)과 특징점(Pt) 사이의 거리를 뺀 값을 보상으로 사용하여 강화학습되는 3차원 기준점 검출 장치.In claim 17,
The neural network model is
3D reference point detection in reinforcement learning using the value obtained by subtracting the distance between the current estimation point (P i ) and the feature point (P t ) from the distance between the previous estimation point (P i-1 ) and the feature point (P t ) as compensation Device.
상기 3차원 영상 데이터는,
환자 두부를 촬영하여 획득한 것인 3차원 기준점 검출 장치.In claim 17,
The 3D image data is
A three-dimensional reference point detection device obtained by photographing a patient's head.
상기 2차원 투영 이미지는,
상기 환자 두부를 앞에서 바라본 뷰, 뒤에서 바라본 뷰, 위에서 바라본 뷰, 밑에서 바라본 뷰, 좌측에서 바라본 뷰 및 우측에서 바라본 뷰 중 하나인 3차원 기준점 검출 장치.25. In claim 24,
The two-dimensional projection image is,
A three-dimensional reference point detection device that is one of a front view, a rear view, a top view, a bottom view, a left view, and a right view of the patient's head.
상기 복셀값은 HU 값인 3차원 기준점 검출 장치.In claim 17,
The voxel value is a three-dimensional reference point detection device that is a HU value.
상기 미리 정해진 조건은,
상기 기준점이 뼈의 외측에 있는 경우,
기준점 추정 위치의 복셀값이 뼈에 해당하는 HU 값 범위 내에 있고,
상기 기준점 추정 위치의 그래디언트값과 상기 축 상에서 상기 기준점 추정 위치의 이전 또는 이후 위치의 그래디언트값의 합이 미리 정해진 기준 이상인 것으로 설정되는 3차원 기준점 검출 장치.27. In claim 26,
The predetermined condition is
When the reference point is outside the bone,
The voxel value of the estimated position of the reference point is within the HU value range corresponding to the bone,
and a sum of the gradient value of the reference point estimated position and the gradient value of the position before or after the estimated reference point position on the axis is set to be equal to or greater than a predetermined reference point.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190154562A KR102271614B1 (en) | 2019-11-27 | 2019-11-27 | 3D anatomical landmark detection method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190154562A KR102271614B1 (en) | 2019-11-27 | 2019-11-27 | 3D anatomical landmark detection method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210066074A KR20210066074A (en) | 2021-06-07 |
KR102271614B1 true KR102271614B1 (en) | 2021-07-02 |
Family
ID=76374173
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190154562A KR102271614B1 (en) | 2019-11-27 | 2019-11-27 | 3D anatomical landmark detection method and apparatus |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102271614B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102643071B1 (en) * | 2021-09-30 | 2024-03-05 | 주식회사 에이치디엑스윌 | Method for determining criterion of head rotation on cephalic ct radiographs, recording medium storing program for executing the same, and recording medium storing program for executing the same |
KR102706418B1 (en) * | 2021-12-14 | 2024-09-11 | 사회복지법인 삼성생명공익재단 | Cephalometric landmark detection method based on deep reinforcement learning and analysis apparatus |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100119137A1 (en) | 2008-11-12 | 2010-05-13 | Siemens Corporation | Method and System for Anatomic Landmark Detection Using Constrained Marginal Space Learning and Geometric Inference |
JP2011135936A (en) | 2009-12-25 | 2011-07-14 | Toshiba Corp | Image processor, medical image diagnostic apparatus, and image processing program |
KR101090660B1 (en) | 2011-09-14 | 2011-12-07 | 인하대학교 산학협력단 | Method for real-time volume rendering using point-primitive |
JP2012075806A (en) | 2010-10-06 | 2012-04-19 | Toshiba Corp | Medical image processor and medical image processing program |
KR102044237B1 (en) | 2018-10-23 | 2019-11-13 | 연세대학교 산학협력단 | Shadowed 2D image-based machine learning, and automatic 3D landmark detection method and apparatus using thereof |
-
2019
- 2019-11-27 KR KR1020190154562A patent/KR102271614B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100119137A1 (en) | 2008-11-12 | 2010-05-13 | Siemens Corporation | Method and System for Anatomic Landmark Detection Using Constrained Marginal Space Learning and Geometric Inference |
JP2011135936A (en) | 2009-12-25 | 2011-07-14 | Toshiba Corp | Image processor, medical image diagnostic apparatus, and image processing program |
JP2012075806A (en) | 2010-10-06 | 2012-04-19 | Toshiba Corp | Medical image processor and medical image processing program |
KR101090660B1 (en) | 2011-09-14 | 2011-12-07 | 인하대학교 산학협력단 | Method for real-time volume rendering using point-primitive |
KR102044237B1 (en) | 2018-10-23 | 2019-11-13 | 연세대학교 산학협력단 | Shadowed 2D image-based machine learning, and automatic 3D landmark detection method and apparatus using thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20210066074A (en) | 2021-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9471987B2 (en) | Automatic planning for medical imaging | |
US11423554B2 (en) | Registering a two-dimensional image with a three-dimensional image | |
US11741598B2 (en) | Method for aiding visualization of lesions in medical imagery and apparatus using the same | |
US20130190602A1 (en) | 2d3d registration for mr-x ray fusion utilizing one acquisition of mr data | |
EP2620909B1 (en) | Method, system and computer readable medium for automatic segmentation of a medical image | |
US8682051B2 (en) | Smoothing of dynamic data sets | |
JP2016116867A (en) | Medical image processing apparatus, medical image diagnostic apparatus and medical image processing program | |
CN107111881B (en) | Correspondence probability map driven visualization | |
KR102271614B1 (en) | 3D anatomical landmark detection method and apparatus | |
US10929989B2 (en) | Determining a transformation between coordinate frames of sets of image data | |
JP6257949B2 (en) | Image processing apparatus and medical image diagnostic apparatus | |
US11730440B2 (en) | Method for controlling a medical imaging examination of a subject, medical imaging system and computer-readable data storage medium | |
EP3152735B1 (en) | Device and method for registration of two images | |
EP4016470A1 (en) | 3d morhphological or anatomical landmark detection method and device using deep reinforcement learning | |
US20240331140A1 (en) | Identifying anatomical features | |
JP6852545B2 (en) | Image display system and image processing equipment | |
CN112790778B (en) | Acquisition error alignment | |
EP4160546A1 (en) | Methods relating to survey scanning in diagnostic medical imaging | |
Kuijf et al. | Automatic extraction of the curved midsagittal brain surface on MR images | |
US20240338941A1 (en) | Image processing apparatus, and image processing method | |
CN110546684A (en) | Quantitative evaluation of time-varying data | |
KR20230037195A (en) | Medical image classification method through image analysis based on machine learning model | |
EP3889896A1 (en) | Model-based virtual cleansing for spectral virtual colonoscopy | |
JP2024151459A (en) | Information processing apparatus, information processing method, and program | |
Aziz et al. | Extraction of the human cerebral ventricular system from MRI: inclusion of anatomical knowledge and clinical perspective |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right |