KR20210066074A - 3D anatomical landmark detection method and apparatus - Google Patents

3D anatomical landmark detection method and apparatus Download PDF

Info

Publication number
KR20210066074A
KR20210066074A KR1020190154562A KR20190154562A KR20210066074A KR 20210066074 A KR20210066074 A KR 20210066074A KR 1020190154562 A KR1020190154562 A KR 1020190154562A KR 20190154562 A KR20190154562 A KR 20190154562A KR 20210066074 A KR20210066074 A KR 20210066074A
Authority
KR
South Korea
Prior art keywords
reference point
dimensional
projection image
image data
point detection
Prior art date
Application number
KR1020190154562A
Other languages
Korean (ko)
Other versions
KR102271614B1 (en
Inventor
강성호
이상휘
전기완
Original Assignee
기초과학연구원
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 기초과학연구원, 연세대학교 산학협력단 filed Critical 기초과학연구원
Priority to KR1020190154562A priority Critical patent/KR102271614B1/en
Publication of KR20210066074A publication Critical patent/KR20210066074A/en
Application granted granted Critical
Publication of KR102271614B1 publication Critical patent/KR102271614B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/14Applications or adaptations for dentistry
    • A61B6/51
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain

Abstract

The present invention relates to a method and device for detecting a 3D anatomical reference point, wherein the method according to the present invention comprises: a step of generating a 2D projection image by performing volume rendering on a 3D image data; a step of detecting a feature point corresponding to a reference point in the 2D projection image using a learned neural network model; a step of extracting voxel values of voxels having the same 2D coordinate value as a feature point from the 3D image data; a step of obtaining gradient values of voxel values extracted with respect to an axis direction perpendicular to the 2D projection image after passing through the feature point; and a step of detecting a position on an axis wherein voxel values and gradient values satisfy a predetermined condition as a position of a reference point. Therefore, the present invention is capable of having an advantage that the 3D reference point can accurately be detected.

Description

3차원 해부학적 기준점 검출 방법 및 장치{3D anatomical landmark detection method and apparatus}3D anatomical landmark detection method and apparatus

본 발명은 3차원 해부학적 기준점 검출 방법 및 장치에 관한 것으로, 보다 자세하게는 3차원 영상 데이터 처리의 복잡성을 극복하고 3차원 해부학적 기준점을 정확하게 검출할 수 있는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for detecting a 3D anatomical reference point, and more particularly, to a method and apparatus capable of overcoming the complexity of processing 3D image data and accurately detecting a 3D anatomical reference point.

X-ray 이미지 기반 두부 계측 분석법(Cephalometry)은 브로드벤트(Broadbent)에 의해 소개된 이후, 교정 진단 및 치료계획수립을 위해 널리 사용되고 있으며, 현재에 이르러 치과 치료에 필수 요소가 되었다. 두개악안면 구조 분석에서 전후방적 관계를 이용한 두부 계측 분석연구가 주를 이루면서 2차원 정면과 측면의 X-ray 영상을 이용한 두부 계측 분석이 주로 이루어졌다. X-ray 이미지를 이용한 두부 계측 분석은 해부학적 기준점(Landmark)을 찾는 과정이 필요하다. 기준점을 찾는 일은 고도의 숙련된 전문의가 필요하지만, 시간 집약적이면서 반복적인 작업이 대부분이다. 이를 극복하기 위하여 영상처리기반의 자동화나 반자동화 알고리즘이 제안되었다.Since X-ray image-based cephalometry was introduced by Broadbent, it has been widely used for orthodontic diagnosis and treatment planning, and has now become an essential element in dental treatment. In the craniomaxillofacial structure analysis, head measurement analysis using an anterior-posterior relationship was mainly conducted, and head measurement analysis using two-dimensional frontal and lateral X-ray images was mainly performed. Head measurement analysis using X-ray images requires the process of finding anatomical landmarks. Finding a reference point requires a highly skilled specialist, but most of it is a time-intensive and repetitive task. To overcome this, an image processing-based automation or semi-automation algorithm has been proposed.

최근에는 3차원 전산화 단층촬영(Computed Tomography, CT)을 이용한 두부 계측 분석으로 빠르게 변하고 있다. 전산화 단층촬영을 통한 3차원의 볼륨 영상은 복잡한 해부학적 구조물의 내부를 원하는 방향으로 관찰할 수 있다. 또한, 영상의 왜곡, 확대와 중첩 없이 중요 부위를 자세히 관찰할 수 있다. 또한, 고대조도 공간분해능(high contrast spatial resolution)을 통한 물리적 밀도차이가 작은 조직 간의 구별이 가능하게 되면서 매우 유용한 진단 자료로 이용되고 있다. 2차원 두부 계측 분석과 마찬가지로 3차원 두부 계측 분석 역시 기준점(landmark)을 찾는 것이 필수적이다.Recently, it is rapidly changing to head measurement analysis using 3D computed tomography (CT). The three-dimensional volume image through computed tomography can observe the interior of complex anatomical structures in a desired direction. In addition, important parts can be observed in detail without distortion, magnification and overlap of the image. In addition, it is being used as a very useful diagnostic data as it is possible to distinguish between tissues with a small difference in physical density through high contrast spatial resolution. Like the 2D cephalometric analysis, it is essential to find a landmark in the 3D cephalometric analysis.

그러나 2차원 두부 계측 분석과 달리, 3차원 공간상에서의 기준점은 기하학적인 복잡도와 다루는 점의 개수가 증가하기 때문에, 작업의 복잡도가 높아지게 된다.However, unlike the 2D cephalometric analysis, since the geometrical complexity of the reference point in the 3D space and the number of points to be handled increases, the complexity of the operation increases.

최근의 딥러닝(Deep-Learning) 기반의 영상처리 알고리즘은 영상에서 유의미한 정보를 추출 또는 분류해 낼 수 있는 비선형 필터를 데이터 기반의 학습을 통하여 만드는 것으로 볼 수 있다. 데이터의 특징에 따라 적합한 비선형의 필터를 학습을 통해 만들기 때문에 이전의 모델 기반의 영상처리 알고리즘보다 높은 성능을 보이며, 그 영역이 의료영상분야로 확대되고 있다. Recent deep-learning-based image processing algorithms can be viewed as making nonlinear filters that can extract or classify meaningful information from images through data-based learning. Because it creates a suitable nonlinear filter through learning according to the characteristics of the data, it shows higher performance than the previous model-based image processing algorithm, and the field is expanding to the medical imaging field.

그런데 3차원 데이터를 처리하는 딥러닝 기반 모델은 매개변수, 컴퓨팅 자원 및 계산 복잡도가 증가하는 어려움이 있다. 이러한 한계를 극복하기 위하여 데이터 리샘플링을 수행하고 3차원 콘볼루션 신경망(Convolutional Neural Network, CNN) 모델을 이용한 두부 계측점 국부화 방법이 제안되고 있으나 3차원 상에서의 국부화의 오차가 임상에서 사용하기에는 적합하지 않은 성능을 보이고 있다.However, deep learning-based models that process 3D data have difficulties in increasing parameters, computing resources, and computational complexity. To overcome this limitation, data resampling and a method of localizing head measurement points using a 3D convolutional neural network (CNN) model have been proposed, but the localization error in 3D is not suitable for clinical use. shows non-performing performance.

미국등록특허 제8,363,918호(등록일: 2013년 01월 29일)US Patent No. 8,363,918 (Registration Date: January 29, 2013)

따라서 본 발명이 해결하고자 하는 기술적 과제는 3차원 영상 데이터에서 3차원 기준점을 검출할 수 있는 방법 및 장치를 제공하는 것이다.Accordingly, the technical problem to be solved by the present invention is to provide a method and an apparatus capable of detecting a 3D reference point from 3D image data.

상기한 기술적 과제를 해결하기 위한 본 발명에 따른 3차원 기준점 검출 방법은, 3차원 영상 데이터에 볼륨 렌더링(Volume Rendering)을 수행하여 2차원 투영 이미지를 생성하는 단계, 학습된 신경망 모델을 이용하여, 상기 2차원 투영 이미지에서 기준점에 대응하는 특징점(Feature Point)을 검출하는 단계, 상기 3차원 영상 데이터에서, 상기 특징점과 2차원 좌표값이 동일한 복셀들의 복셀값들을 추출하는 단계, 상기 특징점을 지나고 상기 2차원 투영 이미지에 수직인 축 방향에 대한 상기 추출된 복셀값들의 그래디언트값들을 구하는 단계, 그리고 상기 복셀값들과 상기 그래디언트값들이 미리 정해진 조건을 만족하는 상기 축 상의 위치를 상기 기준점의 위치로 검출하는 단계를 포함한다.The three-dimensional reference point detection method according to the present invention for solving the above technical problem includes the steps of performing volume rendering on three-dimensional image data to generate a two-dimensional projection image, using a learned neural network model, detecting a feature point corresponding to a reference point in the two-dimensional projection image; extracting voxel values of voxels having the same two-dimensional coordinate value as the feature point from the three-dimensional image data; obtaining gradient values of the extracted voxel values in an axial direction perpendicular to the two-dimensional projection image, and detecting a position on the axis at which the voxel values and the gradient values satisfy a predetermined condition as the position of the reference point including the steps of

뼈를 가시화하기 위한 전달함수(Transfer Function)를 통해 상기 3차원 영상 데이터에 대한 볼륨 렌더링을 수행하여 상기 2차원 투영 이미지를 생성할 수 있다.The 2D projection image may be generated by performing volume rendering on the 3D image data through a transfer function for visualizing the bone.

상기 2차원 투영 이미지를 생성하는 단계는, 상기 3차원 영상 데이터에서 기준면을 기준으로 관심 영역의 반대 방향에 위치한 복셀들의 복셀값을 투명 처리가 되는 값으로 지정하는 전처리 단계, 그리고 상기 전처리된 3차원 영상 데이터에 대한 볼륨 렌더링을 수행하여 상기 2차원 투영 이미지를 생성하는 단계를 포함할 수 있다.The generating of the 2D projection image may include a preprocessing step of designating voxel values of voxels located in a direction opposite to the ROI with respect to a reference plane in the 3D image data as values to be transparently processed; The method may include generating the 2D projected image by performing volume rendering on the image data.

상기 미리 정해진 조건은 상기 기준점의 특성에 따라 다르게 정해질 수 있다.The predetermined condition may be differently determined according to characteristics of the reference point.

상기 미리 정해진 조건은, 상기 기준점이 뼈의 외측에 있는 경우, 기준점 추정 위치의 복셀값이 뼈에 해당하는 HU(Hounsfield Unit) 값 범위 내에 있고, 상기 기준점 추정 위치의 그래디언트값과 상기 축 상에서 상기 기준점 추정 위치의 이전 또는 이후 위치의 그래디언트값의 합이 미리 정해진 기준 이상인 것으로 설정될 수 있다.The predetermined condition is that when the reference point is outside the bone, the voxel value of the reference point estimated position is within a HU (Hounsfield Unit) value range corresponding to the bone, and the gradient value of the reference point estimated location and the reference point on the axis The sum of the gradient values of the positions before or after the estimated position may be set to be equal to or greater than a predetermined reference.

상기 신경망 모델은, 3차원 영상 데이터에 광선 추적 볼륨 렌더링을 수행하여 획득되는 2차원 투영 이미지로 이루어진 학습 데이터를 이용한 강화 학습을 통해 특징점을 검출하도록 학습될 수 있다.The neural network model may be trained to detect feature points through reinforcement learning using learning data including a two-dimensional projection image obtained by performing ray tracing volume rendering on three-dimensional image data.

상기한 기술적 과제를 해결하기 위한 본 발명에 따른 컴퓨터 판독 가능한 기록 매체는, 3차원 영상 데이터에 볼륨 렌더링을 수행하여 2차원 투영 이미지를 생성하는 명령어 세트, 학습된 신경망 모델을 이용하여, 상기 2차원 투영 이미지에서 기준점에 대응하는 특징점을 검출하는 명령어 세트, 상기 3차원 영상 데이터에서, 상기 특징점과 2차원 좌표값이 동일한 복셀들의 복셀값들을 추출하는 명령어 세트, 상기 특징점을 지나고 상기 2차원 투영 이미지에 수직인 축 방향에 대한 상기 추출된 복셀값들의 그래디언트값들을 구하는 명령어 세트, 그리고 상기 복셀값들과 상기 그래디언트값들이 미리 정해진 조건을 만족하는 상기 축 상의 위치를 상기 기준점의 위치로 검출하는 명령어 세트를 포함한다.The computer-readable recording medium according to the present invention for solving the above technical problem is, by using a set of instructions for generating a two-dimensional projection image by performing volume rendering on three-dimensional image data, and a learned neural network model, the two-dimensional A command set for detecting a feature point corresponding to a reference point in a projection image, a command set for extracting voxel values of voxels having the same two-dimensional coordinate value as the feature point from the 3D image data, and to the two-dimensional projection image after passing the feature point A set of instructions for obtaining gradient values of the extracted voxel values with respect to a vertical axis direction, and a set of instructions for detecting a position on the axis at which the voxel values and the gradient values satisfy a predetermined condition as the position of the reference point include

상기한 기술적 과제를 해결하기 위한 본 발명에 따른 3차원 기준점 검출 장치는, 3차원 영상 데이터에 볼륨 렌더링을 수행하여 2차원 투영 이미지를 생성하는 2차원 투영 이미지 생성부, 학습된 신경망 모델을 이용하여, 상기 2차원 투영 이미지에서 기준점에 대응하는 특징점을 검출하는 특징점 검출부, 상기 3차원 영상 데이터에서, 상기 특징점과 2차원 좌표값이 동일한 복셀들의 복셀값들을 추출하는 복셀값 추출부, 상기 특징점을 지나고 상기 2차원 투영 이미지에 수직인 축 방향에 대한 상기 추출된 복셀값들의 그래디언트값들을 구하는 그래디언트값 계산부, 그리고 상기 복셀값들과 상기 그래디언트값들이 미리 정해진 조건을 만족하는 상기 축 상의 위치를 상기 기준점의 위치로 검출하는 기준점 검출부를 포함한다.A three-dimensional reference point detection apparatus according to the present invention for solving the above technical problem is a two-dimensional projection image generator for generating a two-dimensional projection image by performing volume rendering on three-dimensional image data, using a learned neural network model , a feature point detector for detecting a feature point corresponding to a reference point in the two-dimensional projection image, a voxel value extractor for extracting voxel values of voxels having the same two-dimensional coordinate value as the feature point from the three-dimensional image data, passing the feature point a gradient value calculator for calculating gradient values of the extracted voxel values in an axial direction perpendicular to the two-dimensional projection image, and a position on the axis at which the voxel values and the gradient values satisfy a predetermined condition as the reference point It includes a reference point detection unit for detecting the position of.

본 발명에 의하면 3차원 영상 데이터 처리의 복잡성을 극복하면서 3차원 기준점을 정확하게 검출할 수 있는 장점이 있다.According to the present invention, there is an advantage in that the 3D reference point can be accurately detected while overcoming the complexity of 3D image data processing.

도 1은 본 발명의 실시예에 따른 3차원 기준점 검출 시스템의 구성을 나타낸 도면이다.
도 2는 볼륨 렌더링을 통해 생성되는 2차원 투영 이미지를 예시한 것이다.
도 3은 객체의 두부를 위에서 바라본 뷰 방향에서의 2차원 투영 이미지를 예시한 것이다.
도 4는 전처리된 3차원 영상 데이터에 대한 볼륨 렌더링을 통해 생성되는 2차원 투영 이미지를 예시한 것이다.
도 5는 본 발명에 의한 Nasion 포인트에 대응하는 특징점이 검출된 2차원 투영 이미지를 나타낸 것이다.
도 6은 도 5에서 검출된 Nasion 특징점에 대응하는 복셀값들을 추출하는 것을 설명하기 위한 모식도이다.
도 7은 도 6에서 추출된 복셀값들이 저장된 라인 버퍼의 복셀값 프로파일 그래프이다.
도 8은 본 발명에 따라 구해지는 복셀값 프로파일 데이터와 그래디언트값 프로파일 데이터를 함께 나타낸 것이다.
도 9는 본 발명에 따른 3차원 기준점 검출 방법을 설명하기 위한 흐름도이다.
1 is a diagram showing the configuration of a three-dimensional reference point detection system according to an embodiment of the present invention.
2 illustrates a two-dimensional projection image generated through volume rendering.
3 illustrates a two-dimensional projection image in a view direction when the head of the object is viewed from above.
4 illustrates a 2D projection image generated through volume rendering of preprocessed 3D image data.
5 shows a two-dimensional projection image in which a feature point corresponding to a Nasion point according to the present invention is detected.
FIG. 6 is a schematic diagram for explaining extraction of voxel values corresponding to the Nasion feature points detected in FIG. 5 .
FIG. 7 is a voxel value profile graph of a line buffer in which the voxel values extracted in FIG. 6 are stored.
8 is a view showing both the voxel value profile data and the gradient value profile data obtained according to the present invention.
9 is a flowchart illustrating a method for detecting a three-dimensional reference point according to the present invention.

그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.Then, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those of ordinary skill in the art can easily implement them.

도 1은 본 발명의 일 실시예에 따른 3차원 기준점 검출 시스템의 구성을 나타낸 도면이다.1 is a diagram showing the configuration of a three-dimensional reference point detection system according to an embodiment of the present invention.

도 1을 참고하면, 본 발명에 따른 3차원 기준점 검출 시스템은 영상 획득 장치(200), 영상 저장 장치(300) 및 3차원 기준점 검출 장치(100)를 포함할 수 있다.Referring to FIG. 1 , the 3D reference point detection system according to the present invention may include an image acquisition device 200 , an image storage device 300 , and a 3D reference point detection device 100 .

영상 획득 장치(200)는 객체에 대한 3차원(three dimension, 3D) 영상 데이터를 획득하는 장치이다. 여기서 3차원 영상 데이터는 CT(Computed Tomography), CBCT(Cone Beam Computed Tomography), MRI(Magnetic resonance imaging), PET(Positron Emmission Tomography) 또는 SPECT(Single-Photon Emmission Computed Tomography) 등의 타입으로 획득되는 데이터일 수 있다. 객체는 두부(Skull) 등과 같은 신체 부위일 수 있다.The image acquisition device 200 is a device for acquiring three-dimensional (3D) image data of an object. Here, the 3D image data is data obtained in a type such as computed tomography (CT), cone beam computed tomography (CBCT), magnetic resonance imaging (MRI), positron emission tomography (PET), or single-photon emission computed tomography (SPECT). can be The object may be a body part such as a skull.

영상 저장 장치(300)는 영상 획득 장치(200)에서 획득되었거나 외부의 의료기관 또는 연구기관을 포함한 외부 의료영상정보 제공기관으로부터 제공되는 3차원 영상 데이터를 저장할 수 있다.The image storage device 300 may store 3D image data acquired by the image acquisition device 200 or provided from an external medical image information provider including an external medical institution or research institution.

3차원 기준점 검출 장치(100)는 영상 획득 장치(200) 또는 영상 저장 장치(300)로부터 제공되는 3차원 영상 데이터로부터 3차원 기준점(landmark point)을 검출할 수 있다.The 3D reference point detection apparatus 100 may detect a 3D landmark point from 3D image data provided from the image acquisition device 200 or the image storage device 300 .

이를 위해 3차원 기준점 검출 장치(100)는 데이터 수신부(110), 2차원 투영 이미지 생성부(120), 기계 학습부(130), 특징점 검출부(140), 복셀값 추출부(150), 그래디언트값 계산부(160), 기준점 검출부(170), 저장부(180), 표시부(185) 및 제어부(190)를 포함할 수 있다.To this end, the 3D reference point detection apparatus 100 includes a data receiving unit 110 , a 2D projected image generation unit 120 , a machine learning unit 130 , a feature point detection unit 140 , a voxel value extraction unit 150 , and a gradient value. It may include a calculation unit 160 , a reference point detection unit 170 , a storage unit 180 , a display unit 185 , and a control unit 190 .

실시예에 따라 기계 학습부(130)는 3차원 기준점 검출 장치(100)에 포함되지 않고, 별도의 장치로 구축될 수도 있다. 3차원 기준점 검출 장치(100)는 별도의 장치에서 학습된 특징점 검출 알고리즘을 제공받아 이용할 수도 있다.According to an embodiment, the machine learning unit 130 may not be included in the 3D reference point detection apparatus 100 but may be constructed as a separate device. The three-dimensional reference point detection apparatus 100 may receive and use a feature point detection algorithm learned from a separate device.

데이터 수신부(110)는 영상 획득 장치(200) 또는 영상 저장 장치(300)에서 3차원 영상 데이터를 수신할 수 있다.The data receiver 110 may receive 3D image data from the image acquisition device 200 or the image storage device 300 .

2차원 투영 이미지 생성부(120)는 3차원 영상 데이터에 볼륨 렌더링을 수행하여 2차원 투영 이미지를 생성할 수 있다.The 2D projection image generator 120 may perform volume rendering on 3D image data to generate a 2D projection image.

볼륨 렌더링은 3차원 복셀(voxel) 데이터를 2차원 투영 이미지로 투영시켜서 보여주는 방법이다. 예컨대 광선 추적 볼륨 렌더링 방법은 투영 방향으로 가상의 광선(ray)을 생각하여 미리 설정된 복셀값에 따른 색상, 투명도를 고려하여 광선을 따라 값을 누적시키면 3차원 데이터를 2차원 화면에 가시화할 수 있다. Volume rendering is a method of displaying 3D voxel data by projecting it into a 2D projection image. For example, the ray tracing volume rendering method considers a virtual ray in the projection direction and accumulates values along the ray in consideration of color and transparency according to preset voxel values, so that 3D data can be visualized on a 2D screen. .

여기서 복셀값은 CT의 경우 HU 값이 사용될 수 있다. 물론 CT가 아닌 다른 모달리티(modality)의 3차원 영상 데이터이면, 해당 모달리티에 따른 신호 강도를 나타내는 값이 복셀값으로 이용될 수 있다.Here, the voxel value may be a HU value in the case of CT. Of course, in the case of 3D image data having a modality other than CT, a value indicating signal strength according to the modality may be used as a voxel value.

3차원 영상 데이터에 뼈를 가시화하기 위한 전달함수를 적용하여 볼륨 렌더링을 수행하면 도 2에 예시한 것과 같은 2차원 투영 이미지를 획득할 수 있다.When volume rendering is performed by applying a transfer function for visualizing bones to 3D image data, a 2D projection image as illustrated in FIG. 2 may be obtained.

도 2는 볼륨 렌더링을 통해 생성되는 2차원 투영 이미지를 예시한 것이다.2 illustrates a two-dimensional projection image generated through volume rendering.

본 발명에 따른 실시예에서 2차원 투영 이미지는 두부를 앞에서 바라본 뷰(Anterior View), 뒤에서 바라본 뷰(Posterior View), 위에서 바라본 뷰(Superior View), 밑에서 바라본 뷰(Inferior View), 좌측에서 바라본 뷰(Left View) 및 우측에서 바라본 뷰(Right View) 등이 이용될 수 있다. 물론 두부가 아닌 다른 신체 부위의 기준점을 검출하고자 할 경우, 해당 신체 부위에 대한 2차원 투영 이미지일 수도 있다. 그리고 뷰 방향도 다양하게 적용할 수도 있다.In an embodiment according to the present invention, the two-dimensional projection image is a view from the front (Anterior View), a view from the back (Posterior View), a view from the top (Superior View), a view from the bottom (Inferior View), a view from the left (Left View) and a view viewed from the right (Right View) may be used. Of course, when a reference point of a body part other than the head is to be detected, it may be a two-dimensional projection image of the corresponding body part. Also, the view direction can be applied in various ways.

한편 실시예에 따라 2차원 투영 이미지 생성부(120)는 3차원 영상 데이터에 미리 정해진 전처리를 수행할 수 있다. 그리고 2차원 투영 이미지 생성부(120)는 전처리된 3차원 영상 데이터에 볼륨 렌더링을 수행하여, 원하는 2차원 투영 이미지를 생성할 수도 있다. 가령 2차원 투영 이미지 생성부(120)는 3차원 영상 데이터에서 일정한 기준면을 기준으로 관심 신체 영역의 반대 방향에 위치한 복셀값을 투명 처리가 되는 값으로 지정할 수 있다. 그 후 2차원 투영 이미지 생성부(120)는 비관심 영역을 투명하게 처리한 후 관심 영역을 가시화하기 위한 전달함수를 3차원 영상 데이터에 적용하여 볼륨 렌더링을 수행함으로써 원하는 신체 부위에 대한 2차원 투영 이미지를 생성할 수 있다.Meanwhile, according to an embodiment, the 2D projection image generator 120 may perform a predetermined pre-processing on the 3D image data. In addition, the 2D projection image generator 120 may perform volume rendering on the preprocessed 3D image data to generate a desired 2D projection image. For example, the 2D projection image generator 120 may designate a voxel value located in a direction opposite to the body region of interest based on a constant reference plane in 3D image data as a value to be transparently processed. Thereafter, the 2D projection image generator 120 transparently processes the non-interested region and then applies a transfer function for visualizing the ROI to 3D image data to perform volume rendering, thereby performing 2D projection on a desired body part. You can create an image.

여기서 기준면은 시상면(sagittal plane), 관상면(coronal plane), 수평면(horizontal plane) 또는 정중시상면(midsagittal plane) 등으로 정해질 수 있다. 물론 그 외 다른 기준면이 적용될 수도 있다.Here, the reference plane may be determined as a sagittal plane, a coronal plane, a horizontal plane, or a midsagittal plane. Of course, other reference planes may be applied.

기계 학습부(130)는 2차원 투영 이미지에서 2차원 특징점을 검출하는 신경망 모델을 지도 학습(supervised learning)이나 강화 학습(reinforcement learning)을 통해 훈련할 수 있다. 여기서 2차원 특징점은 2차원 투영 이미지에서 3차원 기준점에 대응하는 점이다.The machine learning unit 130 may train a neural network model for detecting two-dimensional feature points in a two-dimensional projected image through supervised learning or reinforcement learning. Here, the two-dimensional feature point is a point corresponding to the three-dimensional reference point in the two-dimensional projection image.

이하에서 설명의 편의를 위해 2차원 특징점은 특징점으로, 3차원 기준점은 기준점으로 간단하게 지칭한다.Hereinafter, for convenience of description, a two-dimensional feature point is simply referred to as a feature point, and a three-dimensional reference point is simply referred to as a reference point.

기계 학습부(130)는 전문의, 임상의 등에 의해 특징점이 라벨링(labelling)된 다수의 2차원 투영 이미지를 학습 데이터로 이용하여 신경망 모델을 훈련할 수 있다. 여기서 신경망 모델은 콘볼루션 신경망(Convolution neural network)(CNN)과 같은 기계학습 알고리즘 형태일 수 있다. 콘볼루션 신경망은 AlexNet, VGGNet, GoogLeNet, ResNet 등과 같은 심층 CNN 모델로 구현될 수 있다.The machine learning unit 130 may train a neural network model by using a plurality of two-dimensional projection images labeled with feature points by a specialist, a clinician, or the like as training data. Here, the neural network model may be in the form of a machine learning algorithm such as a convolutional neural network (CNN). Convolutional neural networks can be implemented with deep CNN models such as AlexNet, VGGNet, GoogLeNet, ResNet, etc.

기계 학습부(130)에서 강화 학습을 통해 신경망 모델이 2차원 투영 이미지에서 2차원 특징점을 검출하는 방법에 대해 보다 자세히 설명한다.A method in which the neural network model detects two-dimensional feature points in a two-dimensional projection image through reinforcement learning in the machine learning unit 130 will be described in more detail.

강화학습이란 대표적으로 구글의 알파고에 적용된 기술로써 특정 상태(state)에서 최고의 보상(reward)을 받기 위해 어떠한 정책(policy)을 통한 행동(action)을 취해서 다음 상태(state)로 나아갈지를 매우 많은 경우에 대해 학습을 통해 최적의 행동을 선택할 수 있도록 학습하는 방법을 말한다.Reinforcement learning is a technology typically applied to Google's AlphaGo. In order to receive the best reward in a specific state, there is a lot of information about what policy to take and how to proceed to the next state. It refers to a method of learning so that the optimal behavior can be selected through learning.

구체적으로 강화 학습의 대상이 되는 컴퓨터 프로그램을 에이전트(agent)라고도 한다. 에이전트는 주어진 상태(state)에서 자신이 취할 행동(action)을 표현하는 정책(policy)을 수립한다. 에이전트가 최대의 보상을 받을 수 있는 정책을 수립하도록 학습시키는 것이 강화 학습의 목표이다.Specifically, a computer program targeted for reinforcement learning is also called an agent. The agent establishes a policy that expresses the action to be taken by the agent in a given state. The goal of reinforcement learning is to train agents to formulate policies that will receive maximum rewards.

본 실시예에서는 수학식 1에 예시한 것과 같이 이전 추정점(Pi-1)과 특징점(Pt) 사이의 거리에서 현재 추정점(Pi)과 특징점(Pt) 사이의 거리를 뺀 값을 보상으로 사용하여 강화학습한 예를 나타내었다. 즉 추정점과 특징점 사이의 거리가 줄어들수록 보상이 커지는 방식으로 강화 학습을 수행할 수 있다.In this embodiment, a value obtained by subtracting the distance between the currently estimated point (P i) and the characteristic point (P t) in the distance between the previous estimation point (P i-1) and the characteristic point (P t) as illustrated in equation [1 An example of reinforcement learning using as a reward is shown. That is, reinforcement learning can be performed in such a way that the reward increases as the distance between the estimation point and the feature point decreases.

[수학식 1][Equation 1]

R = D(Pi-1, Pt) - D(Pi, Pt)R = D(P i-1 , P t ) - D(P i , P t )

여기서 R은 보상, D(Pi-1, Pt)는 이전 추정점(Pi-1)과 특징점(Pt) 사이의 거리, D(Pi, Pt)는 현재 추정점(Pi)과 특징점(Pt) 사이의 거리이다.where R is the reward, D(P i-1 , P t ) is the distance between the previous estimate point (P i-1 ) and the feature point (P t ), and D(P i , P t ) is the current estimate point (P i ) ) and the feature point (P t ).

물론 기계 학습부(130)는 여기서 예시한 것 외에 다른 학습 방법에 의해서 2차원 투영 이미지에서 특징점을 검출할 수 있도록 신경망 모델을 학습시킬 수도 있다.Of course, the machine learning unit 130 may train the neural network model to detect the feature points in the two-dimensional projected image by other learning methods other than those exemplified here.

기계 학습부(130)에서 특징점을 잘 추출할 수 있는 뷰(View) 방향별로 각각의 신경망 모델이 훈련될 수도 있다.Each neural network model may be trained for each view direction from which the machine learning unit 130 can extract feature points well.

도 3은 환자 두부를 위에서 바라본 뷰 방향에서의 2차원 투영 이미지를 예시한 것이다.3 illustrates a two-dimensional projection image in the direction of the patient's head viewed from above.

도 3에 예시한 것과 같이 두부를 위에서 바라본 뷰(Superior View) 방향에서 브레그마 포인트(Bregma point)의 경우 가장 명확하게 보인다. 따라서 기준점이 브레그마 포인트인 경우 Superior View에서 특징점이 라벨링된 2차원 투영 이미지로 학습 데이터를 구성하여 신경망 모델을 학습시킬 수 있다.As illustrated in FIG. 3 , the Bregma point is most clearly seen in the direction of the view when the head is viewed from above (Superior View). Therefore, if the reference point is a bregma point, the neural network model can be trained by composing the training data in the two-dimensional projection image labeled with the feature point in Superior View.

한편 Nasion 포인트(Nasion point)의 경우, 환자 두부를 앞에서 바라본 본 뷰(Anterior View) 방향에서 잘 확인할 수 있다. 따라서 기준점이 Nasion 포인트인 경우 Anterior View에서 특징점이 라벨링된 2차원 투영 이미지로 학습 데이터를 구성하여 신경망 모델을 학습시킬 수 있다.On the other hand, in the case of the Nasion point, the patient's head can be seen well in the direction of the Anterior View. Therefore, when the reference point is the Nasion point, the neural network model can be trained by composing the training data in the two-dimensional projection image labeled with the feature point in the Anterior View.

이와 같이 브레그마 포인트나 Nasion 포인트와 같이 두부의 바깥쪽에 위치한 기준점은 두부를 외부에서 바라본 뷰 방향의 2차원 투영 이미지를 이용하여 학습할 수 있다.As such, a reference point located on the outside of the head, such as a bregma point or a Nasion point, can be learned using a two-dimensional projection image in the view direction when the head is viewed from the outside.

한편 턱뼈의 안쪽에 위치한 하악공 포인트(Mandibular foramen point)(F 점)의 경우 3차원 영상 데이터에 대한 전처리를 먼저 수행한 후 볼륨 렌더링을 수행하여 획득된 2차원 투영 이미지를 이용하여 신경망 모델을 학습할 수 있다.On the other hand, in the case of the mandibular foramen point (point F) located on the inside of the jawbone, the neural network model is learned using the 2D projection image obtained by performing volume rendering after preprocessing the 3D image data first. can do.

도 4는 전처리 된 3차원 영상 데이터에 대한 볼륨 렌더링을 통해 생성되는 2차원 투영 이미지를 예시한 것이다.4 illustrates a 2D projection image generated through volume rendering of preprocessed 3D image data.

도 4(a)는 우측 하악공 포인트(right F; RF를 보기 위해 3차원 영상 데이터에서 두부의 좌측 부분의 복셀값을 공기(air)에 해당하는 '-1024'으로 지정하는 전처리를 수행하고 나서, 뼈에 해당하는 전달함수를 통해 볼륨 렌더링을 수행하여 획득한 2차원 투영 이미지를 나타낸 것이다.FIG. 4(a) shows the right mandibular foramen point (right F; after performing pre-processing in which the voxel value of the left part of the head is designated as '-1024' corresponding to air in the 3D image data to see the RF) , shows a two-dimensional projection image obtained by performing volume rendering through a transfer function corresponding to a bone.

도 4(b)는 좌측 하악공 포인트(left F; LF)를 보기 위해 3차원 영상 데이터에서 두부의 좌측 부분의 복셀값을 공기에 해당하는 '-1024'으로 지정하는 전처리를 수행한 후 뼈에 해당하는 전달함수를 통해 볼륨 렌더링을 수행하여 획득한 2차원 투영 이미지를 나타낸 것이다.Fig. 4(b) shows the bone after preprocessing in which the voxel value of the left part of the head is designated as '-1024' corresponding to air in the 3D image data to view the left mandibular foramen point (left F; LF). It shows a two-dimensional projection image obtained by performing volume rendering through a corresponding transfer function.

이와 같이 검출 대상 기준점의 위치에 따라 잘 확인할 수 있는 뷰 방향으로 생성된 2차원 투영 이미지를 이용하여 학습할 수 있다. 필요한 경우 기준면을 기준으로 관심 영역의 반대 영역에 대해서 투명 처리하고 나서 생성된 2차원 투영 이미지를 이용하여 학습할 수도 있다. 물론 여기서 설명한 방법 외에도 다양한 방법으로 3차원 영상 데이터에서 획득되는 2차원 투영 이미지에서 다양한 특징점을 획득할 수 있도록 학습할 수 있다.As described above, it is possible to learn by using a two-dimensional projection image generated in a view direction that can be easily confirmed according to the position of the detection target reference point. If necessary, it is also possible to learn using a two-dimensional projection image generated after transparent processing of the region opposite to the region of interest with respect to the reference plane. Of course, in addition to the method described here, it is possible to learn to acquire various feature points from a two-dimensional projection image obtained from three-dimensional image data by various methods.

다시 도 1을 참고하면, 특징점 검출부(140)는 학습된 신경망 모델을 이용하여, 2차원 투영 이미지에서 기준점에 대응하는 특징점을 검출할 수 있다.Referring back to FIG. 1 , the feature point detector 140 may detect a feature point corresponding to a reference point in the two-dimensional projection image using the learned neural network model.

도 5는 본 발명에 의한 Nasion 포인트에 대응하는 특징점이 검출된 2차원 투영 이미지를 나타낸 것이다.5 shows a two-dimensional projection image in which a feature point corresponding to a Nasion point according to the present invention is detected.

도 5에 예시한 것과 같이 Anterior View 방향(즉 2차원 투영 이미지의 수직축 방향)의 2차원 투영 이미지에서 Nasion 포인트에 대응하는 특징점이 검출되면, Nasion 포인트의 2차원 좌표값(XNa, ZNa)을 구할 수 있다. 그러나 아직까지는 Nasion 포인트의 깊이 정보, 즉 Y 축 상의 위치는 구할 수 없다.As illustrated in FIG. 5 , when a feature point corresponding to the Nasion point is detected in the two-dimensional projection image in the Anterior View direction (ie, the vertical axis direction of the two-dimensional projection image), the two-dimensional coordinate value of the Nasion point (X Na , Z Na ) can be obtained However, the depth information of the Nasion point, that is, the position on the Y-axis, cannot be obtained yet.

도 6은 도 5에서 검출된 Nasion 특징점에 대응하는 복셀값들을 추출하는 것을 설명하기 위한 모식도이다.FIG. 6 is a schematic diagram for explaining extraction of voxel values corresponding to the Nasion feature points detected in FIG. 5 .

도 6을 참고하면, Nasion 특징점(XNa, ZNa)을 지나고 도 5의 2차원 투영 이미지에 수직인 축(Y)에 위치하는 복셀들을 추출할 수 있다. 축(Y)에 위치하는 복셀들은 2차원 좌표값(XNa, ZNa)이 동일하다.Referring to FIG. 6 , voxels passing through the Nasion feature point (X Na , Z Na ) and positioned on the axis Y perpendicular to the 2D projection image of FIG. 5 may be extracted. The voxels positioned on the axis Y have the same two-dimensional coordinate values (X Na , Z Na ).

복셀값 추출부(150)는 특징점 검출부(140)에서 검출된 특징점과 2차원 좌표값이 동일한 복셀들의 복셀값들을 3차원 영상 데이터에서 추출할 수 있다. 가령 복셀값 추출부(150)는 저장부(180)에 저장된 3차원 영상 데이터에서 축(Y)에 위치하는 복셀들을 복셀값을 추출하여 복셀 라인 버퍼(Line buffer)에 임시 저장할 수 있다. 복셀 라인 버퍼에는 Y 축 방향으로 일정 간격으로 복셀값이 나열되게 된다.The voxel value extractor 150 may extract voxel values of voxels having the same two-dimensional coordinate value as the feature point detected by the feature point detector 140 from the 3D image data. For example, the voxel value extractor 150 may extract voxel values of voxels located on the axis Y from the 3D image data stored in the storage unit 180 and temporarily store them in a voxel line buffer. In the voxel line buffer, voxel values are arranged at regular intervals in the Y-axis direction.

Nasion 포인트와 같이 두부 계측 분석 등에서 주로 찾는 기준점들은 주로 뼈 외부의 점들이다. 따라서 나머지 한 축(예컨대 위 실시예에서 Y 축)에서 뼈에 해당하는 첫 번째 위치를 알아내면 된다. 물론 기준점이 뼈 내부에 위치한 경우는 뼈에 해당하는 마지막 위치를 알아내면 된다. 기준점의 특성에 따라 나머지 한 축에서 기준점의 위치를 검출하는 구체적 조건 등은 달라질 수 있다.The reference points that are mainly found in cephalometric analysis, such as Nasion points, are mainly points outside the bone. Therefore, it is enough to find out the first position corresponding to the bone on the other axis (eg, the Y axis in the above embodiment). Of course, if the reference point is located inside the bone, the last position corresponding to the bone may be found. Specific conditions for detecting the position of the reference point on the other axis may vary according to the characteristics of the reference point.

도 7은 도 6에서 추출된 복셀값들이 저장된 라인 버퍼의 복셀값 프로파일 그래프이다.FIG. 7 is a voxel value profile graph of a line buffer in which the voxel values extracted in FIG. 6 are stored.

도 7에서 세로 축은 HU 값이고, 가로 축은 축(Y) 상의 복셀 위치를 나타낸다.In FIG. 7 , the vertical axis indicates the HU value, and the horizontal axis indicates the position of the voxel on the axis (Y).

도 7에 예시한 라인 버퍼의 복셀값 프로파일은 좌측에서 우측으로 이동하면서 대략 80번째 위치에서 뼈 외부를 만나 HU 값이 급격하게 높아지고 다시 뼈 내부가 나타나는 것을 보여준다. 현재 찾고자 하는 기준점들은 주로 뼈 외부의 점들이기 때문에 2차원 좌표값이 추정된 2축(X축, Z축)이 아닌 나머지 한 축(예컨대 Y축)의 복셀값 프로파일에서 뼈에 해당하는 첫 번째 위치를 알아내면 된다. 그러나 영상 데이터마다 특성이 다르기 때문에, 도 7에 예시한 복셀값 프로파일만으로 뼈에 해당하는 위치를 단순 추정해내기 어려울 수 있다.The voxel value profile of the line buffer illustrated in FIG. 7 shows that, while moving from left to right, it meets the outside of the bone at approximately the 80th position, and the HU value rapidly increases and the inside of the bone appears again. Since the current reference points to be found are mainly points outside the bone, the first position corresponding to the bone in the voxel value profile of the other axis (eg Y axis) rather than the two axes (X axis, Z axis) where the 2D coordinate value is estimated. to find out However, since characteristics of each image data are different, it may be difficult to simply estimate a position corresponding to a bone only with the voxel value profile illustrated in FIG. 7 .

뼈(bone)와 피부 조직(skin tissue), 피부와 공기 등의 경계면에서 복셀값의 변화량이 커진다. 따라서 정확도를 높이기 위해서 라인 버퍼에 저장된 복셀값에 그래디언트를 취하여 구해지는 그래디언트값으로 이루어지는 그래디언트 프로파일을 함께 고려할 수 있다.At the interface between bone and skin tissue, skin and air, etc., the amount of change in the voxel value increases. Therefore, in order to increase accuracy, a gradient profile composed of a gradient value obtained by taking a gradient to a voxel value stored in the line buffer may be considered together.

라인 버퍼에 특정한 축 상에서 일정 간격으로 떨어져 있는 복셀들의 복셀값이 저장된다. 여기서 그래디언트 연산은 라인 버퍼 상 현재 위치와 다음 위치의 복셀값의 차이를 구하는 것일 수 있다. Voxel values of voxels spaced apart from each other on a specific axis are stored in the line buffer. Here, the gradient operation may be to obtain a difference between the voxel values of the current position and the next position on the line buffer.

그래디언트값 계산부(160)는 특징점이 검출된 2차원 투영 이미지에 수직인 축 방향(도 6에서 Y 방향)에 대한 복셀값들의 변화량에 대응하는 그래디언트값들을 계산할 수 있다. 그래디언트값 계산부(160)에서 계산된 그래디언트값들은 그래디언트 라인 버퍼에 임시 저장될 수 있다.The gradient value calculator 160 may calculate gradient values corresponding to changes in voxel values in the axial direction (the Y direction in FIG. 6 ) perpendicular to the 2D projection image in which the feature point is detected. The gradient values calculated by the gradient value calculator 160 may be temporarily stored in the gradient line buffer.

기준점 검출부(170)는 복셀값 프로파일과 그래디언트 프로파일을 이용하여 기준점을 검출할 수 있다. 기준점 검출부(170)는 복셀값 프로파일과 그래디언트값 프로파일을 이용하여 미리 정해진 조건을 만족하는 나머지 한 축 상에서의 기준점의 위치를 검출할 수 있다.The reference point detector 170 may detect the reference point using the voxel value profile and the gradient profile. The reference point detector 170 may detect the position of the reference point on the other axis that satisfies a predetermined condition by using the voxel value profile and the gradient value profile.

도 8은 본 발명에 따라 구해지는 복셀값 프로파일 데이터와 그래디언트값 프로파일 데이터를 함께 나타낸 것이다.8 is a view showing both the voxel value profile data and the gradient value profile data obtained according to the present invention.

도 8을 참고하면, 그래프(Linebuf)(L)는 도 6에서 Y축의 각 위치에서 추출된 복셀값 프로파일을 나타낸다. 그리고 그래프(Gradient)(G)는 도 6에서 Y축의 각 위치에서 계산된 그래디언트값 프로파일을 나타낸다.Referring to FIG. 8 , a graph Linebuf L represents a voxel value profile extracted from each position of the Y-axis in FIG. 6 . And the graph (Gradient) (G) shows the gradient value profile calculated at each position of the Y-axis in FIG. 6 .

피부 조직에 해당하는 구간(A)을 살펴보면, Y축의 대략 60번째 위치부터 복셀값(HU 값)이 급격하게 증가하나, HU 값이 '0'보다 작다. Looking at the section A corresponding to the skin tissue, the voxel value (HU value) rapidly increases from approximately the 60th position on the Y-axis, but the HU value is less than '0'.

한편 뼈에 해당하는 구간(B)을 살펴보면 Y축의 대략 75번째 위치부터 HU 값이 급격하게 증가하고, HU 값이 '0'보다 크다.Meanwhile, looking at the section (B) corresponding to the bone, the HU value rapidly increases from the 75th position on the Y-axis, and the HU value is greater than '0'.

따라서 뼈 외부에 해당하는 기준점 위치를 검출하는 조건으로 HU 값이 '0'보다 크고, 뼈 외부부분에서 HU 값이 급격하게 증가하면서 변화량이 커지므로 그래디언트 값이 미리 정해진 기준 이상인 Y축 상의 첫 번째 위치로 설정할 수 있다. Therefore, as a condition for detecting the position of the reference point outside the bone, the HU value is greater than '0', and the change amount increases as the HU value increases rapidly in the outer part of the bone, so the gradient value is the first position on the Y-axis that is greater than or equal to a predetermined standard. can be set to

또한 잡음(noise)이나 객체 특성 등으로 인한 오검출을 방지하기 위해서, 그래디언트값 조건을 현재 위치와 이웃 위치의 그래디언트값의 합이 미리 정해진 기준 이상인 경우로 설정할 수도 있다. 예컨대 Y 축의 N번째 위치의 그래디언트값과 N+1번째 위치(또는 N-1번째 위치)의 그래디언트값의 합이 미리 정해진 기준 이상인 Y축 상의 첫 번째 위치로 설정할 수도 있다.In addition, in order to prevent erroneous detection due to noise or object characteristics, the gradient value condition may be set to a case in which the sum of the gradient values of the current position and the neighboring position is equal to or greater than a predetermined criterion. For example, the sum of the gradient value of the N-th position of the Y-axis and the gradient value of the N+1-th position (or the N-1 th position) may be set as the first position on the Y-axis that is equal to or greater than a predetermined criterion.

도 8에서는 HU 값이 양수이고, 현재 위치와 다음 위치의 그래디언트값의 합이 '300' 이상인 조건하에서 Y 축 77번째 위치가 기준점의 Y 축 위치로 검출된 것을 예시한 것이다.8 illustrates that the 77th Y-axis position is detected as the Y-axis position of the reference point under the condition that the HU value is positive and the sum of the gradient values of the current position and the next position is '300' or more.

다시 강조하지만 나머지 한 축에서 기준점의 위치를 검출하는 복셀값과 그래디언트값 조건은 기준점의 특성에 따라 다르게 정해질 수 있는 것으로 이해되어야 한다.Again, it should be understood that the conditions for the voxel value and the gradient value for detecting the position of the reference point on the other axis may be set differently depending on the characteristics of the reference point.

저장부(180)는 3차원 기준점 검출 장치(100)의 동작과 관련된 각종 데이터 및 프로그램 등을 저장할 수 있다. 저장부(180)는 앞서 설명한 나머지 한 축에 위치한 복셀들의 복셀값을 저장하는 복셀 라인 버퍼, 복셀 라인 버퍼에 저장된 복셀값들을 나머지 한 축 방향으로 그래디언트를 취해서 구해진 그래디언트값들이 임시 저장되는 그래디언트 라인 버퍼 등을 포함할 수 있다.The storage unit 180 may store various data and programs related to the operation of the 3D reference point detection apparatus 100 . The storage unit 180 includes a voxel line buffer for storing voxel values of voxels located on the other axis as described above, and a gradient line buffer for temporarily storing gradient values obtained by taking gradients from the voxel values stored in the voxel line buffer in the other axis direction. and the like.

저장부(180)는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 메모리 장치로 구현될 수 있다.The storage unit 180 includes magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magneto-optical disks such as floppy disks. It may be implemented as a memory device such as magneto-optical media, ROM, RAM, flash memory, and the like.

표시부(185)는 3차원 기준점 검출 장치(100)의 동작과 관련된 각종 정보를 화면에 표시할 수 있다. 표시부(185)는 LCD 디스플레이 장치, LED 디스플레이 장치 등과 같은 디스플레이 장치로 구현될 수 있다.The display unit 185 may display various types of information related to the operation of the 3D reference point detection apparatus 100 on the screen. The display unit 185 may be implemented as a display device such as an LCD display device, an LED display device, or the like.

제어부(190)는 3차원 기준점 검출 장치(100)의 전체적인 동작을 제어할 수 있다.The controller 190 may control the overall operation of the 3D reference point detection apparatus 100 .

도 9는 본 발명에 따른 3차원 기준점 검출 방법을 설명하기 위한 흐름도이다.9 is a flowchart illustrating a method for detecting a three-dimensional reference point according to the present invention.

도 9를 참고하면, 먼저 2차원 투영 이미지 생성부(120)는 환자의 두부 등과 같은 신체 부위를 촬영한 3차원 영상 데이터에 미리 정해진 전처리를 수행할 수 있다(S900). 단계(S900)는 실시예에 따라 생략될 수도 있다. 단계(S900)에서 2차원 투영 이미지 생성부(120)는 3차원 영상 데이터에서 일정한 기준면을 기준으로 관심 영역의 반대 방향에 위치한 복셀들의 복셀값을 투명 처리가 되는 값으로 지정하는 전처리를 수행할 수 있다.Referring to FIG. 9 , first, the 2D projection image generator 120 may perform a predetermined pre-processing on 3D image data obtained by photographing a body part such as a patient's head ( S900 ). Step S900 may be omitted depending on the embodiment. In step S900, the 2D projection image generator 120 may perform preprocessing of designating voxel values of voxels located in the opposite direction of the ROI with respect to a constant reference plane in the 3D image data as values to be transparently processed. have.

2차원 투영 이미지 생성부(120)는 3차원 영상 데이터에 볼륨 렌더링을 수행하여 2차원 투영 이미지를 생성할 수 있다(S910). 단계(S910)에서 2차원 투영 이미지 생성부(120)는 3차원 영상 데이터에 관심 영역을 가시화하기 위한 전달함수를 적용하여 볼륨 렌더링을 수행함으로써 원하는 2차원 투영 이미지를 생성할 수 있다. 예컨대 3차원 영상 데이터에 뼈를 가시화하기 위한 전달함수를 적용하여 볼륨 렌더링을 수행하면 도 2에 예시한 것과 같은 2차원 투영 이미지를 획득할 수 있다.The 2D projection image generator 120 may perform volume rendering on 3D image data to generate a 2D projection image (S910). In operation S910 , the 2D projection image generator 120 may generate a desired 2D projected image by performing volume rendering by applying a transfer function for visualizing the ROI to 3D image data. For example, if volume rendering is performed by applying a transfer function for visualizing bones to 3D image data, a 2D projection image as illustrated in FIG. 2 may be obtained.

다음으로 특징점 검출부(140)는 미리 학습된 신경망 모델을 이용하여, 2차원 투영 이미지에서 기준점에 대응하는 특징점을 검출할 수 있다(S920). 단계(S920)에서 기준점의 3차원 좌표값 중에서 2차원 좌표값을 구할 수 있다. 2차원 투영 이미지가 XZ 평면에 있는 경우, 기준점의 X 좌표값과 Z 좌표값을 구할 수 있다.Next, the feature point detector 140 may detect a feature point corresponding to the reference point in the two-dimensional projection image using the pre-trained neural network model ( S920 ). In step S920, a two-dimensional coordinate value may be obtained from among the three-dimensional coordinate values of the reference point. When the two-dimensional projection image is in the XZ plane, the X coordinate value and the Z coordinate value of the reference point can be obtained.

이후 복셀값 추출부(150)는 특징점 검출부(140)에서 검출된 특징점과 2차원 좌표값이 동일한 복셀들의 복셀값들을 3차원 영상 데이터에서 추출할 수 있다(S930).Thereafter, the voxel value extractor 150 may extract voxel values of voxels having the same two-dimensional coordinate value as the feature point detected by the feature point detector 140 from the 3D image data ( S930 ).

다음으로 그래디언트값 계산부(160)는 특징점이 검출된 2차원 투영 이미지에 수직인 축 방향(2차원 투영 이미지가 XZ 평면에 있는 경우 Y 축 방향)에 대한 복셀값들의 변화량에 대응하는 그래디언트값들을 계산할 수 있다(S940). Next, the gradient value calculator 160 calculates gradient values corresponding to the amount of change in voxel values in the axial direction perpendicular to the 2D projected image in which the feature point is detected (the Y axis direction when the 2D projected image is in the XZ plane). It can be calculated (S940).

마지막으로 기준점 검출부(170)는 단계(S930)에 구해진 복셀값들과 단계(S940)에서 구해진 그래디언트값들을 기초로 나머지 축(예컨대 기준점의 X, Z 좌표값이 정해진 경우 Y 축)에서 기준점의 위치를 검출할 수 있다(S950). 단계(S950)에서 기준점의 위치는 기준점의 특성에 따라 미리 정해진 조건을 만족하는 Y 축 상의 위치로 정해질 수 있다.Finally, the reference point detector 170 determines the position of the reference point on the remaining axes (eg, the Y axis when the X and Z coordinate values of the reference point are determined) based on the voxel values obtained in step S930 and the gradient values obtained in step S940 . can be detected (S950). In operation S950 , the position of the reference point may be determined as a position on the Y axis that satisfies a predetermined condition according to the characteristics of the reference point.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented by a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the apparatus, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA) array), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. may be permanently or temporarily embody in The software may be distributed over networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시 예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

100: 3차원 기준점 검출 장치
110: 데이터 수신부 120: 2차원 투영 이미지 생성부
130: 기계 학습부 140: 특징점 검출부
150: 복셀값 추출부 160: 그래디언트값 계산부
170: 기준점 검출부 180: 저장부
185: 표시부 190: 제어부
200: 영상 획득 장치
300: 영상 저장 장치
100: 3D reference point detection device
110: data receiving unit 120: two-dimensional projection image generating unit
130: machine learning unit 140: feature point detection unit
150: voxel value extraction unit 160: gradient value calculation unit
170: reference point detection unit 180: storage unit
185: display unit 190: control unit
200: image acquisition device
300: video storage device

Claims (27)

3차원 영상 데이터에 볼륨 렌더링(Volume Rendering)을 수행하여 2차원 투영 이미지를 생성하는 단계,
학습된 신경망 모델을 이용하여, 상기 2차원 투영 이미지에서 기준점에 대응하는 특징점을 검출하는 단계,
상기 3차원 영상 데이터에서, 상기 특징점과 2차원 좌표값이 동일한 복셀들의 복셀값들을 추출하는 단계,
상기 특징점을 지나고 상기 2차원 투영 이미지에 수직인 축 방향에 대한 상기 추출된 복셀값들의 그래디언트값들을 구하는 단계, 그리고
상기 복셀값들과 상기 그래디언트값들이 미리 정해진 조건을 만족하는 상기 축 상의 위치를 상기 기준점의 위치로 검출하는 3차원 기준점 검출 방법.
generating a two-dimensional projection image by performing volume rendering on three-dimensional image data;
detecting a feature point corresponding to a reference point in the two-dimensional projection image using the learned neural network model;
extracting voxel values of voxels having the same two-dimensional coordinate value as the feature point from the 3D image data;
obtaining gradient values of the extracted voxel values in an axial direction passing through the feature point and perpendicular to the two-dimensional projection image, and
A three-dimensional reference point detection method for detecting a position on the axis at which the voxel values and the gradient values satisfy a predetermined condition as the position of the reference point.
제 1 항에서,
뼈를 가시화하기 위한 전달함수(Transfer function)를 통해 상기 3차원 영상 데이터에 대한 볼륨 렌더링을 수행하여 상기 2차원 투영 이미지를 생성하는 3차원 기준점 검출 방법.
In claim 1,
A 3D reference point detection method for generating the 2D projection image by performing volume rendering on the 3D image data through a transfer function for visualizing bones.
제 2 항에서,
상기 2차원 투영 이미지를 생성하는 단계는,
상기 3차원 영상 데이터에서 기준면을 기준으로 관심 영역의 반대 방향에 위치한 복셀들의 복셀값을 투명 처리가 되는 값으로 지정하는 전처리 단계, 그리고
상기 전처리된 3차원 영상 데이터에 대한 볼륨 렌더링을 수행하여 상기 2차원 투영 이미지를 생성하는 단계
를 포함하는 3차원 기준점 검출 방법.
In claim 2,
The step of generating the two-dimensional projection image,
a pre-processing step of designating voxel values of voxels located in a direction opposite to the region of interest with respect to the reference plane in the 3D image data as values to be transparent; and
generating the 2D projected image by performing volume rendering on the preprocessed 3D image data
A three-dimensional reference point detection method comprising a.
제 3 항에서,
상기 기준면은 시상면(sagittal plane), 관상면(coronal plane), 수평면(horizontal plane) 또는 정중시상면(midsagittal plane)으로 정해지는 3차원 기준점 검출 방법.
In claim 3,
The reference plane is a three-dimensional reference point detection method that is determined by a sagittal plane, a coronal plane, a horizontal plane, or a midsagittal plane.
제 3 항에서,
상기 3차원 영상 데이터는,
CT(Computed Tomography), CBCT(Cone Beam Computed Tomography), MRI(Magnetic resonance imaging), PET(Positron Emmission Tomography), 및 SPECT(Single-Photon Emmission Computed Tomography) 중 어느 하나인 3차원 기준점 검출 방법.
In claim 3,
The 3D image data is
A three-dimensional reference point detection method that is any one of Computed Tomography (CT), Cone Beam Computed Tomography (CBCT), Magnetic Resonance Imaging (MRI), Positron Emmission Tomography (PET), and Single-Photon Emmission Computed Tomography (SPECT).
제 3 항에서,
상기 미리 정해진 조건은,
상기 기준점의 특성에 따라 다르게 정해지는 3차원 기준점 검출 방법.
In claim 3,
The predetermined condition is
A three-dimensional reference point detection method that is differently determined according to the characteristics of the reference point.
제 3 항에서,
상기 신경망 모델은,
3차원 영상 데이터에 광선 추적 볼륨 렌더링을 수행하여 획득되는 2차원 투영 이미지로 이루어진 학습 데이터를 이용한 강화 학습을 통해 특징점을 검출하도록 학습된 3차원 기준점 검출 방법.
In claim 3,
The neural network model is
A three-dimensional reference point detection method learned to detect feature points through reinforcement learning using learning data consisting of a two-dimensional projection image obtained by performing ray tracing volume rendering on three-dimensional image data.
제 3 항에서,
상기 학습된 신경망 모델은,
2차원 투영 이미지가 생성된 뷰(View) 방향별로 특징점을 검출하도록 학습된 복수의 신경망 모델을 포함하는 3차원 기준점 검출 방법.
In claim 3,
The learned neural network model is,
A three-dimensional reference point detection method comprising a plurality of neural network models trained to detect feature points for each view direction in which a two-dimensional projection image is generated.
제 3 항에서,
상기 신경망 모델은,
이전 추정점(Pi-1)과 특징점(Pt) 사이의 거리에서 현재 추정점(Pi)과 특징점(Pt) 사이의 거리를 뺀 값을 보상으로 사용하여 강화학습되는 3차원 기준점 검출 방법.
In claim 3,
The neural network model is
3D reference point detection in reinforcement learning using the value obtained by subtracting the distance between the current estimation point (P i ) and the feature point (P t ) from the distance between the previous estimation point (P i-1 ) and the feature point (P t ) as compensation Way.
제 3 항에서,
상기 3차원 영상 데이터는,
환자 두부(skull)를 촬영하여 획득한 것인 3차원 기준점 검출 방법.
In claim 3,
The 3D image data is
A three-dimensional reference point detection method obtained by photographing a patient's skull.
제 10 항에서,
상기 2차원 투영 이미지는,
상기 환자 두부를 앞에서 바라본 뷰(Anterior View), 뒤에서 바라본 뷰(Posterior View), 위에서 바라본 뷰(Superior View), 밑에서 바라본 뷰(Inferior View), 좌측에서 바라본 뷰(Left View) 및 우측에서 바라본 뷰(Right View) 중 하나인 3차원 기준점 검출 방법.
11. In claim 10,
The two-dimensional projection image is,
The patient's head viewed from the front (Anterior View), from the back (Posterior View), from the top (Superior View), from the bottom (Inferior View), from the left view (Left View) and from the right view ( Right View) is one of the three-dimensional reference point detection method.
제 3 항에서,
상기 복셀값은 HU(Hounsfield Unit) 값인 3차원 기준점 검출 방법.
In claim 3,
The voxel value is a three-dimensional reference point detection method that is a HU (Hounsfield Unit) value.
제 12 항에서,
상기 미리 정해진 조건은,
상기 기준점이 뼈의 외측에 있는 경우,
기준점 추정 위치의 복셀값이 뼈에 해당하는 HU 값 범위 내에 있고,
상기 기준점 추정 위치의 그래디언트값과 상기 축 상에서 상기 기준점 추정 위치의 이전 또는 이후 위치의 그래디언트값의 합이 미리 정해진 기준 이상인 것으로 설정되는 3차원 기준점 검출 방법.
In claim 12,
The predetermined condition is
When the reference point is outside the bone,
The voxel value of the estimated position of the reference point is within the HU value range corresponding to the bone,
A three-dimensional reference point detection method, wherein the sum of the gradient value of the reference point estimated position and the gradient value of the position before or after the reference point estimated position on the axis is set to be equal to or greater than a predetermined reference point.
3차원 영상 데이터에 볼륨 렌더링을 수행하여 2차원 투영 이미지를 생성하는 명령어 세트,
학습된 신경망 모델을 이용하여, 상기 2차원 투영 이미지에서 기준점에 대응하는 특징점을 검출하는 명령어 세트,
상기 3차원 영상 데이터에서, 상기 특징점과 2차원 좌표값이 동일한 복셀들의 복셀값들을 추출하는 명령어 세트,
상기 특징점을 지나고 상기 2차원 투영 이미지에 수직인 축 방향에 대한 상기 추출된 복셀값들의 그래디언트값들을 구하는 명령어 세트, 그리고
상기 복셀값들과 상기 그래디언트값들이 미리 정해진 조건을 만족하는 상기 축 상의 위치를 상기 기준점의 위치로 검출하는 명령어 세트
를 포함하는 컴퓨터 판독 가능한 기록 매체.
A set of instructions for generating a two-dimensional projection image by performing volume rendering on three-dimensional image data;
A set of instructions for detecting a feature point corresponding to a reference point in the two-dimensional projection image using the learned neural network model;
a command set for extracting voxel values of voxels having the same two-dimensional coordinate value as the feature point from the 3D image data;
a set of instructions for obtaining gradient values of the extracted voxel values with respect to an axial direction passing through the feature point and perpendicular to the two-dimensional projection image, and
A set of instructions for detecting a position on the axis at which the voxel values and the gradient values satisfy a predetermined condition as the position of the reference point
A computer-readable recording medium comprising a.
3차원 영상 데이터에 볼륨 렌더링을 수행하여 2차원 투영 이미지를 생성하는 2차원 투영 이미지 생성부,
학습된 신경망 모델을 이용하여, 상기 2차원 투영 이미지에서 기준점에 대응하는 특징점을 검출하는 특징점 검출부,
상기 3차원 영상 데이터에서, 상기 특징점과 2차원 좌표값이 동일한 복셀들의 복셀값들을 추출하는 복셀값 추출부,
상기 특징점을 지나고 상기 2차원 투영 이미지에 수직인 축 방향에 대한 상기 추출된 복셀값들의 그래디언트값들을 구하는 그래디언트값 계산부, 그리고
상기 복셀값들과 상기 그래디언트값들이 미리 정해진 조건을 만족하는 상기 축 상의 위치를 상기 기준점의 위치로 검출하는 기준점 검출부
를 포함하는 3차원 기준점 검출 장치.
A two-dimensional projection image generator for generating a two-dimensional projection image by performing volume rendering on three-dimensional image data;
A feature point detection unit that detects a feature point corresponding to a reference point in the two-dimensional projection image using the learned neural network model;
a voxel value extractor configured to extract voxel values of voxels having the same two-dimensional coordinate value as the feature point from the 3D image data;
a gradient value calculator for obtaining gradient values of the extracted voxel values in an axial direction passing through the feature point and perpendicular to the two-dimensional projection image; and
a reference point detection unit configured to detect a position on the axis at which the voxel values and the gradient values satisfy a predetermined condition as the position of the reference point
A three-dimensional reference point detection device comprising a.
제 15 항에서,
상기 2차원 투영 이미지 생성부는,
뼈를 가시화하기 위한 전달함수를 통해 상기 3차원 영상 데이터에 대한 볼륨 렌더링을 수행하여 상기 2차원 투영 이미지를 생성하는 3차원 기준점 검출 장치.
16. In claim 15,
The two-dimensional projection image generating unit,
A three-dimensional reference point detection apparatus for generating the two-dimensional projection image by performing volume rendering on the three-dimensional image data through a transfer function for visualizing a bone.
제 16 항에서,
상기 2차원 투영 이미지 생성부는,
상기 3차원 영상 데이터에서 기준면을 기준으로 관심 영역의 반대 방향에 위치한 복셀들의 복셀값을 투명 처리가 되는 값으로 지정하는 전처리 및, 상기 전처리된 3차원 영상 데이터에 대한 볼륨 렌더링을 수행하여 상기 2차원 투영 이미지를 생성을 수행하는 3차원 기준점 검출 장치.
17. In claim 16,
The two-dimensional projection image generating unit,
In the 3D image data, a preprocessing of designating voxel values of voxels located in a direction opposite to a region of interest with respect to a reference plane as values to be transparently processed, and volume rendering of the preprocessed 3D image data are performed to the 2D image data. A three-dimensional reference point detection device for generating a projected image.
제 17 항에서,
상기 기준면은 시상면, 관상면, 수평면 또는 정중시상면으로 정해지는 3차원 기준점 검출 장치.
In claim 17,
The reference plane is a three-dimensional reference point detection device that is defined as a sagittal plane, a coronal plane, a horizontal plane, or a midsagittal plane.
제 17 항에서,
상기 3차원 영상 데이터는,
CT, CBCT, MRI, PET, 및 SPECT 중 어느 하나인 3차원 기준점 검출 장치.
In claim 17,
The 3D image data is
A three-dimensional reference point detection device that is any one of CT, CBCT, MRI, PET, and SPECT.
제 17 항에서,
상기 미리 정해진 조건은,
상기 기준점의 특성에 따라 다르게 정해지는 3차원 기준점 검출 장치.
In claim 17,
The predetermined condition is
A three-dimensional reference point detection apparatus that is differently determined according to the characteristics of the reference point.
제 17 항에서,
상기 신경망 모델은,
3차원 영상 데이터에 볼륨 렌더링을 수행하여 획득되는 2차원 투영 이미지로 이루어진 학습 데이터를 이용한 강화 학습을 통해 특징점을 검출하도록 학습된 3차원 기준점 검출 장치.
In claim 17,
The neural network model is
A three-dimensional reference point detection apparatus trained to detect a feature point through reinforcement learning using learning data consisting of a two-dimensional projection image obtained by performing volume rendering on three-dimensional image data.
제 17 항에서,
상기 학습된 신경망 모델은,
2차원 투영 이미지가 생성된 뷰(View) 방향별로 특징점을 검출하도록 학습된 복수의 신경망 모델을 포함하는 3차원 기준점 검출 장치.
In claim 17,
The learned neural network model is,
A three-dimensional reference point detection apparatus comprising a plurality of neural network models trained to detect feature points for each view direction in which a two-dimensional projection image is generated.
제 17 항에서,
상기 신경망 모델은,
이전 추정점(Pi-1)과 특징점(Pt) 사이의 거리에서 현재 추정점(Pi)과 특징점(Pt) 사이의 거리를 뺀 값을 보상으로 사용하여 강화학습되는 3차원 기준점 검출 장치.
In claim 17,
The neural network model is
3D reference point detection in reinforcement learning using the value obtained by subtracting the distance between the current estimation point (P i ) and the feature point (P t ) from the distance between the previous estimation point (P i-1 ) and the feature point (P t ) as compensation Device.
제 17 항에서,
상기 3차원 영상 데이터는,
환자 두부를 촬영하여 획득한 것인 3차원 기준점 검출 방법.
In claim 17,
The 3D image data is
A three-dimensional reference point detection method obtained by photographing a patient's head.
제 24 항에서,
상기 2차원 투영 이미지는,
상기 환자 두부를 앞에서 바라본 뷰, 뒤에서 바라본 뷰, 위에서 바라본 뷰, 밑에서 바라본 뷰, 좌측에서 바라본 뷰 및 우측에서 바라본 뷰 중 하나인 3차원 기준점 검출 장치.
25. In claim 24,
The two-dimensional projection image is,
A three-dimensional reference point detection device that is one of a front view, a rear view, a top view, a bottom view, a left view, and a right view of the patient's head.
제 17 항에서,
상기 복셀값은 HU 값인 3차원 기준점 검출 장치.
In claim 17,
The voxel value is a three-dimensional reference point detection device that is a HU value.
제 26 항에서,
상기 미리 정해진 조건은,
상기 기준점이 뼈의 외측에 있는 경우,
기준점 추정 위치의 복셀값이 뼈에 해당하는 HU 값 범위 내에 있고,
상기 기준점 추정 위치의 그래디언트값과 상기 축 상에서 상기 기준점 추정 위치의 이전 또는 이후 위치의 그래디언트값의 합이 미리 정해진 기준 이상인 것으로 설정되는 3차원 기준점 검출 장치.
27. In claim 26,
The predetermined condition is
When the reference point is outside the bone,
The voxel value of the estimated position of the reference point is within the HU value range corresponding to the bone,
and a sum of the gradient value of the reference point estimated position and the gradient value of the position before or after the reference point estimated position on the axis is set to be equal to or greater than a predetermined reference point.
KR1020190154562A 2019-11-27 2019-11-27 3D anatomical landmark detection method and apparatus KR102271614B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190154562A KR102271614B1 (en) 2019-11-27 2019-11-27 3D anatomical landmark detection method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190154562A KR102271614B1 (en) 2019-11-27 2019-11-27 3D anatomical landmark detection method and apparatus

Publications (2)

Publication Number Publication Date
KR20210066074A true KR20210066074A (en) 2021-06-07
KR102271614B1 KR102271614B1 (en) 2021-07-02

Family

ID=76374173

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190154562A KR102271614B1 (en) 2019-11-27 2019-11-27 3D anatomical landmark detection method and apparatus

Country Status (1)

Country Link
KR (1) KR102271614B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230046620A (en) * 2021-09-30 2023-04-06 주식회사 에이치디엑스윌 Method for determining criterion of head rotation on cephalic ct radiographs, recording medium storing program for executing the same, and recording medium storing program for executing the same
WO2023113230A1 (en) * 2021-12-14 2023-06-22 사회복지법인 삼성생명공익재단 Method and analysis device for detecting landmark of cephalometric radiographic image by using deep reinforcement learning

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100119137A1 (en) * 2008-11-12 2010-05-13 Siemens Corporation Method and System for Anatomic Landmark Detection Using Constrained Marginal Space Learning and Geometric Inference
JP2011135936A (en) * 2009-12-25 2011-07-14 Toshiba Corp Image processor, medical image diagnostic apparatus, and image processing program
KR101090660B1 (en) * 2011-09-14 2011-12-07 인하대학교 산학협력단 Method for real-time volume rendering using point-primitive
JP2012075806A (en) * 2010-10-06 2012-04-19 Toshiba Corp Medical image processor and medical image processing program
KR102044237B1 (en) * 2018-10-23 2019-11-13 연세대학교 산학협력단 Shadowed 2D image-based machine learning, and automatic 3D landmark detection method and apparatus using thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100119137A1 (en) * 2008-11-12 2010-05-13 Siemens Corporation Method and System for Anatomic Landmark Detection Using Constrained Marginal Space Learning and Geometric Inference
US8363918B2 (en) 2008-11-12 2013-01-29 Siemens Aktiengesellschaft Method and system for anatomic landmark detection using constrained marginal space learning and geometric inference
JP2011135936A (en) * 2009-12-25 2011-07-14 Toshiba Corp Image processor, medical image diagnostic apparatus, and image processing program
JP2012075806A (en) * 2010-10-06 2012-04-19 Toshiba Corp Medical image processor and medical image processing program
KR101090660B1 (en) * 2011-09-14 2011-12-07 인하대학교 산학협력단 Method for real-time volume rendering using point-primitive
KR102044237B1 (en) * 2018-10-23 2019-11-13 연세대학교 산학협력단 Shadowed 2D image-based machine learning, and automatic 3D landmark detection method and apparatus using thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230046620A (en) * 2021-09-30 2023-04-06 주식회사 에이치디엑스윌 Method for determining criterion of head rotation on cephalic ct radiographs, recording medium storing program for executing the same, and recording medium storing program for executing the same
WO2023113230A1 (en) * 2021-12-14 2023-06-22 사회복지법인 삼성생명공익재단 Method and analysis device for detecting landmark of cephalometric radiographic image by using deep reinforcement learning

Also Published As

Publication number Publication date
KR102271614B1 (en) 2021-07-02

Similar Documents

Publication Publication Date Title
US9471987B2 (en) Automatic planning for medical imaging
US20130190602A1 (en) 2d3d registration for mr-x ray fusion utilizing one acquisition of mr data
EP2620909B1 (en) Method, system and computer readable medium for automatic segmentation of a medical image
US9968324B2 (en) Generating a 2D projection image of a vascular system
US11741598B2 (en) Method for aiding visualization of lesions in medical imagery and apparatus using the same
EP3493161A2 (en) Transfer function determination in medical imaging
US8682051B2 (en) Smoothing of dynamic data sets
JP2007516744A (en) Elastic image alignment
JP5662962B2 (en) Image processing apparatus, method, and program
JP2016116867A (en) Medical image processing apparatus, medical image diagnostic apparatus and medical image processing program
KR102271614B1 (en) 3D anatomical landmark detection method and apparatus
Copeland et al. Spatio-temporal data fusion for 3D+ T image reconstruction in cerebral angiography
US20210082567A1 (en) Method for supporting viewing of images and apparatus using same
JP2016514535A (en) Image registration
CN107111881B (en) Correspondence probability map driven visualization
JP6257949B2 (en) Image processing apparatus and medical image diagnostic apparatus
EP3152735B1 (en) Device and method for registration of two images
US11423554B2 (en) Registering a two-dimensional image with a three-dimensional image
EP3300664B1 (en) Reconstruction of flow data
US11645767B2 (en) Capturing a misalignment
WO2021084916A1 (en) Region identification device, method, and program
Gigengack et al. Motion correction in thoracic positron emission tomography
CN110546684B (en) Quantitative evaluation of time-varying data
EP4016470A1 (en) 3d morhphological or anatomical landmark detection method and device using deep reinforcement learning
JP6852545B2 (en) Image display system and image processing equipment

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right