KR20200104004A - Neural tube line detecting method using medical image processing and simulation and apparatus thereof - Google Patents
Neural tube line detecting method using medical image processing and simulation and apparatus thereof Download PDFInfo
- Publication number
- KR20200104004A KR20200104004A KR1020190022304A KR20190022304A KR20200104004A KR 20200104004 A KR20200104004 A KR 20200104004A KR 1020190022304 A KR1020190022304 A KR 1020190022304A KR 20190022304 A KR20190022304 A KR 20190022304A KR 20200104004 A KR20200104004 A KR 20200104004A
- Authority
- KR
- South Korea
- Prior art keywords
- neural tube
- start position
- neural
- tube
- automatic
- Prior art date
Links
- 210000000276 neural tube Anatomy 0.000 title claims abstract description 334
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000004088 simulation Methods 0.000 title description 12
- 238000001514 detection method Methods 0.000 claims description 39
- 238000003708 edge detection Methods 0.000 claims description 38
- 230000001133 acceleration Effects 0.000 claims description 8
- 238000009499 grossing Methods 0.000 claims description 8
- 238000002591 computed tomography Methods 0.000 description 34
- 238000010586 diagram Methods 0.000 description 17
- 239000007943 implant Substances 0.000 description 13
- 210000000515 tooth Anatomy 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000004590 computer program Methods 0.000 description 5
- 210000000214 mouth Anatomy 0.000 description 5
- 239000004053 dental implant Substances 0.000 description 4
- 238000002513 implantation Methods 0.000 description 4
- 238000003672 processing method Methods 0.000 description 2
- 238000001356 surgical procedure Methods 0.000 description 2
- 238000003325 tomography Methods 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 1
- 210000003238 esophagus Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 210000004871 mandibular tooth Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011505 plaster Substances 0.000 description 1
- 239000003826 tablet Substances 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/50—Clinical applications
- A61B6/506—Clinical applications involving diagnosis of nerves
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/02—Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computerised tomographs
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/14—Applications or adaptations for dentistry
-
- A61B6/51—
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5217—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/001—Image restoration
- G06T5/002—Denoising; Smoothing
-
- G06T5/70—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
Abstract
Description
본 발명은 의료영상 처리 및 시뮬레이션 기술에 관한 것이다.The present invention relates to medical image processing and simulation technology.
영상 시뮬레이션 프로그램에서는 영상에서 신경관을 검출할 수 있다. 예를 들어, 임플란트 시뮬레이션 프로그램에서 가상의 임플란트 구조물을 식립하기 이전에 하악의 신경관을 검출하고 검출된 신경관과의 충돌을 피해 임플란트 구조물을 식립해야 한다. 신경관의 경우, 영상 데이터에 가상의 신경관 모델을 삽입한다.The image simulation program can detect neural tubes in images. For example, before placing a virtual implant structure in an implant simulation program, it is necessary to detect the mandibular neural tube and place the implant structure to avoid collision with the detected neural tube. In the case of a neural tube, a virtual neural tube model is inserted into the image data.
도 1은 의료영상에서 수동으로 신경관을 검출하는 예를 도시한 도면이다.1 is a diagram illustrating an example of manually detecting a neural tube in a medical image.
도 1을 참조하면, 수동 신경관 검출방법은 영상 데이터에서 수동으로 사용자가 직접 특징점들(100)을 입력하면 각 특징점들을 라인으로 연결한다. 사용자에 의한 수동 신경관 검출 방법은 사용자가 영상에서 적절한 특징점들을 일일이 찾아 입력해야 하므로 시간이 많이 소요되고, 마우스 등의 조작수단을 핸들링하는 것에 서투른 사용자에게는 의도치 않은 특징점들을 선택하는 시행착오가 발생할 수 있다. 나아가, 사용자가 영상에서 적절한 특징점들을 일일이 찾는 조작 동작이 반복되어야 하기 때문에 비효율적이다.Referring to FIG. 1, in the manual neural tube detection method, when a user directly inputs feature
도 2는 의료영상에서 자동으로 신경관을 검출하는 예를 도시한 도면이다.2 is a diagram illustrating an example of automatically detecting a neural tube in a medical image.
도 2를 참조하면, 자동 신경관 검출방법은 사용자가 영상 데이터에 신경관 시작위치(200)를 선택하면, 선택된 신경관 시작위치(200)를 시작으로 자동으로 신경관을 검출하는 방법이다. 이 경우, 사용자가 신경관 시작위치의 특징점(200)을 선택해 주어야 하는데, 신경관 시작위치의 특징점(200)을 정확히 선택해 주어야 신경관이 생성된다. 즉, 도 2에 도시된 바와 같이 사용자가 신경관 시작위치(200)를 정확히 선택하지 않으면 자동 신경관 검출에 실패 확률이 높다.2, the automatic neural tube detection method is a method of automatically detecting a neural tube starting from the selected neural
일 실시 예에 따라, 의료영상에서 신경관을 자동으로 검출함에 따라 사용자 조작을 최소화할 수 있고, 자동 신경관 검출 시에 신경관 시작위치를 사용자가 정확히 선택하지 않은 경우에도 자동으로 신경관 검출이 가능한 신경관 자동 검출방법 및 그 장치를 제안한다.According to an embodiment, user manipulation can be minimized by automatically detecting a neural tube in a medical image, and automatic neural tube detection capable of automatically detecting a neural tube even when the user does not correctly select a neural tube start position during automatic neural tube detection A method and apparatus thereof are proposed.
일 실시 예에 따른 신경관 자동 검출방법은, 의료영상에서 사용자 조작신호를 통해 신경관의 시작위치를 선택 입력받는 단계와, 선택 입력된 시작위치를 포함하는 관심영역을 검출하고 검출된 관심영역 내에서 신경관 중심위치를 검색하여 검색된 신경관 중심위치로 신경관 시작위치를 보정하는 단계와, 보정된 신경관 시작위치를 시작으로 하는 신경관 라인을 자동 생성하는 단계를 포함한다.The automatic neural tube detection method according to an embodiment includes the steps of selecting and inputting a start position of a neural tube through a user manipulation signal in a medical image, detecting a region of interest including the selected input start position, and detecting a neural tube within the detected region of interest. And correcting a neural tube start position with the searched neural tube central position by searching for a central position, and automatically generating a neural tube line starting with the corrected neural tube start position.
신경관 시작위치를 보정하는 단계는, 선택 입력된 신경관 시작위치를 포함하는 신경관 에지 검출 영역을 검색하는 단계와, 검색된 신경관 에지 검출 영역 내에서 신경관 단면 에지 영역을 검색하는 단계와, 선택 입력된 신경관 시작위치에서 신경관 단면 에지 영역의 중심점으로 신경관 시작위치를 변경하는 단계를 포함할 수 있다.The step of correcting the neural tube start position includes: searching for a neural tube edge detection region including a selected input neural tube start position, searching for a neural tube cross-section edge area within the searched neural tube edge detection area, and a selected input neural tube start It may include the step of changing the start position of the neural tube from the location to the center point of the edge region of the neural tube cross section.
신경관 자동 검출방법은, 보정된 신경관 시작위치에 대한 정보를 이용하여 다음 신경관 위치를 예측하고, 신경관 종료 지점까지 이전 신경관 위치에 대한 정보를 이용한 다음 신경관 위치 예측 단계를 반복 수행하는 단계와, 보정된 신경관 시작위치의 특징점 및 예측된 다음 신경관 위치의 특징점들을 연결함에 따라 신경관 라인을 자동 생성하는 단계를 더 포함할 수 있다.The automatic neural tube detection method predicts the next neural tube position using information on the corrected neural tube start position, and repeats the next neural tube position prediction step using the information on the previous neural tube position up to the neural tube end point, and It may further include automatically generating a neural tube line by connecting the feature points of the neural tube start position and the predicted next neural tube location feature points.
다음 신경관 위치 예측 단계를 반복 수행하는 단계는, 보정된 신경관 시작위치에서 파노라믹 영상의 커브 곡선을 기준으로 직선 방향으로 이동하여 두 번째 신경관 위치를 예측하는 단계와, 두 번째 신경관 위치 이후로는 데드 레커닝 연산식을 이용하여 다음 이동 방향을 결정하는 방법으로 다음 신경관 위치를 예측하는 단계를 포함하며, 데드 레커닝 연산식은 이전 신경관의 위치 값과 속도 및 가속도를 이용하여 다음 신경관 위치를 구하는 것일 수 있다.The step of repeatedly performing the next neural tube position prediction step includes: predicting the second neural tube position by moving in a linear direction based on the curve curve of the panoramic image from the corrected neural tube start position, and after the second neural tube position A method of determining the next movement direction using a dead reckoning equation, including the step of predicting the position of the next neural tube, and the dead reckoning equation may be to obtain the position of the next neural tube using the position value, velocity, and acceleration of the previous neural tube. .
다른 실시 예에 따른 신경관 자동 검출장치는, 의료영상에서 사용자로부터 선택 입력된 신경관 시작위치를 보정하되, 선택 입력된 신경관 시작위치를 포함하는 관심영역을 검출하고 검출된 관심영역 내에서 신경관 중심위치를 검색하여 검색된 신경관 중심위치로 신경관 시작위치를 보정하는 시작위치 보정부와, 보정된 신경관 시작위치 값을 시작으로 하는 신경관 라인을 자동 생성하는 라인 생성부와, 생성된 신경관 라인을 포함한 영상 데이터를 화면에 표시하는 출력부를 포함한다.An automatic neural tube detection apparatus according to another embodiment corrects a neural tube start position selected and input by a user in a medical image, detects a region of interest including the selected input neural tube start position, and determines the center of the neural tube within the detected region of interest. A start position correction unit that corrects the neural tube start position with the searched neural tube center position, a line generator that automatically generates a neural tube line starting with the corrected neural tube start position value, and image data including the generated neural tube line is displayed on the screen. Includes an output unit to be displayed on.
시작위치 보정부는, 선택 입력된 신경관 시작위치를 포함하는 신경관 에지 검출 영역을 검색하고, 검색된 신경관 에지 검출 영역 내에서 신경관 단면 에지 영역을 검색하며, 선택 입력된 신경관 시작위치에서 신경관 단면 에지 영역의 중심점으로 신경관 시작위치를 변경할 수 있다.The start position correction unit searches for a neural tube edge detection area including the selected input neural tube start position, searches for a neural tube cross section edge area within the searched neural tube edge detection area, and the center point of the neural tube cross section edge area at the selected input neural tube start position. You can change the start position of the neural tube.
시작위치 보정부는 스무딩 필터(smoothing filter)를 이용하여 신경관 에지 검출 영역을 획득할 수 있다. 시작위치 보정부는 신경관 에지 검출 영역 내에서 밀도 값(Hounsfield Unit: HU)이 미리 설정된 임계값을 가지는 경계영역을 신경관 단면 에지 영역으로 결정할 수 있다.The start position correction unit may acquire a neural tube edge detection region using a smoothing filter. The start position correction unit may determine a boundary region in which a density value (Hounsfield Unit: HU) has a preset threshold within the neural tube edge detection area as the neural tube cross-section edge area.
신경관 자동 검출장치는, 보정된 신경관 시작위치에 대한 정보를 이용하여 다음 신경관 위치를 예측하고, 신경관 종료 지점까지 이전 신경관 위치에 대한 정보를 이용한 다음 신경관 위치 예측 단계를 반복 수행하는 신경관 위치 예측부를 더 포함하며, 라인 생성부는 보정된 신경관 시작위치의 특징점 및 예측된 다음 신경관 위치의 특징점들을 연결함에 따라 신경관 라인을 자동 생성할 수 있다.The neural tube automatic detection device further predicts the position of the next neural tube using information on the corrected neural tube start position, and repeats the next neural tube position prediction step using the information on the previous neural tube position to the end of the neural tube. The line generator may automatically generate a neural tube line by connecting the corrected feature points of the neural tube start position and the predicted next feature points of the neural tube location.
신경관 위치 예측부는, 보정된 신경관 시작위치에서 파노라믹 영상의 커브 곡선을 기준으로 직선 방향으로 이동하여 두 번째 신경관 위치를 예측하고, 두 번째 신경관 위치 이후로는 데드 레커닝 연산식을 이용하여 다음 이동 방향을 결정하는 방법으로 다음 신경관 위치를 예측하며, 데드 레커닝 연산식은 이전 신경관의 위치 값과 속도 및 가속도를 이용하여 다음 신경관 위치를 구할 수 있다.The neural tube position prediction unit predicts the second neural tube position by moving in a linear direction based on the curve curve of the panoramic image from the corrected neural tube start position, and the next movement using the dead reckoning equation after the second neural tube position. As a method of determining the direction, the position of the next neural tube is predicted, and the dead reckoning equation can obtain the position of the next neural tube using the position value, velocity, and acceleration of the previous neural tube.
일 실시 예에 따른 신경관 자동 검출방법 및 그 장치에 따르면, 의료영상에서 신경관 생성 시에 사용자에 의한 영상 데이터 수동 조작을 최소화함으로써 사용자의 클릭 수 감소와 사용자의 편의성을 증대시킬 수 있다.According to the method and apparatus for automatic neural tube detection according to an exemplary embodiment, by minimizing manual manipulation of image data by a user when generating a neural tube in a medical image, it is possible to reduce the number of user clicks and increase user convenience.
나아가, 신경관 자동 생성 시에 신경관 시작위치를 사용자가 정확히 선택하지 않은 경우에도 신경관 시작위치를 보정해 줌에 따라 정확하지 않은 신경관 시작위치를 선택했을 때 신경관이 생성되지 않는 오류를 최소화할 수 있다.Furthermore, even if the user does not accurately select the start position of the neural tube during automatic neural tube generation, the error in which the neural tube is not generated when an incorrect start position is selected can be minimized by correcting the start position of the neural tube.
또한 이전 신경관 위치의 정보를 이용하여 다음 신경관 위치를 예측하는 방법을 사용하여 신경관을 검출함에 따라 신경관 검출을 위해 모든 프레임이 필요하지 않고 몇몇 프레임 없이도 일부 프레임만을 사용할 수 있으므로 신경관 영상이 다소 부족하더라도 신경관 위치를 검출할 수 있다.In addition, as the neural tube is detected using the method of predicting the next neural tube location using information on the previous neural tube location, all frames are not required for neural tube detection and only some frames can be used without a few frames. The location can be detected.
도 1은 의료영상에서 수동으로 신경관을 검출하는 예를 도시한 도면,
도 2는 의료영상에서 자동으로 신경관을 검출하는 예를 도시한 도면,
도 3은 본 발명의 일 실시 예에 따른 의료영상 시뮬레이션 장치의 구성을 도시한 도면,
도 4는 본 발명의 일 실시 예에 따른 도 3의 제어부의 세부 구성을 도시한 도면,
도 5는 본 발명의 일 실시 예에 따른 에지 검출 방법을 이용하여 사용자가 선택한 신경관 시작위치를 보정하는 예를 보여주는 CT 단면 영상을 도시한 도면,
도 6은 본 발명의 일 실시 예에 따른 다음 신경관 위치를 검출하기 위해 사용되는 데드 레커닝 방법을 설명하기 위한 도면,
도 7은 본 발명의 일 실시 예에 따른 데드 레커닝 방법으로 검색된 신경관 위치의 특징점들을 도시한 도면,
도 8은 본 발명의 일 실시 예에 따른 신경관 자동 검출방법의 흐름을 도시한 도면이다.1 is a diagram showing an example of manually detecting a neural tube in a medical image;
2 is a diagram showing an example of automatically detecting a neural tube in a medical image;
3 is a diagram showing the configuration of a medical image simulation apparatus according to an embodiment of the present invention;
4 is a view showing a detailed configuration of the control unit of FIG. 3 according to an embodiment of the present invention;
5 is a view showing a CT cross-sectional image showing an example of correcting a start position of a neural tube selected by a user using an edge detection method according to an embodiment of the present invention;
6 is a view for explaining a dead reckoning method used to detect a next neural tube position according to an embodiment of the present invention;
7 is a diagram showing feature points of a neural tube location retrieved by a dead reckoning method according to an embodiment of the present invention;
8 is a diagram illustrating a flow of a method for automatically detecting a neural tube according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms. It is provided to completely inform the scope of the invention to those who have it, and the invention is only defined by the scope of the claims. The same reference numerals refer to the same components throughout the specification.
본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이며, 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing embodiments of the present invention, if it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted, and terms to be described later are in the embodiments of the present invention. These terms are defined in consideration of the function of the user and may vary according to the intention or custom of users or operators. Therefore, the definition should be made based on the contents throughout this specification.
첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램인스트럭션들(실행 엔진)에 의해 수행될 수도 있으며, 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다.Combinations of each block in the attached block diagram and each step in the flowchart may be executed by computer program instructions (execution engines), and these computer program instructions are provided on a processor of a general purpose computer, special purpose computer or other programmable data processing device. As it may be mounted, its instructions executed by the processor of a computer or other programmable data processing device generate means for performing the functions described in each block of the block diagram or each step of the flowchart.
이들 컴퓨터 프로그램 인스트럭션들은 특정 방법으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치를 지향할 수 있는 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.These computer program instructions may also be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing device to implement a function in a particular way, so that the computer usable or computer readable memory It is also possible to produce an article of manufacture containing instruction means for performing the functions described in each block of the block diagram or each step of the flow chart.
그리고 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명되는 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.In addition, since computer program instructions can be mounted on a computer or other programmable data processing device, a series of operation steps are performed on a computer or other programmable data processing device to create a computer-executable process. It is also possible for the instructions to perform the data processing apparatus to provide steps for executing the functions described in each block of the block diagram and each step of the flowchart.
또한, 각 블록 또는 각 단계는 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있으며, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하며, 또한 그 블록들 또는 단계들이 필요에 따라 해당하는 기능의 역순으로 수행되는 것도 가능하다.In addition, each block or each step may represent a module, segment, or part of code containing one or more executable instructions for executing specified logical functions, and in some alternative embodiments mentioned in the blocks or steps. It should be noted that it is also possible for functions to occur out of order. For example, two blocks or steps shown in succession may in fact be performed substantially simultaneously, and the blocks or steps may be performed in the reverse order of a corresponding function as necessary.
이하, 첨부 도면을 참조하여 본 발명의 실시 예를 상세하게 설명한다. 그러나 다음에 예시하는 본 발명의 실시 예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 다음에 상술하는 실시 예에 한정되는 것은 아니다. 본 발명의 실시 예는 이 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공된다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the embodiments of the present invention exemplified below may be modified in various other forms, and the scope of the present invention is not limited to the embodiments described below. Embodiments of the present invention are provided to more completely describe the present invention to those of ordinary skill in the art.
도 3은 본 발명의 일 실시 예에 따른 의료영상 시뮬레이션 장치의 구성을 도시한 도면이다.3 is a diagram showing the configuration of a medical image simulation apparatus according to an embodiment of the present invention.
의료영상 시뮬레이션 장치(1)는 의료영상을 이용한 시뮬레이션 프로그램을 실행 가능한 전자장치이다. 전자장치는 컴퓨터, 노트북 컴퓨터, 랩탑 컴퓨터, 태블릿(Tablet) PC, 스마트폰, 휴대폰, PMP(Personal Media Player), PDA(Personal Digital Assistants) 등이 있다. 시뮬레이션 프로그램은 수술용 가이드 디자인 프로그램, 스캔 프로그램, CAD 프로그램 등이 있다. 또한, 치과 임플란트 수술용뿐만 아니라 일반적인 의료용 프로그램에 적용될 수 있다.The medical
이하, 시뮬레이션 프로그램 중 치과 임플란트 시뮬레이션 프로그램을 위주로 설명하고자 하나, 치과 임플란트에 한정되는 것은 아니다. 치과 임플란트 수술 가이드 과정의 경우, 수술 환자 등록, 등록된 환자의 CT 데이터 및 구강 모델 데이터 획득, CT 데이터 및 구강 모델 데이터의 정합, 정합된 영상 데이터에서 악궁 라인 생성 및 악궁 라인을 이용한 파노라믹 영상(panoramic image) 생성, 파노라믹 영상에서 크라운 모델 위치 및 크기 결정, 픽스쳐를 포함한 임플란트 구조물 위치 결정, 가이드 형상 디자인, 최종 가이드 출력을 포함한 과정으로 구성된다. 본 발명은 위 과정 중에서 하악 치아 영역에 픽스쳐(fixture)를 포함한 임플란트 구조물을 식립하는 경우 CT 데이터를 이용하여 생성된 2D 영상에서 신경관을 자동으로 검출하여 제공하도록 구성된다. 이때, 사용자가 2D 영상과 3D 영상에서 신경관을 확인하여 이를 고려한 수술 계획을 수립하도록 한다. 그러나 본 발명은 의료 영상에서 신경관을 자동으로 검출하는 기술이면, 치과용을 포함한 다른 의료용에 확대 적용 가능하며, 신경관 이외에 식도, 뼈 등을 검출하는 것도 가능하다.Hereinafter, among the simulation programs, a dental implant simulation program will be mainly described, but it is not limited to dental implants. In the case of dental implant surgery guide process, surgical patient registration, acquisition of CT data and oral model data of the registered patient, registration of CT data and oral model data, creation of arch line from the matched image data, and panoramic image using arch line It consists of a process including creation of (panoramic image), determination of the position and size of the crown model in the panoramic image, positioning of the implant structure including fixtures, design of the guide shape, and final guide output. The present invention is configured to automatically detect and provide a neural tube from a 2D image generated using CT data when an implant structure including a fixture is placed in a mandibular tooth region during the above process. At this time, the user checks the neural tube in the 2D image and the 3D image and establishes an operation plan in consideration of this. However, if the present invention is a technology that automatically detects a neural tube in a medical image, it can be applied to other medical uses including dentistry, and it is also possible to detect esophagus, bone, etc. in addition to the neural tube.
도 1을 참조하면, 일 실시 예에 따른 의료영상 시뮬레이션 장치(1)는 데이터 획득부(10), 저장부(12), 제어부(14), 입력부(16) 및 출력부(18)를 포함한다.Referring to FIG. 1, a medical
데이터 획득부(10)는 환자로부터 영상 데이터를 획득한다. 신경관 검출을 위해 필요한 영상 데이터는 CT 데이터, 구강 모델 데이터 등이 있다. 데이터 획득부(10)는 CT 데이터와 구강 모델 데이터를 프로그램에서 실행하거나 웹 페이지 및 서버에 저장된 데이터를 로딩할 수 있다. CT 데이터는 DICOM 포맷을 가지며, 구강 모델 데이터는 STL 포맷을 가질 수 있다.The
구강 모델 데이터는 손상된 치아를 포함한 실제 치아들의 정보를 가진 데이터이다. 구강 모델 데이터는 환자의 구강을 본떠 생성한 석고 모형을 3D 스캐너(3D Scanner)로 스캐닝하여 획득될 수 있다. 다른 예로서, 구강 내 3D 스캐너(3D Intra-oral scanner)를 이용하여 환자의 구강 내부를 스캐닝하여 획득될 수 있다. 획득된 구강 모델 데이터는 저장부(12)에 저장될 수 있다.The oral model data is data with information on actual teeth including damaged teeth. The oral model data may be obtained by scanning a plaster model created after a patient's mouth with a 3D scanner. As another example, it may be obtained by scanning the inside of the patient's oral cavity using a 3D intra-oral scanner. The obtained oral model data may be stored in the
CT 데이터는 CT(computed tomography, 컴퓨터 단층 촬영)를 사용하여 환자의 두부 단층 이미지들을 생성하고, 각각의 단층 이미지에서 치아 부분의 경계를 구분(Segmentation)한 후 하나로 취합함에 따라 획득될 수 있다. 이러한 구강 모델 데이터와 CT 데이터는 환자가 입을 벌린 상태에서 상악 치아 아래에서 상악 치아를 촬영하여 얻은 영상, 입을 벌린 상태에서 하악 치아 위에서 하악 치아를 촬영하여 얻은 영상, 입을 다문 상태에서 국소부위를 촬영하여 얻은 영상, 구강 방사선 사진 등을 포함한다. 획득된 CT 데이터는 저장부(12)에 저장될 수 있다.CT data can be obtained by generating a patient's head tomography images using computed tomography (CT), segmenting the boundary of the tooth from each tomography image, and then combining them into one. These oral model data and CT data are images obtained by photographing the maxillary teeth under the maxillary teeth with the patient's mouth open, the images obtained by photographing the mandibular teeth above the mandibular teeth with the mouth open, and the local area with the mouth closed. Includes images obtained, oral radiographs, etc. The acquired CT data may be stored in the
저장부(12)에는 의료영상 시뮬레이션 장치(1)의 동작 수행을 위해 필요한 정보와 동작 수행에 따라 생성되는 정보 등의 각종 데이터가 저장된다. 일 실시 예에 따른 저장부(12)에는 개별 환자의 구강 모델 데이터와 CT 데이터가 저장되고, 치과 치료 시뮬레이션 시 전체 구강 모델 데이터들 및 CT 데이터들 중에서 특정 환자의 구강 모델 데이터 및 CT 데이터를 사용자 요청에 따라 제어부(14)에 제공할 수 있다. 이때, 저장부(12)에는 개별 환자의 상측 치열의 영상 및 하측 치열의 영상이 저장되어 있고, 특정 환자의 구강 모델 데이터 및 CT 데이터에 매칭되는 상측 치열의 영상 및 하측 치열의 영상을 사용자 요청에 따라 제어부(14)에 제공할 수 있다.The
제어부(14)는 컴퓨터 프로그램에 의한 제어를 통하여 임플란트 식립 계획을 수립하면서 각 구성요소를 제어한다. 제어부(14)는 출력부(18)를 통해 화면에 보이는 화면정보를 관리하고, 치과 영상에 가상의 픽스쳐 객체를 식립하는 시뮬레이션을 수행한다. 가상의 픽스쳐 객체가 식립되는 치과 영상은 임플란트 시술 계획 수립을 위해 생성된 환자의 치아 배열이 나타난 2차원, 3차원 등의 다차원 영상을 의미한다. 임플란트 시술 계획에는 X-ray, CT, MRI, 파노라믹 영상, 구강 스캔 영상, 재구성을 통해 생성된 영상, 복수의 영상을 정합한 영상 등 다양한 종류의 영상이 활용될 수 있다.The
일 실시 예에 따른 제어부(14)는 의료영상에서 신경관을 검출하여 가상의 신경관 라인을 자동으로 생성한다. 제어부(14)가 의료영상에서 신경관을 자동으로 검출하면, 사용자가 수동으로 찾을 때의 시간을 절약하고 프로그램 사용의 간편화가 가능하다. 임플란트 구조물 식립 설계 시에 신경관과의 충돌을 피해서 임플란트 구조물의 식립을 설계하게 된다. 의료영상 데이터는 데이터 획득부(10)를 통해 획득된 기초 영상 데이터(예를 들어, CT 데이터, 구강 모델 데이터) 또는 재구성된 영상 데이터(예를 들어, 파노라믹 영상, CT 2D 영상)일 수 있다. 신경관은 3D 볼륨 렌더링 영상에서도 확인이 가능하지만, 정확한 신경관을 검출하기 위해서는 일반적으로 2D 영상이 요구된다. 예를 들어, 환자의 CT 데이터 또는 구강 모델 데이터로부터 파노라믹 영상(panoramic image)을 생성한다. 다른 예로, CT 데이터로부터 CT 2D 영상을 생성한다. 파노라믹 영상 또는 CT 2D 영상이 신경관 라인 생성을 위한 재구성 영상이 된다. CT 2D 영상은 단면(cross-section) 영상으로 표현될 수 있다.The
일 실시 예에 따른 제어부(14)는 자동 방법으로 신경관 라인을 생성한다. 예를 들어, 사용자가 의료영상에서 임의의 최초 신경관 시작위치를 선택하면, 에지 검출(edge detection) 기법을 이용하여 정확한 신경관 시작위치를 검색하여 보정한다. 그리고 데드 레커닝(dead reckoning) 기법을 이용하여 이전 신경관 시작위치에 대한 정보로부터 다음 신경관 위치를 예측한다. 보정된 신경관 시작위치의 특징점과 예측된 신경관 위치의 특징점들을 연결함에 따라 가상의 신경관 라인이 생성된다. 에지(edge)는 윤곽선을 의미하며, 영상 안에서의 영역의 경계(boundary)를 나타내는 특징이다. 에지 검출 방법은 영상 밝기의 불연속점으로 에지에 해당하는 픽셀을 구하는 방법이다. 데드 레커닝 기법은 신호를 받지 못하고 있는 상태(dead)에서 다음 상태를 추산(reckoning)하여 상태정보를 갱신(update)하는 것을 말한다. 제어부(14)의 세부 구성은 도 4를 참조로 하여 후술한다.The
입력부(16)는 사용자 조작신호를 입력받는다. 예를 들어, 출력부(18)를 통해 화면에 표시되는 재구성 영상에 대하여 신경관 라인 형성을 위한 최초 시작위치를 사용자로부터 선택받는다. 사용자 조작신호는 클릭, 더블 클릭 등의 마우스 조작이 있을 수 있다. 출력부(18)는 화면을 표시하는데, 예를 들어, 의료영상을 화면에 표시한다. 의료영상은 기초 영상, 재구성 영상, 기초 영상 또는 재구성 영상에 가상의 임플란트 구조물이 식립된 식립 영상 데이터를 포함한다. 출력부(18)는 의료영상에 자동으로 생성된 신경관 라인을 표시할 수 있다.The
도 4는 본 발명의 일 실시 예에 따른 도 3의 제어부의 세부 구성을 도시한 도면이다.4 is a diagram showing a detailed configuration of the control unit of FIG. 3 according to an embodiment of the present invention.
도 3 및 도 4를 참조하면, 제어부(14)는 데이터 재구성부(140), 식립 설계부(142) 및 신경관 검출부(144)를 포함한다.3 and 4, the
데이터 재구성부(140)는 기초 영상에서 신경관 검출을 위한 재구성 영상을 생성한다. 예를 들어, 환자의 CT 데이터 또는 구강 모델 데이터로부터 파노라믹 영상을 생성하거나, CT 데이터로부터 CT 2D 영상을 생성한다.The
식립 설계부(142)는 의료영상을 대상으로 임플란트 구조물에 대한 식립 계획을 설계한다. 이를 통해, 임플란트 구조물의 식립 위치가 결정된다. 의료영상은 기초 영상(예를 들어, CT 영상)일 수 있고, 데이터 재구성부(140)를 통해 기초 영상을 재구성한 영상(예를 들어, 파노라믹 영상, 2D CT 영상)일 수 있다. 임플란트 구조물은 픽스쳐, 어버트먼트, 임플란트 등일 수 있다.The
신경관 검출부(144)는 의료영상을 대상으로 가상의 신경관 라인을 자동으로 생성한다. 신경관 검출부(144)가 일 실시 예에 따른 신경관 자동 검출장치가 될 수 있다. 의료영상은 기초 영상(예를 들어, CT 영상)일 수 있고, 데이터 재구성부(140)를 통해 기초 영상을 재구성한 영상(예를 들어, 파노라믹 영상, 2D CT 영상)일 수 있다. 일 실시 예에 따른 신경관 생성부(144)는 시작위치 설정부(1440), 시작위치 보정부(1442), 신경관 위치 예측부(1444) 및 라인 생성부(1446)를 포함한다.The neural
시작위치 설정부(1440)는 최초의 신경관 시작위치를 설정한다. 신경관 시작위치는 사용자에 의한 선택신호를 수신하여 설정되는데, 사용자에 의해 대략적인(Rough) 위치가 선정된다.The start
시작위치 보정부(1442)는 사용자가 대략적으로 선택한 신경관 시작위치를 정확한 시작위치로 보정한다. 이를 위해, 영상처리 방법 중 하나인 에지 검출 방법을 사용한다. 에지 검출 방법에 따르면, 관심영역(ROI)인 신경관 단면 에지 영역을 검출한 후 신경관 단면 에지 영역의 신경관 중심점을 검색하여, 사용자에 의해 선택된 신경관 시작위치에서 검색된 신경관 중심점으로 신경관 시작위치를 변경한다.The start
이를 위해, 시작위치 보정부(1442)는 사용자가 선택한 신경관 시작위치를 포함하는 신경관 에지 검출 영역을 검색하고, 검색된 신경관 에지 검출 영역 내에서 신경관 단면 에지 영역을 검색한다. 그리고 검색된 신경관 단면 에지 영역의 중심 점으로 신경관 시작위치가 보정된다. 신경관 에지 검출 영역 생성은 스무딩 필터(smoothing filter)를 이용할 수 있다. 스무딩 필터는 영상을 흐리게(blurring) 하기 위한 것이다. 신경관 단면 에지 영역 생성은 임계값을 이용할 수 있는데, 예를 들어, 신경관 에지 검출 영역 내에서 밀도 값(Hounsfield Unit: HU)이 미리 설정된 임계값을 가지는 경계영역을 신경관 단면 에지 영역으로 결정할 수 있다. 임계값에 따라 신경관 단면 에지 영역의 형태가 변할 수 있다. 에지 검출 방법을 통한 신경관 시작위치 보정의 실시 예는 도 5를 참조로 하여 후술한다.To this end, the start
신경관 위치 예측부(1444)는 시뮬레이션(simulation) 환경에서 데드 레커닝 기법을 이용하여 다음 신경관 위치를 예측한다. 데드 레커닝 기법은 이전의 위치에 대한 정보를 이용하여 다음 위치를 예측하는 방법이다. 일 실시 예에 따른 신경관 위치 예측부(1444)는 보정된 신경관 시작위치에 대한 정보를 이용하여 두 번째 신경관 위치를 예측한다. 신경관 종료 지점까지 이전 신경관 위치에 대한 정보를 이용한 다음 신경관 위치 예측 단계를 반복 수행한다. 일 실시 예에 따른 신경관 위치 예측부(1444)는 신경관 시작위치에서 파노라믹 영상의 커브 곡선을 기준으로 직선 방향으로 두 번째 신경관 위치를 예측한다. 그리고 그 이후로는 데드 레커닝 연산식을 이용하여 신경관 위치를 예측한다. 데드 레커닝 기법에 대해서는 도 6 및 도 7을 참조로 하여 후술한다.The neural tube
라인 생성부(1446)는 시작위치 보정부(1442)에 의해 보정된 신경관 시작위치의 특징점 및 신경관 위치 예측부(1444)를 통해 예측된 다음 신경관 위치의 특징점들을 연결함에 따라 하나의 신경관 라인을 자동 생성한다.The
도 5는 본 발명의 일 실시 예에 따른 에지 검출 방법을 이용하여 사용자가 선택한 신경관 시작위치를 보정하는 예를 보여주는 CT 단면 영상을 도시한 도면이다.5 is a diagram illustrating a CT cross-sectional image showing an example of correcting a start position of a neural tube selected by a user using an edge detection method according to an embodiment of the present invention.
도 5를 참조하면, 본 발명은 사용자가 정확하지 않은 신경관 시작위치를 선택하는 경우에도 영상처리 방법 중 하나인 에지 검출 방법을 통해 신경관의 시작위치를 정확히 찾을 수 있다. 에지 검출 방법에 의하면, 사용자 선택한 신경관 시작위치의 밀도 값(Hounsfield Unit: HU)이 아닌 선택지점 주변의 경계(Boundary) 영역 내에서 신경관의 중심점을 찾아 신경관을 찾아가므로 사용자가 시작위치를 정확하게 선택할 필요가 없다.Referring to FIG. 5, even when a user selects an incorrect neural tube start position, the present invention can accurately find the start position of a neural tube through an edge detection method, which is one of image processing methods. According to the edge detection method, the user needs to accurately select the starting position because it searches for the center point of the neural tube within the boundary area around the selected point, not the density value (Hounsfield Unit: HU) at the start position of the neural tube selected by the user. There is no
일 실시 예에 따른 신경관 자동 검출장치는 의료 영상, 예를 들어 2D CT 단면 영상에서 사용자가 선택한 신경관 시작위치(500)를 포함하는 신경관 에지 검출 영역(510)을 검색한다. 스무딩 필터(smoothing filter)를 이용하여 신경관 에지 검출 영역(510)을 검색할 수 있다. 스무딩 필터는 영상을 흐리게(blurring) 하기 위한 것이다. 이를 위해 현재 위치의 픽셀 값과 이웃 픽셀 값들의 평균으로 결과 영상의 현재 위치 값을 결정하는 방법을 사용할 수 있다. 이 경우, 선명도가 떨어지는 대신 에지 영역을 검출할 수 있다.The automatic neural tube detection apparatus according to an embodiment searches for a neural tube
이어서, 신경관 자동 검출장치는 검색된 신경관 에지 검출 영역(510) 내에서 관심영역인 신경관 단면 에지 영역(520)을 검색한다. 신경관 에지 검출 영역(510) 내에서 밀도 값(Hounsfield Unit: HU)이 미리 설정된 임계값을 가지는 경계영역을 신경관 단면 에지 영역(520)으로 결정할 수 있다. 임계값에 따라 신경관 에지 검출 영역(510)의 모양이 변경된다.Subsequently, the automatic neural tube detection apparatus searches for a neural tube
이어서, 신경관 자동 검출장치는 검색된 신경관 단면 에지 영역(520)의 중심에 위치한 신경관 중심점(530)을 검색한다. 이에 따라, 사용자가 선택한 신경관 시작위치(500)에서 신경관 중심점(530)으로 신경관 시작위치를 변경된다.Subsequently, the neural tube automatic detection device searches for a neural
사용자가 선택한 신경관 위치(50)의 밀도 값(Hounsfield Unit: HU)을 가지고 이와 동일한 밀도 값을 가지는 신경관을 찾아 가게 될 경우, 사용자가 정확한 신경관 위치를 선택해야만 한다. 그러나 본 발명에 따르면, 사용자가 정확한 위치가 아닌 인접 위치를 선택하게 되도 그 주위의 경계 영역(Boundary Range)을 검색하여 신경관 외관 및 중심점을 탐색하므로 정확한 위치를 선택할 필요가 없다.When the user selects the density value (Hounsfield Unit: HU) of the
도 6은 본 발명의 일 실시 예에 따른 다음 신경관 위치를 검출하기 위해 사용되는 데드 레커닝 방법을 설명하기 위한 도면이다.6 is a diagram for explaining a dead reckoning method used to detect a next neural tube position according to an embodiment of the present invention.
도 6을 참조하면, 신경관 자동 검출장치는 신경관 시작지점을 검출한 이후, 데드 레커닝 방법을 사용하여 다음 신경관 위치들을 검색한다. 데드(Dead)는 신호를 받지 못하고 있는 상태를 의미하고, 레커닝(Reckoning)은 추산한다는 의미로 신호가 없는 동안에는 예측하여 상태정보를 갱신(update)한다는 의미이다. 이 경우, 모든 프레임이 필요하지 않고 몇몇 프레임 없이도 일부 프레임만을 사용할 수 있으므로 신경관 영상이 다소 부족하더라도 신경관 위치를 검출할 수 있다. 신호가 없는 상태에서 프레임 처리를 위해 데드 레커닝이 사용된다. 신호가 없는 동안의 다음 위치를 예측할 수 있다. 다음 신호가 오면 해당 위치로 이동한다. 신호가 오지 않을 경우 현재 위치와 다음 위치를 조합하여 이동 처리한다.Referring to FIG. 6, after detecting a start point of a neural tube, the automatic neural tube detection apparatus searches for next neural tube positions using a dead reckoning method. Dead means a state in which a signal is not received, and reckoning means that it is estimated, and while there is no signal, it is predicted and the state information is updated. In this case, since not all frames are required and only some frames can be used without several frames, the neural tube position can be detected even if the neural tube image is somewhat insufficient. Dead reckoning is used for frame processing in the absence of a signal. You can predict the next position while there is no signal. When the next signal comes, it moves to that location. If there is no signal, the current position and the next position are combined and moved.
우선, 신경관 자동 검출장치는 보정된 신경관 시작위치에서 파노라믹 영상의 커브 곡선을 기준으로 직선 방향으로 이동하여 두 번째 신경관 위치를 예측한다.First, the automatic neural tube detection apparatus predicts the second neural tube position by moving in a linear direction based on the curve curve of the panoramic image from the corrected neural tube start position.
이어서, 두 번째 신경관 위치 이후로는 데드 레커닝 연산식을 이용하여 다음 이동 방향을 결정하는 방법으로 다음 신경관 위치를 예측한다. 데드 레커닝 연산식은 이전 신경관의 위치 값과 속도 및 가속도를 이용하여 다음 신경관 위치를 구하는 것이다.Next, after the position of the second neural tube, the position of the next neural tube is predicted by determining the next moving direction using a dead reckoning equation. The dead reckoning equation is to find the position of the next neural tube using the position value of the previous neural tube, velocity, and acceleration.
등속인 경우 데드 레커닝 연산식은 수학식 1과 같다.In the case of constant velocity, the dead reckoning equation is the same as in
Postiont1 = Positiont0 + v(t1-t0) ... (수학식 1)Postion t1 = Position t0 + v(t1-t0) ... (Equation 1)
수학식 1에서 Positiont1은 다음 위치, Positiont0은 이전 위치, v는 이전 위치에서의 속도, t1-t0는 이전 위치에서 다음 위치까지의 이동 시간이다.In
가속도가 있는 경우 데드 레커닝 연산식은 수학식 2와 같다.In the case of acceleration, the dead reckoning equation is shown in Equation 2.
Postiont1 = Positiont0 + v(t1-t0) + 1/2 ×a × (t1-t0)2 ... (수학식 2)Postion t1 = Position t0 + v(t1-t0) + 1/2 ×a × (t1-t0) 2 ... (Equation 2)
수학식 2에서 Postiont1은 다음 위치, Positiont0은 이전 위치, v는 이전 위치에서의 속도, t1-t0는 이전 위치에서 다음 위치까지의 이동 시간, a는 이전 위치에서의 가속도이다. 이동될 때마다 일정한 값이 증가한다.In Equation 2, Postion t1 is the next position, position t0 is the previous position, v is the velocity at the previous position, t1-t0 is the movement time from the previous position to the next position, and a is the acceleration at the previous position. Each time it is moved, a constant value increases.
데드 레커닝 연산식을 적용한 예는 도 6에 도시된 바와 같다. 이전 위치(t0)에서 데드 레커닝 경로(DR Path)의 t1 위치로 이동하고 t1 위치에서 실제 경로(True Path)의 다음 위치(t1')로 이동하게 된다.An example of applying the dead reckoning equation is as shown in FIG. 6. It moves from the previous position (t0) to the position t1 of the dead reckoning path (DR Path), and moves from the position t1 to the next position (t1') of the true path.
도 7은 본 발명의 일 실시 예에 따른 데드 레커닝 방법으로 검색된 신경관 위치의 특징점들을 도시한 도면이다.7 is a diagram illustrating feature points of a neural tube location retrieved by a dead reckoning method according to an embodiment of the present invention.
도 7을 참조하면, 도 6을 참조로 하여 전술한 바와 같이 신경관 자동 검출장치는 이어진 CT 단면 영상 슬라이스에서 데드 레커닝 방법으로 신경관 위치를 검색한 후, 검색된 신경관 위치의 특징점들(control points)(701~706)을 생성한다. 이때, 생성된 특징점들(701~706)을 연결하면 하나의 신경관 라인이 생성된다. 데드 레커닝 방법으로 이전 히스토리(history), 즉, 이전 신경관 위치에 대한 정보를 근거로 다음 신경관 위치를 결정하기 때문에, 신경관 영상의 수가 다소 부족하더라도 다음 신경관 위치를 검출할 수 있다. 첫 번째 신경관 시작위치 결정 시에만 영상처리(예를 들어, 에지 검출 방법)를 수행하고, 두 번째 신경관 위치부터는 전부 데드 레커닝 방법을 사용하여 신경관 위치들을 검출하므로 검출 속도가 크게 향상된다.Referring to FIG. 7, as described above with reference to FIG. 6, the automatic neural tube detection apparatus searches for a neural tube position using a dead reckoning method from a continuous CT cross-sectional image slice, and then control
도 8은 본 발명의 일 실시 예에 따른 신경관 자동 검출방법의 흐름을 도시한 도면이다.8 is a diagram illustrating a flow of a method for automatically detecting a neural tube according to an embodiment of the present invention.
도 8을 참조하면, 신경관 자동 검출장치는 의료영상에서 사용자 조작신호를 통해 신경관의 시작위치를 선택 입력받는다(S810). 사용자 조작신호는 클릭, 더블 클릭 등의 마우스 조작이 있을 수 있다.Referring to FIG. 8, the apparatus for automatically detecting a neural tube receives a selection and input of a start position of a neural tube through a user manipulation signal in a medical image (S810). The user manipulation signal may be a mouse manipulation such as a click or a double click.
이어서, 신경관 자동 검출장치는 선택 입력된 시작위치를 보정한다(S820). 예를 들어, 선택 입력된 시작위치를 포함하는 관심영역을 검출하고 검출된 관심영역 내에서 신경관 중심위치를 검색하여 검색된 신경관 중심위치로 신경관 시작위치를 보정한다. 보다 구체적으로, 선택 입력된 신경관 시작위치를 포함하는 신경관 에지 검출 영역을 검색하고, 검색된 신경관 에지 검출 영역 내에서 신경관 단면 에지 영역을 검색한다. 이어서, 선택 입력된 신경관 시작위치에서 신경관 단면 에지 영역의 중심점으로 신경관 시작위치를 변경한다. 신경관 에지 검출 영역 검색은 스무딩 필터를 이용할 수 있다. 신경관 에지 검출 영역 내에서 밀도 값(Hounsfield Unit: HU)이 미리 설정된 임계값을 가지는 경계영역을 신경관 단면 에지 영역으로 결정할 수 있다.Subsequently, the automatic neural tube detection device corrects the selected and input start position (S820). For example, a region of interest including a selected input start position is detected, and a neural tube center position is searched within the detected region of interest, and the neural tube start position is corrected with the searched neural tube center position. More specifically, a neural tube edge detection area including a selected input neural tube start position is searched, and a neural tube cross-section edge area within the searched neural tube edge detection area is searched. Next, the neural tube start position is changed from the selected input neural tube start position to the center point of the edge region of the neural tube cross section. A smoothing filter may be used to search for a neural tube edge detection region. A boundary region in which a density value (Hounsfield Unit: HU) has a preset threshold within the neural tube edge detection area may be determined as the neural tube cross-section edge area.
이어서, 신경관 자동 검출장치는 보정된 신경관 시작위치에 대한 정보를 이용하여 다음 신경관 위치를 예측한다(S830). 이때, 신경관 종료 지점까지 이전 신경관 위치에 대한 정보를 이용한 다음 신경관 위치 예측 단계를 반복 수행한다. 이때, 보정된 신경관 시작위치에서 파노라믹 영상의 커브 곡선을 기준으로 직선 방향으로 이동하여 두 번째 신경관 위치를 예측할 수 있다. 두 번째 신경관 위치 이후로는 데드 레커닝 연산식을 이용하여 다음 이동 방향을 결정하는 방법으로 다음 신경관 위치를 예측할 수 있다. 데드 레커닝 연산식은 이전 신경관의 위치 값과 속도 및 가속도를 이용하여 다음 신경관 위치를 구하는 것이다.Subsequently, the automatic neural tube detection apparatus predicts the next neural tube position by using information on the corrected neural tube start position (S830). At this time, the next neural tube position prediction step is repeatedly performed using information on the previous neural tube position to the end of the neural tube. In this case, the position of the second neural tube may be predicted by moving in a linear direction based on the curve curve of the panoramic image from the corrected neural tube start position. After the position of the second neural tube, the position of the next neural tube can be predicted by determining the next movement direction using a dead reckoning equation. The dead reckoning equation is to find the position of the next neural tube using the position value of the previous neural tube, velocity, and acceleration.
이어서, 신경관 자동 검출장치는 보정된 신경관 시작위치의 특징점 및 예측된 다음 신경관 위치의 특징점들을 연결함에 따라 신경관 라인을 자동 생성한다(S840).Subsequently, the apparatus for automatically detecting a neural tube automatically generates a neural tube line by connecting the feature points of the corrected neural tube start position and the predicted features of the next neural tube location (S840).
이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been looked at around the embodiments. Those of ordinary skill in the art to which the present invention pertains will be able to understand that the present invention may be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered from an illustrative point of view rather than a limiting point of view. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.
Claims (12)
선택 입력된 시작위치를 포함하는 관심영역을 검출하고 검출된 관심영역 내에서 신경관 중심위치를 검색하여 검색된 신경관 중심위치로 신경관 시작위치를 보정하는 단계; 및
보정된 신경관 시작위치를 시작으로 하는 신경관 라인을 자동 생성하는 단계;
를 포함하는 것을 특징으로 하는 신경관 자동 검출방법.Selecting and receiving a start position of a neural tube through a user manipulation signal in the medical image;
Detecting a region of interest including a selected input starting position, searching for a central position of a neural tube within the detected region of interest, and correcting a starting position of the neural tube with the searched central position of the neural tube; And
Automatically generating a neural tube line starting from the corrected neural tube start position;
Automatic neural tube detection method comprising a.
선택 입력된 신경관 시작위치를 포함하는 신경관 에지 검출 영역을 검색하는 단계;
검색된 신경관 에지 검출 영역 내에서 신경관 단면 에지 영역을 검색하는 단계; 및
선택 입력된 신경관 시작위치에서 신경관 단면 에지 영역의 중심점으로 신경관 시작위치를 변경하는 단계;
를 포함하는 것을 특징으로 하는 신경관 자동 검출방법.The method of claim 1, wherein correcting the start position of the neural tube
Retrieving a neural tube edge detection region including a selected input neural tube start position;
Searching a neural tube cross-sectional edge area within the searched neural tube edge detection area; And
Changing the neural tube start position from the selected input neural tube start position to the center point of the edge region of the neural tube cross section;
Automatic neural tube detection method comprising a.
스무딩 필터(smoothing filter)를 이용하여 신경관 에지 검출 영역을 획득하는 것을 특징으로 하는 신경관 자동 검출방법.The method of claim 2, wherein searching for a neural tube edge detection region comprises:
An automatic neural tube detection method, characterized in that acquiring a neural tube edge detection region using a smoothing filter.
신경관 에지 검출 영역 내에서 밀도 값(Hounsfield Unit: HU)이 미리 설정된 임계값을 가지는 경계영역을 신경관 단면 에지 영역으로 결정하는 것을 특징으로 하는 신경관 자동 검출방법.The method of claim 2, wherein the step of searching for a neural tube cross-section edge region comprises:
A neural tube automatic detection method, characterized in that a boundary area in which a density value (Hounsfield Unit: HU) has a preset threshold value within a neural tube edge detection area is determined as a neural tube cross-section edge area.
보정된 신경관 시작위치에 대한 정보를 이용하여 다음 신경관 위치를 예측하고, 신경관 종료 지점까지 이전 신경관 위치에 대한 정보를 이용한 다음 신경관 위치 예측 단계를 반복 수행하는 단계; 및
보정된 신경관 시작위치의 특징점 및 예측된 다음 신경관 위치의 특징점들을 연결함에 따라 신경관 라인을 자동 생성하는 단계;
를 더 포함하는 것을 특징으로 하는 신경관 자동 검출방법.The method of claim 1, wherein the automatic neural tube detection method
Predicting a next neural tube position using the corrected neural tube start position information, and repeatedly performing a next neural tube position prediction step using the information on the previous neural tube position to the neural tube end point; And
Automatically generating a neural tube line by connecting the feature points of the corrected neural tube start position and the predicted next neural tube location feature points;
Automatic neural tube detection method, characterized in that it further comprises.
보정된 신경관 시작위치에서 파노라믹 영상의 커브 곡선을 기준으로 직선 방향으로 이동하여 두 번째 신경관 위치를 예측하는 단계; 및
두 번째 신경관 위치 이후로는 데드 레커닝 연산식을 이용하여 다음 이동 방향을 결정하는 방법으로 다음 신경관 위치를 예측하는 단계; 를 포함하며,
데드 레커닝 연산식은 이전 신경관의 위치 값과 속도 및 가속도를 이용하여 다음 신경관 위치를 구하는 것을 특징으로 하는 신경관 자동 검출방법.The method of claim 5, wherein repeating the next neural tube position prediction step
Predicting a position of a second neural tube by moving in a linear direction based on a curve curve of a panoramic image from the corrected neural tube start position; And
Predicting the position of the next neural tube after the position of the second neural tube by determining the next movement direction using a dead reckoning equation; Including,
The dead reckoning calculation formula is a method of automatically detecting a neural tube, characterized in that the position of a next neural tube is obtained using a position value, a velocity, and an acceleration of a previous neural tube.
보정된 신경관 시작위치 값을 시작으로 하는 신경관 라인을 자동 생성하는 라인 생성부; 및
생성된 신경관 라인을 포함한 영상 데이터를 화면에 표시하는 출력부;
를 포함하는 것을 특징으로 하는 신경관 자동 검출장치.In the medical image, the user selects and inputs the neural tube start position, but detects the region of interest including the selected and input neural tube start position, and searches the center of the neural tube within the detected region of interest, and then selects the neural tube start position to the searched neural tube center position. A start position correction unit to correct;
A line generator for automatically generating a neural tube line starting with the corrected neural tube start position value; And
An output unit that displays image data including the generated neural tube lines on a screen;
Automatic neural tube detection device comprising a.
선택 입력된 신경관 시작위치를 포함하는 신경관 에지 검출 영역을 검색하고, 검색된 신경관 에지 검출 영역 내에서 신경관 단면 에지 영역을 검색하며, 선택 입력된 신경관 시작위치에서 신경관 단면 에지 영역의 중심점으로 신경관 시작위치를 변경하는 것을 특징으로 하는 신경관 자동 검출장치.The method of claim 7, wherein the start position correction unit
Searches the neural tube edge detection area including the selected input neural tube start position, searches the neural tube cross-section edge area within the searched neural tube edge detection area, and selects the neural tube start position from the input neural tube start position to the center point of the neural tube cross section edge area. Automatic neural tube detection device, characterized in that to change.
스무딩 필터(smoothing filter)를 이용하여 신경관 에지 검출 영역을 획득하는 것을 특징으로 하는 신경관 자동 검출장치.The method of claim 8, wherein the start position correction unit
A neural tube automatic detection apparatus, characterized in that acquiring a neural tube edge detection region using a smoothing filter.
신경관 에지 검출 영역 내에서 밀도 값(Hounsfield Unit: HU)이 미리 설정된 임계값을 가지는 경계영역을 신경관 단면 에지 영역으로 결정하는 것을 특징으로 하는 신경관 자동 검출장치.The method of claim 8, wherein the start position correction unit
A neural tube automatic detection device, characterized in that a boundary area having a predetermined threshold value within a neural tube edge detection area is determined as a neural tube cross-section edge area.
보정된 신경관 시작위치에 대한 정보를 이용하여 다음 신경관 위치를 예측하고, 신경관 종료 지점까지 이전 신경관 위치에 대한 정보를 이용한 다음 신경관 위치 예측 단계를 반복 수행하는 신경관 위치 예측부; 를 더 포함하며,
라인 생성부는
보정된 신경관 시작위치의 특징점 및 예측된 다음 신경관 위치의 특징점들을 연결함에 따라 신경관 라인을 자동 생성하는 것을 특징으로 하는 신경관 자동 검출장치.The apparatus of claim 7, wherein the neural tube automatic detection device
A neural tube position prediction unit that predicts a position of a next neural tube using the corrected neural tube start position and repeats a next neural tube position prediction step using information on a previous neural tube position up to the neural tube end point; It further includes,
Line generator
A neural tube automatic detection device, characterized in that automatically generating a neural tube line by connecting the feature points of the corrected neural tube start position and the predicted next feature points of the neural tube location.
보정된 신경관 시작위치에서 파노라믹 영상의 커브 곡선을 기준으로 직선 방향으로 이동하여 두 번째 신경관 위치를 예측하고,
두 번째 신경관 위치 이후로는 데드 레커닝 연산식을 이용하여 다음 이동 방향을 결정하는 방법으로 다음 신경관 위치를 예측하며,
데드 레커닝 연산식은 이전 신경관의 위치 값과 속도 및 가속도를 이용하여 다음 신경관 위치를 구하는 것을 특징으로 하는 신경관 자동 검출장치.The method of claim 11, wherein the neural tube position prediction unit
The second neural tube position is predicted by moving in a linear direction based on the curve curve of the panoramic image from the corrected neural tube start position,
After the second neural tube position, the next neural tube position is predicted by determining the next movement direction using the dead reckoning equation.
The dead reckoning calculation equation is an automatic neural tube detection apparatus, characterized in that the position of the next neural tube is obtained by using the position value, velocity, and acceleration of the previous neural tube.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190022304A KR102210341B1 (en) | 2019-02-26 | 2019-02-26 | Neural tube line detecting method using medical image processing and simulation and apparatus thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190022304A KR102210341B1 (en) | 2019-02-26 | 2019-02-26 | Neural tube line detecting method using medical image processing and simulation and apparatus thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200104004A true KR20200104004A (en) | 2020-09-03 |
KR102210341B1 KR102210341B1 (en) | 2021-02-01 |
Family
ID=72450265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190022304A KR102210341B1 (en) | 2019-02-26 | 2019-02-26 | Neural tube line detecting method using medical image processing and simulation and apparatus thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102210341B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230168826A (en) * | 2022-06-08 | 2023-12-15 | 오스템임플란트 주식회사 | Neural Tube Display Method, Computing Device and a Computer-readable Recording Medium therefor |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010027535A (en) * | 1999-09-14 | 2001-04-06 | 남궁석 | Method for detecting alveolar nerve within mandible |
KR20080000055A (en) * | 2006-06-26 | 2008-01-02 | (주)풀쓰리디소프트 | Method and apparatus for extracting neural tube of jaw using slice image of jaw |
KR20160083788A (en) * | 2014-12-31 | 2016-07-12 | 오스템임플란트 주식회사 | Method for Generating Dental Panoramic Image, Apparatus and Recording Medium Thereof |
KR20170111707A (en) * | 2016-03-29 | 2017-10-12 | 사회복지법인 삼성생명공익재단 | The augmented reality system reflected estimation of movement of maxillary |
KR20170142572A (en) * | 2016-06-20 | 2017-12-28 | 주식회사 디오코 | Simulation method in orthodontics and facial plastic surgery simulation device, and computer-readable storage medium storing the same |
-
2019
- 2019-02-26 KR KR1020190022304A patent/KR102210341B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010027535A (en) * | 1999-09-14 | 2001-04-06 | 남궁석 | Method for detecting alveolar nerve within mandible |
KR20080000055A (en) * | 2006-06-26 | 2008-01-02 | (주)풀쓰리디소프트 | Method and apparatus for extracting neural tube of jaw using slice image of jaw |
KR20160083788A (en) * | 2014-12-31 | 2016-07-12 | 오스템임플란트 주식회사 | Method for Generating Dental Panoramic Image, Apparatus and Recording Medium Thereof |
KR20170111707A (en) * | 2016-03-29 | 2017-10-12 | 사회복지법인 삼성생명공익재단 | The augmented reality system reflected estimation of movement of maxillary |
KR20170142572A (en) * | 2016-06-20 | 2017-12-28 | 주식회사 디오코 | Simulation method in orthodontics and facial plastic surgery simulation device, and computer-readable storage medium storing the same |
Also Published As
Publication number | Publication date |
---|---|
KR102210341B1 (en) | 2021-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6818791B2 (en) | Selection and locking of intraoral images | |
KR102236359B1 (en) | Method for selecting tooth number using panoramic image and medical image processing apparatus for the same | |
KR102314890B1 (en) | Method and apparatus for superimposition of medical images | |
KR102248604B1 (en) | Apparatus for planning implant placement capable of recommendation of optimized abutment and prosthesis replacement type and method thereof | |
CN106663327B (en) | Automatic rejoining of 3-D surfaces | |
US20220246269A1 (en) | Implant surgery planning method using automatic placement of implant structure, user interface providing method therefor, and teeth image processing device therefor | |
KR20210008220A (en) | Method for displaying multi-bone density for dental implant planning and image processing apparatus thereof | |
KR102239358B1 (en) | Method for planning implant surgery using implant center line and dental image processing device for the same | |
KR102210341B1 (en) | Neural tube line detecting method using medical image processing and simulation and apparatus thereof | |
KR102346199B1 (en) | Method for generating panoramic image and image processing apparatus therefor | |
KR102269027B1 (en) | Method for planning implant surgery using HU information of CT device and medical image processing device for the same | |
KR102231215B1 (en) | Automatic generation method of neural tube line and medical image processing apparatus therefor | |
KR102237711B1 (en) | Neural tube line generation method and medical image processing apparatus therefor | |
KR102350098B1 (en) | Method for generating arch line and dental image processing apparatus therefor | |
KR102566541B1 (en) | Method for establishing orthodontic treatment plan and apparatus thereof | |
KR102292874B1 (en) | Method for adjusting guide area for implant surgery and guide design apparatus thereof | |
KR20220126665A (en) | Apparatus and method for simulation based on face photo matching | |
KR102234425B1 (en) | Method and apparatus for matching medical images | |
KR20200118327A (en) | Method and apparatus for designing implant surgery guide using drilling simulation | |
KR20210000395A (en) | Method for enlarging dental image and dental image processing apparatus therefor | |
KR102474298B1 (en) | Method for designing prosthetic model and apparatus thereof | |
KR102378382B1 (en) | Method and apparatus for matching medical images | |
KR102418810B1 (en) | Margin line point picking method in margin line design process and dental CAD device for same | |
KR102251651B1 (en) | Method for generating curve line automatically for panoramic image generation and dental image processing apparatus for the same | |
KR102401135B1 (en) | Method for digital dentistry simulation and apparatus thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |