KR20210000855A - Method and apparatus for correcting nerve position in dental image - Google Patents

Method and apparatus for correcting nerve position in dental image Download PDF

Info

Publication number
KR20210000855A
KR20210000855A KR1020190076079A KR20190076079A KR20210000855A KR 20210000855 A KR20210000855 A KR 20210000855A KR 1020190076079 A KR1020190076079 A KR 1020190076079A KR 20190076079 A KR20190076079 A KR 20190076079A KR 20210000855 A KR20210000855 A KR 20210000855A
Authority
KR
South Korea
Prior art keywords
image
nerve
curved
nerve position
reference line
Prior art date
Application number
KR1020190076079A
Other languages
Korean (ko)
Other versions
KR102205427B1 (en
Inventor
김진철
김진백
Original Assignee
주식회사 디오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 디오 filed Critical 주식회사 디오
Priority to KR1020190076079A priority Critical patent/KR102205427B1/en
Priority to PCT/KR2020/002757 priority patent/WO2020235784A1/en
Priority to US17/612,436 priority patent/US20220240852A1/en
Priority to EP20809402.9A priority patent/EP3973878A4/en
Priority to CN202080036341.8A priority patent/CN113873947A/en
Priority to TW109112962A priority patent/TWI754259B/en
Publication of KR20210000855A publication Critical patent/KR20210000855A/en
Application granted granted Critical
Publication of KR102205427B1 publication Critical patent/KR102205427B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/14Applications or adaptations for dentistry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/40Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for generating radiation specially adapted for radiation diagnosis
    • A61B6/4064Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for generating radiation specially adapted for radiation diagnosis specially adapted for producing a particular type of beam
    • A61B6/4085Cone-beams
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/506Clinical applications involving diagnosis of nerves
    • A61B6/51
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions

Abstract

The present invention relates to a method and a device for correcting a nerve position. According to an embodiment of the present invention, as a method which corrects the nerve position detected in a three-dimensional image, the method for correcting a nerve position comprises: an image acquisition step of acquiring a curved planar reformation (CPR) image based on a nerve position; a display step of respectively displaying the nerve position and a reference line on the CPR image; and a correction step of correcting the nerve position on the CPR image based on the reference line.

Description

신경 위치 보정 방법 및 장치{Method and apparatus for correcting nerve position in dental image}Method and apparatus for correcting nerve position in dental image}

본 발명은 신경 위치 보정 방법 및 장치에 관한 것으로 더욱 상세하게는 다양한 방식으로 검출된 신경의 위치를 보정하는 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for correcting nerve position, and more particularly, to a method and apparatus for correcting the position of a nerve detected in various ways.

일반적으로, 임플란트는 본래의 인체 조직이 상실되었을 때, 인체 조직을 대신할 수 있는 대치물을 의미하며, 특히, 치과에서는 픽스츄어(fixture), 어버트먼트(abutment) 및 크라운(crown)을 포함하는 보철물을 이용하여 인공으로 만든 치아를 실제 치아의 위치에 이식하는 것을 의미한다.In general, an implant refers to a substitute that can replace human tissue when the original human tissue is lost, and in particular, in dentistry, including a fixture, an abutment, and a crown. It means implanting an artificial tooth using a prosthesis at the actual tooth position.

치과에서 임플란트 시술은 치조골에 천공을 형성하여 천공에 픽스츄어를 식립하고, 픽스츄어가 치조골에 융착되면 픽스츄어에 어버트먼트 및 크라운을 결합하는 형태로 시술된다. In the dental implant procedure, a perforation is formed in the alveolar bone and a fixture is placed in the perforation, and when the fixture is fused to the alveolar bone, the abutment and crown are combined with the fixture.

이러한 임플란트 시술은 신경 손상 등의 문제를 방지하기 위해 임플란트 시술 전에 CBCT(cone beam computed tomography) 영상을 기반으로 임플란트의 식립 위치, 각도, 깊이 등을 결정함으로써 치아 및 치조골 등의 골조직과 신경관 위치 등의 확인을 선행한다.In order to prevent problems such as nerve damage, these implant procedures determine the placement position, angle, and depth of the implant based on a cone beam computed tomography (CBCT) image before the implant procedure. Prior to confirmation.

특히, 임플란트 시술 시 치조골 천공을 위한 드릴링 작업은 픽스쳐와 하치조 신경 사이의 안전 거리를 유지해야 하는데 환자 마다 다양한 신경의 경로 및 상태로 인해 어려움이 있다. 또한, 기존에는 단층 촬영 이미지의 파노라마 영상을 이용하여 하치조 신경을 검출하였으나, 파노라마 영상에는 불투명하고 불명확한 하치조 신경이 존재하고, 이로 인해 임플란트 시술 시 신경의 손상을 초래할 우려가 있다.In particular, drilling for alveolar bone perforation during an implant procedure requires maintaining a safe distance between the fixture and the inferior alveolar nerve, which is difficult due to various nerve paths and conditions for each patient. In addition, conventionally, the inferior alveolar nerve has been detected using a panoramic image of a tomography image, but there is an opaque and unclear inferior alveolar nerve in the panoramic image, which may cause damage to the nerve during implantation.

이러한 문제점을 해결하기 위해, 신경이 분포하는 해부학적 특성을 기반으로 신경의 위치를 검출하는 기술이 개발되고 있다. 예를 들어, 이러한 신경 위치 검출 기술은 다양한 머신 러닝(machine learning) 기법을 이용하여 보다 빠르고 정확하게 신경을 자동으로 검출할 수 있다. In order to solve this problem, a technique for detecting the position of a nerve based on an anatomical characteristic in which the nerve is distributed has been developed. For example, these nerve position detection techniques can automatically detect nerves faster and more accurately using various machine learning techniques.

하지만, 이러한 신경 위치 검출 기술은 검출된 신경 위치의 정확성이 떨어질 수 있는 문제점이 있다.However, such a nerve position detection technique has a problem in that the accuracy of the detected nerve position may be degraded.

이러한 종래의 문제점을 해결하기 위해, 본 발명은 다양한 신경 위치 검출 기술을 통해 검출된 신경 위치를 간편하면서도 보다 정확하게 보정할 수 있는 신경 위치 보정 방법 및 장치를 제공하는데 그 목적이 있다.In order to solve such a conventional problem, an object of the present invention is to provide a method and apparatus for calibrating a nerve position capable of simply and more accurately correcting a nerve position detected through various nerve position detection techniques.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems that are not mentioned can be clearly understood by those of ordinary skill in the technical field to which the present invention belongs from the following description. There will be.

전술한 과제를 해결하기 위해, 본 발명의 일 실시예에 따른 신경 위치 보정 방법은 3차원 영상에서 검출된 신경 위치를 보정하는 방법으로서, (1) 상기 신경 위치를 기반으로 곡면 재구성(CPR, Curved Planar Reformation) 영상을 획득하는 영상 획득 단계, (2) 상기 곡면 재구성 영상에 신경 위치와 기준선을 각각 표시하는 표시 단계, (3) 상기 기준선을 기반으로 상기 신경 위치를 상기 곡면 재구성 영상 상에서 보정하는 보정 단계를 포함한다.In order to solve the above problems, a nerve position correction method according to an embodiment of the present invention is a method of correcting a nerve position detected in a 3D image, and (1) a curved surface reconstruction (CPR, Curved) based on the nerve position Planar Reformation) An image acquisition step of acquiring an image, (2) a display step of respectively displaying a nerve position and a reference line on the curved surface reconstructed image, (3) a correction of correcting the nerve position on the curved surface reconstructed image based on the reference line Includes steps.

본 발명의 일 실시예에 따른 신경 위치 보정 방법은 상기 영상 획득 단계, 상기 표시 단계 및 상기 보정 단계를 반복 수행하되, 반복 수행 시 상기 검출된 신경 위치를 이전의 보정 단계에서 보정된 신경 위치로 업데이트하여 이를 기반으로 각 단계를 수행할 수 있다.In the nerve position correction method according to an embodiment of the present invention, the image acquisition step, the display step, and the correction step are repeatedly performed, but when repeatedly performed, the detected nerve position is updated to the nerve position corrected in the previous correction step. Thus, each step can be performed based on this.

상기 영상 획득 단계는 상기 반복 수행 시 이전에 획득한 곡면 재구성 영상의 각도와 다른 각도의 곡면 재구성 영상을 획득하는 단계를 포함할 수 있다.The step of acquiring the image may include acquiring a curved reconstructed image having an angle different from that of the previously acquired curved reconstructed image during the repetition.

상기 표시 단계는 상기 3차원 영상 또는 이를 가공한 영상과, 상기 곡면 재구성 영상을 동시에 표시하되, 상기 3차원 영상 또는 이를 가공한 영상에 상기 신경 위치의 영역을 표시하는 단계를 포함할 수 있다.The displaying may include simultaneously displaying the 3D image or the processed image and the curved reconstruction image, and displaying the region of the nerve location on the 3D image or the processed image.

상기 영상 획득 단계는 상기 곡면 재구성 영상에 대한 범위 및 각도를 입력 받아 이를 반영한 곡면 재구성 영상을 획득하는 단계를 포함할 수 있다.The step of obtaining the image may include receiving a range and an angle of the curved reconstructed image and obtaining a curved reconstructed image reflecting the range and angle.

상기 표시 단계는 상기 범위 및 각도를 반영한 상기 곡면 재구성 영상을 실시간으로 표시하는 단계를 포함할 수 있다.The displaying may include displaying the reconstructed curved image reflecting the range and angle in real time.

상기 범위 또는 상기 각도는 입력부를 통해 입력선택 가능하다.The range or the angle can be input and selected through an input unit.

상기 영상 획득 단계는 상기 기준 영상에서 다수의 신경 중 특정 신경에 대한 선택을 입력 받아 입력된 특정 신경에 대한 상기 신경 위치를 기반으로 상기 곡면 재구성 영상을 획득하는 단계를 포함할 수 있다.The step of obtaining the image may include receiving a selection for a specific nerve among a plurality of nerves from the reference image and obtaining the curved reconstruction image based on the nerve position for the input specific nerve.

상기 기준선의 좌표 값은 상기 신경 위치의 좌표 값들 중에 적어도 하나를 포함할 수 있다.The coordinate value of the reference line may include at least one of coordinate values of the nerve position.

상기 기준선은 상기 곡면 재구성 영상에 표시되는 신경 영역의 일부를 지나는 선일 수 있다.The reference line may be a line passing through a portion of a neural region displayed on the curved reconstructed image.

상기 기준선은 직선 또는 곡선 형태일 수 있다.The reference line may have a straight line or a curved shape.

본 발명의 일 실시예에 따른 신경 위치 보정 장치는, (1) 3차원 영상과 3차원 영상에서 검출된 신경 위치 저장한 저장부, (2) 상기 신경 위치를 보정하도록 제어하는 제어부를 포함하며, 상기 제어부는, 상기 신경 위치를 기반으로 곡면 재구성(CPR, Curved Planar Reformation) 영상을 획득하고, 상기 곡면 재구성 영상에 기준선을 표시하며, 상기 기준선을 기반으로 상기 신경 위치를 보정한다.A nerve position correction apparatus according to an embodiment of the present invention includes (1) a storage unit storing a nerve position detected in a three-dimensional image and a three-dimensional image, and (2) a control unit controlling to correct the nerve position, The controller acquires a CPR (Curved Planar Reformation) image based on the nerve position, displays a reference line on the curved surface reconstruction image, and corrects the nerve position based on the reference line.

본 발명은 다양한 신경 위치 검출 기술을 통해 검출된 신경 위치를 간편하면서도 보다 정확하게 보정할 수 있으며, 이를 통해 환자 마다 다른 신경관의 위치 및 상태를 보다 정확히 파악하여 안전한 임플란트 시술을 가능하게 하는 이점이 있다.The present invention can easily and more accurately correct the nerve position detected through various nerve position detection techniques, and through this, there is an advantage of enabling a safe implant procedure by more accurately grasping the position and state of different neural tubes for each patient.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those of ordinary skill in the art from the following description. will be.

도 1은 본 발명의 일 실시예에 따른 신경 위치 보정 장치(100)의 개략적인 블록도이다.
도 2는 본 발명의 일 실시예에 따른 신경 위치 보정 방법의 흐름도이다.
도 3은 신경 위치를 표시하는 3차원 영상에 대한 일 예시를 나타낸다.
도 4는 도 3에서 획득된 곡면 재구성 영상에 대한 일 예시를 나타낸다.
도 5는 곡면 재구성 영상을 획득하는 과정을 나타낸다.
도 6은 도 4의 곡면 재구성 영상에 신경 위치를 표시한 일 예를 나타낸다.
도 7은 도 4의 곡면 재구성 영상에 신경 위치와 기준선을 함께 표시한 일 예를 나타낸다.
도 8은 도 4의 곡면 재구성 영상에 표시된 신경 위치를 기준선을 따라 보정하는 일 예를 나타낸다.
도 9는 도 8에 따라 보정이 수행된 이후의 곡면 재구성 영상에 대한 일 예를 나타낸다.
도 10 내지 도 13은 곡면 재구성 영상을 표시하는 사용자 인터페이스(UI, User Interface)의 다양한 예를 나타낸다.
도 14는 다양한 범위의 곡면 재구성 영상을 나타낸다.
도 15는 종래의 보정 방법과 본 발명의 일 실시예에 따른 신경 위치 보정 방법을 비교하여 나타낸 도면이다.
도 16은 본 발명의 일 실시예에 따른 대상 영상에서 신경을 검출하는 전자 장치의 개략적인 블록도이다.
도 17은 도 16의 제어부(250)의 구체적인 블록도이다.
도 18은 본 발명의 일 실시예에 따른 대상 영상에서 신경을 검출하는 방법의 흐름도이다.
도 19는 환자의 두상의 방향에 따라 달라지는 치아 단면 영상을 도시한 도면이다.
도 20은 관상면 방향의 치아 단면 영상에 검출 대상을 각각 도시한 도면이다.
도 21은 본 발명의 일 실시예에 따른 학습 데이터 생성 방법을 설명하기 위한 도면이다.
도 22는 도 21의 대상 영상에서 신경을 검출하는 단계의 흐름도이다.
도 23은 도 21의 대상 영상에서 신경을 검출하는 단계를 설명하기 위한 도면이다.
도 24는 도 22의 대상 영상에서 신경을 검출하는 단계의 구체적인 흐름도이다.
1 is a schematic block diagram of a nerve position correction apparatus 100 according to an embodiment of the present invention.
2 is a flowchart of a method for correcting a nerve position according to an embodiment of the present invention.
3 shows an example of a 3D image displaying a nerve position.
4 shows an example of a curved reconstructed image obtained in FIG. 3.
5 shows a process of obtaining a curved reconstructed image.
6 shows an example in which nerve positions are displayed on the curved reconstructed image of FIG. 4.
7 shows an example in which nerve positions and a reference line are displayed together in the curved reconstructed image of FIG. 4.
8 shows an example of correcting a nerve position displayed in the curved reconstructed image of FIG. 4 along a reference line.
9 shows an example of a curved reconstructed image after correction according to FIG. 8 is performed.
10 to 13 show various examples of a user interface (UI) that displays a curved reconstruction image.
14 shows various ranges of curved reconstructed images.
15 is a view showing a comparison between a conventional correction method and a nerve position correction method according to an embodiment of the present invention.
16 is a schematic block diagram of an electronic device for detecting a nerve in a target image according to an embodiment of the present invention.
17 is a detailed block diagram of the controller 250 of FIG. 16.
18 is a flowchart of a method of detecting a nerve in a target image according to an embodiment of the present invention.
19 is a diagram illustrating a cross-sectional image of a tooth that varies according to the direction of the patient's head.
20 is a diagram illustrating detection targets in a tooth cross-sectional image in the coronal direction.
21 is a diagram illustrating a method of generating learning data according to an embodiment of the present invention.
22 is a flowchart of a step of detecting a nerve in the target image of FIG. 21.
FIG. 23 is a diagram for describing a step of detecting a nerve in the target image of FIG. 21.
24 is a detailed flowchart of a step of detecting a nerve in the target image of FIG. 22.

이하, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다. 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략할 수 있고, 명세서 전체를 통하여 동일 또는 유사한 구성 요소에 대해서는 동일한 참조 부호를 사용할 수 있다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The detailed description to be disclosed hereinafter together with the accompanying drawings is intended to describe exemplary embodiments of the present invention, and is not intended to represent the only embodiments in which the present invention may be practiced. In the drawings, parts irrelevant to the description may be omitted in order to clearly describe the present invention, and the same reference numerals may be used for the same or similar components throughout the specification.

본 발명의 일 실시 예에서, “또는”, “적어도 하나” 등의 표현은 함께 나열된 단어들 중 하나를 나타내거나, 또는 둘 이상의 조합을 나타낼 수 있다. 예를 들어, “A 또는 B”, “A 및 B 중 적어도 하나”는 A 또는 B 중 하나만을 포함할 수 있고, A와 B를 모두 포함할 수도 있다.In an embodiment of the present invention, expressions such as "or" and "at least one" may represent one of words listed together, or a combination of two or more. For example, “A or B” and “at least one of A and B” may include only one of A or B, and may include both A and B.

도 1은 본 발명의 일 실시예에 따른 신경 위치 보정 장치(100)의 개략적인 블록도이다.1 is a schematic block diagram of a nerve position correction apparatus 100 according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 신경 위치 보정 장치(100)는 3차원 영상에서 기 검출된 신경 위치를 보정하는 전자 장치로서, 통신부(110), 입력부(120), 표시부(130), 메모리(140) 및 제어부(150)를 포함할 수 있다.Referring to FIG. 1, a nerve position correction apparatus 100 according to an embodiment of the present invention is an electronic device that corrects a nerve position previously detected in a 3D image, and includes a communication unit 110, an input unit 120, and a display unit ( 130), a memory 140, and a control unit 150 may be included.

통신부(110)는 영상 획득 장치(미도시) 및 서버(미도시) 등의 외부 장치와의 통신을 수행한다. 예를 들어, 통신부(110)는 5G(5th generation communication), LTE-A(long term evolution-advanced), LTE(long term evolution), 블루투스, BLE(bluetooth low energy), NFC(near field communication) 등의 무선 통신을 수행할 수 있고, 케이블 통신 등의 유선 통신을 수행할 수 있다.The communication unit 110 communicates with external devices such as an image acquisition device (not shown) and a server (not shown). For example, the communication unit 110 5G (5 th generation communication), LTE-A (long term evolution-advanced), LTE (long term evolution), Bluetooth, BLE (bluetooth low energy), NFC (near field communication) Wireless communication such as, etc. can be performed, and wired communication such as cable communication can be performed.

입력부(120)는 사용자의 입력에 대응하여, 입력 데이터를 발생시킨다. 입력부(120)는 적어도 하나의 입력 수단을 포함한다. 예를 들어, 입력부(120)는 키보드(key board), 키패드(key pad), 돔 스위치(dome switch), 터치 패널(touch panel), 터치 키(touch key), 마우스(mouse) 등을 포함할 수 있다.The input unit 120 generates input data in response to a user's input. The input unit 120 includes at least one input means. For example, the input unit 120 may include a keyboard (key board), a keypad (key pad), a dome switch (dome switch), a touch panel (touch panel), a touch key (touch key), a mouse (mouse), etc. I can.

표시부(130)는 신경 위치 보정 장치(100)의 동작에 따른 표시 데이터를 표시한다. 예를 들어, 표시부(130)는 액정 디스플레이(LCD; liquid crystal display), 발광 다이오드(LED; light emitting diode) 디스플레이, 유기 발광 다이오드(OLED; organic LED) 디스플레이, 마이크로 전자기계 시스템(MEMS; micro electro mechanical systems) 디스플레이, 전자 종이(electronic paper) 디스플레이 등을 포함할 수 있다. 또한, 표시부(130)는 입력부(120)와 결합되어 터치 스크린(touch screen)으로 구현될 수도 있다.The display unit 130 displays display data according to an operation of the nerve position correction apparatus 100. For example, the display unit 130 includes a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, and a micro electromechanical system (MEMS). mechanical systems) displays, electronic paper displays, and the like. In addition, the display unit 130 may be combined with the input unit 120 to be implemented as a touch screen.

메모리(140)는 신경 위치 보정 장치(100)의 동작 프로그램들을 저장한다. 또한, 메모리(140)는 인체의 부위에 대한 2차원 또는 3차원 영상, 기 검출된 신경 위치 등에 대한 정보를 저장할 수 있다. 이때, 신경 위치는 3차원 영상에서 신경 부위에 해당하는 다수의 좌표 값을 포함한다. 예를 들어, 이러한 좌표 값은 신경이 포함되는 영역의 중심 좌표, 가장 자리 좌표 등을 포함할 수 있다. The memory 140 stores operation programs of the apparatus 100 for correcting nerve position. In addition, the memory 140 may store information on a 2D or 3D image of a part of the human body, a previously detected nerve position, and the like. In this case, the nerve position includes a plurality of coordinate values corresponding to the nerve region in the 3D image. For example, these coordinate values may include center coordinates, edge coordinates, and the like of an area including a nerve.

예를 들어, 2차원 또는 3차원 영상은 턱끝 결절(mental tubercle), 턱끝 신경(Mental Nerve), 하치조 신경(Inferior Alveolar Nerve), 치조골(Alveolar Bone) 및 하악각(Mandibular Angle) 등을 포함한 치아 구조 관련 영상일 수 있으며, CT 영상, 오랄 스캔 영상, MRI 영상 등이거나, 이들 영상을 가공한 영상일 수 있다. For example, a two-dimensional or three-dimensional image is a tooth structure including a mental tubercle, a mental nerve, an inferior alveolar nerve, an alveolar bone, and a mandibular angle. It may be a related image, a CT image, an oral scan image, an MRI image, or the like, or an image processed from these images.

제어부(150)는 3차원 영상에서 기 검출된 신경 위치의 좌표 값을 보정하는 동작을 제어한다. 또한, 제어부(150)는 통신부(110), 입력부(120), 표시부(130) 및 메모리(140)의 동작을 제어할 수 있다.The controller 150 controls an operation of correcting a coordinate value of a nerve position previously detected in a 3D image. In addition, the control unit 150 may control operations of the communication unit 110, the input unit 120, the display unit 130, and the memory 140.

이하, 제어부(150)에 의해 제어 동작되는 본 발명의 일 실시예에 따른 신경 위치 보정 방법에 대하여 설명하도록 한다. Hereinafter, a method of correcting a nerve position according to an embodiment of the present invention controlled by the controller 150 will be described.

도 2는 본 발명의 일 실시예에 따른 신경 위치 보정 방법의 흐름도이다.2 is a flowchart of a method for correcting a nerve position according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 신경 위치 보정 방법은 3차원 영상에서 기 검출된 신경 위치를 보정하는 방법으로서, S10 내지 S30을 포함할 수 있다. 이하, 설명의 편의를 위해, 3차원 영상은 치아 및 그 주변 골격 구조에 관련된 영상인 것으로, 이로부터 기 검출된 신경은 치조 신경(특히, 하치조 신경)인 것으로 가정하여 도면을 도시하고 설명하겠으나, 본 발명이 이에 한정되는 것은 아니다.Referring to FIG. 2, a method of correcting a nerve position according to an embodiment of the present invention is a method of correcting a nerve position previously detected in a 3D image, and may include S10 to S30. Hereinafter, for convenience of explanation, a 3D image is an image related to a tooth and its surrounding skeletal structure, and the drawing will be illustrated and described assuming that the nerve previously detected therefrom is an alveolar nerve (especially, inferior alveolar nerve). , The present invention is not limited thereto.

S10은 영상 획득 단계로서, 기 검출된 신경 위치를 기반으로 곡면 재구성(CPR, Curved Planar Reformation) 영상을 획득하는 단계이다.S10 is an image acquisition step, a step of obtaining a Curved Planar Reformation (CPR) image based on a previously detected nerve position.

도 3은 신경 위치를 표시하는 3차원 영상에 대한 일 예시를 나타내며, 이때, 신경 위치는 붉은색으로 표시되었다. 또한, 도 4는 도 3에서 획득된 곡면 재구성 영상에 대한 일 예시를 나타낸다.3 shows an example of a 3D image displaying nerve positions, in which case, nerve positions are indicated in red. In addition, FIG. 4 shows an example of the curved reconstructed image obtained in FIG. 3.

도 3을 참조하면, 신경 위치는 3차원 영상에서 별도의 색(예를 들어, 붉은색)으로 그 영역이 표시될 수 있다. 이러한 신경 위치를 기반으로 후술할 곡면 재구성 영상 획득 과정을 통해, 도 4에 도시된 바와 같이, 곡면 재구성 영상을 획득할 수 있다.Referring to FIG. 3, the nerve location may be displayed in a separate color (eg, red) in a 3D image. As illustrated in FIG. 4, a curved reconstructed image may be obtained through a process of obtaining a curved reconstructed image to be described later based on the nerve position.

도 5는 곡면 재구성 영상을 획득하는 과정을 나타낸다. 도 5를 참조하여, 곡면 재구성 영상을 획득하는 과정을 설명하면 다음과 같다.5 shows a process of obtaining a curved reconstructed image. Referring to FIG. 5, a process of obtaining a curved reconstruction image will be described as follows.

먼저, 치아 및 그 주변 골격 구조의 3차원 영상에서 치조 신경(C)에 대한 신경 위1)을 포함할 수 있다(도 5(a) 참고). 즉, Ci는 C를 구성하는 좌표 값들로서, 그 중심 곡선의 점들에 대한 N개의 좌표 값들이다. 이에 따라, C는 각 Ci가 이어진 그 중심선으로부터 일정 길이(R)만큼의 확장된 공간 영역으로 이루어질 수 있다. 즉, C = {Ci∈R3 | i1}일 수 있다.First, it may include a nerve stomach 1) for the alveolar nerve (C) in a 3D image of the tooth and its surrounding skeletal structure (see FIG. 5(a)). That is, C i is coordinate values constituting C, and are N coordinate values for points of the center curve. Accordingly, C may be formed as a spatial area extended by a predetermined length R from the center line where each Ci is connected. That is, C = {C i ∈R 3 | It may be i1}.

이때, 각 Ci에서의 법선 벡터들(ni)(녹색 화살표로 표시)과 각 ni에 수직한 평면(Pi)들이 도출될 수 있다(도 5(b) 참고). 즉, ni는 각 Ci에서의 접선 방향을 나타내는 벡터들로서, ni = <nx, ny, nz>의 좌표 값을 가지며, Ci+1 - Ci의 계산을 통해 도출될 수 있다. At this time, normal vectors n i (indicated by a green arrow) at each C i and a plane P i perpendicular to each n i can be derived (see FIG. 5(b)). That is, n i is vectors representing the tangent direction at each C i , and has a coordinate value of n i = <n x , n y , n z >, and can be derived through calculation of C i+1 -C i have.

또한, 각 Ci에서의 기준 벡터(r)에 따른 그 정사영 벡터(

Figure pat00001
)가 도출될 수 있다(도 5(c) 참고). 즉,
Figure pat00002
는 r이 Pi에 투영된 벡터이다. 또한, Pi에서 수직 평면 상에서 Ci를 중심점으로 하고
Figure pat00003
를 반지름으로 하는 영역을 갖는 평면(이하, “정사영 평면”이라 지칭함)이 도출될 수도 있다. 이때, r은 곡면 재구성 영상을 계산하기 위한 그 범위에 대한 파라미터 값으로서, 기 설정되거나 입력될 수 있다. In addition, the orthogonal projection vector according to the reference vector (r) in each C i (
Figure pat00001
) Can be derived (see Fig. 5(c)). In other words,
Figure pat00002
Is the vector r is projected onto P i . Also, let Ci as the center point on the vertical plane in P i
Figure pat00003
A plane (hereinafter referred to as "orthogonal projection plane") having a region with a radius of may be derived. In this case, r is a parameter value for the range for calculating the curved reconstruction image, and may be preset or input.

이러한 정사영 평면이 집합되면, 곡면 재구성 영상을 위한 곡면 영역인 샘플 영역(S)이 획득될 수 있다(도 5(f) 참고). 이때, S에서 각 Pi에서의 단면 방향(θ)에 따라 곡면 재구성(CPR) 영상이 최종 획득될 수 있다(도 5(d) 및 도 5(e) 참고). 즉, θ는 CPR의 각도에 대한 파라미터 값으로서, 기 설정되거나 입력될 수 있다. When such an orthogonal projection plane is collected, a sample area S, which is a curved area for a curved reconstructed image, may be obtained (see FIG. 5(f)). In this case, a curved reconstruction (CPR) image may be finally obtained according to the cross-sectional direction θ in each P i in S (see FIGS. 5(d) and 5(e)). That is, θ is a parameter value for the angle of CPR, and may be preset or input.

즉, CPR 영상은 C를 구성하는 커브 형태의 평면으로 구성되며, Ci, r 및 θ에 의해 획득될 수 있다. 특히, ni·vi = 0 이며,

Figure pat00004
·vi = |
Figure pat00005
|·|vi| cosθ 이다. 이에 따라, CPR을 구성하는 좌표 값들은 Ci + kvi 와 같다. 이때, k는 y축 범위 지정 스칼라 값(실수, K∈R3)이다. 이에 따라, CPR 영상의 해상도(Sampling 수)는 Ci의 개수(N 값)와, k 값에 의해 결정될 수 있다.That is, the CPR image is composed of a curved plane constituting C, and can be obtained by C i , r and θ. In particular, n i ·v i = 0,
Figure pat00004
·V i = |
Figure pat00005
|·|v i | is cosθ. Accordingly, the coordinate values constituting the CPR are equal to C i + kv i . In this case, k is the y-axis range designation scalar value (real number, K∈R 3 ). Accordingly, the resolution (Sampling number) of the CPR image may be determined by the number of C i (N value) and k value.

도 6은 도 4의 곡면 재구성 영상에 신경 위치를 표시한 일 예를 나타내며, 도 7은 도 4의 곡면 재구성 영상에 신경 위치와 기준선을 함께 표시한 일 예를 나타낸다.6 shows an example in which nerve positions are displayed on the curved reconstructed image of FIG. 4, and FIG. 7 shows an example in which nerve positions and a reference line are displayed together on the curved reconstructed image of FIG. 4.

이후, S20은 표시 단계로서, 도 4에 도시된 바와 같이, S10에서 획득한 CPR 영상을 표시하는 단계이다. 특히, S20에서는, 도 6 및 도 7에 도시된 바와 같이, CPR 영상에 신경 위치(녹색 점선)와 기준선(붉은색 점선)을 함께 표시할 수 있다. 이때, 신경 위치는 Ci를 나타내는 점들이 표시될 수 있다.Thereafter, S20 is a display step, as shown in FIG. 4, a step of displaying the CPR image acquired in S10. In particular, in S20, as shown in FIGS. 6 and 7, the nerve location (green dotted line) and the reference line (red dotted line) may be displayed together on the CPR image. At this time, points indicating C i may be displayed as the nerve location.

특히, 기준선은 신경 위치의 보정을 위한 가이드 선이다. 즉, CPR 영상에 표시되는 보정 전의 치조 신경 영역(Cd1)(상하의 하얀색 영역 사이에 있는 검은색 영역)과, 그 신경 위치의 선(녹색 점선)는 치조 신경의 특성 상 직선 형태로 표시되어야 한다. 하지만, 도 6을 참조하면, Cd1와 그 녹색 점선은 '~'의 굴곡진 형태로 나타난다. 이는 곧 기 설정된 신경 위치가 설정되었음을 나타내는 것이다. In particular, the baseline is a guide line for correcting the nerve position. In other words, the alveolar nerve region (C d1 ) before correction (the black region between the upper and lower white regions) and the line of the nerve location (green dotted line) displayed on the CPR image should be displayed in a straight line due to the characteristics of the alveolar nerve. . However, referring to FIG. 6, C d1 and its green dotted line appear in a curved shape of'~'. This indicates that a preset nerve position has been established.

따라서, 기준선은 이와 같이 잘못 설정된 신경 위치에 기반하여 CPR 영상에 표시된 보정 전의 치조 신경 영역(Cd1)을 보정하기 위한 기준을 CPR 상에 제공한다. 즉, CPR에 표시된 기준선은 대상 신경의 종류 및 형태에 따라 그 형태가 달라질 수 있으며, 직선 또는 곡선 형태일 수 있다. 특히, 대상 신경이 치조 신경인 경우, 기준선은 치조 신경의 형태를 반영하여 직선 형태로 CPR 영상에 표시될 수 있다.Accordingly, the baseline provides a reference for correcting the alveolar nerve region C d1 before correction displayed in the CPR image on the CPR based on the nerve position that is set incorrectly as described above. That is, the shape of the baseline displayed on the CPR may vary depending on the type and shape of the target nerve, and may be a straight or curved shape. In particular, when the target nerve is an alveolar nerve, the baseline may be displayed on the CPR image in a straight line by reflecting the shape of the alveolar nerve.

다만, 대부분의 경우, 신경 위치는 그 일부만이 보정될 것이므로, 기준선의 좌표 값은 신경 위치의 좌표 값들 중에 적어도 하나를 포함하는 것이 바람직할 수 있다. 즉, 기준선은 CPR 영상에 표시되는 신경 영역의 일부를 지나는 선일 수 있다. 이러한 기준선은 다양한 형태가 저장되어 있어, 입력부(120)를 통해 사용자에 의해 선택될 수 있으며, 디폴트(default)로 지정된 형태가 제시될 수도 있다.However, in most cases, since only a part of the nerve position will be corrected, it may be preferable that the coordinate value of the reference line includes at least one of the coordinate values of the nerve position. That is, the baseline may be a line passing through a portion of the nerve region displayed on the CPR image. Since various types of the reference line are stored, the user may select the reference line through the input unit 120, and a type designated as a default may be presented.

한편, 신경 위치와 기준선은 그 구분을 위해, 서로 다른 종류의 선, 모양, 굵기, 색 등으로 CPR 영상에 표시될 수 있다.Meanwhile, the nerve position and the reference line may be displayed on the CPR image in different types of lines, shapes, thicknesses, colors, etc. to distinguish them.

도 8은 도 4의 곡면 재구성 영상에 표시된 신경 위치를 기준선을 따라 보정하는 일 예를 나타낸다.8 shows an example of correcting a nerve position displayed in the curved reconstructed image of FIG. 4 along a reference line.

이후, S30은 보정 단계로서, CPR 영상에 표시된 기준선을 기반으로 CPR 영상에 표시된 신경 위치를 CPR 영상 상에서 보정하는 단계이다. 즉, CPR 영상에 표시된 신경 위치의 점 또는 선을 기준선에 대응하도록 CPR 영상 상에서 변경(도 8에서 변경되는 부분을 붉은색 화살표로 표시)할 수 있다. 이에 따라, 변경된 부분의 신경 위치의 좌표 값을 해당 부분의 좌표 값으로 실시간 변경함으로써 보정할 수 있다. 이때, CPR 영상에 표시되는 신경 위치 중에서 변경할 부분에 대한 선택과, 그 변경 정도는 입력부(120)를 통해 사용자로부터 입력 받아 그 입력데이터에 따라 수행되거나, 머신 러닝(machine learning) 등의 다양한 알고리즘을 통해 수행될 수 있다.Thereafter, S30 is a correction step, in which the nerve position displayed on the CPR image is corrected on the CPR image based on the baseline displayed on the CPR image. That is, the point or line of the nerve position displayed on the CPR image may be changed on the CPR image (a portion to be changed in FIG. 8 is indicated by a red arrow) to correspond to the reference line. Accordingly, it is possible to correct by changing the coordinate value of the nerve position of the changed part to the coordinate value of the corresponding part in real time. At this time, the selection of the part to be changed among the nerve positions displayed in the CPR image and the degree of change are input from the user through the input unit 120 and are performed according to the input data, or various algorithms such as machine learning are used. It can be done through.

도 9는 도 8에 따라 보정이 수행된 이후의 곡면 재구성 영상에 대한 일 예를 나타낸다.9 shows an example of a curved reconstructed image after correction according to FIG. 8 is performed.

S30에 따라, 기준선을 기반으로 CPR 영상에 표시된 신경 위치를 CPR 영상 상에서 보정하면, 도 9에 도시된 바와 같이, CPR 영상에 표시되는 보정 이후의 치조 신경 영역(Cd2)(상하의 하얀색 영역 사이에 있는 검은색 영역)은 거의 직선 형태에 가깝게 표시된다. 이는 대상 신경인 치조 신경에 부합하는 Cd2로서, Cd1이 적절하게 보정되었음을 나타낸다.According to S30, if the nerve position displayed on the CPR image is corrected on the CPR image based on the baseline, as shown in FIG. 9, the alveolar nerve region (C d2 ) after correction displayed on the CPR image (between the upper and lower white regions Black area) is displayed almost in a straight line. This is the C d2 corresponding to the alveolar nerve, which is the target nerve, indicating that C d1 has been properly corrected.

한편, S10 내지 S30은 반복 수행될 수 있다. 이때, 기 검출된 신경 위치를 이전의 S30에서 보정된 신경 위치로 업데이트하여, 이를 기반으로 S10 내지 S30을 반복 수행할 수 있다. 즉, 이전 단계로 S10 내지 S30을 수행하여 신경 위치를 보정하였다면, 이후 S10 내지 S30을 다시 수행할 경우에 이전 단계에서 보정된 신경 위치를 기반으로 S10 내지 S30를 수행할 수 있다. 이와 같은 반복 수행을 통해, 신경 위치를 보다 정확하게 보정할 수 있다.Meanwhile, S10 to S30 may be repeatedly performed. In this case, by updating the previously detected nerve position to the nerve position corrected in the previous S30, S10 to S30 may be repeatedly performed based on this. That is, if the nerve position is corrected by performing S10 to S30 as a previous step, when performing S10 to S30 again afterwards, S10 to S30 may be performed based on the nerve position corrected in the previous step. Through such repetitive performance, the nerve position can be more accurately corrected.

특히, 반복 수행 시, S10에서는 이전에 획득한 CPR 영상의 각도(θ1)와 다른 각도(θ2)의 CPR 영상을 획득할 수 있다. 다만, 이러한 θ2에 대한 선택은 일정 범위(예를 들어, 90˚ 내지 -90˚) 내에서, 입력부(120)를 통해 사용자로부터 입력 받아 그 입력데이터에 따라 선택되거나 기 설정된 소정의 각도 변경 값에 따라 선택될 수 있다.In particular, when repeatedly performed, in S10, a CPR image having an angle θ 2 different from the angle θ 1 of the previously acquired CPR image may be obtained. However, the selection of θ 2 is a predetermined angle change value selected or preset according to the input data received from the user through the input unit 120 within a certain range (eg, 90˚ to -90˚). Can be selected according to.

도 10 내지 도 13은 곡면 재구성 영상을 표시하는 사용자 인터페이스(UI, User Interface)의 다양한 예를 나타낸다.10 to 13 show various examples of a user interface (UI) that displays a curved reconstruction image.

도 10 내지 도 13을 참조하면, 사용자의 편의를 위해, CPR 영상은 기준 영상과 함께 표시될 수 있다. 이때, 기준 영상은 CPR 영상이 도출된 3차원 영상 또는 해당 3차원 영상을 가공한 영상을 지칭한다. 특히, 이러한 UI가 제공될 때, CPR 영상과 기준 영상은 동시에 표시되되, 신경 위치 영역이 기준 영상에서 표시(도 10 내지 도 13에서 붉은색 영역으로 표시)될 수 있다. 10 to 13, for user convenience, a CPR image may be displayed together with a reference image. In this case, the reference image refers to a 3D image from which a CPR image is derived or an image obtained by processing a corresponding 3D image. In particular, when such a UI is provided, the CPR image and the reference image are simultaneously displayed, but the nerve location region may be displayed in the reference image (indicated by red regions in FIGS. 10 to 13 ).

또한, 상술한 UI가 제공될 때, S10에서는 기준 영상에서 다수의 신경 중 특정 신경에 대한 선택을 입력부(120)를 통해 입력 받아 그 입력된 신경 위치를 기반으로 CPR 영상을 획득할 수 있다. 예를 들어, 하치조 신경 중 좌측 또는 우측에 대한 선택이 입력부(120)를 통해 입력될 수 있으며, 그 입력데이터에 따라 S10이 수행되어 해당 신경 위치(좌측 하치조 신경 위치 또는 우측 하치조 신경 위치)에 기반한 CPR 영상이 획득될 수 있다.In addition, when the above-described UI is provided, in S10, a selection of a specific nerve among a plurality of nerves is input from the reference image through the input unit 120, and a CPR image may be obtained based on the input nerve position. For example, the selection for the left or the right of the inferior alveolar nerve may be input through the input unit 120, and S10 is performed according to the input data, and the corresponding nerve position (left inferior alveolar nerve position or right inferior alveolar nerve position ) Based on the CPR image may be obtained.

도 14는 다양한 범위의 곡면 재구성 영상을 나타낸다.14 shows various ranges of curved reconstructed images.

또한, S10에서는 CPR 영상에 대한 각도(θ) 외에도 CPR 영상에 대한 범위를 입력 받아 이를 반영한 CPR 영상을 획득할 수 있다. 이때, CPR 영상에 대한 범위는 입력부(120)를 통해 사용자로부터 입력 받을 수 있는 값으로서, r에 대한 값 등일 수 있다. 그 결과, 도 14에 도시된 바와 같이, 다양한 범위의 CPR 영상이 획득될 수 있다. 이후, S200에서는 해당 범위 및 각도(θ)를 반영한 CPR 영상을 실시간으로 표시할 수 있다.In addition, in S10, in addition to the angle θ of the CPR image, a range for the CPR image may be input and a CPR image reflecting the range may be obtained. In this case, the range for the CPR image is a value that can be input from the user through the input unit 120 and may be a value for r. As a result, as shown in FIG. 14, various ranges of CPR images can be obtained. Thereafter, in S200, a CPR image reflecting the corresponding range and angle θ may be displayed in real time.

한편, 상술한 UI가 제공될 때, CPR 영상에 대한 각도(θ) 또는 범위는 입력부(120)를 통해 선택될 수 있다. 예를 들어, 각도(θ) 또는 범위는 마우스의 휠 조작, 마우스의 드래그 입력, 키보드의 방향키 입력, 표시부(130) 상의 스크롤바 제공에 대한 키보드의 값 입력 등을 통해 선택될 수 있다. 특히, 마우스의 휠 조작 또는 키보드의 방향키 입력(키보드의 타 키와 함께 입력)에 따라, CPR 영상에 대한 각도(θ) 또는 범위는 커지거나 작아질 수 있다. 이와 같은 입력 수단은 상술한 UI 상에서 사용자에게 더 큰 편익을 제공할 수 있는 이점이 있다.Meanwhile, when the above-described UI is provided, the angle θ or the range for the CPR image may be selected through the input unit 120. For example, the angle θ or range may be selected through a mouse wheel manipulation, a mouse drag input, a keyboard direction key input, a keyboard value input for providing a scroll bar on the display unit 130, and the like. In particular, the angle (θ) or range of the CPR image may increase or decrease according to the operation of the mouse wheel or the input of the direction keys on the keyboard (in combination with other keys on the keyboard). Such an input means has the advantage of providing greater convenience to the user on the above-described UI.

도 15는 종래의 보정 방법과 본 발명의 일 실시예에 따른 신경 위치 보정 방법을 비교하여 나타낸 도면이다.15 is a view showing a comparison between a conventional correction method and a nerve position correction method according to an embodiment of the present invention.

한편, 종래의 보정 방법은, 도 15(a)에 도시된 바와 같이, 원통의 단면 영상을 대상으로 단면 영상 이동 및 보정이 이루어진다. 반면, 본 발명의 일 실시예에 따른 신경 위치 보정 방법은, 도 15(b)에 도시된 바와 같이, CPR 영상을 대상으로 그 원통 중심점을 기준으로 단면 회전 및 보정이 이루어진다.Meanwhile, in the conventional correction method, as shown in Fig. 15(a), the cross-sectional image is moved and corrected for the cross-sectional image of the cylinder. On the other hand, in the neural position correction method according to an embodiment of the present invention, as shown in FIG. 15(b), cross-sectional rotation and correction are performed on a CPR image based on the center point of the cylinder.

도 16은 본 발명의 일 실시예에 따른 신경 검출 장치(200)의 개략적인 블록도이다.16 is a schematic block diagram of a nerve detection apparatus 200 according to an embodiment of the present invention.

한편, 본 발명의 일 실시예에 따른 신경 위치 보정 장치(100)는 기 검출된 신경 위치에 대한 보정을 수행한다. 이때, 이러한 신경 위치를 검출하는 장치, 즉 신경 검출 장치(200)는 다음과 같이 구성될 수 있으며, 본 발명의 일 실시예에 따른 신경 위치 보정 장치(100)가 신경 검출 장치(200)일 수도 있다.Meanwhile, the apparatus 100 for correcting a nerve position according to an embodiment of the present invention corrects a previously detected nerve position. At this time, the device for detecting such a nerve position, that is, the nerve detection device 200 may be configured as follows, and the nerve position correction device 100 according to an embodiment of the present invention may be the nerve detection device 200. have.

즉, 본 발명의 일 실시예에 따른 신경 검출 장치(200)는 3차원 영상에서 신경 위치를 검출하는 전자 장치로서, 통신부(210), 입력부(220), 표시부(230), 메모리(240) 및 제어부(250)를 포함할 수 있다.That is, the nerve detection device 200 according to an embodiment of the present invention is an electronic device that detects a nerve position in a 3D image, and includes a communication unit 210, an input unit 220, a display unit 230, a memory 240, and It may include a control unit 250.

통신부(210)는 영상 획득 장치(미도시) 및 서버(미도시) 등의 외부 장치와의 통신을 수행한다. 예를 들어, 통신부(110)는 5G(5th generation communication), LTE-A(long term evolution-advanced), LTE(long term evolution), 블루투스, BLE(bluetooth low energy), NFC(near field communication) 등의 무선 통신을 수행할 수 있고, 케이블 통신 등의 유선 통신을 수행할 수 있다.The communication unit 210 communicates with external devices such as an image acquisition device (not shown) and a server (not shown). For example, the communication unit 110 5G (5 th generation communication), LTE-A (long term evolution-advanced), LTE (long term evolution), Bluetooth, BLE (bluetooth low energy), NFC (near field communication) Wireless communication such as, etc. can be performed, and wired communication such as cable communication can be performed.

입력부(220)는 전자 장치(200)의 사용자의 입력에 대응하여, 입력 데이터를 발생시킨다. 입력부(220)는 적어도 하나의 입력 수단을 포함한다. 예를 들어, 입력부(220)는 키보드(key board), 키패드(key pad), 돔 스위치(dome switch), 터치 패널(touch panel), 터치 키(touch key), 마우스(mouse), 메뉴 버튼(menu button) 등을 포함할 수 있다.The input unit 220 generates input data in response to a user input of the electronic device 200. The input unit 220 includes at least one input means. For example, the input unit 220 includes a keyboard (key board), a keypad (key pad), a dome switch (dome switch), a touch panel (touch panel), a touch key (touch key), a mouse (mouse), a menu button ( menu button), etc.

표시부(230)는 전자 장치(200)의 동작에 따른 표시 데이터를 표시한다. 예를들어, 표시부(230)는 액정 디스플레이(LCD; liquid crystal display), 발광 다이오드(LED; light emitting diode) 디스플레이, 유기 발광 다이오드(OLED; organic LED) 디스플레이, 마이크로 전자기계 시스템(MEMS; micro electro mechanical systems) 디스플레이 및 전자 종이(electronic paper) 디스플레이를 포함한다. 표시부(130)는 입력부(120)와 결합되어 터치 스크린(touch screen)으로 구현될 수 있다.The display unit 230 displays display data according to an operation of the electronic device 200. For example, the display unit 230 includes a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, a micro electromechanical system (MEMS). mechanical systems) displays and electronic paper displays. The display unit 130 may be combined with the input unit 120 to be implemented as a touch screen.

메모리(240)는 전자 장치(200)의 동작 프로그램들을 저장한다. 또한, 메모리(240)는 U-Net, RCNN 등의 컨벌루션 신경망(CNN; convolutional neural network)과 관련된 알고리즘을 저장할 수 있다. 또한, 메모리(240)는 영상 획득 장치 등으로부터 수신된 복수의 학습 영상을 저장할 수 있다.The memory 240 stores operation programs of the electronic device 200. In addition, the memory 240 may store an algorithm related to a convolutional neural network (CNN) such as U-Net and RCNN. Also, the memory 240 may store a plurality of training images received from an image acquisition device or the like.

제어부(250)는 학습 영상을 학습하여 학습 데이터를 생성하고, 학습 데이터를 기반으로 대상 영상에서 신경을 검출한다. 특히, 제어부(250)는, 신경이 턱끝 결절과 하악각 사이에 위치한다는 해부학적 특성을 기반으로, 먼저 턱끝 결절 및 하악각을 검출하고, 이후 턱끝 결절 및 하악각 사이에 위치하는 신경을 검출함으로써, 보다 빠르고 정확하게 신경을 검출할 수 있다.The controller 250 learns the training image to generate training data, and detects a nerve in the target image based on the training data. In particular, the control unit 250, based on the anatomical characteristic that the nerve is located between the mandibular nodule and the mandibular angle, first detects the mandibular nodule and the mandibular angle, and then detects the nerve located between the mandibular nodule and the mandibular angle. It can accurately detect nerves.

도 17은 도 16의 제어부(250)의 구체적인 블록도이다.17 is a detailed block diagram of the controller 250 of FIG. 16.

도 17을 참조하면, 제어부(250)는 영상 획득부(251), 학습부(252) 및 신경 검출부(253)을 포함하여 구성될 수 있다.Referring to FIG. 17, the controller 250 may include an image acquisition unit 251, a learning unit 252, and a nerve detection unit 253.

이와 같은, 제어부(150)는, 턱끝 결절(mental tubercle), 턱끝 신경(Mental Nerve), 하치조 신경(Inferior Alveolar Nerve), 치조골(Alveolar Bone) 및 하악각(Mandibular Angle) 등의 해부학적 부위가 잘 나타나있고, 그 구분이 명확하게 나타나있는 관상면 방향의 치아 단면 영상을 기반으로 학습 데이터를 생성하고 이를 기반으로 신경을 검출하는 것을 특징으로 한다.As such, the control unit 150 has an anatomical site such as a mental tubercle, a mental nerve, an inferior alveolar nerve, an alveolar bone, and a mandibular angle. It is characterized by generating learning data based on a tooth cross-sectional image in the coronal direction, and detecting a nerve based on this.

영상 획득부(251)는, 외부의 영상 획득 장치로부터 3차원 영상을 수신하여 이를 관상면 방향으로 배열된 복수의 2차원 단면 영상(이하, 슬라이스)으로 변환한다. 즉, 영상 획득부(251)는 관상면 방향으로 배열된 복수의 슬라이스를 포함하는 학습 영상을 획득한다.The image acquisition unit 251 receives a 3D image from an external image acquisition device and converts it into a plurality of 2D cross-sectional images (hereinafter, slices) arranged in a coronal direction. That is, the image acquisition unit 251 acquires a learning image including a plurality of slices arranged in the coronal direction.

학습부(252)는, 영상 획득부(251)에 의해 획득된 복수의 학습 영상에 신경(턱끝 신경 및 하치조 신경)과, 상기 신경을 검출하는데 기준이 되는 턱끝 결절 및 하악각과, 하치조 신경을 검출하는 도움이 되는 치조골 중 적어도 하나가 설정된 학습 데이터를 생성하고, 상기 학습 데이터를 학습하여 학습 모델을 생성한다. 여기서, 학습부(252)는 메모리(140)에 저장된 U-Net, RCNN 등의 컨벌루션 신경망(CNN; convolutional neural network)과 관련된 알고리즘을 이용하여 학습 영상을 학습할 수 있다.The learning unit 252 includes nerves (chintip nerves and inferior alveolar nerves) in a plurality of learning images acquired by the image acquisition unit 251, a jaw nodule and mandibular angle, and inferior alveolar nerves that are a reference for detecting the nerves. At least one of the alveolar bones useful for detecting is generated training data set, and a learning model is generated by learning the training data. Here, the learning unit 252 may learn the training image using an algorithm related to a convolutional neural network (CNN) such as U-Net and RCNN stored in the memory 140.

신경 검출부(253)는, 학습부(252)에 의해 생성된 학습 모델에 대상 영상을 입력하여, 학습 데이터를 기반으로 대상 영상에서 신경을 검출한다. 여기서, 대상 영상은 환자의 관상면 방향으로 배열된 복수의 슬라이스(2차원 단면 영상)를 포함하는 3차원 영상일 수 있다.The nerve detection unit 253 inputs a target image to the learning model generated by the learning unit 252, and detects a nerve in the target image based on the training data. Here, the target image may be a 3D image including a plurality of slices (2D cross-sectional images) arranged in the coronal direction of the patient.

구체적으로, 신경 검출부(253)는, 학습 데이터를 기반으로 대상 영상에서 턱끝 결절 및 하악각을 검출하고, 검출된 턱끝 결절 및 하악각 사이의 구간을 신경 유효 구간으로 설정하고, 설정된 신경 유효 구간을 탐색하여 신경(턱끝 신경 및 하치조 신경)을 검출한다. 여기서, 신경 검출부(253)는 치조골을 검출하여 이를 하치조 신경을 검출하는데 이용할 수 있다. 즉, 하치조 신경은 치조골 내부에 위치하기 때문에 치조골을 먼저 검출하고 이후 검출된 치조골에서 하치조 신경을 검출함으로써 검출 정확성을 향상시킬 수 있다.Specifically, the nerve detection unit 253 detects the jaw nodule and the mandibular angle in the target image based on the learning data, sets the section between the detected jaw nodule and the mandibular angle as a nerve effective section, and searches for the set nerve effective section. Nerves (tip nerve and inferior alveolar nerve) are detected. Here, the nerve detection unit 253 may detect the alveolar bone and use it to detect the inferior alveolar nerve. That is, since the inferior alveolar nerve is located inside the alveolar bone, detection accuracy can be improved by detecting the alveolar bone first and then detecting the inferior alveolar nerve from the detected alveolar bone.

한편, 신경 검출부(253)가 턱끝 결절, 하악각, 치조골 및 신경을 검출한다는 의미는 이들 검출 대상이 포함된 슬라이스를 검출한다는 의미를 포함하는 것으로 해석될 수 있다.Meanwhile, the meaning that the nerve detection unit 253 detects the jaw nodule, the mandibular angle, the alveolar bone, and the nerve may be interpreted as including the meaning of detecting a slice including these detection targets.

신경 검출부(253)는 복수의 학습 영상의 통계치를 기반으로 제1 탐색 시작점을 설정하고, 설정된 제1 탐색 시작점에서 대상 영상의 외측 방향으로 탐색하여 턱끝 결절을 검출할 수 있다.The nerve detection unit 253 may set a first search start point based on statistics of a plurality of training images, and detect a jaw nodule by searching in an outward direction of the target image from the set first search start point.

이와 마찬가지로, 신경 검출부(253)는 복수의 학습 영상의 통계치를 기반으로 제2 탐색 시작점을 설정하고, 제2 탐색 시작점에서 대상 영상의 외측 방향으로 탐색하여 하악각을 검출할 수 있다.Likewise, the nerve detection unit 253 may set a second search start point based on statistics of the plurality of training images, and detect the mandibular angle by searching in an outward direction of the target image from the second search start point.

여기서, 복수의 학습 영상의 통계치는, 영상 획득 장치 별로 촬영된 영상의 해상도가 다름에 착안하여, 각 영상에 포함되는 해부학적 부위의 위치를 정규화한 값(예컨대, 0~1)이다. 통계적으로, 제1 탐색 시작점(예컨대, 0.323) 이상에서는 턱끝 결절이 발견될 가능성이 거의 없고, 제2 탐색 시작점(예컨대, 0.715) 이하에서는 하악각이 발견될 가능성이 거의 없다. 따라서, 제1 탐색 시작점 및 제2 탐색 시작점을 기준으로 턱끝 결절 및 하악각을 탐색하게 되면 보다 빠르고 정확하게 턱끝 결절 및 하악각을 탐색할 수 있게 된다.Here, the statistical value of the plurality of training images is a value (eg, 0 to 1) obtained by normalizing the position of an anatomical region included in each image, focusing on the difference in resolution of the captured image for each image acquisition device. Statistically, there is little likelihood of finding a jaw nodule above the first search start point (eg, 0.323), and little possibility of finding the mandibular angle below the second search start point (eg, 0.715). Therefore, if the chin nodule and the mandibular angle are searched based on the first search starting point and the second search starting point, the chin tip nodule and the mandibular angle can be searched more quickly and accurately.

신경 검출부(253)는 대상 영상에서 검출 대상인 턱끝 결절, 하악각 및 신경이 포함될 것으로 예상되는 대상 영역을 설정한다. 그리고, 대상 영역의 위치 및 크기 정보를 산출하고, 대상 영역에 상기 검출 대상이 포함될 확률값을 산출한다. 그리고, 산출된 확률값이 기준값 이상인 대상 영역을 검출 대상이 포함되는 검출 영역으로 검출하고, 해당 영역을 포함하는 슬라이스에 검출 대상이 표시되도록 라벨링한다.The nerve detection unit 253 sets a target region that is expected to include a jaw nodule, a mandibular angle, and a nerve to be detected in the target image. Then, position and size information of the target region is calculated, and a probability value in which the detection target is included in the target region is calculated. In addition, a target region having a calculated probability value equal to or greater than the reference value is detected as a detection region including the detection target, and a slice including the region is labeled so that the detection target is displayed.

신경 검출부(253)는 검출 영역 중 신경이 포함되는 영역의 좌표(예컨대, 중심 좌표)를 추출하고, 추출된 좌표(예컨대, 중심 좌표)를 기초로 신경을 검출한다. 즉, 복수의 슬라이스에서 신경이 포함되는 영역의 좌표들(예컨대, 중심 좌표들)을 수집하여 최종적으로 신경관을 추출할 수 있다.The nerve detection unit 253 extracts coordinates (eg, center coordinates) of an area including a nerve among the detection areas, and detects a nerve based on the extracted coordinates (eg, center coordinates). That is, by collecting coordinates (eg, center coordinates) of a region including a nerve from a plurality of slices, a neural tube may be finally extracted.

이하, 제어부(250)에 의해 제어 동작되는 본 발명의 일 실시예에 따른 신경 검출 방법에 대하여 설명하도록 한다. Hereinafter, a nerve detection method according to an embodiment of the present invention controlled by the controller 250 will be described.

도 18은 본 발명의 일 실시예에 따른 신경 검출 방법의 흐름도이다.18 is a flowchart of a nerve detection method according to an embodiment of the present invention.

도 18을 참조하면, 제어부(250)에 의해 수행될 수 있는 본 발명의 일 실시예에 따른 신경 검출 방법은, 학습 영상을 획득하는 단계(S100), 학습 데이터와 학습 모델을 생성하는 단계(S200), 학습 모델에 대상 영상을 입력하는 단계(S300) 및 대상 영상에서 신경을 검출하는 단계(S400)를 포함하여 구성될 수 있다.Referring to FIG. 18, in the neural detection method according to an embodiment of the present invention that can be performed by the controller 250, acquiring a training image (S100), generating training data and a learning model (S200) ), inputting a target image to the learning model (S300), and detecting a nerve in the target image (S400).

학습 영상을 획득하는 단계(S100)는, 외부의 영상 획득 장치로부터 3차원 영상을 수신하여 이를 관상면 방향으로 배열된 복수의 2차원 단면 영상(이하, 슬라이스)으로 변환한다. 즉, 관상면 방향으로 배열된 복수의 슬라이스를 포함하는 학습 영상을 획득한다.In the step of acquiring the training image (S100), a 3D image is received from an external image acquisition device and converted into a plurality of 2D cross-sectional images (hereinafter, slices) arranged in a coronal direction. That is, a learning image including a plurality of slices arranged in the coronal direction is acquired.

도 19는 환자의 두상의 방향에 따라 달라지는 치아 단면 영상을 도시한 도면이고, 도 20은 관상면 방향의 치아 단면 영상에 검출 대상을 각각 도시한 도면이다.19 is a diagram illustrating a tooth cross-sectional image that varies according to the direction of the patient's head, and FIG. 20 is a diagram illustrating detection targets in the tooth cross-sectional image in the coronal direction.

도 19를 참조하면, 환자의 두상의 방향은 수평면 방향(axial)(a), 관상면 방향(coronal)(b) 및 시상면 방향(sagittal)(c)으로 구분할 수 있고, 두상의 방향에 따라 치아 단면 영상(슬라이스)에 나타나는 치아의 해부학적 부위가 상이한 것을 확인할 수 있다.Referring to FIG. 19, the direction of the patient's head can be divided into a horizontal direction (a), a coronal (b), and a sagittal (c), depending on the direction of the head. It can be seen that the anatomical parts of the teeth appearing in the tooth cross-sectional image (slice) are different.

도 19 및 도 20을 참조하면, 본 발명의 일 실시예에 따른 신경 검출 방법은, 턱끝 결절(mental tubercle), 턱끝 신경(Mental Nerve), 하치조 신경(Inferior Alveolar Nerve), 치조골(Alveolar Bone) 및 하악각(Mandibular Angle) 등의 해부학적 부위가 잘 나타나있고, 그 구분이 명확하게 나타나있는 관상면 방향(b)의 치아 단면 영상을 기반으로 학습 데이터를 생성하고 이를 기반으로 신경을 검출하는 것을 특징으로 한다.19 and 20, the nerve detection method according to an embodiment of the present invention, a chin nodule (mental tubercle), chin-tip nerve (Mental Nerve), inferior alveolar nerve (Inferior Alveolar Nerve), alveolar bone (Alveolar Bone) And it is characterized by generating learning data based on the tooth cross-sectional image in the coronal direction (b) where the anatomical parts such as the mandibular angle are well represented and the distinction is clearly indicated, and nerve detection based on this To do.

참고로, 도 20을 참조하면, 하치조 신경은 치조골 내부에 위치하는 것을 확인할 수 있으며, 턱끝 신경은 치조골 내부에 위치하지 않으며 외측으로 뚫린 형태인 것을 확인할 수 있다.For reference, referring to FIG. 20, it can be seen that the inferior alveolar nerve is located inside the alveolar bone, and the jaw nerve is not located inside the alveolar bone, but it can be seen that it is in a form pierced outward.

학습 데이터와 학습 모델을 생성하는 단계(S200)는, 획득된 복수의 학습 영상에 신경(턱끝 신경 및 하치조 신경)과, 상기 신경을 검출하는데 기준이 되는 턱끝 결절 및 하악각과, 하치조 신경을 검출하는 도움이 되는 치조골 중 적어도 하나가 설정된 학습 데이터를 생성하고, 이 학습 데이터들을 학습하여 학습 모델을 생성한다. In the step of generating the training data and the training model (S200), the nerves (chintip nerves and inferior alveolar nerves), the jaw nodules and mandibular angles, and inferior alveolar nerves, which are a reference for detecting the nerves, are At least one of the alveolar bones useful for detection is generated, and training data set is generated, and a learning model is generated by learning the training data.

여기서, 메모리(240)에 저장된 U-Net, RCNN 등의 컨벌루션 신경망(CNN; convolutional neural network)과 관련된 알고리즘을 이용하여 학습 데이터를 학습하여 학습 모델을 생성할 수 있다.Here, a learning model may be generated by learning training data using an algorithm related to a convolutional neural network (CNN) such as U-Net and RCNN stored in the memory 240.

도 21은 본 발명의 일 실시예에 따른 학습 데이터 생성 방법을 설명하기 위한 도면이다.21 is a diagram illustrating a method of generating learning data according to an embodiment of the present invention.

도 21을 참조하면, 학습 데이터는 학습 영상에 포함된 복수의 슬라이스 별로 턱끝 결절, 하악각, 치조골 및 신경(학습 대상)이 포함된 영역(예컨대, 박스(Box))에 대한 위치 및 크기 정보를 설정할 수 있다. 구체적으로, 학습 영상의 좌측 상단을 원점으로 하여 박스의 좌측 상단의 x축 및 y축 위치를 박스의 위치 좌표로 설정하고, 설정된 위치 좌표를 기준으로 박스의 폭(Width)과 높이(Height)를 설정할 수 있다.Referring to FIG. 21, the training data sets location and size information for an area (e.g., a box) including a chin nodule, mandibular angle, alveolar bone, and nerve (learning target) for each of a plurality of slices included in the training image. I can. Specifically, the x-axis and y-axis positions of the upper left of the box are set as the position coordinates of the box with the upper left of the training image as the origin, and the width and height of the box are determined based on the set position coordinates. Can be set.

한편, 위와 같은 학습 영상에 학습 대상의 위치 및 크기 정보를 설정하는 방식은 후술할 대상 영상에 검출 대상의 위치 및 크기 정보를 설정하는 방식에 그대로 적용할 수 있다.Meanwhile, the method of setting the location and size information of the object to be learned in the training image as described above can be applied as it is to the method of setting the position and size information of the object to be detected in the target image to be described later.

대상 영상에서 신경을 검출하는 단계(S400)는, 학습 모델에 대상 영상을 입력한 후(S300), 학습 데이터를 기반으로 대상 영상에서 신경을 검출한다. 여기서, 대상 영상은 환자의 관상면 방향으로 배열된 복수의 슬라이스(2차원 단면 영상)를 포함하는 3차원 영상일 수 있다.In the step of detecting a nerve in the target image (S400), after inputting the target image to the learning model (S300), a nerve is detected in the target image based on the training data. Here, the target image may be a 3D image including a plurality of slices (2D cross-sectional images) arranged in the coronal direction of the patient.

도 22는 도 21의 대상 영상에서 신경을 검출하는 단계의 흐름도이고, 도 23은 도 21의 대상 영상에서 신경을 검출하는 단계를 설명하기 위한 도면이다.FIG. 22 is a flowchart illustrating an operation of detecting a nerve in the target image of FIG. 21, and FIG. 23 is a diagram illustrating an operation of detecting a nerve in the target image of FIG. 21.

도 22를 참조하면, 대상 영상에서 신경을 검출하는 단계(S400)는, 학습 데이터를 기반으로 대상 영상에서 턱끝 결절 및 하악각을 검출하고(S410), 검출된 턱끝 결절 및 하악각 사이의 구간을 신경 유효 구간으로 설정하고(S420), 설정된 신경 유효 구간을 탐색하여 신경(턱끝 신경 및 하치조 신경)을 검출한다(S430). Referring to FIG. 22, in the step of detecting a nerve in a target image (S400), a chin nodule and a mandibular angle are detected in a target image based on the learning data (S410), and a section between the detected chin nodule and the mandibular angle is nerve effective. It is set as a section (S420), and the set nerve effective section is searched to detect the nerves (the jaw nerve and the inferior alveolar nerve) (S430).

여기서, 검출된 치조골은 하치조 신경을 검출하는데 이용할 수 있다. 즉, 하치조 신경은 치조골 내부에 위치하기 때문에 치조골을 먼저 검출하고 이후 검출된 치조골에서 하치조 신경을 검출함으로써 검출 정확성을 향상시킬 수 있다.Here, the detected alveolar bone can be used to detect the inferior alveolar nerve. That is, since the inferior alveolar nerve is located inside the alveolar bone, detection accuracy can be improved by detecting the alveolar bone first and then detecting the inferior alveolar nerve from the detected alveolar bone.

한편, 턱끝 결절, 하악각, 치조골 및 신경을 검출한다는 의미는 이들 검출 대상이 포함된 슬라이스를 검출한다는 의미를 포함하는 것으로 해석될 수 있다.On the other hand, the meaning of detecting the jaw nodule, the mandibular angle, the alveolar bone, and the nerve may be interpreted as including the meaning of detecting a slice containing these detection targets.

도 23을 참조하면, 대상 영상에서 신경을 검출하는 단계(S400)는, 복수의 학습 영상의 통계치를 기반으로 제1 탐색 시작점(S1)을 설정하고, 설정된 제1 탐색 시작점(S1)에서 대상 영상의 외측 방향으로 탐색하여 턱끝 결절(MT)을 검출할 수 있다.Referring to FIG. 23, in the step of detecting a nerve in the target image (S400), a first search start point S1 is set based on the statistics of a plurality of training images, and the target image at the set first search start point S1. It is possible to detect the chin nodule (MT) by searching in the lateral direction of.

이와 마찬가지로, 복수의 학습 영상의 통계치를 기반으로 제2 탐색 시작점(S2)을 설정하고, 제2 탐색 시작점(S2)에서 대상 영상의 외측 방향으로 탐색하여 하악각(MA)을 검출할 수 있다.Likewise, a second search start point S2 may be set based on statistics of a plurality of training images, and the mandibular angle MA may be detected by searching in an outward direction of the target image at the second search starting point S2.

여기서, 검출된 턱끝 결절(MT) 및 하악각(MA) 사이의 구간을 신경 유효 구간으로 설정하고, 설정된 신경 유효 구간을 탐색하여 신경(턱끝 신경 및 하치조 신경)을 검출할 수 있다. Here, a section between the detected jaw nodule MT and the mandibular angle MA is set as a nerve effective section, and nerves (chintip nerves and inferior alveolar nerves) can be detected by searching for a set nerve effective section.

여기서, 복수의 학습 영상의 통계치는, 영상 획득 장치 별로 촬영된 영상의 해상도가 다름에 착안하여, 각 영상에 포함되는 해부학적 부위의 위치를 정규화한 값(예컨대, 0~1)이다. 통계적으로, 제1 탐색 시작점(예컨대, 0.323) 이상에서는 턱끝 결절이 발견될 가능성이 거의 없고, 제2 탐색 시작점(예컨대, 0.715) 이하에서는 하악각이 발견될 가능성이 거의 없다. 따라서, 제1 탐색 시작점 및 제2 탐색 시작점을 기준으로 턱끝 결절 및 하악각을 탐색하게 되면 보다 빠르고 정확하게 턱끝 결절 및 하악각을 탐색할 수 있게 된다.Here, the statistical value of the plurality of training images is a value (eg, 0 to 1) obtained by normalizing the position of an anatomical region included in each image, focusing on the difference in resolution of the captured image for each image acquisition device. Statistically, there is little likelihood of finding a jaw nodule above the first search start point (eg, 0.323), and little possibility of finding the mandibular angle below the second search start point (eg, 0.715). Therefore, if the chin nodule and the mandibular angle are searched based on the first search starting point and the second search starting point, the chin tip nodule and the mandibular angle can be searched more quickly and accurately.

도 24는 도 22의 대상 영상에서 신경을 검출하는 단계의 구체적인 흐름도이다.24 is a detailed flowchart of a step of detecting a nerve in the target image of FIG. 22.

도 24를 참조하면, 대상 영상에서 신경을 검출하는 단계(S400)는, 학습 데이터를 기반으로 대상 영상에서 검출 대상인 턱끝 결절, 하악각 및 신경이 포함될 것으로 예상되는 대상 영역을 설정한다(S431). 그리고, 대상 영역의 위치 및 크기 정보를 산출하고(S432), 대상 영역에 상기 검출 대상이 포함될 확률값을 산출한다(S433). 그리고, 산출된 확률값이 기준값 이상인 대상 영역을 검출 대상이 포함되는 검출 영역으로 검출하고(S434), 해당 영역을 포함하는 슬라이스에 검출 대상이 표시되도록 라벨링할 수 있다.Referring to FIG. 24, in the step of detecting a nerve in a target image (S400), a target region that is expected to include a jaw nodule, a mandibular angle, and a nerve to be detected in the target image is set based on the training data (S431). Then, information on the location and size of the target area is calculated (S432), and a probability value that the detection target is included in the target area is calculated (S433). In addition, a target region having a calculated probability value equal to or greater than a reference value may be detected as a detection region including the detection target (S434), and a slice including the region may be labeled so that the detection target is displayed.

그리고, 검출 영역 중 신경이 포함되는 영역의 좌표(예컨대, 중심 좌표)를 추출하고(S435), 추출된 좌표(예컨대, 중심 좌표)를 기초로 신경을 검출한다(S436). 즉, 복수의 슬라이스에서 신경이 포함되는 영역의 좌표들(예컨대, 중심 좌표들)을 수집하여 최종적으로 신경관을 추출할 수 있다.Then, the coordinates (eg, center coordinates) of an area including a nerve among the detection areas are extracted (S435), and a nerve is detected based on the extracted coordinates (eg, center coordinates) (S436). That is, by collecting coordinates (eg, center coordinates) of a region including a nerve from a plurality of slices, a neural tube may be finally extracted.

이와 같이, 본 발명의 일 실시예에 따른 신경 검출 방법은, 신경이 분포하는 해부학적 특성을 기반으로 신경을 검출함으로써, 보다 빠르고 정확하게 신경을 자동으로 검출할 수 있고, 이를 통해 환자 마다 다른 신경관의 위치 및 상태를 정확히 파악하여 안전하게 임플란트 시술을 시행할 수 있다.As described above, in the nerve detection method according to an embodiment of the present invention, by detecting the nerve based on the anatomical characteristics of the nerve distribution, the nerve can be detected more quickly and accurately, and through this By accurately grasping the location and condition, you can safely perform the implant procedure.

본 명세서와 도면에 개시된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The embodiments of the present invention disclosed in the present specification and drawings are only provided for specific examples to easily explain the technical content of the present invention and to aid understanding of the present invention, and are not intended to limit the scope of the present invention. Therefore, the scope of the present invention should be construed that all changes or modified forms derived based on the technical idea of the present invention in addition to the embodiments disclosed herein are included in the scope of the present invention.

100: 신경 위치 보정 장치
110, 210: 통신부 120, 220: 입력부
130, 230: 표시부 140, 240: 메모리
150, 250: 제어부
200: 신경 검출 장치
100: nerve position correction device
110, 210: communication unit 120, 220: input unit
130, 230: display unit 140, 240: memory
150, 250: control unit
200: nerve detection device

Claims (11)

3차원 영상에서 검출된 신경 위치를 보정하는 방법으로서,
상기 신경 위치를 기반으로 곡면 재구성(CPR, Curved Planar Reformation) 영상을 획득하는 영상 획득 단계;
상기 곡면 재구성 영상에 신경 위치와 기준선을 각각 표시하는 표시 단계; 및
상기 기준선을 기반으로 상기 신경 위치를 상기 곡면 재구성 영상 상에서 보정하는 보정 단계;
를 포함하는 것을 특징으로 하는 신경 위치 보정 방법.
As a method of correcting a nerve position detected in a 3D image,
An image acquisition step of obtaining a Curved Planar Reformation (CPR) image based on the nerve position;
Displaying a nerve position and a reference line on the curved reconstructed image, respectively; And
A correction step of correcting the nerve position on the curved reconstructed image based on the reference line;
Nerve position correction method comprising a.
제1항에 있어서,
상기 영상 획득 단계, 상기 표시 단계 및 상기 보정 단계를 반복 수행하되, 반복 수행 시 상기 검출된 신경 위치를 이전의 보정 단계에서 보정된 신경 위치로 업데이트하여 이를 기반으로 각 단계를 수행하는 것을 특징으로 하는 신경 위치 보정 방법.
The method of claim 1,
The image acquisition step, the display step, and the correction step are repeatedly performed, but when repeatedly performed, the detected nerve position is updated to the nerve position corrected in the previous correction step, and each step is performed based on this. Nerve position correction method.
제2항에 있어서,
상기 영상 획득 단계는 상기 반복 수행 시 이전에 획득한 곡면 재구성 영상의 각도와 다른 각도의 곡면 재구성 영상을 획득하는 단계를 포함하는 것을 특징으로 하는 신경 위치 보정 방법.
The method of claim 2,
And the step of acquiring the image includes acquiring a curved reconstructed image having an angle different from that of the previously acquired curved reconstructed image when the iteratively performed.
제1항에 있어서,
상기 표시 단계는 상기 3차원 영상 또는 이를 가공한 영상과, 상기 곡면 재구성 영상을 동시에 표시하되, 상기 3차원 영상 또는 이를 가공한 영상에 상기 신경 위치의 영역을 표시하는 단계를 포함하는 것을 특징으로 하는 신경 위치 보정 방법.
The method of claim 1,
The displaying step comprises simultaneously displaying the 3D image or the processed image and the curved reconstruction image, and displaying the region of the nerve location on the 3D image or the processed image. Nerve position correction method.
제4항에 있어서,
상기 영상 획득 단계는 상기 곡면 재구성 영상에 대한 범위 및 각도를 입력 받아 이를 반영한 곡면 재구성 영상을 획득하는 단계를 포함하며,
상기 표시 단계는 상기 범위 및 각도를 반영한 상기 곡면 재구성 영상을 실시간으로 표시하는 단계를 포함하는 것을 특징으로 하는 신경 위치 보정 방법.
The method of claim 4,
The image acquisition step includes receiving a range and an angle for the curved surface reconstructed image and obtaining a curved surface reconstructed image reflecting the range and angle,
The displaying step includes displaying the reconstructed curved image reflecting the range and angle in real time.
제5항에 있어서,
상기 범위 또는 상기 각도는 입력부를 통해 입력선택 가능한 것을 특징으로 하는 신경 위치 보정 방법.
The method of claim 5,
The nerve position correction method, characterized in that the range or the angle can be input and selected through an input unit.
제4항에 있어서,
상기 영상 획득 단계는 상기 기준 영상에서 다수의 신경 중 특정 신경에 대한 선택을 입력 받아 입력된 특정 신경에 대한 상기 신경 위치를 기반으로 상기 곡면 재구성 영상을 획득하는 단계를 포함하는 것을 특징으로 하는 신경 위치 보정 방법.
The method of claim 4,
The image acquisition step includes receiving a selection for a specific nerve among a plurality of nerves from the reference image and obtaining the curved reconstruction image based on the nerve position for the input specific nerve. Calibration method.
제1항에 있어서,
상기 기준선의 좌표 값은 상기 신경 위치의 좌표 값들 중에 적어도 하나를 포함하는 것을 특징으로 하는 신경 위치 보정 방법.
The method of claim 1,
The coordinate value of the reference line comprises at least one of the coordinate values of the nerve position.
제1항에 있어서,
상기 기준선은 상기 곡면 재구성 영상에 표시되는 신경 영역의 일부를 지나는 선인 것을 특징으로 하는 신경 위치 보정 방법.
The method of claim 1,
The reference line is a nerve position correction method, characterized in that the line passing through a portion of the nerve region displayed on the curved reconstruction image.
제1항에 있어서,
상기 기준선은 직선 또는 곡선 형태인 것을 특징으로 하는 신경 위치 보정 방법.
The method of claim 1,
The reference line is a nerve position correction method, characterized in that the straight or curved shape.
3차원 영상과 3차원 영상에서 검출된 신경 위치 저장한 저장부; 및
상기 신경 위치를 보정하도록 제어하는 제어부;를 포함하며,
상기 제어부는,
상기 신경 위치를 기반으로 곡면 재구성(CPR, Curved Planar Reformation) 영상을 획득하고, 상기 곡면 재구성 영상에 기준선을 표시하며, 상기 기준선을 기반으로 상기 신경 위치를 보정하는 것을 특징으로 하는 신경 위치 보정 장치.
A storage unit storing a 3D image and a nerve position detected in the 3D image; And
Includes; a control unit for controlling to correct the nerve position,
The control unit,
A nerve position correction apparatus, comprising: acquiring a CPR (Curved Planar Reformation) image based on the nerve position, displaying a reference line on the curved surface reconstruction image, and correcting the nerve position based on the reference line.
KR1020190076079A 2019-05-22 2019-06-26 Method and apparatus for correcting nerve position in dental image KR102205427B1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020190076079A KR102205427B1 (en) 2019-06-26 2019-06-26 Method and apparatus for correcting nerve position in dental image
PCT/KR2020/002757 WO2020235784A1 (en) 2019-05-22 2020-02-26 Nerve detection method and device
US17/612,436 US20220240852A1 (en) 2019-05-22 2020-02-26 Nerve detection method and device
EP20809402.9A EP3973878A4 (en) 2019-05-22 2020-02-26 Nerve detection method and device
CN202080036341.8A CN113873947A (en) 2019-05-22 2020-02-26 Nerve detection method and device
TW109112962A TWI754259B (en) 2019-05-22 2020-04-17 Method and apparatus for detecting of nerve in dental image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190076079A KR102205427B1 (en) 2019-06-26 2019-06-26 Method and apparatus for correcting nerve position in dental image

Publications (2)

Publication Number Publication Date
KR20210000855A true KR20210000855A (en) 2021-01-06
KR102205427B1 KR102205427B1 (en) 2021-01-20

Family

ID=74128404

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190076079A KR102205427B1 (en) 2019-05-22 2019-06-26 Method and apparatus for correcting nerve position in dental image

Country Status (1)

Country Link
KR (1) KR102205427B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3973878A4 (en) * 2019-05-22 2023-05-31 DIO Corporation Nerve detection method and device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120065585A (en) * 2010-12-13 2012-06-21 주식회사 인피니트헬스케어 Terminal for displaying tubular object with curved planar reformation image and method thereof
US20120169735A1 (en) * 2009-09-11 2012-07-05 Koninklijke Philips Electronics N.V. Improvements to curved planar reformation
WO2019002631A1 (en) * 2017-06-30 2019-01-03 Promaton Holding B.V. Classification and 3d modelling of 3d dento-maxillofacial structures using deep learning methods
KR101974636B1 (en) * 2018-04-18 2019-05-03 오스템임플란트 주식회사 Dental implant planning method, apparatus and recording medium thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120169735A1 (en) * 2009-09-11 2012-07-05 Koninklijke Philips Electronics N.V. Improvements to curved planar reformation
KR20120065585A (en) * 2010-12-13 2012-06-21 주식회사 인피니트헬스케어 Terminal for displaying tubular object with curved planar reformation image and method thereof
WO2019002631A1 (en) * 2017-06-30 2019-01-03 Promaton Holding B.V. Classification and 3d modelling of 3d dento-maxillofacial structures using deep learning methods
KR101974636B1 (en) * 2018-04-18 2019-05-03 오스템임플란트 주식회사 Dental implant planning method, apparatus and recording medium thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3973878A4 (en) * 2019-05-22 2023-05-31 DIO Corporation Nerve detection method and device

Also Published As

Publication number Publication date
KR102205427B1 (en) 2021-01-20

Similar Documents

Publication Publication Date Title
EP3241522B1 (en) Method for dental implant planning, apparatus for same, and recording medium having same recorded thereon
CN106663327B (en) Automatic rejoining of 3-D surfaces
KR102267488B1 (en) Apparatus And Method For Dental Image Registration
KR102013667B1 (en) Method for designing a dental surgical guide, apparatus, and recording medium thereof
KR102205427B1 (en) Method and apparatus for correcting nerve position in dental image
EP3954297A1 (en) Dental object detection method, and image matching method and device using dental object
TWI754259B (en) Method and apparatus for detecting of nerve in dental image
CN1610520A (en) Medical examination apparatus having means for performing correction of settings
KR102236973B1 (en) Method and Apparatus for detecting of Nerve in Dental Image
KR20200120036A (en) Method and apparatus for matching of images using tooth object
KR20200084982A (en) Method and apparatus for dental implant planning capable of automatic fixture replacement considering a risk factor
KR102161043B1 (en) Method and Apparatus for detecting of Teeth in Image Data
KR102210341B1 (en) Neural tube line detecting method using medical image processing and simulation and apparatus thereof
KR102383546B1 (en) Apparatus and method for oral image registration
US20230215027A1 (en) Oral image marker detection method, and oral image matching device and method using same
KR102383544B1 (en) Method for detecting marker in oral image and apparatus and method for oral image registration using the same
KR102383955B1 (en) Method and apparatus for detecting missing tooth in oral image, and method of positioning crown in oral image using the same
EP4159161A1 (en) Method and apparatus for predicting missing tooth in oral image
KR102277022B1 (en) Method and apparatus for matching oral scan image and oral scan image
KR102363739B1 (en) Method and apparatus for calculating fixture information
KR20220087874A (en) Method and apparatus for superimposition of medical images
KR102363740B1 (en) Method and apparatus for selecting fixture
KR102277021B1 (en) Method and apparatus for separating maxilla and mandible of 3-d oral ct image
EP4193960A1 (en) Method for selecting margin line point, and dental cad device therefor
KR20220008458A (en) Method and apparatus for designing margin line of abutment model

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant