KR20170111707A - The augmented reality system reflected estimation of movement of maxillary - Google Patents

The augmented reality system reflected estimation of movement of maxillary Download PDF

Info

Publication number
KR20170111707A
KR20170111707A KR1020160037671A KR20160037671A KR20170111707A KR 20170111707 A KR20170111707 A KR 20170111707A KR 1020160037671 A KR1020160037671 A KR 1020160037671A KR 20160037671 A KR20160037671 A KR 20160037671A KR 20170111707 A KR20170111707 A KR 20170111707A
Authority
KR
South Korea
Prior art keywords
patient
image
augmented reality
jaw
marker
Prior art date
Application number
KR1020160037671A
Other languages
Korean (ko)
Other versions
KR101831514B1 (en
Inventor
홍종락
안재명
Original Assignee
사회복지법인 삼성생명공익재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 사회복지법인 삼성생명공익재단 filed Critical 사회복지법인 삼성생명공익재단
Priority to KR1020160037671A priority Critical patent/KR101831514B1/en
Priority to PCT/KR2017/003037 priority patent/WO2017171295A1/en
Publication of KR20170111707A publication Critical patent/KR20170111707A/en
Application granted granted Critical
Publication of KR101831514B1 publication Critical patent/KR101831514B1/en

Links

Images

Classifications

    • A61B6/14
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pulmonology (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명의 일 실시예로써, 환자의 악골의 움직임 추정이 반영된 증강현실(Augmented Reality, AR) 시스템 및 증강현실 제공 방법이 개시될 수 있다. 본 발명의 일 실시예에 따른 환자의 악골의 움직임 추정이 반영된 증강현실(AR) 시스템은, 환자의 두경부에 대한 CT 영상을 획득하기 위한 영상획득부, 획득된 CT 영상을 3차원 영상으로 변환하기 위한 영상변환부, 변환된 영상에 포함된 복수개의 점들을 이용하여 환자에 대한 좌표계를 정의하기 위한 좌표계설정부, 환자의 악골의 움직임 추정을 위한 환자에 부착된 복수개의 마커들, 환자에 부착된 복수개의 마커들을 인식하기 위한 마커인식부, 정의된 좌표계에 기초하여 인식된 복수개의 마커들 각각에 대한 좌표를 추정하기 위한 좌표추정부, 추정된 좌표에 대한 악골의 증강현실 영상을 생성하기 위한 증강현실 영상생성부 및 생성된 증강현실 영상을 디스플레이하기 위한 디스플레이부를 포함할 수 있다. As an embodiment of the present invention, an Augmented Reality (AR) system and an augmented reality providing method in which motion estimation of a jaw of a patient is reflected can be disclosed. The AR system reflecting movement estimation of a jaw of a patient according to an embodiment of the present invention includes an image acquisition unit for acquiring a CT image of a head and a neck of a patient, A coordinate system setting unit for defining a coordinate system for the patient using a plurality of points included in the converted image, a plurality of markers attached to the patient for motion estimation of the jaw of the patient, A marker recognizing unit for recognizing a plurality of markers, a coordinate estimating unit for estimating coordinates of each of the plurality of markers recognized based on the defined coordinate system, augmenting unit for generating an augmented reality image of the jaw relative to the estimated coordinates And a display unit for displaying the generated augmented reality image.

Description

환자의 악골의 움직임 추정이 반영된 증강현실 시스템 및 증강현실 제공방법{THE AUGMENTED REALITY SYSTEM REFLECTED ESTIMATION OF MOVEMENT OF MAXILLARY}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an augmented reality system and a method of providing augmented reality,

본 발명은 환자의 악골의 움직임 추정이 반영된 증강현실 시스템 및 그 증강현실의 제공 방법에 관한 것이다.The present invention relates to an augmented reality system in which motion estimation of a jaw of a patient is reflected, and a method of providing the augmented reality.

악교정수술(orthognathic surgery)은 상악골이나 하악골의 성장이 정상에서 벗어나 과잉, 부족, 혹은 비대칭적인 상태를 가지고 있을 때 이러한 형태와 크기의 변이를 바로 잡기 위하여 행해지는 수술을 지칭한다. 악교정수술은 턱뼈(예컨대, 위 턱뼈 또는 아래 턱뼈)의 위치 변화를 가져오기 때문에 수술 전후에 교정 치료가 수반되는 것이 일반적이다. 수술의 모든 준비 단계와 수술 후의 교합을 조절하는 단계의 기간이 길고 치료도 복잡하므로 일반적인 수술과는 차이가 있다. 악교정수술 전 교정치료로 치아를 정렬하기 위한 치열교정 치료가 선행될 수 있다. 발치가 필요한 경우 발치가 수행될 수도 있다. 또한, 인상 채득, 사진 및 엑스선 촬영 등이 수행될 수 있다. 수술 시에 사용될 교합장치(surgical wafer)가 환자의 구강 구조 등에 적합하게 사전 제작될 수 있다. 악교정수술은 수술의 종류에 따라 수 시간 정도가 소요될 수 있고, 수술 후 재위치된 위아래 턱뼈를 기준으로 치열이 고른지, 기능상에 문제가 있지는 않은지를 검사한 후 교정치료가 수행될 수 있다. Orthognathic surgery refers to surgery performed to correct for variations in shape and size when the growth of the maxilla or mandible deviates from normal and has excess, deficiency, or asymmetry. Orthognathic surgery usually involves a change in the position of the jawbone (eg, the jawbone or lower jawbone), so orthodontic treatment is usually performed before and after surgery. It is different from general surgery because of the long preparation period and the complexity of the treatment. Orthognathic Orthodontic treatment can be preceded by an orthodontic treatment to align the teeth. If an extraction is required, an extraction may be performed. In addition, impression taking, photographing, and X-ray imaging can be performed. A surgical wafer to be used at the time of surgery can be preliminarily manufactured to suit the patient's oral structure and the like. Orthognathic surgery can take as long as several hours depending on the type of operation, and orthodontic treatment can be performed after checking whether the dentition has been selected based on the repositioned upper and lower jawbone and whether there is a problem in function.

악교정수술 준비 및 수행 과정이 까다롭고, 수술 시 소요 시간을 단축시키기 위하여 악교정수술 시 턱뼈가 교정 목표 위치에 빠르고 정확하게 위치하도록 할 필요가 있다. It is necessary to prepare the jawbone quickly and precisely at the target position for orthodontic surgery in order to prepare and perform the orthognathic surgery and to shorten the time required for the surgery.

본 발명은 환자의 악골의 움직임 추정이 반영된 증강현실 시스템 및 그 증강현실의 제공 방법에 관한 것으로, 수술 시 환자의 악골의 움직임을 실시간으로 추정하여 증강현실 시스템으로 나타냄으로써 사용자가 악골의 현재 위치 및 목표 위치 등을 직관적으로 파악할 수 있도록 하기 위한 증강현실 시스템 및 그 증강현실의 제공 방법을 제안하고자 한다. The present invention relates to an augmented reality system that reflects the motion estimation of a patient's jaw and a method of providing the augmented reality. We propose an augmented reality system and a method of providing the augmented reality to intuitively grasp the target location.

본 발명의 일 실시예로써, 환자의 악골의 움직임 추정이 반영된 증강현실(Augmented Reality, AR) 시스템 및 증강현실 제공 방법이 개시될 수 있다. As an embodiment of the present invention, an Augmented Reality (AR) system and an augmented reality providing method in which motion estimation of a jaw of a patient is reflected can be disclosed.

본 발명의 일 실시예에 따른 환자의 악골의 움직임 추정이 반영된 증강현실(Augmented Reality, AR) 시스템은, 환자의 두경부에 대한 CT 영상을 획득하기 위한 영상획득부, 획득된 CT 영상을 3차원 영상으로 변환하기 위한 영상변환부, 변환된 영상에 포함된 복수개의 점들을 이용하여 환자에 대한 좌표계를 정의하기 위한 좌표계설정부, 환자의 악골의 움직임 추정을 위한 환자에 부착된 복수개의 마커들, 환자에 부착된 복수개의 마커들을 인식하기 위한 마커인식부, 정의된 좌표계에 기초하여 인식된 복수개의 마커들 각각에 대한 좌표를 추정하기 위한 좌표추정부, 추정된 좌표에 대한 악골의 증강현실 영상을 생성하기 위한 증강현실 영상생성부 및 생성된 증강현실 영상을 디스플레이하기 위한 디스플레이부를 포함할 수 있다. An Augmented Reality (AR) system that reflects motion estimation of a patient's jaw according to an embodiment of the present invention includes an image acquisition unit for acquiring a CT image of the head and neck of a patient, A coordinate system setting unit for defining a coordinate system for the patient using a plurality of points included in the converted image, a plurality of markers attached to the patient for motion estimation of the patient's jaw, A coordinate estimating unit for estimating coordinates of each of the plurality of markers recognized based on the defined coordinate system, an augmented reality image of the jaws with respect to the estimated coordinates, An augmented reality image generation unit for generating augmented reality image, and a display unit for displaying the generated augmented reality image.

본 발명의 일 실시예에 따른 영상변환부에서는 DICOM(Digital Imaging and Communications in Medicine) 데이터를 이용하여 환자의 두경부에 대한 CT 영상을 3차원 영상으로 변환할 수 있다. In the image conversion unit according to an embodiment of the present invention, CT images of the head and the neck of a patient can be converted into 3D images using DICOM (Digital Imaging and Communications in Medicine) data.

또한, 본 발명의 일 실시예에 따른 좌표계설정부에서는 3차원 영상에서 3개 이상의 점들을 이용하여 환자에 대한 프랑크포트 수평(Frankfort Horizontal, FH)면을 생성하고, 비근점(Nasion)과 기저점(Basion)을 이용하여 정중시상 기준(midsagittal reference, MSR)면을 생성하며, 생성된 두 면이 교차하는 중심 지점에 환자에 대한 좌표계를 정의할 수 있다. In addition, in the coordinate system setting unit according to an embodiment of the present invention, the Frankfort Horizontal (FH) plane is created for the patient using three or more points in the 3D image, (MSR) plane using the bases, and a coordinate system for the patient can be defined at the center point where the generated two sides intersect.

본 발명의 일 실시예에 따른 복수개의 마커들은 각각의 면에 상이한 패턴이 표시된 다각형의 형태이고, 환자의 이마에 인접하여 배치 가능한 제 1 마커(MP), 환자의 치아의 형상을 따라 제작된 웨이퍼에 부착 가능한 제 2 마커(MM), 환자의 악골의 움직임 추적의 기준지점의 지정(pointing)을 위한 제 3 마커(MR)일 수 있다. A plurality of markers according to an embodiment of the present invention is in the form of a polygon with different patterns displayed on each face, and includes a first marker (M P ) that can be placed adjacent to the patient's forehead, A second marker M M attachable to the wafer, and a third marker M R for pointing the reference point of the movement of the patient's jaws.

본 발명의 일 실시예에 따른 마커인식부는 상이한 패턴이 표시된 각각의 마커에 대한 영상을 획득하기 위한 듀얼(dual) 카메라일 수 있다. The marker recognizing unit according to an embodiment of the present invention may be a dual camera for acquiring an image for each marker having a different pattern.

본 발명의 일 실시예에 따른 제 3 마커(MR)는 환자의 악골의 움직임 추적의 기준이 되는 지점의 지정(pointing)을 위하여 사용 가능하고, 지정된 지점에는 환자의 중절치 사이 지점, 우측 송곳니 지점, 좌측 송곳니 지점, 우측 제1대구치 지점 및 좌측 제1대구치 지점이 포함될 수 있다. The third marker M R according to an embodiment of the present invention can be used for pointing a point that is a reference point for tracking movement of the patient's jaws. At a designated point, a point between the central incisor of the patient, , A left canine point, a right first molar point, and a left first molar point.

본 발명의 일 실시예에 따른 좌표추정부에서는 환자의 악골의 움직임과 상응하게 움직일 수 있는 웨이퍼 상에서의 지정된 지점과 상응하는 지점의 좌표의 변화를 제 2 마커(MM)에 기초하여 추정하고, 좌표의 변화는 지정된 지점으로부터의 이동거리 값으로 추정될 수 있다. In the coordinate estimating unit according to an embodiment of the present invention, a change in coordinates of a point corresponding to a designated point on the wafer, which can move corresponding to movement of the patient's jaw, is estimated based on the second marker M M , The change of the coordinates can be estimated as the value of the movement distance from the designated point.

본 발명의 일 실시예에 따른 좌표추정부에 의하여 추정된 좌표에 대한 정보는 이동거리 값의 범위에 따라 상이한 컬러로 디스플레이부를 통하여 디스플레이되고, 이동거리 값이 0 이상 1 밀리미터 이하라면 녹색, 1초과 1.5 밀리미터 이하라면 노란색, 1.5초과 2밀리미터 이하라면 주황색, 2초과부터 이동거리 값의 한계값까지의 범위에서는 적색으로 좌표에 대한 정보가 디스플레이될 수 있다. Information on coordinates estimated by the coordinate estimating unit according to an embodiment of the present invention is displayed on the display unit in a different color according to the range of the moving distance value, and if the moving distance value is 0 or more and 1 millimeter or less, Information about the coordinates can be displayed in red if the range is from 1.5 to 2 millimeters, orange if the range is from 1.5 to 2 millimeters, and red if the range is greater than 2 to the limit value of the travel distance value.

본 발명의 일 실시예에 따른 환자의 악골의 움직임 추정이 반영된 증강현실(AR) 제공 방법은, 환자의 두경부에 대한 CT 영상을 획득하는 단계, 획득된 CT 영상을 3차원 영상으로 변환하는 단계, 변환된 영상에 포함된 복수개의 점들을 이용하여 환자에 대한 좌표계를 정의하는 단계, 환자의 악골의 움직임 추정을 위한 환자에 부착된 복수개의 마커들을 인식하는 단계, 정의된 좌표계에 기초하여 인식된 복수개의 마커들 각각에 대한 좌표를 추정하는 단계, 추정된 좌표에 대한 악골의 증강현실 영상을 생성하는 단계 및 생성된 증강현실 영상을 디스플레이하는 단계를 포함할 수 있다.According to an embodiment of the present invention, there is provided a method of providing an augmented reality (AR) reflecting movement estimation of a jaw of a patient, comprising: obtaining a CT image of a head and a neck of a patient; Defining a coordinate system for the patient using a plurality of points included in the converted image, recognizing a plurality of markers attached to the patient for motion estimation of the jaw of the patient, recognizing a plurality of recognized points based on the defined coordinate system Estimating coordinates of each of the plurality of markers, generating an augmented reality image of the jaws with respect to the estimated coordinates, and displaying the generated augmented reality image.

한편, 본 발명의 일 실시예로써, 컴퓨터 등과 같은 하드웨어와 결합되어 전술한 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램이 제공될 수 있다.Meanwhile, as an embodiment of the present invention, a computer program stored in a medium may be provided in combination with hardware such as a computer to execute the above-described method.

본 발명의 일 실시예에 따른 환자의 악골의 움직임 추정이 반영된 증강현실 시스템 및 그 방법을 이용하면, 수술 시 실시간으로 추정된 환자의 악골의 움직임이 증강현실로 나타날 수 있고, 사용자는 악골의 현재 위치 및 목표 위치 등을 직관적으로 파악할 수 있다. According to the augmented reality system and method of the present invention, motion estimation of a patient's jaw is reflected, motion of the jaw of the patient estimated in real time at the time of surgery can be displayed as an augmented reality, Position and target position can be intuitively grasped.

또한, 본 발명의 일 실시예에 따른 증강현실 시스템 및 그 방법을 이용하면, 악골의 이동 정보가 수치뿐만 아니라 컬러로 표시됨에 따라 사용자는 악골의 증강현실 영상의 모니터링을 통하여 악골의 움직임 및 위치를 예상할 수 있고, 악골의 정위치(예컨대, 목표 위치)를 빠르고 정확하게 탐색해낼 수 있다.Further, according to the augmented reality system and method thereof according to an embodiment of the present invention, since the movement information of the jaws is displayed in color as well as numerical values, the user can monitor the movement and position of the jaws through monitoring of the augmented reality images of the jaws And the exact position of the jawbone (e.g., the target position) can be quickly and accurately searched.

도 1은 본 발명의 일 실시예에 따른 환자의 악골의 움직임 추정이 반영된 증강현실 시스템을 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 환자의 악골의 움직임 추정이 반영된 증강현실 시스템의 개략도이다.
도 3은 본 발명의 일 실시예에 따른 좌표계 정의의 일 예이다.
도 4a 및 4b는 본 발명의 일 실시예에 따른 마커의 일 예이다.
도 5는 본 발명의 일 실시예에 따른 마커의 좌표 정보 획득의 일 예이다.
도 6은 본 발명의 일 실시예에 따른 마커인식부의 일 예이다.
도 7은 본 발명의 일 실시예에 따른 기준 지점 지정 과정을 나타낸 화면의 일 예이다.
도 8은 본 발명의 일 실시예에 따라 지정된 기준 지점을 나타낸다.
도 9a는 본 발명의 일 실시예에 따른 마커를 이용한 증강현실 제공의 일 예이다.
도 9b는 본 발명의 일 실시예에 따른 악골의 추정된 움직임 정보 제공의 일 예이다.
도 10은 본 발명의 일 실시예에 따른 환자의 악골의 움직임 추정이 반영된 증강현실(AR) 제공 방법을 나타낸 순서도이다.
도 11은 본 발명의 일 실시예에 따라 제공되는 환자의 추정된 악골의 움직임이 반영된 증강현실(AR) 화면의 일 예이다.
1 is a block diagram illustrating an augmented reality system in which motion estimation of a jaw of a patient is reflected according to an embodiment of the present invention.
2 is a schematic diagram of an augmented reality system that reflects motion estimation of a jaw of a patient according to an embodiment of the present invention.
3 is an example of a coordinate system definition according to an embodiment of the present invention.
4A and 4B show an example of a marker according to an embodiment of the present invention.
5 is an example of coordinate information acquisition of a marker according to an embodiment of the present invention.
6 is an example of a marker recognition unit according to an embodiment of the present invention.
7 is a view illustrating a reference point designation process according to an exemplary embodiment of the present invention.
Figure 8 shows a designated reference point in accordance with an embodiment of the present invention.
9A is an example of providing an augmented reality using a marker according to an embodiment of the present invention.
FIG. 9B is an example of providing estimated motion information of a jaw according to an embodiment of the present invention.
FIG. 10 is a flowchart illustrating a method for providing an augmented reality (AR) in which a motion estimation of a jaw of a patient is reflected according to an embodiment of the present invention.
FIG. 11 is an example of an augmented reality (AR) screen reflecting the estimated movement of the jaws of a patient provided according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. The terms used in this specification will be briefly described and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term, not on the name of a simple term, but on the entire contents of the present invention.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 명세서 전체에서 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, "그 중간에 다른 소자를 사이에 두고" 연결되어 있는 경우도 포함한다. When an element is referred to as "including" an element throughout the specification, it is to be understood that the element may include other elements, without departing from the spirit or scope of the present invention. Also, the terms "part," " module, "and the like described in the specification mean units for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software . In addition, when a part is referred to as being "connected" to another part throughout the specification, it includes not only "directly connected" but also "connected with other part in between".

명세서 전체에서 "영상"은 이산적인 영상 요소들(예를 들어, 2차원 영상에 있어서의 픽셀들 및 3차원 영상에 있어서의 복셀들)로 구성된 다차원(multi-dimensional) 데이터를 의미할 수 있다. 예를 들어, 영상은 CT 촬영 장치에 의해 획득된 대상체의 의료 영상 등을 포함할 수 있다. Throughout the specification, the term "image" can refer to multi-dimensional data composed of discrete image elements (e.g., pixels in a two-dimensional image and voxels in a three-dimensional image). For example, the image may include a medical image or the like of the object obtained by the CT photographing apparatus.

본 명세서에서 "CT(Computed Tomography) 영상"란 대상체에 대한 적어도 하나의 축을 중심으로 회전하며 대상체를 촬영함으로써 획득된 복수개의 엑스레이 영상들의 합성 영상을 의미할 수 있다.In the present specification, a "CT (Computed Tomography) image" may mean a composite image of a plurality of x-ray images obtained by photographing an object while rotating around at least one axis of the object.

본 명세서에서 "대상체(object)"는 사람 또는 동물, 또는 사람 또는 동물의 일부를 포함할 수 있다. 예를 들어, 대상체는 뼈, 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 또는 혈관을 포함할 수 있다.As used herein, an " object "may include a person or an animal, or a portion of a person or an animal. For example, the subject may comprise a bone, liver, heart, uterus, organs such as the brain, breast, abdomen, or blood vessels.

본 명세서에서 "사용자"는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료 영상 전문가 등이 될 수 있으며, 의료 장치를 수리하는 기술자가 될 수 있으나, 이에 한정되지 않는다.As used herein, the term "user" may be a doctor, a nurse, a clinical pathologist, a medical imaging specialist, or the like, and may be a technician repairing a medical device.

이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 환자의 악골의 움직임 추정이 반영된 증강현실 시스템을 나타낸 블록도이다. FIG. 1 is a block diagram illustrating an augmented reality system in which motion estimation of a jaw of a patient is reflected according to an embodiment of the present invention. Referring to FIG.

본 발명의 일 실시예에 따른 환자의 악골의 움직임 추정이 반영된 증강현실(Augmented Reality, AR) 시스템(1000)은, 환자의 두경부에 대한 CT 영상을 획득하기 위한 영상획득부(100), 획득된 CT 영상을 3차원 영상으로 변환하기 위한 영상변환부(200), 변환된 영상에 포함된 복수개의 점들을 이용하여 환자에 대한 좌표계를 정의하기 위한 좌표계설정부(300), 환자의 악골의 움직임 추정을 위한 환자에 부착된 복수개의 마커들(10, 20, 30), 환자에 부착된 복수개의 마커들을 인식하기 위한 마커인식부(400), 정의된 좌표계에 기초하여 인식된 복수개의 마커들 각각에 대한 좌표를 추정하기 위한 좌표추정부(500), 추정된 좌표에 대한 악골의 증강현실 영상을 생성하기 위한 증강현실 영상생성부(600) 및 생성된 증강현실 영상을 디스플레이하기 위한 디스플레이부(700)를 포함할 수 있다. An augmented reality (AR) system 1000 incorporating motion estimation of a jaw of a patient according to an embodiment of the present invention includes an image acquisition unit 100 for acquiring a CT image of the head and the neck of a patient, A coordinate system setting unit 300 for defining a coordinate system for a patient using a plurality of points included in the converted image, a motion estimation unit 300 for calculating a motion estimation A marker recognition unit 400 for recognizing a plurality of markers attached to the patient, a plurality of markers 10, 20, and 30 attached to the patient for each of the plurality of markers recognized based on the defined coordinate system, An augmented reality image generation unit 600 for generating an augmented reality image of a jaw relative to the estimated coordinates, and a display unit 700 for displaying the generated augmented reality image, Include Can.

본 발명의 일 실시예에 따른 영상변환부(200)에서는 DICOM(Digital Imaging and Communications in Medicine) 데이터를 이용하여 환자의 두경부에 대한 CT 영상을 3차원 영상으로 변환할 수 있다. 다시 말해서, 영상변환부(200)에서는 환자의 두경부에 대한 CT 영상이 3차원 영상으로 변환될 수 있다. 사용자는 영상변환부(200)를 통하여 변환된 3차원 영상을 이용하여 환자에 대한 수술 시뮬레이션을 수행해볼 수 있다. 사용자는 환자에 대한 수술 시뮬레이션을 통하여 환자의 턱뼈의 목표 위치(예컨대, 수술을 통하여 위치시키고자 하는 지점, 방향 등)를 미리 추정해볼 수 있다. In the image conversion unit 200 according to an embodiment of the present invention, the CT image of the head and the neck of a patient can be converted into a three-dimensional image using DICOM (Digital Imaging and Communications in Medicine) data. In other words, in the image converting unit 200, the CT image of the head and the neck of the patient can be converted into a three-dimensional image. The user can perform a surgical simulation on the patient using the converted three-dimensional image through the image conversion unit 200. [ The user can estimate the target position of the jawbone of the patient (for example, a point, a direction, and the like to be positioned through the operation) through simulation of a surgical operation on the patient.

도 2는 본 발명의 일 실시예에 따른 환자의 악골의 움직임 추정이 반영된 증강현실 시스템의 개략도이다. 2 is a schematic diagram of an augmented reality system that reflects motion estimation of a jaw of a patient according to an embodiment of the present invention.

수술을 위한 테이블 상에 위치한 환자(1)의 이마 부위의 지지대 상에 제 1 마커(10)가 배치될 수 있다. 또한, 웨이퍼에 부착된 제 2 마커(20)에 기초하여 좌표추정부(500)를 통하여 턱뼈의 실시간 이동 경로가 인식(추정)될 수 있다. 추정된 이동 경로를 따라 증강현실 영상생성부(600)에서는 증강현실 영상이 생성될 수 있다. 제 3 마커(30)에 의하여 이동 경로 추적을 위한 기준 지점이 설정될 수 있으며, 마커들(10, 20 및 30)의 이동 경로 추적은 마커인식부(400)를 통하여 실시간으로 수행될 수 있다. 영상변환부(200), 좌표계설정부(300), 좌표추정부(500) 및 증강현실 영상생성부(600)는 디스플레이부(700)가 구비된 사용자 디바이스에 포함되도록 구성될 수 있다. 사용자 디바이스는 개인용 컴퓨터(PC), 태블릿 PC, 노트북, 또는 스마트폰 등일 수 있으나, 이에 한정되지는 않는다. 다시 말해서, 사용자 디바이스는 타 디바이스와 유/무선 통신이 가능한 전자 기기일 수 있다. 또한, 사용자 디바이스는 병원 등의 의료 기관에 마련된 서버와 유선 또는 무선으로 연결될 수 있다. 다시 말해서, 사용자 디바이스는 PACS(Picture Archiving and Communication System), EMR(Electronic Medical Record), PHR(Personal Health Record), RIS(Radiology Information System) 등과 같은 서버(2000) 등과 연결되어 서버로 하여금 환자 정보를 독출, 저장, 갱신 등을 수행하게 할 수 있다. The first marker 10 may be placed on the support of the forehead region of the patient 1 on the table for surgery. In addition, the real-time movement path of the jawbone can be recognized (estimated) through the coordinate estimating unit 500 based on the second marker 20 attached to the wafer. The augmented reality image generator 600 may generate an augmented reality image along the estimated movement path. The third marker 30 may set a reference point for tracking the movement path and track the movement of the markers 10, 20 and 30 through the marker recognition unit 400 in real time. The image converting unit 200, the coordinate system setting unit 300, the coordinate estimating unit 500, and the augmented reality image generating unit 600 may be included in the user device provided with the display unit 700. The user device may be, but is not limited to, a personal computer (PC), a tablet PC, a notebook, or a smart phone. In other words, the user device may be an electronic device capable of wired / wireless communication with another device. Also, the user device may be connected to a server provided at a medical institution such as a hospital by wire or wirelessly. In other words, the user device may be connected to a server 2000 such as a Picture Archiving and Communication System (PACS), an Electronic Medical Record (EMR), a Personal Health Record (PHR), or a Radiology Information System (RIS) Read, store, update, and so on.

도 3은 본 발명의 일 실시예에 따른 좌표계 정의의 일 예이다. 3 is an example of a coordinate system definition according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 좌표계설정부(300)에서는 3차원 영상에서 3개 이상의 점들을 이용하여 환자에 대한 프랑크포트 수평면(Frankfort Horizontal Plane, FHP)을 생성하고, 비근점(Nasion)과 기저점(Basion)을 이용하여 정중시상 기준면(Midsagittal Reference Plane, MSRP)을 생성하며, 생성된 두 면이 교차하는 중심 지점에 환자에 대한 좌표계(patient coordinate)를 정의할 수 있다. 또한, 본 발명의 일 실시예에 따른 좌표계는 전술한 방식 이외에도 다양한 지점을 이용하여 새롭게 정의될 수 있다. 예를 들면, 프랑크포트 수평면 생성을 위한 점에는 Porion, Obitale 등이 포함될 수 있다. 또한, 정중시상기준면의 생성을 위한 점에는 Crista galli, Anterior nasal spine, Posterior nasal spine, Basion, Opisthion, Nasion 등이 포함될 수 있고, Crista galli, Anterior nasal spine, Basion 또는 Crista galli, Anterior nasal spine, Opisthion 을 이용하여 정중시상기준면이 생성될 수도 있다. The coordinate system setting unit 300 according to an exemplary embodiment of the present invention generates a Frankfort horizontal plane (FHP) for a patient using three or more points in a three-dimensional image, We can use the bases to create a Midsagittal Reference Plane (MSRP), and define a patient coordinate for the patient at the intersection of the two generated faces. In addition, the coordinate system according to an embodiment of the present invention can be newly defined using various points other than the above-described method. For example, points for creating Frankfort horizontal plane may include Porion, Obitale, and the like. In addition, Crista galli, anterior nasal spine, posterior nasal spine, Basion, Opisthion, and Nasion may be included in the creation of the median sagittal plane, and Crista galli, Anterior nasal spine, Basion or Crista galli, Anterior nasal spine, Opisthion May be used to generate a median-sagittal reference plane.

도 4a 및 4b는 본 발명의 일 실시예에 따른 마커의 일 예이다. 4A and 4B show an example of a marker according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 복수개의 마커들(10, 20, 30)은 각각의 면에 상이한 패턴이 표시된 다각형의 형태이고, 환자의 이마에 인접하여 배치 가능한 제 1 마커(MP)(10), 환자의 치아의 형상을 따라 제작된 웨이퍼에 부착 가능한 제 2 마커(MM)(20), 환자의 악골의 움직임 추적의 기준지점의 지정(pointing)을 위한 제 3 마커(MR)(30)일 수 있다. A plurality of markers 10, 20, 30 according to an embodiment of the present invention is in the form of a polygon having a different pattern on each face, and a first marker M P 10 ), A second marker (M M ) 20 attachable to the wafer made according to the shape of the patient's tooth, a third marker M R for pointing the reference point of movement of the patient's jaws 30).

도 4a에서와 같이 마커들의 각각의 면에는 상이한 패턴이 표시되어 있을 수 있고, 이러한 패턴은 마커의 각면에 대한 식별자 기능을 수행할 수 있다. 다시 말해서, 마커인식부(400)를 통하여 획득된 영상에 포함된 패턴을 통하여 각각의 마커는 구별될 수 있고, 각각의 마커의 위치(예컨대, 좌표 정보)가 인식될 수 있다. Different patterns may be displayed on each side of the markers as in FIG. 4A, and this pattern may perform an identifier function for each side of the marker. In other words, each marker can be distinguished through a pattern included in the image obtained through the marker recognition unit 400, and the position (e.g., coordinate information) of each marker can be recognized.

제 1 마커(MP)(10)는 환자(1)의 이마에 인접하여 배치될 수 있다. 예를 들면, 환자(1)의 도 2에서와 같이 환자(1)의 이마에 부착된 비기관내 삽관 튜브 고정용 지지대의 일 단에 결합될 수 있다. 설명의 편의 및 본 발명의 이해를 돕기 위하여 도 4a에서와 같이 모형으로 제작된 두개골 상단에 제 1 마커(MP)(10)가 위치할 수 있다. 다시 말해서, 도 4a의 제 1 마커(MP)(10)는 환자(1)의 이마에 부착된 상태의 예를 보여주고 있다. The first marker (MP) 10 may be disposed adjacent to the forehead of the patient 1. For example, as shown in Fig. 2 of the patient 1, it may be coupled to one end of an unvinvention intubation tube fixing support attached to the forehead of the patient 1. [ For convenience of explanation and understanding of the present invention, a first marker (MP) 10 may be positioned on the upper part of the skull modeled as shown in FIG. 4A. In other words, the first marker (MP) 10 of Fig. 4A shows an example of a state of being attached to the forehead of the patient 1. Fig.

또한, 제 2 마커(20)는 환자(1)의 치아의 형상을 따라 제작된 웨이퍼(21)(wafer)에 부착될 수 있다. 전술한 바와 같이 악교정수술 전, 수술 시에 사용될 교합장치(surgical wafer)가 환자의 구강 구조 등에 적합하게 합성소재 등을 이용하여 미리 제작될 수 있다. 웨이퍼(21)에 부착된 제 2 마커(20)는 환자(1)의 상악에 대한 증강현실 영상을 만들어 내기 위한 기준체가 될 수 있다. 다시 말해서, 웨이퍼(21)에 부착된 제 2 마커(20)의 움직임 정보에 기초하여 환자(1)의 상악 움직임이 추정될 수 있고, 추정된 움직임에 따라 증강현실 영상이 생성될 수 있다. In addition, the second marker 20 can be attached to a wafer 21 manufactured according to the shape of the teeth of the patient 1. As described above, a surgical wafer to be used before or at the time of orthognathic surgery can be manufactured in advance using a synthetic material or the like suitable for a patient's oral structure or the like. The second marker 20 attached to the wafer 21 may become a reference body for producing an augmented reality image for the upper part of the patient 1. [ In other words, the maximal motion of the patient 1 can be estimated based on the motion information of the second marker 20 attached to the wafer 21, and an augmented reality image can be generated according to the estimated motion.

또한, 제 3 마커(30)는 환자(1)의 악골의 움직임 추적을 위하여 기준이 될 지점(예컨대, 기준지점)의 지정(pointing)을 위하여 사용될 수 있다. 제 3 마커(30)의 일 단부는 뾰족한 형상으로 환자의 구강 내 소정의 지점(예컨대, 중절치 사이 지점 등)을 지정에 활용될 수 있다. The third marker 30 may be used for pointing a reference point (for example, a reference point) for tracking the movement of the jaws of the patient 1. [ One end of the third marker 30 may be used to designate a predetermined point (for example, a point between the central teeth, etc.) in the oral cavity of the patient in a pointed shape.

도 5는 본 발명의 일 실시예에 따른 마커의 좌표 정보 획득의 일 예이다. 5 is an example of coordinate information acquisition of a marker according to an embodiment of the present invention.

환자(1)와 제 1 마커(10)와의 관계는 좌표계설정부(300)에 의하여 정의된 좌표계에 기초하여 도 5에서와 같이 결정될 수 있다. 또한, 환자(1)와 제 2 마커(20)와의 관계도 정의된 좌표계에 기초하여 결정될 수 있다. 다시 말해서, 환자에 대하여 정의된 좌표계(예컨대, {p})의 중심점에 기초하여 제 1 마커(10)의 좌표 값이 결정될 수 있고, 제 2 마커(20)의 좌표 값도 결정될 수 있다. 마커들(10, 20, 30)의 최초 좌표 값 결정은 등록(registration)이라고 지칭될 수 있다. 마커들(10, 20, 30)은 제 1 마커(10), 제 3 마커(30), 제 2 마커(20)의 순서로 시스템(1000) 상에 등록될 수 있다. 다시 말해서, 환자(1)의 이마에 인접하여 배치된 제 1 마커(10)가 마커인식부(400)를 통하여 인식되어 좌표추정부(500)를 통하여 등록(예컨대, 마커인식부(400)를 통하여 획득된 영상에 따라 좌표가 추정되는 과정)된 후, 제 3 마커(30)에 기초하여 환자(1)의 구강 내의 소정의 지점이 등록되고, 그리고 나서 제 2 마커(20)가 부착된 웨이퍼(21)가 환자(1)의 구강에 접촉된 상태로 제 2 마커(20)가 등록될 수 있다. The relationship between the patient 1 and the first marker 10 can be determined as shown in Fig. 5 based on the coordinate system defined by the coordinate system setting unit 300. [ In addition, the relationship between the patient 1 and the second marker 20 can also be determined based on the defined coordinate system. In other words, the coordinate value of the first marker 10 can be determined and the coordinate value of the second marker 20 can also be determined based on the center point of the coordinate system (e.g., {p}) defined for the patient. Determination of the initial coordinate values of the markers 10, 20, 30 may be referred to as registration. The markers 10,20 and 30 may be registered on the system 1000 in the order of the first marker 10, the third marker 30 and the second marker 20 in this order. In other words, the first marker 10 disposed adjacent to the forehead of the patient 1 is recognized through the marker recognition unit 400 and registered (for example, the marker recognition unit 400) through the coordinate estimation unit 500 A predetermined point in the oral cavity of the patient 1 is registered based on the third marker 30 and then the second marker 20 is registered on the wafer to which the second marker 20 is attached The second marker 20 can be registered in a state where the first marker 21 is in contact with the oral cavity of the patient 1. [

도 6은 본 발명의 일 실시예에 따른 마커인식부의 일 예이다. 6 is an example of a marker recognition unit according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 마커인식부(400)는 상이한 패턴이 표시된 각각의 마커에 대한 영상을 획득하기 위한 듀얼(dual) 카메라일 수 있다. 또한, 마커인식부(400)는 싱글 카메라일 수도 있다. 본 발명의 일 실시에에 따른 시스템(1000)은 마커를 이용하여 환자의 두경부, 악골 등의 위치를 실시간으로 파악할 수 있고, 이러한 위치의 실시간 파악을 위하여 마커인식부(400)를 통하여 획득된 영상이 활용될 수 있다. 다시 말해서, 마커인식부(400)를 통하여 촬영된 영상은 증강현실 영상을 생성하기 위한 기준영상으로 활용될 수 있다. The marker recognition unit 400 according to an exemplary embodiment of the present invention may be a dual camera for acquiring images of respective markers having different patterns. The marker recognition unit 400 may be a single camera. The system 1000 according to an embodiment of the present invention can grasp the position of the head and neck of the patient in real time using the marker and can acquire the image obtained through the marker recognition unit 400 Can be utilized. In other words, the image photographed through the marker recognition unit 400 can be utilized as a reference image for generating an augmented reality image.

본 발명의 일 실시예에 따르면, 마커인식부(400)는 나란히 배열된 복수개의 촬영 모듈을 포함하는 카메라일 수 있고, 바람직하게는 듀얼 카메라일 수 있다. 다시 말해서, 마커인식부(400)는 수평적 또는 수직적으로 배열된 복수개의 촬영 모듈들의 결합체일 수 있다. 듀얼 카메라의 동작은 일반적인 듀얼 카메라의 동작 원리와 동일할 수 있다.According to an embodiment of the present invention, the marker recognition unit 400 may be a camera including a plurality of photographing modules arranged side by side, preferably a dual camera. In other words, the marker recognition unit 400 may be a combination of a plurality of photographing modules arranged horizontally or vertically. The operation of the dual camera may be the same as the operation principle of a general dual camera.

도 7은 본 발명의 일 실시예에 따른 기준 지점 지정 과정을 나타낸 화면의 일 예이고, 도 8은 본 발명의 일 실시예에 따라 지정된 기준 지점을 나타낸다. 또한, 도 9a는 본 발명의 일 실시예에 따른 마커를 이용한 증강현실 제공의 일 예이고, 도 9b는 본 발명의 일 실시예에 따른 악골의 추정된 움직임 정보 제공의 일 예이다.FIG. 7 illustrates an example of a reference point designation process according to an exemplary embodiment of the present invention, and FIG. 8 illustrates reference points designated according to an exemplary embodiment of the present invention. FIG. 9A is an example of providing an augmented reality using a marker according to an embodiment of the present invention, and FIG. 9B is an example of providing estimated motion information of a jaw according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 제 3 마커(MR)(30)는 환자의 악골의 움직임 추적의 기준이 되는 지점의 지정(pointing)을 위하여 사용 가능하고, 지정된 지점에는 도 8에서와 같이 환자의 중절치 사이 지점(P1), 우측 송곳니 지점(P2), 좌측 송곳니 지점(P3), 우측 제1대구치 지점(P4) 및 좌측 제1대구치 지점(P5)이 포함될 수 있다. 다만, 도 8의 지점은 설명을 위한 예시적인 것으로, 기준지점의 지정은 수술 부위, 골 절단 부위 등에 의하여 상이하게 결정될 수 있다. 도 7에서와 같이 사용자는 제 3 마커(30)를 이용하여 기준지점을 직접 지정할 수 있다. 또한 이러한 기준지점은 수술 부위, 골 절단 부위 등에 기초하여 미리 결정되어 있을 수도 있다. 지정된 지점에 대한 정보(예컨대, 좌표 값)는 도 7에서와 같이 화면에 표시될 수 있다. The third marker (MR) 30 according to an embodiment of the present invention can be used for pointing a point that is a reference point for tracking movement of the patient's jaw, A midpoint value P1, a right canine point P2, a left canine point P3, a right first molar point P4, and a left first molar point P5. However, the points in Fig. 8 are exemplary for explanation, and the designation of the reference point may be determined differently depending on the operation site, the osteotomized site, and the like. As shown in FIG. 7, the user can designate the reference point directly using the third marker 30. Such a reference point may be previously determined on the basis of a surgical site, a bone cutting site, or the like. Information (for example, coordinate values) for the designated point can be displayed on the screen as shown in FIG.

본 발명의 일 실시예에 따른 좌표추정부(500)에서는 환자의 악골의 움직임과 상응하게 움직일 수 있는 웨이퍼(21) 상에서의 지정된 지점과 상응하는 지점의 좌표의 변화를 제 2 마커(20)에 기초하여 추정하고, 좌표의 변화는 지정된 지점으로부터의 이동거리 값(d)으로 추정될 수 있다. 각 지점의 이동거리는 상이할 수 있다. In the coordinate estimating unit 500 according to the embodiment of the present invention, a change in coordinates of a point corresponding to a designated point on the wafer 21 that can move in accordance with the movement of the patient's jaw, And the change of the coordinates can be estimated as the movement distance value d from the designated point. The travel distance of each point may be different.

본 발명의 일 실시예에 따른 좌표추정부(500)에 의하여 추정된 좌표에 대한 정보는 이동거리 값의 범위에 따라 상이한 컬러로 디스플레이부(700)를 통하여 디스플레이되고, 이동거리 값이 0 이상 1 밀리미터 이하라면 녹색, 1초과 1.5 밀리미터 이하라면 노란색, 1.5초과 2밀리미터 이하라면 주황색, 2초과부터 이동거리 값의 한계값까지의 범위에서는 적색으로 좌표에 대한 정보가 디스플레이될 수 있다. 도 9b에서와 같이 이동거리 값에 따라 움직임 정보가 컬러로 표현될 수 있다. 사용자는 표현된 컬러를 통하여 이동량을 직관적으로 파악할 수 있다. 도 9b에서 distance는 웨이퍼의 움직임에 따른 기준지점(예컨대, 초기위치)으로부터 각각의 지점들의 이동 거리를 나타내고, offset은 3차원 공간 상에서 각각의 지점들이 x축, y축, z축의 각각의 방향으로 이동한 거리를 나타낸다.Information on coordinates estimated by the coordinate estimating unit 500 according to an embodiment of the present invention is displayed through the display unit 700 in a different color according to the range of the moving distance value, Information about the coordinates may be displayed in red if the range is from 2 to the limit value of the travel distance value. If the range is less than 1 millimeter, green is displayed. As shown in FIG. 9B, the motion information may be expressed in color according to the movement distance value. The user can intuitively grasp the amount of movement through the represented color. In FIG. 9B, the distance indicates the movement distance of each point from the reference point (e.g., initial position) in accordance with the movement of the wafer, and the offset indicates the position of each point in the three-dimensional space in each direction of the x axis, y axis, Represents the distance traveled.

또한, 9a에서와 같이 기준지점과 제 2 마커(20)에 의하여 추정된 움직임에 따라 증강현실 영상(VI_2)이 생성될 수 있다. 생성된 증강현실 영상(VI_2)은 도 11과 관련하여 후술되는 바와 같이 환자의 두개골의 증강현실 영상(VI_1)과 함께 디스플레이부(700)를 통하여 디스플레이될 수 있다. Also, as in 9a, the augmented reality image VI_2 can be generated according to the movement estimated by the reference point and the second marker 20. [ The generated augmented reality image VI_2 can be displayed through the display unit 700 together with the augmented reality image VI_1 of the patient's skull as described later with reference to Fig.

도 10은 본 발명의 일 실시예에 따른 환자의 악골의 움직임 추정이 반영된 증강현실(AR) 제공 방법을 나타낸 순서도이다. FIG. 10 is a flowchart illustrating a method for providing an augmented reality (AR) in which a motion estimation of a jaw of a patient is reflected according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 환자의 악골의 움직임 추정이 반영된 증강현실(AR) 제공 방법은, 환자의 두경부에 대한 CT 영상을 획득하는 단계(S100), 획득된 CT 영상을 3차원 영상으로 변환하는 단계(S200), 변환된 영상에 포함된 복수개의 점들을 이용하여 환자에 대한 좌표계를 정의하는 단계(S300), 환자의 악골의 움직임 추정을 위한 환자에 부착된 복수개의 마커들을 인식하는 단계(S400), 정의된 좌표계에 기초하여 인식된 복수개의 마커들 각각에 대한 좌표를 추정하는 단계(S500), 추정된 좌표에 대한 악골의 증강현실 영상을 생성하는 단계(S600) 및 생성된 증강현실 영상을 디스플레이하는 단계(S700)를 포함할 수 있다.A method of providing an AR with a motion estimation of a jaw of a patient according to an embodiment of the present invention includes acquiring a CT image of a head and a neck of a patient (S100), converting the obtained CT image into a 3D image (S200), defining a coordinate system for the patient using a plurality of points included in the converted image (S300), recognizing a plurality of markers attached to the patient for motion estimation of the patient's jaw S400), estimating coordinates of each of the plurality of recognized markers based on the defined coordinate system (S500), generating a jugular augmented reality image for the estimated coordinates (S600), and generating the generated augmented reality image (Step S700).

도 11은 본 발명의 일 실시예에 따라 제공되는 환자의 추정된 악골의 움직임이 반영된 증강현실(AR) 화면의 일 예이다.FIG. 11 is an example of an augmented reality (AR) screen reflecting the estimated movement of the jaws of a patient provided according to an embodiment of the present invention.

환자의 두개골의 증강현실 영상(VI_1)과 제 2 마커(20)에 기초한 증강현실 영상(VI_2)은 디스플레이부(700)를 통하여 함께 출력될 수 있다. 본 발명의 일 실시예에 따라 실시간으로 추정된 환자의 악골의 움직임은 VI_2로서, 증강현실 영상으로 나타날 수 있고, VI_1과 VI_2가 동시에 제공됨에 따라 사용자는 악골의 현재 위치 및 목표 위치 등을 직관적으로 빠르고 정확하게 파악할 수 있다.The augmented reality image VI_1 of the skull of the patient and the augmented reality image VI_2 based on the second marker 20 may be output together through the display unit 700. [ According to the embodiment of the present invention, the motion of the jaw of the patient estimated in real time can be represented as an augmented reality image as VI_2, and since VI_1 and VI_2 are simultaneously provided, the user can intuitively It is fast and accurate.

또한, 사용자가 웨이퍼를 움직임에 따라 이러한 움직임에 상응하게 이동되어 증강현실 영상(VI_2)이 디스플레이부(700)를 통하여 출력될 수 있다. 사용자는 웨이퍼를 움직여 가며 악골의 위치가 어떻게 변화하는지를 실시간으로 추적해가며 파악할 수 있다. 다시 말해서, 악골의 이동 정보가 수치뿐만 아니라 컬러로 표시됨에 따라 사용자는 수술 대상이 될 악골과 상응하는 웨이퍼 상의 증강현실 영상(VI_2)의 움직임 모니터링을 통하여 악골의 움직임 및 위치를 예상할 수 있고, 악골의 정위치(예컨대, 수술 최종 위치)를 빠르고 정확하게 탐색해낼 수 있다.Also, as the user moves the wafer, the augmented reality image VI_2 may be output through the display unit 700 by moving in accordance with the movement. The user can follow the real time tracking of how the position of the jaw changes as the wafer moves. In other words, since movement information of the jaws is displayed in color as well as numerical values, the user can predict the movement and position of the jaw through monitoring the movement of the augmented reality image VI_2 on the wafer corresponding to the jaw to be operated on, The exact position of the jawbone (e.g., the final position of the operation) can be quickly and accurately searched.

본 발명의 일 실시예에 따른 방법과 관련하여서는 전술한 시스템에 대한 내용이 적용될 수 있다. 따라서, 방법과 관련하여, 전술한 시스템에 대한 내용과 동일한 내용에 대하여는 설명을 생략하였다.With respect to the method according to an embodiment of the present invention, the contents of the above-described system can be applied. Therefore, the description of the same contents as the above-mentioned system is omitted in connection with the method.

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. One embodiment of the present invention may also be embodied in the form of a recording medium including instructions executable by a computer, such as program modules, being executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes any information delivery media, including computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

1: 환자
10: 제 1 마커(MP) 20: 제 2 마커(MM)
21: 웨이퍼 30: 제 3 마커(MR)
100: 영상획득부 200: 영상변환부
300: 좌표계설정부 400: 마커인식부
410: 제 1 촬영 모듈 420: 제 2 촬영모듈
500: 좌표추정부 600: 증강현실 영상생성부
700: 디스플레이부
1000: 환자의 악골의 움직임 추정이 반영된 증강현실시스템
2000: 서버
1: patient
10: first marker (M P ) 20: second marker (M M )
21: wafers 30: a third marker (M R)
100: image acquisition unit 200: image conversion unit
300: coordinate system setting unit 400: marker recognition unit
410: first photographing module 420: second photographing module
500: Coordinate estimation unit 600: Augmented reality image generation unit
700:
1000: augmented reality system reflecting the motion estimation of the patient's jaw
2000: Server

Claims (10)

환자의 악골의 움직임 추정이 반영된 증강현실(Augmented Reality, AR) 시스템으로서,
상기 환자의 두경부에 대한 CT 영상을 획득하기 위한 영상획득부;
상기 획득된 CT 영상을 3차원 영상으로 변환하기 위한 영상변환부;
상기 변환된 영상에 포함된 복수개의 점들을 이용하여 상기 환자에 대한 좌표계를 정의하기 위한 좌표계설정부;
상기 환자의 악골의 움직임 추정을 위한 상기 환자에 부착된 복수개의 마커들;
상기 환자에 부착된 복수개의 마커들을 인식하기 위한 마커인식부;
상기 정의된 좌표계에 기초하여 상기 인식된 복수개의 마커들 각각에 대한 좌표를 추정하기 위한 좌표추정부;
상기 추정된 좌표에 대한 악골의 증강현실 영상을 생성하기 위한 증강현실 영상생성부; 및
상기 생성된 증강현실 영상을 디스플레이하기 위한 디스플레이부를 포함하는 것을 특징으로 하는 환자의 악골의 움직임 추정이 반영된 증강현실 시스템.
An Augmented Reality (AR) system that reflects the motion estimation of a patient's jaw,
An image obtaining unit for obtaining a CT image of the head and the neck of the patient;
An image converter for converting the obtained CT image into a three-dimensional image;
A coordinate system setting unit for defining a coordinate system for the patient using a plurality of points included in the converted image;
A plurality of markers attached to the patient for motion estimation of the jaw of the patient;
A marker recognition unit for recognizing a plurality of markers attached to the patient;
A coordinate estimator for estimating coordinates of each of the recognized plurality of markers based on the defined coordinate system;
An augmented reality image generation unit for generating an augmented reality image of a jaw relative to the estimated coordinates; And
And a display unit for displaying the generated augmented reality image.
제 1 항에 있어서,
상기 영상변환부에서는 DICOM(Digital Imaging and Communications in Medicine) 데이터를 이용하여 환자의 두경부에 대한 CT 영상을 3차원 영상으로 변환하는 것을 특징으로 하는 환자의 악골의 움직임 추정이 반영된 증강현실 시스템.
The method according to claim 1,
Wherein the image conversion unit converts the CT image of the head and the neck of the patient into a three-dimensional image using DICOM (Digital Imaging and Communications in Medicine) data.
제 2 항에 있어서,
상기 좌표계설정부에서는 상기 3차원 영상에서 3개 이상의 점들을 이용하여 상기 환자에 대한 프랑크포트 수평(Frankfort Horizontal, FH)면을 생성하고, 비근점(Nasion)과 기저점(Basion)을 이용하여 정중시상 기준(midsagittal reference, MSR)면을 생성하며, 상기 생성된 두 면이 교차하는 중심 지점에 상기 환자에 대한 좌표계를 정의하는 것을 특징으로 하는 환자의 악골의 움직임 추정이 반영된 증강현실 시스템.
3. The method of claim 2,
Wherein the coordinate system setting unit generates a Frankfort Horizontal (FH) plane for the patient using three or more points in the 3D image, and generates a Frankfort Horizontal (FH) plane using the Nasion and Basion Wherein a midsagittal reference (MSR) plane is defined and a coordinate system for the patient is defined at a center point where the two generated faces cross each other.
제 1 항에 있어서,
상기 복수개의 마커들은 각각의 면에 상이한 패턴이 표시된 다각형의 형태이고, 상기 환자의 이마에 인접하여 배치 가능한 제 1 마커(MP), 상기 환자의 치아의 형상을 따라 제작된 웨이퍼에 부착 가능한 제 2 마커(MM), 상기 환자의 악골의 움직임 추적의 기준지점의 지정(pointing)을 위한 제 3 마커(MR)인 것을 특징으로 하는 환자의 악골의 움직임 추정이 반영된 증강현실 시스템.
The method according to claim 1,
Wherein the plurality of markers are in the form of polygons each having a different pattern on their respective sides, the first marker (M P ) being arranged adjacent to the patient's forehead, the second markers 2 markers M M and a third marker M R for pointing the reference point of the movement of the patient's jaws in the augmented reality system.
제 4 항에 있어서,
상기 마커인식부는 상기 상이한 패턴이 표시된 각각의 마커에 대한 영상을 획득하기 위한 듀얼(dual) 카메라인 것을 특징으로 하는 환자의 악골의 움직임 추정이 반영된 증강현실 시스템.
5. The method of claim 4,
Wherein the marker recognition unit is a dual camera for acquiring images of the respective markers displayed with the different patterns.
제 4 항에 있어서,
상기 제 3 마커(MR)는 상기 환자의 악골의 움직임 추적의 기준이 되는 지점의 지정(pointing)을 위하여 사용 가능하고, 상기 지정된 지점에는 상기 환자의 중절치 사이 지점, 우측 송곳니 지점, 좌측 송곳니 지점, 우측 제1대구치 지점 및 좌측 제1대구치 지점이 포함되는 것을 특징으로 하는 환자의 악골의 움직임 추정이 반영된 증강현실 시스템.
5. The method of claim 4,
The third marker M R may be used for pointing the reference point of the movement of the jaw of the patient. The designated point may include a point between the central incisor of the patient, a right canine point, A right first molar location, and a left first molar location.
제 6 항에 있어서,
상기 좌표추정부에서는 상기 환자의 악골의 움직임과 상응하게 움직일 수 있는 상기 웨이퍼 상에서의 상기 지정된 지점과 상응하는 지점의 좌표의 변화를 상기 제 2 마커(MM)에 기초하여 추정하고, 상기 좌표의 변화는 상기 지정된 지점으로부터의 이동거리 값으로 추정되는 것을 특징으로 하는 환자의 악골의 움직임 추정이 반영된 증강현실 시스템.
The method according to claim 6,
Wherein the coordinate estimating unit estimates, based on the second marker (M M ), a change in coordinates of a point corresponding to the designated point on the wafer that can move in accordance with the movement of the patient's jaw, Wherein the change is estimated as a movement distance value from the designated point.
제 7 항에 있어서,
상기 좌표추정부에 의하여 추정된 좌표에 대한 정보는 상기 이동거리 값의 범위에 따라 상이한 컬러로 상기 디스플레이부를 통하여 디스플레이되고,
상기 이동거리 값이 0 이상 1 밀리미터 이하라면 녹색, 1초과 1.5 밀리미터 이하라면 노란색, 1.5초과 2밀리미터 이하라면 주황색, 2초과부터 이동거리 값의 한계값까지의 범위에서는 적색으로 상기 좌표에 대한 정보가 디스플레이되는 것을 특징으로 하는 환자의 악골의 움직임 추정이 반영된 증강현실 시스템.
8. The method of claim 7,
Information on coordinates estimated by the coordinate estimating unit is displayed through the display unit in a different color according to the range of the movement distance value,
If the moving distance value is equal to or greater than 0 and less than or equal to 1 millimeter, then green; if less than 1.5 millimeters, yellow; if less than 1.5 and greater than 2 millimeters, orange; Wherein the motion estimation of the jaw of the patient is reflected.
환자의 악골의 움직임 추정이 반영된 증강현실(AR) 제공 방법으로서,
상기 환자의 두경부에 대한 CT 영상을 획득하는 단계;
상기 획득된 CT 영상을 3차원 영상으로 변환하는 단계;
상기 변환된 영상에 포함된 복수개의 점들을 이용하여 상기 환자에 대한 좌표계를 정의하는 단계;
상기 환자의 악골의 움직임 추정을 위한 상기 환자에 부착된 복수개의 마커들을 인식하는 단계;
상기 정의된 좌표계에 기초하여 상기 인식된 복수개의 마커들 각각에 대한 좌표를 추정하는 단계;
상기 추정된 좌표에 대한 악골의 증강현실 영상을 생성하는 단계; 및
상기 생성된 증강현실 영상을 디스플레이하는 단계를 포함하는 것을 특징으로 하는 환자의 악골의 움직임 추정이 반영된 증강현실 제공 방법.
A method for providing an augmented reality (AR) in which a motion estimation of a jaw of a patient is reflected,
Obtaining a CT image of the head and the neck of the patient;
Converting the obtained CT image into a three-dimensional image;
Defining a coordinate system for the patient using a plurality of points included in the transformed image;
Recognizing a plurality of markers attached to the patient for motion estimation of the jaw of the patient;
Estimating coordinates for each of the recognized plurality of markers based on the defined coordinate system;
Generating an augmented reality image of a jaw corresponding to the estimated coordinates; And
And displaying the generated augmented reality image, wherein the augmented reality image is displayed on the display unit.
하드웨어와 결합되어 제 9 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.

A computer program stored in a medium for execution in accordance with the method of claim 9 in combination with hardware.

KR1020160037671A 2016-03-29 2016-03-29 The augmented reality system reflected estimation of movement of maxillary KR101831514B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160037671A KR101831514B1 (en) 2016-03-29 2016-03-29 The augmented reality system reflected estimation of movement of maxillary
PCT/KR2017/003037 WO2017171295A1 (en) 2016-03-29 2017-03-21 Augmented reality system in which estimation of jaw movement of patient is reflected and augmented reality providing method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160037671A KR101831514B1 (en) 2016-03-29 2016-03-29 The augmented reality system reflected estimation of movement of maxillary

Publications (2)

Publication Number Publication Date
KR20170111707A true KR20170111707A (en) 2017-10-12
KR101831514B1 KR101831514B1 (en) 2018-02-26

Family

ID=59966108

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160037671A KR101831514B1 (en) 2016-03-29 2016-03-29 The augmented reality system reflected estimation of movement of maxillary

Country Status (2)

Country Link
KR (1) KR101831514B1 (en)
WO (1) WO2017171295A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190066937A (en) 2017-12-06 2019-06-14 조선대학교산학협력단 Surgery navigation program stored in computer-readable storage medium
KR20200104004A (en) * 2019-02-26 2020-09-03 오스템임플란트 주식회사 Neural tube line detecting method using medical image processing and simulation and apparatus thereof
KR20210118329A (en) * 2020-03-20 2021-09-30 부산대학교 산학협력단 Method and System for Determining Soft-Tissue Reference Point and Method and System for Predicting Corrected Soft-Tissue Reference Point after Sugery
KR20210118328A (en) * 2020-03-20 2021-09-30 부산대학교 산학협력단 Method and System for Determining Reference Point for Three-Dimensional Cephalometry
WO2021201434A1 (en) * 2020-04-01 2021-10-07 고려대학교 산학협력단 Method and device for providing surgical guide using augmented reality

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112113502B (en) * 2020-09-10 2022-08-05 杭州三坛医疗科技有限公司 Fracture block positioning method and device
CN113470168B (en) * 2021-06-30 2024-05-14 福建医科大学附属第一医院 Multi-dimensional jawbone virtual-real registration error detection device and method based on augmented reality

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100608997B1 (en) * 2002-08-26 2006-08-09 한국과학기술연구원 Apparatus and method for measuring jaw motion
DE10250005B4 (en) * 2002-10-25 2009-03-19 Sirona Dental Systems Gmbh Bite device for use with a panoramic X-ray device
KR20100119109A (en) * 2009-04-30 2010-11-09 주식회사 서울씨앤제이 System for radiotherapy image generating
KR20140112207A (en) * 2013-03-13 2014-09-23 삼성전자주식회사 Augmented reality imaging display system and surgical robot system comprising the same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190066937A (en) 2017-12-06 2019-06-14 조선대학교산학협력단 Surgery navigation program stored in computer-readable storage medium
KR20200104004A (en) * 2019-02-26 2020-09-03 오스템임플란트 주식회사 Neural tube line detecting method using medical image processing and simulation and apparatus thereof
KR20210118329A (en) * 2020-03-20 2021-09-30 부산대학교 산학협력단 Method and System for Determining Soft-Tissue Reference Point and Method and System for Predicting Corrected Soft-Tissue Reference Point after Sugery
KR20210118328A (en) * 2020-03-20 2021-09-30 부산대학교 산학협력단 Method and System for Determining Reference Point for Three-Dimensional Cephalometry
WO2021201434A1 (en) * 2020-04-01 2021-10-07 고려대학교 산학협력단 Method and device for providing surgical guide using augmented reality

Also Published As

Publication number Publication date
KR101831514B1 (en) 2018-02-26
WO2017171295A1 (en) 2017-10-05

Similar Documents

Publication Publication Date Title
KR101831514B1 (en) The augmented reality system reflected estimation of movement of maxillary
CN109419524B (en) Control of medical imaging system
Chapuis et al. A new system for computer-aided preoperative planning and intraoperative navigation during corrective jaw surgery
Schendel et al. Three-dimensional imaging and computer simulation for office-based surgery
TWI396523B (en) System for facilitating dental diagnosis and treatment planning on a cast model and method used thereof
JP7202737B2 (en) Tracking method and apparatus for dental implant navigation surgery
Nakasima et al. Three-dimensional computer-generated head model reconstructed from cephalograms, facial photographs, and dental cast models
Ahn et al. Tracking accuracy of a stereo camera-based augmented reality navigation system for orthognathic surgery
Schendel et al. 3D orthognathic surgery simulation using image fusion
Jiang et al. Registration technology of augmented reality in oral medicine: A review
US11633264B2 (en) Determining and tracking movement
JP2002528215A (en) Tooth image processing method and system
EP3689218B1 (en) Method and system for guiding an intra-oral scan
Schendel et al. Image fusion in preoperative planning
Donaldson et al. Three-dimensional virtual surgical planning (3D-VSP) in orthognathic surgery: Advantages, disadvantages and pitfalls
Lee et al. Virtual skeletal complex model-and landmark-guided orthognathic surgery system
Kau et al. Update on cone beam technology and orthodontic analysis
US11890148B2 (en) System and method for dynamic augmented reality imaging of an antomical site
Fushima et al. Real-time orthognathic surgical simulation using a mandibular motion tracking system
Otake et al. Real‐time mandibular movement analysis system using four‐dimensional cranial bone model
CN113226186B (en) Device for visualizing in real time the movement of the lower jaw relative to the upper jaw in the craniomaxillofacial region of a patient in dental diagnosis
Tomaka et al. The dynamics of the stomatognathic system from 4D multimodal data
Kuo et al. Optical tracking-based model surgery for orthognathic surgical planning using a quantifying evaluation method
KR102247545B1 (en) Surgical Location Information Providing Method and Device Thereof
EP4328861A2 (en) Jaw movements data generation apparatus, data generation method, and data generation program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right