KR20170111707A - The augmented reality system reflected estimation of movement of maxillary - Google Patents
The augmented reality system reflected estimation of movement of maxillary Download PDFInfo
- Publication number
- KR20170111707A KR20170111707A KR1020160037671A KR20160037671A KR20170111707A KR 20170111707 A KR20170111707 A KR 20170111707A KR 1020160037671 A KR1020160037671 A KR 1020160037671A KR 20160037671 A KR20160037671 A KR 20160037671A KR 20170111707 A KR20170111707 A KR 20170111707A
- Authority
- KR
- South Korea
- Prior art keywords
- patient
- image
- augmented reality
- jaw
- marker
- Prior art date
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 68
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 67
- 239000003550 marker Substances 0.000 claims abstract description 73
- 238000000034 method Methods 0.000 claims abstract description 27
- 210000003128 head Anatomy 0.000 claims description 11
- 230000008859 change Effects 0.000 claims description 7
- 238000004891 communication Methods 0.000 claims description 7
- 210000001061 forehead Anatomy 0.000 claims description 7
- 230000009977 dual effect Effects 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 241000282465 Canis Species 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 claims description 4
- 229940079593 drug Drugs 0.000 claims description 3
- 239000003814 drug Substances 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 2
- 210000000887 face Anatomy 0.000 claims description 2
- 210000004283 incisor Anatomy 0.000 claims description 2
- 210000001847 jaw Anatomy 0.000 description 41
- 235000012431 wafers Nutrition 0.000 description 16
- 238000001356 surgical procedure Methods 0.000 description 12
- 238000002591 computed tomography Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 4
- 210000000214 mouth Anatomy 0.000 description 3
- 210000003625 skull Anatomy 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 210000000481 breast Anatomy 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 210000004513 dentition Anatomy 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002682 general surgery Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 210000002216 heart Anatomy 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 210000004373 mandible Anatomy 0.000 description 1
- 210000002050 maxilla Anatomy 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 229920002994 synthetic fiber Polymers 0.000 description 1
- 230000036346 tooth eruption Effects 0.000 description 1
- 238000002627 tracheal intubation Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
- 210000004291 uterus Anatomy 0.000 description 1
Images
Classifications
-
- A61B6/14—
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/51—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5223—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Biomedical Technology (AREA)
- Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- High Energy & Nuclear Physics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Pulmonology (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명의 일 실시예로써, 환자의 악골의 움직임 추정이 반영된 증강현실(Augmented Reality, AR) 시스템 및 증강현실 제공 방법이 개시될 수 있다. 본 발명의 일 실시예에 따른 환자의 악골의 움직임 추정이 반영된 증강현실(AR) 시스템은, 환자의 두경부에 대한 CT 영상을 획득하기 위한 영상획득부, 획득된 CT 영상을 3차원 영상으로 변환하기 위한 영상변환부, 변환된 영상에 포함된 복수개의 점들을 이용하여 환자에 대한 좌표계를 정의하기 위한 좌표계설정부, 환자의 악골의 움직임 추정을 위한 환자에 부착된 복수개의 마커들, 환자에 부착된 복수개의 마커들을 인식하기 위한 마커인식부, 정의된 좌표계에 기초하여 인식된 복수개의 마커들 각각에 대한 좌표를 추정하기 위한 좌표추정부, 추정된 좌표에 대한 악골의 증강현실 영상을 생성하기 위한 증강현실 영상생성부 및 생성된 증강현실 영상을 디스플레이하기 위한 디스플레이부를 포함할 수 있다. As an embodiment of the present invention, an Augmented Reality (AR) system and an augmented reality providing method in which motion estimation of a jaw of a patient is reflected can be disclosed. The AR system reflecting movement estimation of a jaw of a patient according to an embodiment of the present invention includes an image acquisition unit for acquiring a CT image of a head and a neck of a patient, A coordinate system setting unit for defining a coordinate system for the patient using a plurality of points included in the converted image, a plurality of markers attached to the patient for motion estimation of the jaw of the patient, A marker recognizing unit for recognizing a plurality of markers, a coordinate estimating unit for estimating coordinates of each of the plurality of markers recognized based on the defined coordinate system, augmenting unit for generating an augmented reality image of the jaw relative to the estimated coordinates And a display unit for displaying the generated augmented reality image.
Description
본 발명은 환자의 악골의 움직임 추정이 반영된 증강현실 시스템 및 그 증강현실의 제공 방법에 관한 것이다.The present invention relates to an augmented reality system in which motion estimation of a jaw of a patient is reflected, and a method of providing the augmented reality.
악교정수술(orthognathic surgery)은 상악골이나 하악골의 성장이 정상에서 벗어나 과잉, 부족, 혹은 비대칭적인 상태를 가지고 있을 때 이러한 형태와 크기의 변이를 바로 잡기 위하여 행해지는 수술을 지칭한다. 악교정수술은 턱뼈(예컨대, 위 턱뼈 또는 아래 턱뼈)의 위치 변화를 가져오기 때문에 수술 전후에 교정 치료가 수반되는 것이 일반적이다. 수술의 모든 준비 단계와 수술 후의 교합을 조절하는 단계의 기간이 길고 치료도 복잡하므로 일반적인 수술과는 차이가 있다. 악교정수술 전 교정치료로 치아를 정렬하기 위한 치열교정 치료가 선행될 수 있다. 발치가 필요한 경우 발치가 수행될 수도 있다. 또한, 인상 채득, 사진 및 엑스선 촬영 등이 수행될 수 있다. 수술 시에 사용될 교합장치(surgical wafer)가 환자의 구강 구조 등에 적합하게 사전 제작될 수 있다. 악교정수술은 수술의 종류에 따라 수 시간 정도가 소요될 수 있고, 수술 후 재위치된 위아래 턱뼈를 기준으로 치열이 고른지, 기능상에 문제가 있지는 않은지를 검사한 후 교정치료가 수행될 수 있다. Orthognathic surgery refers to surgery performed to correct for variations in shape and size when the growth of the maxilla or mandible deviates from normal and has excess, deficiency, or asymmetry. Orthognathic surgery usually involves a change in the position of the jawbone (eg, the jawbone or lower jawbone), so orthodontic treatment is usually performed before and after surgery. It is different from general surgery because of the long preparation period and the complexity of the treatment. Orthognathic Orthodontic treatment can be preceded by an orthodontic treatment to align the teeth. If an extraction is required, an extraction may be performed. In addition, impression taking, photographing, and X-ray imaging can be performed. A surgical wafer to be used at the time of surgery can be preliminarily manufactured to suit the patient's oral structure and the like. Orthognathic surgery can take as long as several hours depending on the type of operation, and orthodontic treatment can be performed after checking whether the dentition has been selected based on the repositioned upper and lower jawbone and whether there is a problem in function.
악교정수술 준비 및 수행 과정이 까다롭고, 수술 시 소요 시간을 단축시키기 위하여 악교정수술 시 턱뼈가 교정 목표 위치에 빠르고 정확하게 위치하도록 할 필요가 있다. It is necessary to prepare the jawbone quickly and precisely at the target position for orthodontic surgery in order to prepare and perform the orthognathic surgery and to shorten the time required for the surgery.
본 발명은 환자의 악골의 움직임 추정이 반영된 증강현실 시스템 및 그 증강현실의 제공 방법에 관한 것으로, 수술 시 환자의 악골의 움직임을 실시간으로 추정하여 증강현실 시스템으로 나타냄으로써 사용자가 악골의 현재 위치 및 목표 위치 등을 직관적으로 파악할 수 있도록 하기 위한 증강현실 시스템 및 그 증강현실의 제공 방법을 제안하고자 한다. The present invention relates to an augmented reality system that reflects the motion estimation of a patient's jaw and a method of providing the augmented reality. We propose an augmented reality system and a method of providing the augmented reality to intuitively grasp the target location.
본 발명의 일 실시예로써, 환자의 악골의 움직임 추정이 반영된 증강현실(Augmented Reality, AR) 시스템 및 증강현실 제공 방법이 개시될 수 있다. As an embodiment of the present invention, an Augmented Reality (AR) system and an augmented reality providing method in which motion estimation of a jaw of a patient is reflected can be disclosed.
본 발명의 일 실시예에 따른 환자의 악골의 움직임 추정이 반영된 증강현실(Augmented Reality, AR) 시스템은, 환자의 두경부에 대한 CT 영상을 획득하기 위한 영상획득부, 획득된 CT 영상을 3차원 영상으로 변환하기 위한 영상변환부, 변환된 영상에 포함된 복수개의 점들을 이용하여 환자에 대한 좌표계를 정의하기 위한 좌표계설정부, 환자의 악골의 움직임 추정을 위한 환자에 부착된 복수개의 마커들, 환자에 부착된 복수개의 마커들을 인식하기 위한 마커인식부, 정의된 좌표계에 기초하여 인식된 복수개의 마커들 각각에 대한 좌표를 추정하기 위한 좌표추정부, 추정된 좌표에 대한 악골의 증강현실 영상을 생성하기 위한 증강현실 영상생성부 및 생성된 증강현실 영상을 디스플레이하기 위한 디스플레이부를 포함할 수 있다. An Augmented Reality (AR) system that reflects motion estimation of a patient's jaw according to an embodiment of the present invention includes an image acquisition unit for acquiring a CT image of the head and neck of a patient, A coordinate system setting unit for defining a coordinate system for the patient using a plurality of points included in the converted image, a plurality of markers attached to the patient for motion estimation of the patient's jaw, A coordinate estimating unit for estimating coordinates of each of the plurality of markers recognized based on the defined coordinate system, an augmented reality image of the jaws with respect to the estimated coordinates, An augmented reality image generation unit for generating augmented reality image, and a display unit for displaying the generated augmented reality image.
본 발명의 일 실시예에 따른 영상변환부에서는 DICOM(Digital Imaging and Communications in Medicine) 데이터를 이용하여 환자의 두경부에 대한 CT 영상을 3차원 영상으로 변환할 수 있다. In the image conversion unit according to an embodiment of the present invention, CT images of the head and the neck of a patient can be converted into 3D images using DICOM (Digital Imaging and Communications in Medicine) data.
또한, 본 발명의 일 실시예에 따른 좌표계설정부에서는 3차원 영상에서 3개 이상의 점들을 이용하여 환자에 대한 프랑크포트 수평(Frankfort Horizontal, FH)면을 생성하고, 비근점(Nasion)과 기저점(Basion)을 이용하여 정중시상 기준(midsagittal reference, MSR)면을 생성하며, 생성된 두 면이 교차하는 중심 지점에 환자에 대한 좌표계를 정의할 수 있다. In addition, in the coordinate system setting unit according to an embodiment of the present invention, the Frankfort Horizontal (FH) plane is created for the patient using three or more points in the 3D image, (MSR) plane using the bases, and a coordinate system for the patient can be defined at the center point where the generated two sides intersect.
본 발명의 일 실시예에 따른 복수개의 마커들은 각각의 면에 상이한 패턴이 표시된 다각형의 형태이고, 환자의 이마에 인접하여 배치 가능한 제 1 마커(MP), 환자의 치아의 형상을 따라 제작된 웨이퍼에 부착 가능한 제 2 마커(MM), 환자의 악골의 움직임 추적의 기준지점의 지정(pointing)을 위한 제 3 마커(MR)일 수 있다. A plurality of markers according to an embodiment of the present invention is in the form of a polygon with different patterns displayed on each face, and includes a first marker (M P ) that can be placed adjacent to the patient's forehead, A second marker M M attachable to the wafer, and a third marker M R for pointing the reference point of the movement of the patient's jaws.
본 발명의 일 실시예에 따른 마커인식부는 상이한 패턴이 표시된 각각의 마커에 대한 영상을 획득하기 위한 듀얼(dual) 카메라일 수 있다. The marker recognizing unit according to an embodiment of the present invention may be a dual camera for acquiring an image for each marker having a different pattern.
본 발명의 일 실시예에 따른 제 3 마커(MR)는 환자의 악골의 움직임 추적의 기준이 되는 지점의 지정(pointing)을 위하여 사용 가능하고, 지정된 지점에는 환자의 중절치 사이 지점, 우측 송곳니 지점, 좌측 송곳니 지점, 우측 제1대구치 지점 및 좌측 제1대구치 지점이 포함될 수 있다. The third marker M R according to an embodiment of the present invention can be used for pointing a point that is a reference point for tracking movement of the patient's jaws. At a designated point, a point between the central incisor of the patient, , A left canine point, a right first molar point, and a left first molar point.
본 발명의 일 실시예에 따른 좌표추정부에서는 환자의 악골의 움직임과 상응하게 움직일 수 있는 웨이퍼 상에서의 지정된 지점과 상응하는 지점의 좌표의 변화를 제 2 마커(MM)에 기초하여 추정하고, 좌표의 변화는 지정된 지점으로부터의 이동거리 값으로 추정될 수 있다. In the coordinate estimating unit according to an embodiment of the present invention, a change in coordinates of a point corresponding to a designated point on the wafer, which can move corresponding to movement of the patient's jaw, is estimated based on the second marker M M , The change of the coordinates can be estimated as the value of the movement distance from the designated point.
본 발명의 일 실시예에 따른 좌표추정부에 의하여 추정된 좌표에 대한 정보는 이동거리 값의 범위에 따라 상이한 컬러로 디스플레이부를 통하여 디스플레이되고, 이동거리 값이 0 이상 1 밀리미터 이하라면 녹색, 1초과 1.5 밀리미터 이하라면 노란색, 1.5초과 2밀리미터 이하라면 주황색, 2초과부터 이동거리 값의 한계값까지의 범위에서는 적색으로 좌표에 대한 정보가 디스플레이될 수 있다. Information on coordinates estimated by the coordinate estimating unit according to an embodiment of the present invention is displayed on the display unit in a different color according to the range of the moving distance value, and if the moving distance value is 0 or more and 1 millimeter or less, Information about the coordinates can be displayed in red if the range is from 1.5 to 2 millimeters, orange if the range is from 1.5 to 2 millimeters, and red if the range is greater than 2 to the limit value of the travel distance value.
본 발명의 일 실시예에 따른 환자의 악골의 움직임 추정이 반영된 증강현실(AR) 제공 방법은, 환자의 두경부에 대한 CT 영상을 획득하는 단계, 획득된 CT 영상을 3차원 영상으로 변환하는 단계, 변환된 영상에 포함된 복수개의 점들을 이용하여 환자에 대한 좌표계를 정의하는 단계, 환자의 악골의 움직임 추정을 위한 환자에 부착된 복수개의 마커들을 인식하는 단계, 정의된 좌표계에 기초하여 인식된 복수개의 마커들 각각에 대한 좌표를 추정하는 단계, 추정된 좌표에 대한 악골의 증강현실 영상을 생성하는 단계 및 생성된 증강현실 영상을 디스플레이하는 단계를 포함할 수 있다.According to an embodiment of the present invention, there is provided a method of providing an augmented reality (AR) reflecting movement estimation of a jaw of a patient, comprising: obtaining a CT image of a head and a neck of a patient; Defining a coordinate system for the patient using a plurality of points included in the converted image, recognizing a plurality of markers attached to the patient for motion estimation of the jaw of the patient, recognizing a plurality of recognized points based on the defined coordinate system Estimating coordinates of each of the plurality of markers, generating an augmented reality image of the jaws with respect to the estimated coordinates, and displaying the generated augmented reality image.
한편, 본 발명의 일 실시예로써, 컴퓨터 등과 같은 하드웨어와 결합되어 전술한 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램이 제공될 수 있다.Meanwhile, as an embodiment of the present invention, a computer program stored in a medium may be provided in combination with hardware such as a computer to execute the above-described method.
본 발명의 일 실시예에 따른 환자의 악골의 움직임 추정이 반영된 증강현실 시스템 및 그 방법을 이용하면, 수술 시 실시간으로 추정된 환자의 악골의 움직임이 증강현실로 나타날 수 있고, 사용자는 악골의 현재 위치 및 목표 위치 등을 직관적으로 파악할 수 있다. According to the augmented reality system and method of the present invention, motion estimation of a patient's jaw is reflected, motion of the jaw of the patient estimated in real time at the time of surgery can be displayed as an augmented reality, Position and target position can be intuitively grasped.
또한, 본 발명의 일 실시예에 따른 증강현실 시스템 및 그 방법을 이용하면, 악골의 이동 정보가 수치뿐만 아니라 컬러로 표시됨에 따라 사용자는 악골의 증강현실 영상의 모니터링을 통하여 악골의 움직임 및 위치를 예상할 수 있고, 악골의 정위치(예컨대, 목표 위치)를 빠르고 정확하게 탐색해낼 수 있다.Further, according to the augmented reality system and method thereof according to an embodiment of the present invention, since the movement information of the jaws is displayed in color as well as numerical values, the user can monitor the movement and position of the jaws through monitoring of the augmented reality images of the jaws And the exact position of the jawbone (e.g., the target position) can be quickly and accurately searched.
도 1은 본 발명의 일 실시예에 따른 환자의 악골의 움직임 추정이 반영된 증강현실 시스템을 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 환자의 악골의 움직임 추정이 반영된 증강현실 시스템의 개략도이다.
도 3은 본 발명의 일 실시예에 따른 좌표계 정의의 일 예이다.
도 4a 및 4b는 본 발명의 일 실시예에 따른 마커의 일 예이다.
도 5는 본 발명의 일 실시예에 따른 마커의 좌표 정보 획득의 일 예이다.
도 6은 본 발명의 일 실시예에 따른 마커인식부의 일 예이다.
도 7은 본 발명의 일 실시예에 따른 기준 지점 지정 과정을 나타낸 화면의 일 예이다.
도 8은 본 발명의 일 실시예에 따라 지정된 기준 지점을 나타낸다.
도 9a는 본 발명의 일 실시예에 따른 마커를 이용한 증강현실 제공의 일 예이다.
도 9b는 본 발명의 일 실시예에 따른 악골의 추정된 움직임 정보 제공의 일 예이다.
도 10은 본 발명의 일 실시예에 따른 환자의 악골의 움직임 추정이 반영된 증강현실(AR) 제공 방법을 나타낸 순서도이다.
도 11은 본 발명의 일 실시예에 따라 제공되는 환자의 추정된 악골의 움직임이 반영된 증강현실(AR) 화면의 일 예이다.
1 is a block diagram illustrating an augmented reality system in which motion estimation of a jaw of a patient is reflected according to an embodiment of the present invention.
2 is a schematic diagram of an augmented reality system that reflects motion estimation of a jaw of a patient according to an embodiment of the present invention.
3 is an example of a coordinate system definition according to an embodiment of the present invention.
4A and 4B show an example of a marker according to an embodiment of the present invention.
5 is an example of coordinate information acquisition of a marker according to an embodiment of the present invention.
6 is an example of a marker recognition unit according to an embodiment of the present invention.
7 is a view illustrating a reference point designation process according to an exemplary embodiment of the present invention.
Figure 8 shows a designated reference point in accordance with an embodiment of the present invention.
9A is an example of providing an augmented reality using a marker according to an embodiment of the present invention.
FIG. 9B is an example of providing estimated motion information of a jaw according to an embodiment of the present invention.
FIG. 10 is a flowchart illustrating a method for providing an augmented reality (AR) in which a motion estimation of a jaw of a patient is reflected according to an embodiment of the present invention.
FIG. 11 is an example of an augmented reality (AR) screen reflecting the estimated movement of the jaws of a patient provided according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. The terms used in this specification will be briefly described and the present invention will be described in detail.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term, not on the name of a simple term, but on the entire contents of the present invention.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 명세서 전체에서 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, "그 중간에 다른 소자를 사이에 두고" 연결되어 있는 경우도 포함한다. When an element is referred to as "including" an element throughout the specification, it is to be understood that the element may include other elements, without departing from the spirit or scope of the present invention. Also, the terms "part," " module, "and the like described in the specification mean units for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software . In addition, when a part is referred to as being "connected" to another part throughout the specification, it includes not only "directly connected" but also "connected with other part in between".
명세서 전체에서 "영상"은 이산적인 영상 요소들(예를 들어, 2차원 영상에 있어서의 픽셀들 및 3차원 영상에 있어서의 복셀들)로 구성된 다차원(multi-dimensional) 데이터를 의미할 수 있다. 예를 들어, 영상은 CT 촬영 장치에 의해 획득된 대상체의 의료 영상 등을 포함할 수 있다. Throughout the specification, the term "image" can refer to multi-dimensional data composed of discrete image elements (e.g., pixels in a two-dimensional image and voxels in a three-dimensional image). For example, the image may include a medical image or the like of the object obtained by the CT photographing apparatus.
본 명세서에서 "CT(Computed Tomography) 영상"란 대상체에 대한 적어도 하나의 축을 중심으로 회전하며 대상체를 촬영함으로써 획득된 복수개의 엑스레이 영상들의 합성 영상을 의미할 수 있다.In the present specification, a "CT (Computed Tomography) image" may mean a composite image of a plurality of x-ray images obtained by photographing an object while rotating around at least one axis of the object.
본 명세서에서 "대상체(object)"는 사람 또는 동물, 또는 사람 또는 동물의 일부를 포함할 수 있다. 예를 들어, 대상체는 뼈, 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 또는 혈관을 포함할 수 있다.As used herein, an " object "may include a person or an animal, or a portion of a person or an animal. For example, the subject may comprise a bone, liver, heart, uterus, organs such as the brain, breast, abdomen, or blood vessels.
본 명세서에서 "사용자"는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료 영상 전문가 등이 될 수 있으며, 의료 장치를 수리하는 기술자가 될 수 있으나, 이에 한정되지 않는다.As used herein, the term "user" may be a doctor, a nurse, a clinical pathologist, a medical imaging specialist, or the like, and may be a technician repairing a medical device.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 환자의 악골의 움직임 추정이 반영된 증강현실 시스템을 나타낸 블록도이다. FIG. 1 is a block diagram illustrating an augmented reality system in which motion estimation of a jaw of a patient is reflected according to an embodiment of the present invention. Referring to FIG.
본 발명의 일 실시예에 따른 환자의 악골의 움직임 추정이 반영된 증강현실(Augmented Reality, AR) 시스템(1000)은, 환자의 두경부에 대한 CT 영상을 획득하기 위한 영상획득부(100), 획득된 CT 영상을 3차원 영상으로 변환하기 위한 영상변환부(200), 변환된 영상에 포함된 복수개의 점들을 이용하여 환자에 대한 좌표계를 정의하기 위한 좌표계설정부(300), 환자의 악골의 움직임 추정을 위한 환자에 부착된 복수개의 마커들(10, 20, 30), 환자에 부착된 복수개의 마커들을 인식하기 위한 마커인식부(400), 정의된 좌표계에 기초하여 인식된 복수개의 마커들 각각에 대한 좌표를 추정하기 위한 좌표추정부(500), 추정된 좌표에 대한 악골의 증강현실 영상을 생성하기 위한 증강현실 영상생성부(600) 및 생성된 증강현실 영상을 디스플레이하기 위한 디스플레이부(700)를 포함할 수 있다. An augmented reality (AR)
본 발명의 일 실시예에 따른 영상변환부(200)에서는 DICOM(Digital Imaging and Communications in Medicine) 데이터를 이용하여 환자의 두경부에 대한 CT 영상을 3차원 영상으로 변환할 수 있다. 다시 말해서, 영상변환부(200)에서는 환자의 두경부에 대한 CT 영상이 3차원 영상으로 변환될 수 있다. 사용자는 영상변환부(200)를 통하여 변환된 3차원 영상을 이용하여 환자에 대한 수술 시뮬레이션을 수행해볼 수 있다. 사용자는 환자에 대한 수술 시뮬레이션을 통하여 환자의 턱뼈의 목표 위치(예컨대, 수술을 통하여 위치시키고자 하는 지점, 방향 등)를 미리 추정해볼 수 있다. In the
도 2는 본 발명의 일 실시예에 따른 환자의 악골의 움직임 추정이 반영된 증강현실 시스템의 개략도이다. 2 is a schematic diagram of an augmented reality system that reflects motion estimation of a jaw of a patient according to an embodiment of the present invention.
수술을 위한 테이블 상에 위치한 환자(1)의 이마 부위의 지지대 상에 제 1 마커(10)가 배치될 수 있다. 또한, 웨이퍼에 부착된 제 2 마커(20)에 기초하여 좌표추정부(500)를 통하여 턱뼈의 실시간 이동 경로가 인식(추정)될 수 있다. 추정된 이동 경로를 따라 증강현실 영상생성부(600)에서는 증강현실 영상이 생성될 수 있다. 제 3 마커(30)에 의하여 이동 경로 추적을 위한 기준 지점이 설정될 수 있으며, 마커들(10, 20 및 30)의 이동 경로 추적은 마커인식부(400)를 통하여 실시간으로 수행될 수 있다. 영상변환부(200), 좌표계설정부(300), 좌표추정부(500) 및 증강현실 영상생성부(600)는 디스플레이부(700)가 구비된 사용자 디바이스에 포함되도록 구성될 수 있다. 사용자 디바이스는 개인용 컴퓨터(PC), 태블릿 PC, 노트북, 또는 스마트폰 등일 수 있으나, 이에 한정되지는 않는다. 다시 말해서, 사용자 디바이스는 타 디바이스와 유/무선 통신이 가능한 전자 기기일 수 있다. 또한, 사용자 디바이스는 병원 등의 의료 기관에 마련된 서버와 유선 또는 무선으로 연결될 수 있다. 다시 말해서, 사용자 디바이스는 PACS(Picture Archiving and Communication System), EMR(Electronic Medical Record), PHR(Personal Health Record), RIS(Radiology Information System) 등과 같은 서버(2000) 등과 연결되어 서버로 하여금 환자 정보를 독출, 저장, 갱신 등을 수행하게 할 수 있다. The
도 3은 본 발명의 일 실시예에 따른 좌표계 정의의 일 예이다. 3 is an example of a coordinate system definition according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 좌표계설정부(300)에서는 3차원 영상에서 3개 이상의 점들을 이용하여 환자에 대한 프랑크포트 수평면(Frankfort Horizontal Plane, FHP)을 생성하고, 비근점(Nasion)과 기저점(Basion)을 이용하여 정중시상 기준면(Midsagittal Reference Plane, MSRP)을 생성하며, 생성된 두 면이 교차하는 중심 지점에 환자에 대한 좌표계(patient coordinate)를 정의할 수 있다. 또한, 본 발명의 일 실시예에 따른 좌표계는 전술한 방식 이외에도 다양한 지점을 이용하여 새롭게 정의될 수 있다. 예를 들면, 프랑크포트 수평면 생성을 위한 점에는 Porion, Obitale 등이 포함될 수 있다. 또한, 정중시상기준면의 생성을 위한 점에는 Crista galli, Anterior nasal spine, Posterior nasal spine, Basion, Opisthion, Nasion 등이 포함될 수 있고, Crista galli, Anterior nasal spine, Basion 또는 Crista galli, Anterior nasal spine, Opisthion 을 이용하여 정중시상기준면이 생성될 수도 있다. The coordinate
도 4a 및 4b는 본 발명의 일 실시예에 따른 마커의 일 예이다. 4A and 4B show an example of a marker according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 복수개의 마커들(10, 20, 30)은 각각의 면에 상이한 패턴이 표시된 다각형의 형태이고, 환자의 이마에 인접하여 배치 가능한 제 1 마커(MP)(10), 환자의 치아의 형상을 따라 제작된 웨이퍼에 부착 가능한 제 2 마커(MM)(20), 환자의 악골의 움직임 추적의 기준지점의 지정(pointing)을 위한 제 3 마커(MR)(30)일 수 있다. A plurality of
도 4a에서와 같이 마커들의 각각의 면에는 상이한 패턴이 표시되어 있을 수 있고, 이러한 패턴은 마커의 각면에 대한 식별자 기능을 수행할 수 있다. 다시 말해서, 마커인식부(400)를 통하여 획득된 영상에 포함된 패턴을 통하여 각각의 마커는 구별될 수 있고, 각각의 마커의 위치(예컨대, 좌표 정보)가 인식될 수 있다. Different patterns may be displayed on each side of the markers as in FIG. 4A, and this pattern may perform an identifier function for each side of the marker. In other words, each marker can be distinguished through a pattern included in the image obtained through the
제 1 마커(MP)(10)는 환자(1)의 이마에 인접하여 배치될 수 있다. 예를 들면, 환자(1)의 도 2에서와 같이 환자(1)의 이마에 부착된 비기관내 삽관 튜브 고정용 지지대의 일 단에 결합될 수 있다. 설명의 편의 및 본 발명의 이해를 돕기 위하여 도 4a에서와 같이 모형으로 제작된 두개골 상단에 제 1 마커(MP)(10)가 위치할 수 있다. 다시 말해서, 도 4a의 제 1 마커(MP)(10)는 환자(1)의 이마에 부착된 상태의 예를 보여주고 있다. The first marker (MP) 10 may be disposed adjacent to the forehead of the
또한, 제 2 마커(20)는 환자(1)의 치아의 형상을 따라 제작된 웨이퍼(21)(wafer)에 부착될 수 있다. 전술한 바와 같이 악교정수술 전, 수술 시에 사용될 교합장치(surgical wafer)가 환자의 구강 구조 등에 적합하게 합성소재 등을 이용하여 미리 제작될 수 있다. 웨이퍼(21)에 부착된 제 2 마커(20)는 환자(1)의 상악에 대한 증강현실 영상을 만들어 내기 위한 기준체가 될 수 있다. 다시 말해서, 웨이퍼(21)에 부착된 제 2 마커(20)의 움직임 정보에 기초하여 환자(1)의 상악 움직임이 추정될 수 있고, 추정된 움직임에 따라 증강현실 영상이 생성될 수 있다. In addition, the
또한, 제 3 마커(30)는 환자(1)의 악골의 움직임 추적을 위하여 기준이 될 지점(예컨대, 기준지점)의 지정(pointing)을 위하여 사용될 수 있다. 제 3 마커(30)의 일 단부는 뾰족한 형상으로 환자의 구강 내 소정의 지점(예컨대, 중절치 사이 지점 등)을 지정에 활용될 수 있다. The
도 5는 본 발명의 일 실시예에 따른 마커의 좌표 정보 획득의 일 예이다. 5 is an example of coordinate information acquisition of a marker according to an embodiment of the present invention.
환자(1)와 제 1 마커(10)와의 관계는 좌표계설정부(300)에 의하여 정의된 좌표계에 기초하여 도 5에서와 같이 결정될 수 있다. 또한, 환자(1)와 제 2 마커(20)와의 관계도 정의된 좌표계에 기초하여 결정될 수 있다. 다시 말해서, 환자에 대하여 정의된 좌표계(예컨대, {p})의 중심점에 기초하여 제 1 마커(10)의 좌표 값이 결정될 수 있고, 제 2 마커(20)의 좌표 값도 결정될 수 있다. 마커들(10, 20, 30)의 최초 좌표 값 결정은 등록(registration)이라고 지칭될 수 있다. 마커들(10, 20, 30)은 제 1 마커(10), 제 3 마커(30), 제 2 마커(20)의 순서로 시스템(1000) 상에 등록될 수 있다. 다시 말해서, 환자(1)의 이마에 인접하여 배치된 제 1 마커(10)가 마커인식부(400)를 통하여 인식되어 좌표추정부(500)를 통하여 등록(예컨대, 마커인식부(400)를 통하여 획득된 영상에 따라 좌표가 추정되는 과정)된 후, 제 3 마커(30)에 기초하여 환자(1)의 구강 내의 소정의 지점이 등록되고, 그리고 나서 제 2 마커(20)가 부착된 웨이퍼(21)가 환자(1)의 구강에 접촉된 상태로 제 2 마커(20)가 등록될 수 있다. The relationship between the
도 6은 본 발명의 일 실시예에 따른 마커인식부의 일 예이다. 6 is an example of a marker recognition unit according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 마커인식부(400)는 상이한 패턴이 표시된 각각의 마커에 대한 영상을 획득하기 위한 듀얼(dual) 카메라일 수 있다. 또한, 마커인식부(400)는 싱글 카메라일 수도 있다. 본 발명의 일 실시에에 따른 시스템(1000)은 마커를 이용하여 환자의 두경부, 악골 등의 위치를 실시간으로 파악할 수 있고, 이러한 위치의 실시간 파악을 위하여 마커인식부(400)를 통하여 획득된 영상이 활용될 수 있다. 다시 말해서, 마커인식부(400)를 통하여 촬영된 영상은 증강현실 영상을 생성하기 위한 기준영상으로 활용될 수 있다. The
본 발명의 일 실시예에 따르면, 마커인식부(400)는 나란히 배열된 복수개의 촬영 모듈을 포함하는 카메라일 수 있고, 바람직하게는 듀얼 카메라일 수 있다. 다시 말해서, 마커인식부(400)는 수평적 또는 수직적으로 배열된 복수개의 촬영 모듈들의 결합체일 수 있다. 듀얼 카메라의 동작은 일반적인 듀얼 카메라의 동작 원리와 동일할 수 있다.According to an embodiment of the present invention, the
도 7은 본 발명의 일 실시예에 따른 기준 지점 지정 과정을 나타낸 화면의 일 예이고, 도 8은 본 발명의 일 실시예에 따라 지정된 기준 지점을 나타낸다. 또한, 도 9a는 본 발명의 일 실시예에 따른 마커를 이용한 증강현실 제공의 일 예이고, 도 9b는 본 발명의 일 실시예에 따른 악골의 추정된 움직임 정보 제공의 일 예이다.FIG. 7 illustrates an example of a reference point designation process according to an exemplary embodiment of the present invention, and FIG. 8 illustrates reference points designated according to an exemplary embodiment of the present invention. FIG. 9A is an example of providing an augmented reality using a marker according to an embodiment of the present invention, and FIG. 9B is an example of providing estimated motion information of a jaw according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 제 3 마커(MR)(30)는 환자의 악골의 움직임 추적의 기준이 되는 지점의 지정(pointing)을 위하여 사용 가능하고, 지정된 지점에는 도 8에서와 같이 환자의 중절치 사이 지점(P1), 우측 송곳니 지점(P2), 좌측 송곳니 지점(P3), 우측 제1대구치 지점(P4) 및 좌측 제1대구치 지점(P5)이 포함될 수 있다. 다만, 도 8의 지점은 설명을 위한 예시적인 것으로, 기준지점의 지정은 수술 부위, 골 절단 부위 등에 의하여 상이하게 결정될 수 있다. 도 7에서와 같이 사용자는 제 3 마커(30)를 이용하여 기준지점을 직접 지정할 수 있다. 또한 이러한 기준지점은 수술 부위, 골 절단 부위 등에 기초하여 미리 결정되어 있을 수도 있다. 지정된 지점에 대한 정보(예컨대, 좌표 값)는 도 7에서와 같이 화면에 표시될 수 있다. The third marker (MR) 30 according to an embodiment of the present invention can be used for pointing a point that is a reference point for tracking movement of the patient's jaw, A midpoint value P1, a right canine point P2, a left canine point P3, a right first molar point P4, and a left first molar point P5. However, the points in Fig. 8 are exemplary for explanation, and the designation of the reference point may be determined differently depending on the operation site, the osteotomized site, and the like. As shown in FIG. 7, the user can designate the reference point directly using the
본 발명의 일 실시예에 따른 좌표추정부(500)에서는 환자의 악골의 움직임과 상응하게 움직일 수 있는 웨이퍼(21) 상에서의 지정된 지점과 상응하는 지점의 좌표의 변화를 제 2 마커(20)에 기초하여 추정하고, 좌표의 변화는 지정된 지점으로부터의 이동거리 값(d)으로 추정될 수 있다. 각 지점의 이동거리는 상이할 수 있다. In the coordinate estimating
본 발명의 일 실시예에 따른 좌표추정부(500)에 의하여 추정된 좌표에 대한 정보는 이동거리 값의 범위에 따라 상이한 컬러로 디스플레이부(700)를 통하여 디스플레이되고, 이동거리 값이 0 이상 1 밀리미터 이하라면 녹색, 1초과 1.5 밀리미터 이하라면 노란색, 1.5초과 2밀리미터 이하라면 주황색, 2초과부터 이동거리 값의 한계값까지의 범위에서는 적색으로 좌표에 대한 정보가 디스플레이될 수 있다. 도 9b에서와 같이 이동거리 값에 따라 움직임 정보가 컬러로 표현될 수 있다. 사용자는 표현된 컬러를 통하여 이동량을 직관적으로 파악할 수 있다. 도 9b에서 distance는 웨이퍼의 움직임에 따른 기준지점(예컨대, 초기위치)으로부터 각각의 지점들의 이동 거리를 나타내고, offset은 3차원 공간 상에서 각각의 지점들이 x축, y축, z축의 각각의 방향으로 이동한 거리를 나타낸다.Information on coordinates estimated by the coordinate estimating
또한, 9a에서와 같이 기준지점과 제 2 마커(20)에 의하여 추정된 움직임에 따라 증강현실 영상(VI_2)이 생성될 수 있다. 생성된 증강현실 영상(VI_2)은 도 11과 관련하여 후술되는 바와 같이 환자의 두개골의 증강현실 영상(VI_1)과 함께 디스플레이부(700)를 통하여 디스플레이될 수 있다. Also, as in 9a, the augmented reality image VI_2 can be generated according to the movement estimated by the reference point and the
도 10은 본 발명의 일 실시예에 따른 환자의 악골의 움직임 추정이 반영된 증강현실(AR) 제공 방법을 나타낸 순서도이다. FIG. 10 is a flowchart illustrating a method for providing an augmented reality (AR) in which a motion estimation of a jaw of a patient is reflected according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 환자의 악골의 움직임 추정이 반영된 증강현실(AR) 제공 방법은, 환자의 두경부에 대한 CT 영상을 획득하는 단계(S100), 획득된 CT 영상을 3차원 영상으로 변환하는 단계(S200), 변환된 영상에 포함된 복수개의 점들을 이용하여 환자에 대한 좌표계를 정의하는 단계(S300), 환자의 악골의 움직임 추정을 위한 환자에 부착된 복수개의 마커들을 인식하는 단계(S400), 정의된 좌표계에 기초하여 인식된 복수개의 마커들 각각에 대한 좌표를 추정하는 단계(S500), 추정된 좌표에 대한 악골의 증강현실 영상을 생성하는 단계(S600) 및 생성된 증강현실 영상을 디스플레이하는 단계(S700)를 포함할 수 있다.A method of providing an AR with a motion estimation of a jaw of a patient according to an embodiment of the present invention includes acquiring a CT image of a head and a neck of a patient (S100), converting the obtained CT image into a 3D image (S200), defining a coordinate system for the patient using a plurality of points included in the converted image (S300), recognizing a plurality of markers attached to the patient for motion estimation of the patient's jaw S400), estimating coordinates of each of the plurality of recognized markers based on the defined coordinate system (S500), generating a jugular augmented reality image for the estimated coordinates (S600), and generating the generated augmented reality image (Step S700).
도 11은 본 발명의 일 실시예에 따라 제공되는 환자의 추정된 악골의 움직임이 반영된 증강현실(AR) 화면의 일 예이다.FIG. 11 is an example of an augmented reality (AR) screen reflecting the estimated movement of the jaws of a patient provided according to an embodiment of the present invention.
환자의 두개골의 증강현실 영상(VI_1)과 제 2 마커(20)에 기초한 증강현실 영상(VI_2)은 디스플레이부(700)를 통하여 함께 출력될 수 있다. 본 발명의 일 실시예에 따라 실시간으로 추정된 환자의 악골의 움직임은 VI_2로서, 증강현실 영상으로 나타날 수 있고, VI_1과 VI_2가 동시에 제공됨에 따라 사용자는 악골의 현재 위치 및 목표 위치 등을 직관적으로 빠르고 정확하게 파악할 수 있다.The augmented reality image VI_1 of the skull of the patient and the augmented reality image VI_2 based on the
또한, 사용자가 웨이퍼를 움직임에 따라 이러한 움직임에 상응하게 이동되어 증강현실 영상(VI_2)이 디스플레이부(700)를 통하여 출력될 수 있다. 사용자는 웨이퍼를 움직여 가며 악골의 위치가 어떻게 변화하는지를 실시간으로 추적해가며 파악할 수 있다. 다시 말해서, 악골의 이동 정보가 수치뿐만 아니라 컬러로 표시됨에 따라 사용자는 수술 대상이 될 악골과 상응하는 웨이퍼 상의 증강현실 영상(VI_2)의 움직임 모니터링을 통하여 악골의 움직임 및 위치를 예상할 수 있고, 악골의 정위치(예컨대, 수술 최종 위치)를 빠르고 정확하게 탐색해낼 수 있다.Also, as the user moves the wafer, the augmented reality image VI_2 may be output through the
본 발명의 일 실시예에 따른 방법과 관련하여서는 전술한 시스템에 대한 내용이 적용될 수 있다. 따라서, 방법과 관련하여, 전술한 시스템에 대한 내용과 동일한 내용에 대하여는 설명을 생략하였다.With respect to the method according to an embodiment of the present invention, the contents of the above-described system can be applied. Therefore, the description of the same contents as the above-mentioned system is omitted in connection with the method.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. One embodiment of the present invention may also be embodied in the form of a recording medium including instructions executable by a computer, such as program modules, being executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes any information delivery media, including computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.
1: 환자
10: 제 1 마커(MP)
20: 제 2 마커(MM)
21: 웨이퍼
30: 제 3 마커(MR)
100: 영상획득부
200: 영상변환부
300: 좌표계설정부
400: 마커인식부
410: 제 1 촬영 모듈
420: 제 2 촬영모듈
500: 좌표추정부
600: 증강현실 영상생성부
700: 디스플레이부
1000: 환자의 악골의 움직임 추정이 반영된 증강현실시스템
2000: 서버1: patient
10: first marker (M P ) 20: second marker (M M )
21: wafers 30: a third marker (M R)
100: image acquisition unit 200: image conversion unit
300: coordinate system setting unit 400: marker recognition unit
410: first photographing module 420: second photographing module
500: Coordinate estimation unit 600: Augmented reality image generation unit
700:
1000: augmented reality system reflecting the motion estimation of the patient's jaw
2000: Server
Claims (10)
상기 환자의 두경부에 대한 CT 영상을 획득하기 위한 영상획득부;
상기 획득된 CT 영상을 3차원 영상으로 변환하기 위한 영상변환부;
상기 변환된 영상에 포함된 복수개의 점들을 이용하여 상기 환자에 대한 좌표계를 정의하기 위한 좌표계설정부;
상기 환자의 악골의 움직임 추정을 위한 상기 환자에 부착된 복수개의 마커들;
상기 환자에 부착된 복수개의 마커들을 인식하기 위한 마커인식부;
상기 정의된 좌표계에 기초하여 상기 인식된 복수개의 마커들 각각에 대한 좌표를 추정하기 위한 좌표추정부;
상기 추정된 좌표에 대한 악골의 증강현실 영상을 생성하기 위한 증강현실 영상생성부; 및
상기 생성된 증강현실 영상을 디스플레이하기 위한 디스플레이부를 포함하는 것을 특징으로 하는 환자의 악골의 움직임 추정이 반영된 증강현실 시스템.
An Augmented Reality (AR) system that reflects the motion estimation of a patient's jaw,
An image obtaining unit for obtaining a CT image of the head and the neck of the patient;
An image converter for converting the obtained CT image into a three-dimensional image;
A coordinate system setting unit for defining a coordinate system for the patient using a plurality of points included in the converted image;
A plurality of markers attached to the patient for motion estimation of the jaw of the patient;
A marker recognition unit for recognizing a plurality of markers attached to the patient;
A coordinate estimator for estimating coordinates of each of the recognized plurality of markers based on the defined coordinate system;
An augmented reality image generation unit for generating an augmented reality image of a jaw relative to the estimated coordinates; And
And a display unit for displaying the generated augmented reality image.
상기 영상변환부에서는 DICOM(Digital Imaging and Communications in Medicine) 데이터를 이용하여 환자의 두경부에 대한 CT 영상을 3차원 영상으로 변환하는 것을 특징으로 하는 환자의 악골의 움직임 추정이 반영된 증강현실 시스템.
The method according to claim 1,
Wherein the image conversion unit converts the CT image of the head and the neck of the patient into a three-dimensional image using DICOM (Digital Imaging and Communications in Medicine) data.
상기 좌표계설정부에서는 상기 3차원 영상에서 3개 이상의 점들을 이용하여 상기 환자에 대한 프랑크포트 수평(Frankfort Horizontal, FH)면을 생성하고, 비근점(Nasion)과 기저점(Basion)을 이용하여 정중시상 기준(midsagittal reference, MSR)면을 생성하며, 상기 생성된 두 면이 교차하는 중심 지점에 상기 환자에 대한 좌표계를 정의하는 것을 특징으로 하는 환자의 악골의 움직임 추정이 반영된 증강현실 시스템.
3. The method of claim 2,
Wherein the coordinate system setting unit generates a Frankfort Horizontal (FH) plane for the patient using three or more points in the 3D image, and generates a Frankfort Horizontal (FH) plane using the Nasion and Basion Wherein a midsagittal reference (MSR) plane is defined and a coordinate system for the patient is defined at a center point where the two generated faces cross each other.
상기 복수개의 마커들은 각각의 면에 상이한 패턴이 표시된 다각형의 형태이고, 상기 환자의 이마에 인접하여 배치 가능한 제 1 마커(MP), 상기 환자의 치아의 형상을 따라 제작된 웨이퍼에 부착 가능한 제 2 마커(MM), 상기 환자의 악골의 움직임 추적의 기준지점의 지정(pointing)을 위한 제 3 마커(MR)인 것을 특징으로 하는 환자의 악골의 움직임 추정이 반영된 증강현실 시스템.
The method according to claim 1,
Wherein the plurality of markers are in the form of polygons each having a different pattern on their respective sides, the first marker (M P ) being arranged adjacent to the patient's forehead, the second markers 2 markers M M and a third marker M R for pointing the reference point of the movement of the patient's jaws in the augmented reality system.
상기 마커인식부는 상기 상이한 패턴이 표시된 각각의 마커에 대한 영상을 획득하기 위한 듀얼(dual) 카메라인 것을 특징으로 하는 환자의 악골의 움직임 추정이 반영된 증강현실 시스템.
5. The method of claim 4,
Wherein the marker recognition unit is a dual camera for acquiring images of the respective markers displayed with the different patterns.
상기 제 3 마커(MR)는 상기 환자의 악골의 움직임 추적의 기준이 되는 지점의 지정(pointing)을 위하여 사용 가능하고, 상기 지정된 지점에는 상기 환자의 중절치 사이 지점, 우측 송곳니 지점, 좌측 송곳니 지점, 우측 제1대구치 지점 및 좌측 제1대구치 지점이 포함되는 것을 특징으로 하는 환자의 악골의 움직임 추정이 반영된 증강현실 시스템.
5. The method of claim 4,
The third marker M R may be used for pointing the reference point of the movement of the jaw of the patient. The designated point may include a point between the central incisor of the patient, a right canine point, A right first molar location, and a left first molar location.
상기 좌표추정부에서는 상기 환자의 악골의 움직임과 상응하게 움직일 수 있는 상기 웨이퍼 상에서의 상기 지정된 지점과 상응하는 지점의 좌표의 변화를 상기 제 2 마커(MM)에 기초하여 추정하고, 상기 좌표의 변화는 상기 지정된 지점으로부터의 이동거리 값으로 추정되는 것을 특징으로 하는 환자의 악골의 움직임 추정이 반영된 증강현실 시스템.
The method according to claim 6,
Wherein the coordinate estimating unit estimates, based on the second marker (M M ), a change in coordinates of a point corresponding to the designated point on the wafer that can move in accordance with the movement of the patient's jaw, Wherein the change is estimated as a movement distance value from the designated point.
상기 좌표추정부에 의하여 추정된 좌표에 대한 정보는 상기 이동거리 값의 범위에 따라 상이한 컬러로 상기 디스플레이부를 통하여 디스플레이되고,
상기 이동거리 값이 0 이상 1 밀리미터 이하라면 녹색, 1초과 1.5 밀리미터 이하라면 노란색, 1.5초과 2밀리미터 이하라면 주황색, 2초과부터 이동거리 값의 한계값까지의 범위에서는 적색으로 상기 좌표에 대한 정보가 디스플레이되는 것을 특징으로 하는 환자의 악골의 움직임 추정이 반영된 증강현실 시스템.
8. The method of claim 7,
Information on coordinates estimated by the coordinate estimating unit is displayed through the display unit in a different color according to the range of the movement distance value,
If the moving distance value is equal to or greater than 0 and less than or equal to 1 millimeter, then green; if less than 1.5 millimeters, yellow; if less than 1.5 and greater than 2 millimeters, orange; Wherein the motion estimation of the jaw of the patient is reflected.
상기 환자의 두경부에 대한 CT 영상을 획득하는 단계;
상기 획득된 CT 영상을 3차원 영상으로 변환하는 단계;
상기 변환된 영상에 포함된 복수개의 점들을 이용하여 상기 환자에 대한 좌표계를 정의하는 단계;
상기 환자의 악골의 움직임 추정을 위한 상기 환자에 부착된 복수개의 마커들을 인식하는 단계;
상기 정의된 좌표계에 기초하여 상기 인식된 복수개의 마커들 각각에 대한 좌표를 추정하는 단계;
상기 추정된 좌표에 대한 악골의 증강현실 영상을 생성하는 단계; 및
상기 생성된 증강현실 영상을 디스플레이하는 단계를 포함하는 것을 특징으로 하는 환자의 악골의 움직임 추정이 반영된 증강현실 제공 방법.
A method for providing an augmented reality (AR) in which a motion estimation of a jaw of a patient is reflected,
Obtaining a CT image of the head and the neck of the patient;
Converting the obtained CT image into a three-dimensional image;
Defining a coordinate system for the patient using a plurality of points included in the transformed image;
Recognizing a plurality of markers attached to the patient for motion estimation of the jaw of the patient;
Estimating coordinates for each of the recognized plurality of markers based on the defined coordinate system;
Generating an augmented reality image of a jaw corresponding to the estimated coordinates; And
And displaying the generated augmented reality image, wherein the augmented reality image is displayed on the display unit.
A computer program stored in a medium for execution in accordance with the method of claim 9 in combination with hardware.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160037671A KR101831514B1 (en) | 2016-03-29 | 2016-03-29 | The augmented reality system reflected estimation of movement of maxillary |
PCT/KR2017/003037 WO2017171295A1 (en) | 2016-03-29 | 2017-03-21 | Augmented reality system in which estimation of jaw movement of patient is reflected and augmented reality providing method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160037671A KR101831514B1 (en) | 2016-03-29 | 2016-03-29 | The augmented reality system reflected estimation of movement of maxillary |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170111707A true KR20170111707A (en) | 2017-10-12 |
KR101831514B1 KR101831514B1 (en) | 2018-02-26 |
Family
ID=59966108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160037671A KR101831514B1 (en) | 2016-03-29 | 2016-03-29 | The augmented reality system reflected estimation of movement of maxillary |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR101831514B1 (en) |
WO (1) | WO2017171295A1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190066937A (en) | 2017-12-06 | 2019-06-14 | 조선대학교산학협력단 | Surgery navigation program stored in computer-readable storage medium |
KR20200104004A (en) * | 2019-02-26 | 2020-09-03 | 오스템임플란트 주식회사 | Neural tube line detecting method using medical image processing and simulation and apparatus thereof |
KR20210118329A (en) * | 2020-03-20 | 2021-09-30 | 부산대학교 산학협력단 | Method and System for Determining Soft-Tissue Reference Point and Method and System for Predicting Corrected Soft-Tissue Reference Point after Sugery |
KR20210118328A (en) * | 2020-03-20 | 2021-09-30 | 부산대학교 산학협력단 | Method and System for Determining Reference Point for Three-Dimensional Cephalometry |
WO2021201434A1 (en) * | 2020-04-01 | 2021-10-07 | 고려대학교 산학협력단 | Method and device for providing surgical guide using augmented reality |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112113502B (en) * | 2020-09-10 | 2022-08-05 | 杭州三坛医疗科技有限公司 | Fracture block positioning method and device |
CN113470168B (en) * | 2021-06-30 | 2024-05-14 | 福建医科大学附属第一医院 | Multi-dimensional jawbone virtual-real registration error detection device and method based on augmented reality |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100608997B1 (en) * | 2002-08-26 | 2006-08-09 | 한국과학기술연구원 | Apparatus and method for measuring jaw motion |
DE10250005B4 (en) * | 2002-10-25 | 2009-03-19 | Sirona Dental Systems Gmbh | Bite device for use with a panoramic X-ray device |
KR20100119109A (en) * | 2009-04-30 | 2010-11-09 | 주식회사 서울씨앤제이 | System for radiotherapy image generating |
KR20140112207A (en) * | 2013-03-13 | 2014-09-23 | 삼성전자주식회사 | Augmented reality imaging display system and surgical robot system comprising the same |
-
2016
- 2016-03-29 KR KR1020160037671A patent/KR101831514B1/en active IP Right Grant
-
2017
- 2017-03-21 WO PCT/KR2017/003037 patent/WO2017171295A1/en active Application Filing
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190066937A (en) | 2017-12-06 | 2019-06-14 | 조선대학교산학협력단 | Surgery navigation program stored in computer-readable storage medium |
KR20200104004A (en) * | 2019-02-26 | 2020-09-03 | 오스템임플란트 주식회사 | Neural tube line detecting method using medical image processing and simulation and apparatus thereof |
KR20210118329A (en) * | 2020-03-20 | 2021-09-30 | 부산대학교 산학협력단 | Method and System for Determining Soft-Tissue Reference Point and Method and System for Predicting Corrected Soft-Tissue Reference Point after Sugery |
KR20210118328A (en) * | 2020-03-20 | 2021-09-30 | 부산대학교 산학협력단 | Method and System for Determining Reference Point for Three-Dimensional Cephalometry |
WO2021201434A1 (en) * | 2020-04-01 | 2021-10-07 | 고려대학교 산학협력단 | Method and device for providing surgical guide using augmented reality |
Also Published As
Publication number | Publication date |
---|---|
KR101831514B1 (en) | 2018-02-26 |
WO2017171295A1 (en) | 2017-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101831514B1 (en) | The augmented reality system reflected estimation of movement of maxillary | |
CN109419524B (en) | Control of medical imaging system | |
Chapuis et al. | A new system for computer-aided preoperative planning and intraoperative navigation during corrective jaw surgery | |
Schendel et al. | Three-dimensional imaging and computer simulation for office-based surgery | |
TWI396523B (en) | System for facilitating dental diagnosis and treatment planning on a cast model and method used thereof | |
JP7202737B2 (en) | Tracking method and apparatus for dental implant navigation surgery | |
Nakasima et al. | Three-dimensional computer-generated head model reconstructed from cephalograms, facial photographs, and dental cast models | |
Ahn et al. | Tracking accuracy of a stereo camera-based augmented reality navigation system for orthognathic surgery | |
Schendel et al. | 3D orthognathic surgery simulation using image fusion | |
Jiang et al. | Registration technology of augmented reality in oral medicine: A review | |
US11633264B2 (en) | Determining and tracking movement | |
JP2002528215A (en) | Tooth image processing method and system | |
EP3689218B1 (en) | Method and system for guiding an intra-oral scan | |
Schendel et al. | Image fusion in preoperative planning | |
Donaldson et al. | Three-dimensional virtual surgical planning (3D-VSP) in orthognathic surgery: Advantages, disadvantages and pitfalls | |
Lee et al. | Virtual skeletal complex model-and landmark-guided orthognathic surgery system | |
Kau et al. | Update on cone beam technology and orthodontic analysis | |
US11890148B2 (en) | System and method for dynamic augmented reality imaging of an antomical site | |
Fushima et al. | Real-time orthognathic surgical simulation using a mandibular motion tracking system | |
Otake et al. | Real‐time mandibular movement analysis system using four‐dimensional cranial bone model | |
CN113226186B (en) | Device for visualizing in real time the movement of the lower jaw relative to the upper jaw in the craniomaxillofacial region of a patient in dental diagnosis | |
Tomaka et al. | The dynamics of the stomatognathic system from 4D multimodal data | |
Kuo et al. | Optical tracking-based model surgery for orthognathic surgical planning using a quantifying evaluation method | |
KR102247545B1 (en) | Surgical Location Information Providing Method and Device Thereof | |
EP4328861A2 (en) | Jaw movements data generation apparatus, data generation method, and data generation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |