WO2022158804A1 - 컴퓨터 단층촬영 영상을 활용한 3차원 구강 스캔 데이터 정합 장치 및 방법 - Google Patents

컴퓨터 단층촬영 영상을 활용한 3차원 구강 스캔 데이터 정합 장치 및 방법 Download PDF

Info

Publication number
WO2022158804A1
WO2022158804A1 PCT/KR2022/000826 KR2022000826W WO2022158804A1 WO 2022158804 A1 WO2022158804 A1 WO 2022158804A1 KR 2022000826 W KR2022000826 W KR 2022000826W WO 2022158804 A1 WO2022158804 A1 WO 2022158804A1
Authority
WO
WIPO (PCT)
Prior art keywords
depth map
frame
scan
scan data
image
Prior art date
Application number
PCT/KR2022/000826
Other languages
English (en)
French (fr)
Inventor
정홍
이성민
송보현
Original Assignee
주식회사 에이치디엑스윌
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이치디엑스윌 filed Critical 주식회사 에이치디엑스윌
Priority to US18/262,229 priority Critical patent/US20240065816A1/en
Priority to EP22742780.4A priority patent/EP4287118A1/en
Priority to CN202280010837.7A priority patent/CN116830154A/zh
Publication of WO2022158804A1 publication Critical patent/WO2022158804A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0035Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0073Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by tomography, i.e. reconstruction of 3D images from 2D projections
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • A61B6/512Intraoral means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10008Still image; Photographic image from scanner, fax or copier
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders

Definitions

  • the present invention relates to a three-dimensional oral scan data matching device and method.
  • 3D computed tomography As the digital dentistry market expands, in the dental field including orthodontics and implants, 3-dimensional (3D) computed tomography (CT) images and The utility of 3D oral scan data is high.
  • the scan data has the advantage of having higher tooth crown precision than the CT image, and the CT image has the advantage that root information can be known, so the two images are often used together.
  • the CT image is a reconstructed image of the entire tooth, geometric distortion does not occur
  • the oral scan data is a reconstructed image obtained by registering several pieces of data obtained by taking the entire oral cavity locally. distortion occurs. This creates a geometric difference between the two images.
  • the three-dimensional intraoral scan data is generated by matching point clouds included in a plurality of frames generated by locally scanning each part of the oral cavity with a scanner into one in a three-dimensional coordinate system.
  • it is necessary to calculate the relative position of the point cloud generated for each frame by obtaining the relative rotation and movement amount of the scan camera.
  • the error between the frame pairs is small, but the errors for several frames are accumulated and geometric distortion occurs in the restored oral model.
  • Patent Document 1 Korean Patent No. 10-1911327
  • An object of the present invention is to provide a three-dimensional intraoral scan data matching method and apparatus for reducing geometric distortion of a scan model.
  • a three-dimensional intraoral scan data matching method comprises: generating a depth map of a CT frame from a computed tomography (CT) image using information on one scan frame of the scan data; determining depth map coordinate difference information between the depth map of the CT frame and the depth map of the scan frame; modifying the depth map of the scan frame based on the depth map coordinate difference information; and reconstructing a three-dimensional intraoral scan model based on the modified depth map of the scan frame.
  • CT computed tomography
  • the depth map coordinate difference information includes a depth map rotation matrix indicating a degree of rotation between the depth map of the CT frame and the depth map of the scan frame, and a parallel movement between the depth map of the CT frame and the depth map of the scan frame. It may include a depth map translation vector indicating the degree of .
  • the depth map rotation matrix and the depth map translation vector may minimize a sum of a difference between the depth map of the CT frame and the depth map of the scan frame.
  • the three-dimensional intraoral scan data matching method may include: determining image coordinate difference information between the scan data and the CT image; and matching the coordinate system of the scan data and the CT image based on the information on the image coordinate difference.
  • the image coordinate difference information may include an image rotation matrix indicating a degree of rotation between the scan data and the CT image and an image translation vector indicating a degree of translation between the scan data and the CT image.
  • the image rotation matrix and the image translation vector may minimize a sum of a difference between the scan data and the CT image.
  • the three-dimensional intraoral scan data matching method includes: acquiring the scan data of the patient's mouth through an oral scanner; and acquiring a CT image of the patient's mouth through a CT device.
  • the three-dimensional intraoral scan model may be reconstructed by merging point clouds for the modified depth map of a plurality of frames of the scan data in three dimensions and averaging the common parts.
  • the information on the scan frame may include information on a camera position and direction of the scan frame.
  • the size of the depth map of the CT frame may be the same as the size of the depth map of the scan frame.
  • the method may be performed when the instructions of the computer program are executed.
  • the 3D intraoral scan data matching apparatus is a CT image depth for generating a depth map of a CT frame from a computed tomography (CT) image by using information on one scan frame of the scan data.
  • map generator a depth map coordinate difference information determining unit that determines depth map coordinate difference information between the depth map of the CT frame and the depth map of the scan frame; a depth map correction unit configured to modify a depth map of the scan frame based on the depth map coordinate difference information; and an oral scan model restoration unit for reconstructing a three-dimensional oral scan model based on the modified depth map of the scan frame.
  • the depth map coordinate difference information includes a depth map rotation matrix indicating a degree of rotation between the depth map of the CT frame and the depth map of the scan frame, and a parallel movement between the depth map of the CT frame and the depth map of the scan frame. It may include a depth map translation vector indicating the degree of .
  • the depth map rotation matrix and the depth map translation vector may minimize a sum of a difference between the depth map of the CT frame and the depth map of the scan frame.
  • the three-dimensional intraoral scan data matching apparatus may be included in the intraoral scanner.
  • the three-dimensional intraoral scan data matching apparatus may be included in a computed tomography (CT) apparatus.
  • CT computed tomography
  • FIG. 2 is a block diagram of a three-dimensional intraoral scan data matching apparatus according to an embodiment of the present invention.
  • FIG. 3 is a flowchart showing the operation of the three-dimensional intraoral scan data matching apparatus according to an embodiment of the present invention.
  • FIG. 4 is a view showing the operation process of the three-dimensional oral scan data matching device according to an embodiment of the present invention through an oral image.
  • FIG. 5 shows an actual frame depth map and a CT image depth map according to an embodiment of the present invention.
  • the following describes a three-dimensional intraoral scan data matching device according to an embodiment of the present invention with reference to FIG. 2 .
  • FIG. 2 is a block diagram of a three-dimensional intraoral scan data matching apparatus according to an embodiment of the present invention.
  • the three-dimensional intraoral scan data matching apparatus 100 includes a scan data acquisition unit 110 , a CT image acquisition unit 120 , an image coordinate difference information determining unit 130 , and a coordinate matching unit 140 . ), a CT image depth map generator 150 , a depth map coordinate difference information determiner 160 , a depth map corrector 170 , and an oral scan model restorer 180 .
  • Figure 3 is a flowchart showing the operation of the three-dimensional oral scan data matching device according to an embodiment of the present invention
  • Figure 4 is showing the operation process of the three-dimensional oral scan data matching device according to an embodiment of the present invention through an oral image It is a drawing.
  • the scan data acquisition unit 110 acquires the scan data of the patient's mouth through the oral scanner 10 (S101).
  • the scan data may include a plurality of scan frames.
  • the scan frame is acquired through a scanner, it is also referred to as an actual frame.
  • the CT image acquisition unit 120 acquires a CT image of the patient's mouth through the CT device 20 ( S103 ).
  • the image coordinate difference information determining unit 130 determines information about the coordinate difference between the scan data and the CT image (S105).
  • Information on the coordinate difference between the scan data and the CT image can be determined through an Iterative Closest Point (ICP) algorithm as shown in Equation 1, and a rotation matrix that minimizes error E(R,t) It may include (R) and a translation vector (t).
  • the error E(R,t) represents the sum of the difference between the point values determined by the rotation matrix (R) and the translation vector (t), where the difference between the point values is the point value of the scan data and the point value of the CT image. represents the difference in
  • N S represents the total number of points in the scan data
  • N C represents the total number of points in the CT image.
  • i denotes the position of a point in the scan data
  • s i denotes the value of the point in position i in the scan data
  • j denotes the position of a point in the CT image
  • c j denotes the position of the point in position j in the CT image.
  • represents a value. represents the weight, and has a value of 1 when the distance between s i and c j is the closest, and has a value of 0 otherwise.
  • the coordinate matching unit 140 matches the coordinate systems of the scan data and the CT image by matching the scan data and the CT image based on the information on the coordinate difference between the scan data and the CT image ( S107 ).
  • the CT image depth map generator 150 generates a depth map of the plurality of CT frames from the CT image by using the camera position and direction of each of the plurality of frames obtained in the process of restoring the scan data ( S109 ).
  • the size of the depth map of the CT image may be the same as the size of a real frame depth map of the scan data.
  • FIG. 5 shows an actual frame depth map and a CT image depth map according to an embodiment of the present invention.
  • a scan frame depth map 503 may be generated from a scan frame 501 .
  • a CT frame depth map 507 may be generated from the CT frame 505 corresponding to the scan frame 501 based on the camera position and direction of the scan frame 501 . Meanwhile, when the scan frame 501 and the CT frame 505 are matched, a frame 509 corresponding to the scan camera direction D n may be generated.
  • the difference in the position and direction of the CT frame depth map and the actual frame depth map means that there is an error in the camera position and direction of each scan frame obtained in the scan data restoration process. Therefore, the embodiment of the present invention corrects the difference in position and direction between the depth map of the CT image and the actual frame depth map by using ICP.
  • the depth map coordinate difference information determiner 160 determines information on the coordinate difference between the depth map of the CT image and the depth map of the actual frame ( S111 ).
  • Information on the coordinate difference between the depth map of the CT image and the depth map of the actual frame can be determined through the Iterative Closest Point (ICP) algorithm as shown in Equation 2, and the nth actual frame that minimizes the error E n It may include a rotation matrix (R n ) and a translation vector (t n ) for .
  • the error E n represents the sum of the difference between the point values determined by the rotation matrix (R n ) and the translation vector (t n ), where the difference between the point values is the point value of the depth map of the actual frame and the depth of the CT frame. It represents the difference in the point values of the map.
  • the depth map of the nth real frame represents the depth map of the nth CT image, denotes the total number of pixels in the depth map of the nth real frame, denotes the total number of pixels in the depth map of the nth CT frame.
  • the depth value of one point in the CT image depth map denotes the depth value of one point of the scan data depth map.
  • the weight Wow It has a value of 1 when the distance between them is closest, and a value of 0 otherwise.
  • the depth map correction unit 170 corrects the depth map of the actual frame based on the depth map coordinate difference information (S113).
  • the actual frame depth map correction unit 160 as shown in Equation 3, based on the rotation matrix (R n ) and the translation vector (t n ), the depth map ( ) to generate a modified depth map (D n s' ).
  • the oral scan model restoration unit 180 restores the three-dimensional oral scan model by merging the point clouds for the corrected depth map of the actual frame in three dimensions and averaging the common parts (S115).
  • the three-dimensional intraoral scan data matching apparatus may be included as a module in a CT device or an intraoral scanner, or may be implemented as software using CT data and/or intraoral scanner data.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Epidemiology (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Pulmonology (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

CT 영상 깊이 맵 생성부, 깊이 맵 좌표 차이 정보 결정부, 깊이 맵 수정부, 및 구강 스캔 모델 복원부를 포함하는 3차원 구강 스캔 데이터 정합 장치가 개시된다. CT 영상 깊이 맵 생성부는 스캔 데이터의 한 스캔 프레임의 정보를 이용하여 컴퓨터 단층촬영(Computed Tomography, CT) 영상으로부터 CT 프레임의 깊이 맵을 생성한다. 깊이 맵 좌표 차이 정보 결정부는 상기 CT 프레임의 깊이 맵과 상기 스캔 프레임의 깊이 맵 사이의 깊이 맵 좌표 차이 정보를 결정한다. 깊이 맵 수정부는 상기 깊이 맵 좌표 차이 정보에 기초하여 상기 스캔 프레임의 깊이 맵을 수정한다. 구강 스캔 모델 복원부는 상기 스캔 프레임의 수정된 깊이 맵에 기초하여 3차원 구강 스캔 모델을 복원한다.

Description

컴퓨터 단층촬영 영상을 활용한 3차원 구강 스캔 데이터 정합 장치 및 방법
본 발명은 3차원 구강 스캔 데이터 정합 장치 및 방법에 관한 것이다.
디지털 덴티스트리(digital dentistry) 시장이 확대됨에 따라 교정 및 임플란트를 포함하는 치과 분야에서는 정확한 진단 계획 수립 및 치료를 위해 3차원(3-dimensional, 3D) 컴퓨터 단층촬영(Computed Tomography, CT) 영상과 3D 구강 스캔 데이터의 활용도가 높다. 특히, 스캔 데이터는 CT 영상보다 치아 크라운 정밀도가 높다는 장점이 있고 CT 영상은 치근 정보를 알 수 있다는 장점이 있어 두 영상이 함께 사용되는 경우가 많다. 하지만 CT 이미지는 치아 전체를 촬영하여 복원한 영상이므로 기하 왜곡이 발생하지 않는 반면에 구강 스캔 데이터는 구강 전체를 국소적으로 촬영하여 얻어지는 여러 장의 데이터를 정합하여 복원한 영상이기 때문에 정합오차로 인한 기하 왜곡이 발생한다. 이것은 두 영상간에 기하적 차이를 발생시킨다.
도 1는 스캔 데이터와 CT 영상과의 차이를 보여준다.
도 1에 도시된 바와 같이, 스캔 데이터와 CT 영상 사이에는 기하적 차이가 존재한다.
3차원 구강 스캔 데이터는, 스캐너로 구강의 각 부분을 국소적으로 스캔하여 생성되는 복수의 프레임마다 포함되는 point cloud들을 3차원 좌표계에서 하나로 정합함으로써 생성된다. 3차원 포인트 클라우드를 정합하기 위해서는, 스캔 카메라의 상대적인 회전량과 이동량을 구하여 각 frame마다 생성되는 포인트 클라우드의 상대적 위치의 계산이 필요하다. 그러나, 카메라의 위치와 방향을 구하는 과정에서 작은 오차가 발생하면 프레임 쌍(frame pair) 간 오차는 작더라도 여러 프레임에 대한 오차가 누적이 되어 복원되는 구강 모델에 기하 왜곡이 발생한다.
[선행기술문헌]
[특허문헌]
(특허문헌 1) 한국등록특허 제10-1911327호
본 발명이 이루고자 하는 기술적 과제는 스캔 모델의 기하 왜곡을 줄이는 3차원 구강 스캔 데이터 정합 방법 및 장치를 제공하는 것이다.
본 발명의 일 실시예에 따른 3차원 구강 스캔 데이터 정합 방법는, 스캔 데이터의 한 스캔 프레임의 정보를 이용하여 컴퓨터 단층촬영(Computed Tomography, CT) 영상으로부터 CT 프레임의 깊이 맵을 생성하는 단계; 상기 CT 프레임의 깊이 맵과 상기 스캔 프레임의 깊이 맵 사이의 깊이 맵 좌표 차이 정보를 결정하는 단계; 상기 깊이 맵 좌표 차이 정보에 기초하여 상기 스캔 프레임의 깊이 맵을 수정하는 단계; 및 상기 스캔 프레임의 수정된 깊이 맵에 기초하여 3차원 구강 스캔 모델을 복원하는 단계를 포함한다.
상기 깊이 맵 좌표 차이 정보는, 상기 CT 프레임의 깊이 맵과 상기 스캔 프레임의 깊이 맵 사이의 회전 정도를 나타내는 깊이 맵 회전 행렬과, 상기 CT 프레임의 깊이 맵과 상기 스캔 프레임의 깊이 맵 사이의 평행이동의 정도를 나타내는 깊이 맵 평행이동 벡터를 포함할 수 있다.
상기 깊이 맵 회전 행렬과 상기 깊이 맵 평행이동 벡터는 상기 CT 프레임의 깊이 맵과 상기 스캔 프레임의 깊이 맵 사이의 차이의 합을 최소화시킬 수 있다.
상기 3차원 구강 스캔 데이터 정합 방법은, 상기 스캔 데이터와 상기 CT 영상 사이의 영상 좌표 차이 정보를 결정하는 단계; 및 상기 영상 좌표 차이에 대한 정보에 기초하여 상기 스캔 데이터와 상기 CT 영상의 좌표계를 일치시키는 단계를 더 포함할 수 있다.
상기 영상 좌표 차이 정보는, 상기 스캔 데이터와 상기 CT 영상 사이의 회전 정도를 나타내는 영상 회전 행렬과, 상기 스캔 데이터와 상기 CT 영상 사이의 평행이동의 정도를 나타내는 영상 평행이동 벡터를 포함할 수 있다.
상기 영상 회전 행렬과 상기 영상 평행이동 벡터는 상기 스캔 데이터와 상기 CT 영상 사이의 차이의 합을 최소화시킬 수 있다.
상기 3차원 구강 스캔 데이터 정합 방법은, 구강 스캐너를 통해 환자 구강의 상기 스캔 데이터를 획득하는 단계; 및 CT 장비를 통해 환자 구강의 CT 영상을 획득하는 단계를 더 포함할 수 있다.
상기 3차원 구강 스캔 모델은 상기 스캔 데이터의 복수의 프레임의 수정된 깊이 맵에 대한 포인트 클라우드를 3차원에서 합치고 공통부분을 평균화함으로써 복원될 수 있다.
상기 스캔 프레임의 정보는 상기 스캔 프레임의 카메라 위치와 방향에 대한 정보를 포함할 수 있다.
상기 CT 프레임의 깊이 맵의 크기는 상기 스캔 프레임의 깊이 맵의 크기와 동일할 수 있다.
본 발명의 일 실시예에 따른 컴퓨터 판독 가능 매체에 저장되어 있는 컴퓨터 프로그램은, 상기 컴퓨터 프로그램의 명령이 실행될 경우, 상기 방법이 수행될 수 있다.
본 발명의 일 실시예에 따른 3차원 구강 스캔 데이터 정합 장치는, 스캔 데이터의 한 스캔 프레임의 정보를 이용하여 컴퓨터 단층촬영(Computed Tomography, CT) 영상으로부터 CT 프레임의 깊이 맵을 생성하는 CT 영상 깊이 맵 생성부; 상기 CT 프레임의 깊이 맵과 상기 스캔 프레임의 깊이 맵 사이의 깊이 맵 좌표 차이 정보를 결정하는 깊이 맵 좌표 차이 정보 결정부; 상기 깊이 맵 좌표 차이 정보에 기초하여 상기 스캔 프레임의 깊이 맵을 수정하는 깊이 맵 수정부; 및 상기 스캔 프레임의 수정된 깊이 맵에 기초하여 3차원 구강 스캔 모델을 복원하는 구강 스캔 모델 복원부를 포함한다.
상기 깊이 맵 좌표 차이 정보는, 상기 CT 프레임의 깊이 맵과 상기 스캔 프레임의 깊이 맵 사이의 회전 정도를 나타내는 깊이 맵 회전 행렬과, 상기 CT 프레임의 깊이 맵과 상기 스캔 프레임의 깊이 맵 사이의 평행이동의 정도를 나타내는 깊이 맵 평행이동 벡터를 포함할 수 있다.
상기 깊이 맵 회전 행렬과 상기 깊이 맵 평행이동 벡터는 상기 CT 프레임의 깊이 맵과 상기 스캔 프레임의 깊이 맵 사이의 차이의 합을 최소화시킬 수 있다.
본 발명의 일 실시예에 따른 3차원 구강 스캔 데이터 정합 장치는 구강 스캐너에 포함될 수 있다.
본 발명의 일 실시예에 따른 3차원 구강 스캔 데이터 정합 장치는 컴퓨터 단층촬영(Computed Tomography, CT) 장치에 포함될 수 있다.
본 발명의 실시예에 따르면, 기하 왜곡이 없는 CT 영상을 활용하여 스캐너로 부터 얻은 프레임들을 국소적으로 CT 영상과 일치시켜 복원함으로써 스캔 모델의 기하 왜곡을 줄일 수 있다.
도 1는 스캔 데이터와 CT 영상과의 차이를 보여준다.
도 2는 본 발명의 실시예에 따른 3차원 구강 스캔 데이터 정합 장치의 블록도이다.
도 3은 본 발명의 실시예에 따른 3차원 구강 스캔 데이터 정합 장치의 동작을 보여주는 흐름도이다.
도 4는 본 발명의 실시예에 따른 3차원 구강 스캔 데이터 정합 장치의 동작 과정을 구강 이미지를 통해 보여주는 도면이다.
도 5는 본 발명의 실시예에 따른 실제 프레임 깊이 맵과 CT 영상 깊이 맵을 보여준다.
이하에서는 도면을 참고하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략되었다.
다음은 도 2를 참고하여 본 발명의 실시예에 따른 3차원 구강 스캔 데이터 정합 장치를 설명한다.
도 2는 본 발명의 실시예에 따른 3차원 구강 스캔 데이터 정합 장치의 블록도이다.
도 2에 도시된 바와 같이, 3차원 구강 스캔 데이터 정합 장치(100)는 스캔 데이터 획득부(110), CT 영상 획득부(120), 영상 좌표 차이 정보 결정부(130), 좌표 매칭부(140), CT 영상 깊이 맵 생성부(150), 깊이 맵 좌표 차이 정보 결정부(160), 깊이 맵 수정부(170), 및 구강 스캔 모델 복원부(180)를 포함한다.
3차원 구강 스캔 데이터 정합 장치(100)의 각 구성 요소의 동작에 대하여는 도 3 내지 도 5를 참고하여 설명한다.
도 3은 본 발명의 실시예에 따른 3차원 구강 스캔 데이터 정합 장치의 동작을 보여주는 흐름도이고, 도 4는 본 발명의 실시예에 따른 3차원 구강 스캔 데이터 정합 장치의 동작 과정을 구강 이미지를 통해 보여주는 도면이다.
스캔 데이터 획득부(110)는 구강 스캐너(10)를 통해 환자 구강의 스캔 데이터를 획득한다(S101). 스캔 데이터는 복수의 스캔 프레임을 포함할 수 있다. 본 명세서에서, 스캔 프레임은 스캐너를 통해 획득되므로 실제 프레임이라고 표현되기도 한다.
CT 영상 획득부(120)는 CT 장비(20)를 통해 환자 구강의 CT 영상을 획득한다(S103).
영상 좌표 차이 정보 결정부(130)는 스캔 데이터와 CT 영상 사이의 좌표 차이에 대한 정보를 결정한다(S105). 스캔 데이터와 CT 영상 사이의 좌표 차이에 대한 정보는 수학식 1에서 보여지는 바와 같은 ICP (Iterative Closest Point) 알고리즘을 통해 결정될 수 있으며, 에러 E(R,t)를 최소화하는 회전 행렬(rotation matrix)(R)과 평행 이동(translation) 벡터(t)를 포함할 수 있다. 에러 E(R,t)는 회전 행렬(R)과 평행이동 벡터(t)에 의해 결정되는 포인트 값의 차이의 합을 나타내며, 여기서 포인트 값의 차이는 스캔 데이터의 포인트 값과 CT 영상의 포인트 값의 차이를 나타낸다.
[수학식 1]
Figure PCTKR2022000826-appb-img-000001
수학식 1에서, NS는 스캔 데이터의 포인트의 총수를 나타내고, NC는 CT 영상의 포인트의 총수를 나타낸다. i는 스캔 데이터의 한 포인트의 위치를 나타내고, si는 스캔 데이터의 위치 i의 포인트의 값을 나타내고, j는 CT 영상의 한 포인트의 위치를 나타내고, cj는 CT 영상의 위치 j의 포인트의 값을 나타낸다.
Figure PCTKR2022000826-appb-img-000002
는 가중치를 나타내며, si와 cj 사이의 거리가 가장 가까울 때 1의 값을 가지며, 그렇지 않을 때 0의 값을 가진다.
좌표 매칭부(140)는 스캔 데이터와 CT 영상 사이의 좌표 차이에 대한 정보에 기초하여 스캔 데이터와 CT 영상을 정합하여 스캔 데이터와 CT 영상의 좌표계를 일치시킨다(S107).
CT 영상 깊이 맵 생성부(150)는 스캔 데이터의 복원 과정에서 구해지는 복수의 프레임 각각의 카메라 위치와 방향을 이용하여 CT 영상으로부터 복수의 CT 프레임의 깊이 맵을 생성한다(S109). 이때, CT 영상의 깊이 맵의 크기는 스캔 데이터의 실제 프레임 깊이 맵(real frame depth map)의 크기와 동일할 수 있다.
도 5는 본 발명의 실시예에 따른 실제 프레임 깊이 맵과 CT 영상 깊이 맵을 보여준다.
도 5에서 보여지는 바와 같이, 스캔 프레임(501)으로부터 스캔 프레임 깊이 맵(503)이 생성될 수 있다. 또한, 스캔 프레임(501)의 카메라 위치 및 방향에 기초하여 이 스캔 프레임(501)에 대응하는 CT 프레임(505)으로부터 CT 프레임 깊이 맵(507)이 생성될 있다. 한편, 스캔 프레임(501)과 CT 프레임(505)가 정합되면 스캔 카메라 방향(Dn)에 해당하는 프레임(509)이 생성될 수 있다.
다시 도 3을 설명한다.
CT 프레임 깊이 맵과 실제 프레임 깊이 맵에 대한 위치와 방향의 차이는 스캔 데이터 복원과정에서 구해지는 각 스캔 프레임의 카메라 위치와 방향에 오차가 있다는 것을 의미한다. 따라서, 본 발명의 실시예는 ICP를 이용하여 CT 영상의 깊이 맵과 실제 프레임 깊이 맵에 대한 위치와 방향의 차이를 보정한다.
깊이 맵 좌표 차이 정보 결정부(160)는 CT 영상의 깊이 맵과 실제 프레임의 깊이 맵 사이의 좌표 차이에 대한 정보를 결정한다(S111). CT 영상의 깊이 맵과 실제 프레임의 깊이 맵 사이의 좌표 차이에 대한 정보는 수학식 2에서 보여지는 바와 같은 ICP (Iterative Closest Point) 알고리즘을 통해 결정될 수 있으며, 에러 En을 최소화하는 n번째 실제 프레임에 대한 회전 행렬(Rn)과 평행이동 벡터(tn)를 포함할 수 있다. 에러 En은 회전 행렬(Rn)과 평행이동 벡터(tn)에 의해 결정되는 포인트 값의 차이의 합을 나타내며, 여기서 포인트 값의 차이는 실제 프레임의 깊이 맵의 포인트 값과 CT 프레임의 깊이 맵의 포인트 값의 차이를 나타낸다.
[수학식 2]
Figure PCTKR2022000826-appb-img-000003
여기서,
Figure PCTKR2022000826-appb-img-000004
는 n번째 실제 프레임의 깊이 맵을 나타내고,
Figure PCTKR2022000826-appb-img-000005
는 n번째 CT 영상의 깊이 맵을 나타내고,
Figure PCTKR2022000826-appb-img-000006
는 n번째 실제 프레임의 깊이 맵의 픽셀의 총수를 나타내고,
Figure PCTKR2022000826-appb-img-000007
는 n번째 CT 프레임의 깊이 맵의 픽셀의 총수를 나타낸다.
Figure PCTKR2022000826-appb-img-000008
는 CT 영상 깊이 맵의 한 포인트의 깊이 값을 나타내고,
Figure PCTKR2022000826-appb-img-000009
는 스캔 데이터 깊이 맵의 한 포인트의 깊이 값을 나타낸다.
Figure PCTKR2022000826-appb-img-000010
는 가중치를 나타내며,
Figure PCTKR2022000826-appb-img-000011
Figure PCTKR2022000826-appb-img-000012
사이의 거리가 가장 가까울 때 1의 값을 가지며, 그렇지 않을 때 0의 값을 가진다.
깊이 맵 수정부(170)는 깊이 맵 좌표 차이 정보에 기초하여 실제 프레임의 깊이 맵을 수정한다(S113). 실제 프레임 깊이 맵 수정부(160)는 수학식 3에서 보여지는 바와 같이, 회전 행렬(Rn)과 평행이동 벡터(tn)에 기초하여 n번째 실제 프레임의 깊이 맵(
Figure PCTKR2022000826-appb-img-000013
)을 수정하여 수정된 깊이 맵(Dn s')을 생성할 수 있다.
[수학식 3]
Dn s'= Rn(Dn s) + tn
이처럼, 프레임마다 구해지는 회전 행렬과 평행이동 벡터를 이용하여 기존의 스캔 카메라의 위치와 방향을 보정하고 실제 프레임의 깊이 맵을 수정하면, 각 실제 프레임의 방향 및 위치가 CT 영상과 동일하게 되므로, 각 스캔 프레임의 카메라 위치와 방향에 대한 오차가 보정될 수 있다.
구강 스캔 모델 복원부(180)는 수정된 실제 프레임의 깊이 맵에 대한 포인트 클라우드를 3차원에서 합치고 공통 부분을 평균화하여 3차원 구강 스캔 모델을 복원한다(S115).
본 발명의 실시예에 따른 3차원 구강 스캔 데이터 정합 장치는 CT 장치 또는 구강 스캐너에 한 모듈로서 포함될 수도 있고, CT 데이터 및/또는 구강 스캐너 데이터를 사용하는 소프트웨어로 구현될 수도 있다.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며 이에 한정되지 않고, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 보호 범위는 특허청구범위의 기술적 사상에 의하여 정해져야 한다.

Claims (16)

  1. 3차원 구강 스캔 데이터 정합 방법에 있어서,
    스캔 데이터의 한 스캔 프레임의 정보를 이용하여 컴퓨터 단층촬영(Computed Tomography, CT) 영상으로부터 CT 프레임의 깊이 맵을 생성하는 단계;
    상기 CT 프레임의 깊이 맵과 상기 스캔 프레임의 깊이 맵 사이의 깊이 맵 좌표 차이 정보를 결정하는 단계;
    상기 깊이 맵 좌표 차이 정보에 기초하여 상기 스캔 프레임의 깊이 맵을 수정하는 단계; 및
    상기 스캔 프레임의 수정된 깊이 맵에 기초하여 3차원 구강 스캔 모델을 복원하는 단계를 포함하는
    3차원 구강 스캔 데이터 정합 방법.
  2. 제1항에 있어서,
    상기 깊이 맵 좌표 차이 정보는
    상기 CT 프레임의 깊이 맵과 상기 스캔 프레임의 깊이 맵 사이의 회전 정도를 나타내는 깊이 맵 회전 행렬과
    상기 CT 프레임의 깊이 맵과 상기 스캔 프레임의 깊이 맵 사이의 평행이동의 정도를 나타내는 깊이 맵 평행이동 벡터를 포함하는
    3차원 구강 스캔 데이터 정합 방법.
  3. 제2항에 있어서,
    상기 깊이 맵 회전 행렬과 상기 깊이 맵 평행이동 벡터는 상기 CT 프레임의 깊이 맵과 상기 스캔 프레임의 깊이 맵 사이의 차이의 합을 최소화시키는
    3차원 구강 스캔 데이터 정합 방법.
  4. 제1항에 있어서,
    상기 스캔 데이터와 상기 CT 영상 사이의 영상 좌표 차이 정보를 결정하는 단계; 및
    상기 영상 좌표 차이에 대한 정보에 기초하여 상기 스캔 데이터와 상기 CT 영상의 좌표계를 일치시키는 단계를 더 포함하는
    3차원 구강 스캔 데이터 정합 방법.
  5. 제4항에 있어서,
    상기 영상 좌표 차이 정보는
    상기 스캔 데이터와 상기 CT 영상 사이의 회전 정도를 나타내는 영상 회전 행렬과
    상기 스캔 데이터와 상기 CT 영상 사이의 평행이동의 정도를 나타내는 영상 평행이동 벡터를 포함하는
    3차원 구강 스캔 데이터 정합 방법.
  6. 제5항에 있어서,
    상기 영상 회전 행렬과 상기 영상 평행이동 벡터는 상기 스캔 데이터와 상기 CT 영상 사이의 차이의 합을 최소화시키는
    3차원 구강 스캔 데이터 정합 방법.
  7. 제1항에 있어서,
    구강 스캐너를 통해 환자 구강의 상기 스캔 데이터를 획득하는 단계; 및
    CT 장비를 통해 환자 구강의 CT 영상을 획득하는 단계를 더 포함하는
    3차원 구강 스캔 데이터 정합 방법.
  8. 제1항에 있어서,
    상기 3차원 구강 스캔 모델은 상기 스캔 데이터의 복수의 프레임의 수정된 깊이 맵에 대한 포인트 클라우드를 3차원에서 합치고 공통부분을 평균화함으로써 복원되는
    3차원 구강 스캔 데이터 정합 방법.
  9. 제1항에 있어서,
    상기 스캔 프레임의 정보는 상기 스캔 프레임의 카메라 위치와 방향에 대한 정보를 포함하는
    3차원 구강 스캔 데이터 정합 방법.
  10. 제1항에 있어서,
    상기 CT 프레임의 깊이 맵의 크기는 상기 스캔 프레임의 깊이 맵의 크기와 동일한
    3차원 구강 스캔 데이터 정합 방법.
  11. 3차원 구강 스캔 데이터 정합 장치에 있어서,
    스캔 데이터의 한 스캔 프레임의 정보를 이용하여 컴퓨터 단층촬영(Computed Tomography, CT) 영상으로부터 CT 프레임의 깊이 맵을 생성하는 CT 영상 깊이 맵 생성부;
    상기 CT 프레임의 깊이 맵과 상기 스캔 프레임의 깊이 맵 사이의 깊이 맵 좌표 차이 정보를 결정하는 깊이 맵 좌표 차이 정보 결정부;
    상기 깊이 맵 좌표 차이 정보에 기초하여 상기 스캔 프레임의 깊이 맵을 수정하는 깊이 맵 수정부; 및
    상기 스캔 프레임의 수정된 깊이 맵에 기초하여 3차원 구강 스캔 모델을 복원하는 구강 스캔 모델 복원부를 포함하는
    3차원 구강 스캔 데이터 정합 장치.
  12. 제11항에 있어서,
    상기 깊이 맵 좌표 차이 정보는
    상기 CT 프레임의 깊이 맵과 상기 스캔 프레임의 깊이 맵 사이의 회전 정도를 나타내는 깊이 맵 회전 행렬과
    상기 CT 프레임의 깊이 맵과 상기 스캔 프레임의 깊이 맵 사이의 평행이동의 정도를 나타내는 깊이 맵 평행이동 벡터를 포함하는
    3차원 구강 스캔 데이터 정합 장치.
  13. 제12항에 있어서,
    상기 깊이 맵 회전 행렬과 상기 깊이 맵 평행이동 벡터는 상기 CT 프레임의 깊이 맵과 상기 스캔 프레임의 깊이 맵 사이의 차이의 합을 최소화시키는
    3차원 구강 스캔 데이터 정합 장치.
  14. 제11항 내지 제13항 중 어느 한 항에 의한 3차원 구강 스캔 데이터 정합 장치를 포함하는 구강 스캐너.
  15. 제11항 내지 제13항 중 어느 한 항에 의한 3차원 구강 스캔 데이터 정합 장치를 포함하는 컴퓨터 단층촬영(Computed Tomography, CT) 장치.
  16. 컴퓨터 판독 가능 매체에 저장되어 있는 컴퓨터 프로그램에 있어서,
    상기 컴퓨터 프로그램의 명령이 실행될 경우, 제1항 내지 제10항 중 어느 한 항에 따른 방법이 수행되는,
    것을 특징으로 하는 컴퓨터 판독 가능 매체에 저장되어 있는 컴퓨터 프로그램.
PCT/KR2022/000826 2021-01-20 2022-01-17 컴퓨터 단층촬영 영상을 활용한 3차원 구강 스캔 데이터 정합 장치 및 방법 WO2022158804A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US18/262,229 US20240065816A1 (en) 2021-01-20 2022-01-17 Device and method for matching three-dimensional intra-oral scan data using computed tomography image
EP22742780.4A EP4287118A1 (en) 2021-01-20 2022-01-17 Device and method for matching three-dimensional intra-oral scan data using computed tomography image
CN202280010837.7A CN116830154A (zh) 2021-01-20 2022-01-17 使用计算机断层扫描图像匹配三维口内扫描数据的设备和方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210007926A KR102273437B1 (ko) 2021-01-20 2021-01-20 컴퓨터 단층촬영 영상을 활용한 3차원 구강 스캔 데이터 정합 장치 및 방법
KR10-2021-0007926 2021-01-20

Publications (1)

Publication Number Publication Date
WO2022158804A1 true WO2022158804A1 (ko) 2022-07-28

Family

ID=76861854

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/000826 WO2022158804A1 (ko) 2021-01-20 2022-01-17 컴퓨터 단층촬영 영상을 활용한 3차원 구강 스캔 데이터 정합 장치 및 방법

Country Status (5)

Country Link
US (1) US20240065816A1 (ko)
EP (1) EP4287118A1 (ko)
KR (1) KR102273437B1 (ko)
CN (1) CN116830154A (ko)
WO (1) WO2022158804A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2965923T3 (es) * 2019-07-09 2024-04-17 Vita Zahnfabrik H Rauter Gmbh & Co Kg Sistema de soporte para la fabricación de restauraciones dentales y sistema de restauración dental
KR102273437B1 (ko) * 2021-01-20 2021-07-07 주식회사 에이치디엑스윌 컴퓨터 단층촬영 영상을 활용한 3차원 구강 스캔 데이터 정합 장치 및 방법
CN113850914A (zh) * 2021-08-13 2021-12-28 江苏瑞沃建设集团有限公司 一种线激光三维扫描点云数据的矩阵换方法
KR102523856B1 (ko) * 2021-08-31 2023-04-20 주식회사 스타인펠드 딥러닝을 이용한 크라운 3d 메쉬 생성 방법 및 이를 이용하는 장치
KR102453897B1 (ko) * 2022-02-14 2022-10-12 주식회사 에이치디엑스윌 컴퓨터 단층촬영 영상을 활용한 3차원 구강 스캔 데이터 복원 장치 및 방법
KR102533659B1 (ko) * 2022-02-28 2023-05-18 이마고웍스 주식회사 딥러닝을 이용한 3차원 얼굴 스캔 데이터와 3차원 볼륨 의료 영상 데이터의 자동 정합 방법 및 이를 컴퓨터에서 실행시키기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체
KR20230152854A (ko) 2022-04-27 2023-11-06 주식회사 에이치디엑스윌 콘빔ct 및 3차원 스캔의 동시 촬영을 통한 데이터 정합 장치 및 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160004864A (ko) * 2014-07-04 2016-01-13 주식회사 인스바이오 치과 시술 시뮬레이션을 위한 치아모델 생성 방법
KR20180088061A (ko) * 2017-01-26 2018-08-03 주식회사 이우소프트 Ct 영상과 표면 스캔 모델의 정합 방법 및 장치
KR101911327B1 (ko) 2017-06-23 2018-10-25 오스템임플란트 주식회사 누적 정합 오차를 줄이기 위한 구강 스캐닝 방법, 구강 스캐너 및 그 방법을 실행하기 위한 프로그램이 기록된 기록매체
KR20190101694A (ko) * 2018-02-23 2019-09-02 서울대학교산학협력단 Ct 데이터와 광학 데이터의 정합성능 향상 방법 및 그 장치
KR102056910B1 (ko) * 2018-12-21 2019-12-17 주식회사 디오에프연구소 3차원 구강 스캐너 및 이를 이용한 구강 스캔 방법
KR102273437B1 (ko) * 2021-01-20 2021-07-07 주식회사 에이치디엑스윌 컴퓨터 단층촬영 영상을 활용한 3차원 구강 스캔 데이터 정합 장치 및 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160004864A (ko) * 2014-07-04 2016-01-13 주식회사 인스바이오 치과 시술 시뮬레이션을 위한 치아모델 생성 방법
KR20180088061A (ko) * 2017-01-26 2018-08-03 주식회사 이우소프트 Ct 영상과 표면 스캔 모델의 정합 방법 및 장치
KR101911327B1 (ko) 2017-06-23 2018-10-25 오스템임플란트 주식회사 누적 정합 오차를 줄이기 위한 구강 스캐닝 방법, 구강 스캐너 및 그 방법을 실행하기 위한 프로그램이 기록된 기록매체
KR20190101694A (ko) * 2018-02-23 2019-09-02 서울대학교산학협력단 Ct 데이터와 광학 데이터의 정합성능 향상 방법 및 그 장치
KR102056910B1 (ko) * 2018-12-21 2019-12-17 주식회사 디오에프연구소 3차원 구강 스캐너 및 이를 이용한 구강 스캔 방법
KR102273437B1 (ko) * 2021-01-20 2021-07-07 주식회사 에이치디엑스윌 컴퓨터 단층촬영 영상을 활용한 3차원 구강 스캔 데이터 정합 장치 및 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHOU XINWEN, GAN YANGZHOU, XIONG JING, ZHANG DONGXIA, ZHAO QUNFEI, XIA ZEYANG: "A Method for Tooth Model Reconstruction Based on Integration of Multimodal Images", JOURNAL OF HEALTHCARE ENGINEERING, vol. 2018, 20 June 2018 (2018-06-20), Multi-Science Publ., Brentwood, pages 1 - 8, XP055954479, ISSN: 2040-2295, DOI: 10.1155/2018/4950131 *

Also Published As

Publication number Publication date
KR102273437B9 (ko) 2022-01-17
US20240065816A1 (en) 2024-02-29
EP4287118A1 (en) 2023-12-06
KR102273437B1 (ko) 2021-07-07
CN116830154A (zh) 2023-09-29

Similar Documents

Publication Publication Date Title
WO2022158804A1 (ko) 컴퓨터 단층촬영 영상을 활용한 3차원 구강 스캔 데이터 정합 장치 및 방법
WO2022164126A1 (ko) 구강 스캔 데이터의 크라운 분할을 이용한 구강 스캔 데이터와 컴퓨터 단층촬영 이미지 자동 정합 장치 및 방법
CN110678145B (zh) 数字3d牙弓对的自动对齐和取向
US11963845B2 (en) Registration method for visual navigation in dental implant surgery and electronic device
EP2076870B1 (en) 3d photogrammetry using projected patterns
WO2021145544A1 (ko) 교정적 치아배열 형상 생성 방법 및 장치
WO2022131419A1 (ko) 3차원 치과 ct 영상과 3차원 디지털 인상 모델의 정합 정확도 판단 방법 및 이를 컴퓨터에서 실행시키기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체
WO2014073818A1 (ko) 임플란트 영상 생성방법 및 임플란트 영상 생성 시스템
WO2011135437A1 (en) Virtual cephalometric imaging
WO2022154523A1 (ko) 딥러닝 기반 3d 특징점 탐지를 통한 3차원 구강 스캔 데이터 정합 방법 및 장치
WO2009091200A2 (ko) 엑스 레이 씨티 촬영 영상의 메탈 아티팩트를 제거하는 방법
JP2002071315A (ja) 投影平面計測システム
WO2021025296A1 (ko) 크라운 모델 자동 추천방법 및 이를 수행하는 보철 캐드 장치
CN115457196A (zh) 一种咬合调整方法、装置、设备及介质
JP2001112743A (ja) 三次元顎運動表示装置、方法及び三次元顎運動表示プログラムを記憶した記憶媒体
WO2018030781A1 (ko) 3차원 데이터 정합 장치 및 방법
WO2013129811A1 (ko) 씨티의 메탈 아티팩트 감소 방법
WO2016148350A1 (ko) 의료 영상 재구성 장치 및 그 방법
JP2017221329A (ja) 2次元画像を用いて生体の下顎開閉軸とバーチャル咬合器の開閉軸を一致させる方法
WO2020209496A1 (ko) 치아 오브젝트 검출 방법 및 치아 오브젝트를 이용한 영상 정합 방법 및 장치
WO2018101746A2 (ko) 도로면 폐색 영역 복원 장치 및 방법
US10492872B2 (en) Surgical navigation system, surgical navigation method and program
WO2011040653A1 (ko) 3차원 객체를 제공하는 사진 장치 및 그 제공방법
CN116763481A (zh) 一种基于多模态融合的颞下颌关节运动系统性还原方法
WO2020235784A1 (ko) 신경 검출 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22742780

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202280010837.7

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 18262229

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022742780

Country of ref document: EP

Effective date: 20230821