WO2016003255A2 - 환자맞춤형 치아교정 모의시술과 이를 통한 시뮬레이션 및 치아 교정장치 또는 치아교정 시술유도장치 제작방법 - Google Patents

환자맞춤형 치아교정 모의시술과 이를 통한 시뮬레이션 및 치아 교정장치 또는 치아교정 시술유도장치 제작방법 Download PDF

Info

Publication number
WO2016003255A2
WO2016003255A2 PCT/KR2015/006973 KR2015006973W WO2016003255A2 WO 2016003255 A2 WO2016003255 A2 WO 2016003255A2 KR 2015006973 W KR2015006973 W KR 2015006973W WO 2016003255 A2 WO2016003255 A2 WO 2016003255A2
Authority
WO
WIPO (PCT)
Prior art keywords
orthodontic
simulation
model
tooth
face
Prior art date
Application number
PCT/KR2015/006973
Other languages
English (en)
French (fr)
Inventor
지헌주
임용현
Original Assignee
주식회사 인스바이오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 인스바이오 filed Critical 주식회사 인스바이오
Publication of WO2016003255A2 publication Critical patent/WO2016003255A2/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/002Orthodontic computer assisted systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C19/00Dental auxiliary appliances
    • A61C19/04Measuring instruments specially adapted for dentistry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/08Mouthpiece-type retainers or positioners, e.g. for both the lower and upper arch
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/002Orthodontic computer assisted systems
    • A61C2007/004Automatic construction of a set of axes for a tooth or a plurality of teeth

Definitions

  • the present invention relates to a method for examining and diagnosing a patient for proper orthodontic treatment for each patient and establishing a correction plan based on the same, and performing a correction after simulation and simulation.
  • 3D head images are examined and diagnosed using various methods, such as acquisition of impressions, analysis of the degree and duration of orthodontic teeth, the treatment plan, and the change of facial appearance according to the movement of teeth through simulation.
  • Etc. and based on the simulated results, automatically design and manufacture a dental orthodontic device, or design and manufacture a orthodontic treatment guide device, and then use a orthodontic device or orthodontic treatment guide device
  • Patient-specific reflecting a series of procedures to perform orthodontic treatment by attaching a treatment device Orthodontic simulation, and the technique through the simulation and orthodontic device or orthodontic device induction device manufacturing method.
  • a plurality of 2D tomographic image data prepared by CBCT (Cone Beam Computed Tomography) or MRI (magnetic resonance imaging) is used for orthodontic treatment through 3D analysis.
  • CBCT Cone Beam Computed Tomography
  • MRI magnetic resonance imaging
  • the orthodontic treatment guide device is used as a way to reduce the patient's and doctor's fatigue by reducing the time for orthodontic treatment.
  • the actual induction device By dividing into the laboratories that manufacture the actual induction device by reflecting, not only does not communicate with each other in real time, but also has a structure that is difficult to immediately reflect the opinions of doctors in the production of the induction device There is a problem that the error occurrence rate is large in the manufacturing method of the induction apparatus.
  • the doctor displays the position where the correction device (bracket) is to be mounted on the gypsum model obtained from the patient's mouth and sends it to the laboratory. It has been operated by attaching (bracket), making a orthodontic device (tray) using a glue gun, etc., and delivering it to a hospital. Therefore, it takes a long time to manufacture and deliver the orthodontic device and orthodontic device, and the problem arises in the precise attachment of the orthodontic device and immediately reflects the opinion of the doctor who can be changed by various circumstances. There was a difficulty, so there was a possibility that errors could occur in the calibration.
  • the present invention was devised to solve such a problem, and when the information is input in the hospital by reflecting the patient's diagnosis result and the concept of the corrective procedure in the manufacture of the induction device or orthodontic device, the device production data automatically.
  • Providing a unified system of diagnostics and device fabrication that is generated, reflects the opinions of doctors in device manufacturing in real time, reduces the device production time, and minimizes device errors by precise work using a computer.
  • the present invention provides a model generation method that enables more accurate and realistic simulation by providing various data for the simulation procedure to establish the doctor's correction plan.
  • the simulation method for establishing a doctor's correction plan can be performed with simpler operation than in the prior art, and provides various types of guides and analysis methods for the convenience of the user and at the same time essential for dental correction. It provides a simulation method that can identify them.
  • results of the doctor's examination and diagnosis of the patient are reflected in real time to analyze the degree and duration of orthodontic teeth, and to perform simulations, based on the simulated data. Provides a way to make it.
  • a method for patient-specific orthodontic treatment comprising: a first step of generating a 3D head image using a plurality of 2D tomographic image data obtained through tomography; A second step of analyzing and diagnosing the current state of the patient and establishing a treatment plan based on the 2D tomographic image data or the 3D head image; A third step of generating a 3D oral surface model using tomography or 3D scanning; A fourth step of matching the 3D oral surface model to the 3D head image; A fifth step of generating a 3D tooth model based on the 3D head image and the 3D oral surface model matched thereto; Generating a 3D face surface model based on the 3D head image, and then generating a 3D face model based on the 3D face model; A seventh step of performing the simulation procedure according to the treatment plan established in the second step; An eighth step of performing a change in the appearance of the face according to the amount of change in teeth movement of the patient based on the simulation performed in the seventh step; And a ninth step
  • the 3D tooth model may be a combination of (a) a head tomography image (DICOM series) obtained by various methods such as CT, MRI or ultrasound diagnostics to generate a 3D head image, a plaster model and a 3D scanner
  • a 3D oral surface model is generated by using an intraoral scanner or by using a gypsum model and a CT to perform a localization and reconstruction;
  • the sixth step may include: (a) obtaining 2D face photograph data and a 3D head image, and reconstructing a 3D face surface model using the obtained 3D head image; (b) displaying a cover point on the obtained 2D face photograph data and displaying a cover point on the formed 3D face surface model; (c) rotation and movement of the 3D face surface model marked on the mark point and the size of the 3D face surface model on the basis of the indicated mark point in order to apply the 3D face surface model having the mark point to the 2D face photograph data.
  • Performing mapping may include.
  • the simulation procedure comprises: (a) combining one or more 3D tooth crown models extracted from the 3D oral surface model and one or more 3D tooth volume models extracted from the 3D head image to generate one or more 3D tooth models. step; (b) providing a guide that can be applied to the generated 3D teeth models on one side of the screen as a 3D view, displaying the screen except the one side as three fixed views by dividing the screen into three sides, and The stationary view is provided as a front view, a side view, and a tooth chew surface view; And (c) checking the guide through the provided 3D view, checking the position between the tooth models, selecting the tooth to be simulated, and then manipulating the three fixed views to perform orthodontic simulation. step; It may include.
  • the tooth selected and manipulated by the user as the simulation method for the orthodontic treatment is selected according to the mark state or measurement values using the 3D head image during the tooth movement simulation. Changed in real time, the changed landmarks or measurements using the same may be reflected and visualized on a 3D view screen to provide a change in the anatomy of the patient in real time.
  • the 3D tooth model generated in step 3 and the 3D face model generated in step 4 are reflected, and the tooth movement and facial appearance change according to the simulation procedure are confirmed by setting or automatically applying step by step. Can be done.
  • the orthodontic treatment guide device of the ninth step is automatically designed based on the simulated results, it can be manufactured by using the RP equipment or CNC equipment.
  • the orthodontic appliance of the ninth stage is automatically designed based on the simulated results, and a plurality of intaglios generated based on the arrangement of the dental models obtained according to the progress of the patient's correction state by the doctor's simulation procedure. Based on the data, it can be obtained by manufacturing a plurality of orthodontic devices using RP equipment or CNC equipment.
  • the orthodontic device of the ninth step is automatically designed based on the simulated results, and a plurality of oral cavity generated based on the arrangement of the dental models obtained according to the progress of the patient's correction state by the simulation results of the doctor After manufacturing a plurality of dental oral models using RP equipment or CNC equipment based on the model data, a plurality of dental orthodontic devices can be obtained through a vacuum molding apparatus based on this.
  • Providing a unified system of diagnosis and device manufacturing that automatically generates device manufacturing data when the information is input in the hospital, reflecting the results of doctor's patient diagnosis and correction procedure, etc. It reduces the manufacturing stage of the device, thereby reducing the time spent, and has the effect of making it possible to manufacture a surgical guide device or orthodontic device that is actively reflected by the doctor's opinion and precisely manufactured by a computer.
  • the present invention provides a 3D tooth model and 3D face model matched to the 3D head image to perform the simulation to reflect this in real time, and has the effect of enabling precise operation by simple operation compared to the conventional.
  • various types of guides and analysis methods are provided for the convenience of the user, while providing essential data for orthodontic treatment and simulation methods, and reflecting the results of the doctor's examination and diagnosis on the patient in real time. Analyzing the degree of correction and the possible duration of the calibration and performing the simulation, based on the simulated data there is an effect that provides a method for automatically producing orthodontic treatment device or procedure induction device.
  • FIG. 1 is a view showing a process of obtaining a 3D head image through the CBCT scanning method according to an embodiment of the present invention
  • FIG. 2 is a diagram illustrating a process of performing 3D inspection, diagnosis, and analysis using the 3D head image obtained in FIG. 1, etc.
  • FIG. 2 is a diagram illustrating a process of performing 3D inspection, diagnosis, and analysis using the 3D head image obtained in FIG. 1, etc.
  • FIG. 3 is a view illustrating a process of obtaining a 3D oral surface model by using a method of CBCT scanning a plaster model, a method of scanning a plaster model with a 3D scanner, and a method of scanning with an intraoral 3D scanner according to embodiments of the present invention.
  • FIG. 4A is a diagram illustrating displaying marker points on the 3D oral surface model obtained in FIG.
  • FIG. 4B is a view showing marking points for registration with a 3D oral surface model on the 3D head image obtained in FIG. 1;
  • FIG. 4B is a view showing marking points for registration with a 3D oral surface model on the 3D head image obtained in FIG. 1;
  • FIG. 4C illustrates that the 3D oral surface model is matched to the 3D head image by performing 3D mark point-based registration on the 3D oral surface model and the 3D head image on which the mark point is marked.
  • FIG. 5 obtains a 3D tooth volume model for each individual tooth from the 3D head image generated in FIG. 1, extracts a 3D tooth crown model from a 3D oral surface model matched to the 3D head image, and the 3D tooth volume model and the 3D tooth crown.
  • FIG. 6A illustrates a 3D head image from the head tomography image data, and reconstructs the 3D face surface model by regioning and reconstructing the facial skin region, and then removing the sinus and nasal portions included in the restored 3D face surface model.
  • FIG. 6B illustrates a 3D face model obtained by applying a 2D face photo data to the 3D face surface model obtained in FIG. 6A or performing a texture mapping process, or matching data scanned by a 3D color scanner to the 3D face surface model obtained in FIG. 6A.
  • FIG. 7A is a diagram illustrating a process of performing a simulation simulation by expressing a simulation user interface in three views including a 3D view and a front, side, and mastication plane.
  • FIG. 7B is a diagram illustrating a simulation process using a 3D oral surface model or a clipped 3D head image as a guide.
  • FIG. 7C illustrates an example that a marker point displayed on a 3D head image or measured values using the same is changed in real time according to a changed tooth position, and the movement distance, rotation direction, and rotation angle of the tooth can be checked during tooth movement simulation.
  • FIG. 8 is a view showing an example of showing the result of automatically performing a simulation according to the tooth movement based on the simulation procedure according to Figs. 7a to 7c
  • FIG. 9A is a simulation-based simulation according to FIG. 8, and after the orthodontic device is attached to the tooth model, the orthodontic treatment guide device is automatically designed using the data, and the orthodontic treatment guide is induced through a 3D printer.
  • FIG. 9B performs simulation based on the simulation procedure according to FIG. 8, extracts a 3D tooth model according to each period by setting a predetermined period during the simulation, and generates respective negative data based on the extracted 3D tooth model.
  • FIG. 9C is a simulation based on the simulation procedure according to FIG. 8 and a predetermined period is set during the simulation to extract a 3D tooth model according to each period, and design each oral model data based on the extracted 3D tooth model.
  • Figure 3 shows the process of obtaining a solid oral model using a 3D printer and obtaining a calibration device using a vacuum molding machine.
  • the present invention will be described for the process of manufacturing a 3D tooth model using a plaster model.
  • it refers to the process of generating a 3D tooth model using the model generated through the negative model.
  • the method of collecting data for generating the 3D tooth model is not limited thereto, and various modifications may be made, such as using a device or software for obtaining an image or a model from specific data or a model.
  • FIG. 1 is a view showing a process of obtaining a 3D head image (3D head image) through a CBCT scanning method according to an embodiment of the present invention.
  • the head tomography image data may be acquired from equipment such as MRI and Ultrasonic diagnostics, but the acquisition of the head tomography image data (DICOMseries) is not limited thereto. It is possible by various methods such as PET (poisitron emission tomography).
  • 3D head tomography image data DICOMseries
  • 3D Tooth Model generation and 3D Face Model (3D Face Model, Textured Face Surface) can be used.
  • FIG. 2 is a diagram illustrating a process of performing 3D diagnosis, 3D analysis and 3D analysis using the 3D head image obtained in FIG. 1.
  • the 3D Diagnosis and 3D Analysis method is a 3D diagnostic method using 3D head images (20, 3D Head Images) obtained from CBCT, MRI, 3D.
  • 3D head images (20, 3D Head Images) obtained from CBCT, MRI, 3D.
  • the image may be provided in various ways, such as a diagnosis method using a jaw joint view that provides volume images of the joints and tomographic information of the jaw joints.
  • the 3D Diagnosis and 3D Analysis method is used to numerically analyze and visualize the shape of the head and neck of the patient, even if it is provided in three dimensions or does not have a panoramic machine, the patient's teeth and jaw joints The area can be generated and provided directly as panorama data.
  • the provided data may be provided in a plane (slice) as described above, may be expressed in 3D volume (volume), or adjust the transparency (brightness value, intensity value), etc. according to the user's needs of the entire face Bones, teeth, and even the face of the skin can be identified.
  • Virtual set-up which is used as data such as face change simulation, surgical induction device production, orthodontic device production, cannot be performed only with 3D head image data. Should be.
  • This system provides the function to generate CAD model data such as 3D Face Model for simulation, 3D Stone Model and 3D Tooth Model for simulation. It is possible to simulate without any additional equipment or additional fees within the hospital.
  • Figure 3a is a diagram showing the process of generating a 3D oral surface model (3D Stone Model) based on the tomography using a tomography equipment, such as CBCT according to an embodiment of the present invention.
  • Figure 3b is a 3D oral surface by scanning the gypsum model with a 3D scanner or an oral cavity of the patient based on an intra-oral 3D scanner according to one embodiment according to the present invention
  • CBCT imaging is an example of methods of forming a 3D image through tomography, and in addition, a gypsum model may be photographed using various tomography equipment, thereby obtaining a 3D oral surface model (3D Stone Model). .
  • the reason for the CBCT imaging on the plaster model which is modeled after the patient's mouth or the mouth model which is modeled after the patient's mouth is added with additional equipment such as a 3D scanner or an intra-oral 3D scanner.
  • This is to indirectly obtain 3D Stone Model from 3D Stone Model with no cost.
  • data with low resolution which is one of the problems of the existing tooth model generation method based on X-rays, are based on the premise that X-rays are used in the human body. It is not a problem for CT-based because high resolution images can be obtained and based on this, accurate segmentation can be performed quickly. In this way, a 3D oral surface model (10, 3D Stone Model, 3D tooth surface CAD model) can be obtained.
  • segmentation refers to an operation of selecting a desired area by forming a boundary line.
  • the oral tomographic image data (DICOM series) is merely stacking an image in layers, and thus there is no boundary classification.
  • a boundary is added to the part where the medium of the gypsum model surface and the air layer abut to change, so that the image is easily distinguished, and such work corresponds to segmentation. That is, it means that the user classifies a portion to be used as data among images acquired from CT and MRI images, such as a crown portion of a tooth, a gum and a root of a tooth.
  • a 3D oral surface model is generated by reconstructing the 3D oral image using a technique such as a marching cube algorism based on segmented information.
  • the 3D stone model obtained through this process is a directional 3D CAD model composed of points, lines, and faces, and has a CAD model-based application process such as creating a new model or performing a simulation. It is possible.
  • the plaster model which is modeled after the patient's mouth, or the negative model, which is modeled after the patient's mouth, is scanned using a 3D scanner or an intra-oral 3D scanner is inserted into the patient's mouth.
  • a 3D stone model can be extracted directly without the process of segmentation and reconstruction.
  • the 3D scanner or intra-oral 3D scanner used is an example of a 3D scanning device.
  • various scanning devices such as a coordinate measuring machine (CMM), a laser scan, and an optical scan may be used. Can be used.
  • FIG. 4A is a diagram illustrating displaying 3D Surface Landmrks on a 3D Stone Model obtained in FIG. 3.
  • FIG. 4B is a view illustrating displaying 3D Volume Landmarks for registration with a 3D Stone Model on a 3D Head Image obtained in FIG. 1.
  • FIG. 4C illustrates a 3D 3D landmark image based on a 3D landmark-Transform based on a 3D stone model and a 3D head image displaying a marker point. It is a view showing that the oral surface model (3D Stone Model) is matched.
  • 3D Surface Landmrks are displayed on the 3D stone surface model (3D Stone Model) obtained through the process of FIGS. 3A to 3B, as shown in FIG. 4A.
  • 3D Stone Model 3D Stone Model
  • Each marker point can be displayed. This is to obtain a 3D oral surface model (Transformed 3D Stone Model) that is matched to the 3D head image (3D head-image) through a 3D landmark-based matching to be performed later.
  • 3D head landmarks are displayed on the 3D head image obtained in FIG. 1 for registration with a 3D stone model.
  • the mark point displayed on the 3D head image is a position corresponding to the mark point displayed on the 3D stone model.
  • 3D oral transformation process is performed to rotate and translate the mark point displayed on the 3D Head Model to the mark point displayed on the 3D Head Image with a minimum error.
  • the surface model and as a result, the 3D oral surface model is matched to the 3D head image. This process is called 3D Landmark-Transform.
  • FIG. 5 is a 3D oral surface model (3D) obtained from a 3D head image generated in FIG. 1 and obtaining a 3D tooth volume model for each tooth and matching the 3D head image. Extract 3D Tooth Crown Model from Stone Model and synchronize the coordinate system of 3D Tooth Volume Model and 3D Tooth Crown Model to create 3D Tooth Crown Model. A diagram illustrating a process of generating a model).
  • each individual 3D is subjected to a process of selecting only a region of interest in a 3D head image generated from the above process (VOI, Volume of Interest) and a 3D image masking process.
  • VOI Volume of Interest
  • the 3D image masking process may generate a contour by a manual method or a command input such as performing a contour drawing (contour drawing) based on an arbitrary axis constituting the 3D tooth volume model.
  • the contour is generated in an automatic manner such as, the outer portion of the generated contour is deleted or initialized to clearly express the division between the selected portion and the other portion.
  • the 3D Tooth Crown Model refers to a crown, which is a part of the patient's oral cavity that can be observed with the naked eye except for the roots and the gums.
  • the contour drawing using the mouse (contour drawing, The crown portion of the entire tooth in the oral cavity can be extracted automatically or as simple as drawing.
  • the 3D tooth model is generated by synchronizing the coordinate system of the 3D tooth volume model including the extracted tooth roots.
  • the upper left molar 3D tooth crown model is extracted from the 3D stone model matched to the 3D head image, and the corresponding root portion is included.
  • a 3D tooth volume model extracted from a 3D head image is obtained to synchronize a coordinate system of two models to generate a 3D tooth model.
  • a plurality of 3D Tooth Models are generated by repeating the process of synchronizing their coordinate systems. Acquire.
  • the 3D tooth models are generated based on the 3D head image and the 3D oral surface model (3D Stone Model) matched through the above-described process, the 3D tooth models are already matched. It is created as a state. Since the coordinate system of the 3D Tooth Crown Model and the 3D Tooth Volume Model, which constitute the 3D Tooth Model, is synchronized, the 3D Tooth Model is synchronized. 3D Tooth Crown Model and 3D Tooth Volume Model are similar to the actual teeth that move as one, no matter which part you move. It can be used for the procedure.
  • FIG. 6A illustrates a 3D head surface after reconstructing a 3D face surface by constructing a 3D head image from a DICOM series, segmenting and reconstructing a facial skin region, and then restoring the 3D face.
  • FIG. 3 is a diagram illustrating a process of obtaining a 3D face surface by removing sinus and nasal portions included in a 3D face surface.
  • the 3D head image generated in FIG. 1 is segmented and reconstructed into 3D to reconstruct a 3D face surface.
  • the 3D face surface generated through the above process includes a sinus and a nasal part that occupy an empty space inside the nostril, for example, the inside of the nostril.
  • the sinuses and nasal passages can interfere with texture mapping or data deformation during simulation. Therefore, by using a technique of deleting portions other than the region of interest (for example, POI; polyhedron of interest), unnecessary portions of the 3D face surface model are removed through a Boolean operation of a quadratic surface that is relatively quick and easy to calculate. By eliminating it, you get only facial skin that can be used directly for new model building or simulation.
  • FIG. 6B illustrates a 3D face model (3D Face Model, Textured) by performing a texture mapping process by applying 2D face picture data to the 3D face surface model obtained in FIG. 6A.
  • a 3D face model (3D Face Model, Textured Face) by performing a process of matching data scanned with a 3D color scanner to a 3D face surface obtained in FIG. The process of obtaining a surface) is shown.
  • texture-mapping is a process of applying a texture, such as a desired pattern or color, to a surface in order to increase the realism of an image or an object to be expressed.
  • a 2D bitmap is applied to a 3D surface model. Refers to a technology that can obtain realistic and sophisticated models by mapping images.
  • the parameterization process and the texture mesh will be described.
  • a parameterization process is started based on the 3D face surface of FIG. 6A.
  • the 3D face surface is a texture plane based on 2D face picture data. Project to Plan-generation by projecting on.
  • the coordinate values of 2D Face Picture Image and Transformed 3D Face Surface are then standardized (normalized, synchronized) by adjusting axis values, synchronizing intervals, and resizing.
  • the process of sorting (Texture Paramerter Space Nomalization) is performed.
  • a 3D 3D face surface model is converted into 2D to be matched with 2D face picture data, which is called texture mesh data.
  • texture-mesh data is a 3D CAD model consisting of polyhedron (Polyhedron, Polygonal Surface) that consists of points, lines, and faces, is directional, and exists inside and outside.
  • the surface constituting the texture mesh (Texture-Mesh) is formed of tens of thousands to hundreds of thousands of triangles, which is to facilitate the calculation of the position and the like in the program.
  • photos taken from various directions may be used to generate a more realistic 3D face model (3D Face Model, Textured Face Surface).
  • the visibility rank is checked using the normal vector of the texture-mesh and the normal vector of the 3D face surface model generated through the parameterization of the 3D face surface model.
  • 'visibility rank' which is the process of selecting the best visibility part. This reflects, for example, that the nostrils, nostrils, eyeballs, cheeks and the like may have different visibility depending on the direction in which the picture was taken.
  • the first normal vector of one or more polygonal regions which is a region of the 3D face surface model, and the texture mesh data matching (maching) the first region.
  • the angle formed by the second normal vector present in the predetermined region (second region) of the image is determined. The closer the angle formed by the first normal vector and the second normal vector to 180 degrees is, the better the visibility is. prioritization through the process of visibility rank).
  • visibility rank By using the priority through the rank rank (visibility rank) process has a merit that can select and map a texture that is more visible at the time of texture mapping (Texture-Mapping).
  • Texture-Mapping uses 2D Face Picture Image, 3D Face Surface, and Texture-Mesh data. For each area (unit) constituting the texture mesh, a texture is extracted from an area of a 2D face picture image corresponding to each of the texture meshes, and the texture is extracted from the 3D face surface model (3D) using a texture mesh. By performing a process of texture mapping corresponding to 3D coordinates of a face surface, a textured three-dimensional face model data may be obtained.
  • data obtained from a 3D color scanner is matched to a 3D face surface segmented and reconstructed from a 3D head image.
  • Each point group data is formed by using the data scanned by the 3D Face Surface and the 3D color scanner, and the data obtained from this is organized and scanned by the 3D color scanner.
  • a 3D face model (3D Face Model, Textured Face Surface) is created by matching the data to the 3D Face Surface.
  • the 3D color scanner scans the face itself and acquires the textured data, there is no need to apply textures separately, so there is no error that can occur during the texture mapping process. You can provide data similar to facial appearance. However, since it is composed of a small number of polyhedrons (Poly Hedron, Polygonal Surface), it is difficult to express precise data, and the result of using a 3D color scanner to implement additional corrections, that is, simulation, is obtained from a 3D face surface model (3D). The disadvantage is that a matching process is required. In addition, there is a disadvantage in that the cost of additionally providing a 3D color scanner in addition to the CBCT equipment generally equipped in the dentist.
  • the 2D face picture data (2D Face Picture Image) and the head tomographic image data (DICOM series) are used as input data, and the 3D face model (3D CAD model restoration technique and texture mapping technique) is applied.
  • This article focuses on the process of creating 3D Face Models and Textured Face Surfaces.
  • FIG. 7A shows the virtual set-up user interface in three fixed views consisting of a 3D view, a frontal view, a lateral view, and an occlusal view.
  • FIG. 7B is a view showing that simulation is performed using a 3D stone surface model or a clipped 3D head image as a guide.
  • FIG. 7C illustrates that a mark or measurement values displayed on a 3D head image are changed in real time according to a changed tooth position during tooth movement simulation. It is a figure which shows the example of that a rotation angle etc. can be confirmed.
  • FIG. 8 is a diagram illustrating an example of a screen showing a result of automatically performing a simulation according to tooth movement based on the simulation procedure of FIGS. 7A to 7C.
  • FIG. 7A in a virtual set-up user interface, four different synchronized views (views, hereinafter, views and views can be used interchangeably) are provided.
  • the left side of the screen is a view in which a combination of the above-described 3D tooth models is visualized, and is provided as a 3D view.
  • the tooth selected by the user may have a frontal view on the right side, It is provided as three fixed-view views consisting of a lateral view and an occlusal view.
  • the tooth structure arrangement is composed of only a combination of 3D tooth models (3D Tooth Model) without a guide
  • 3D Tooth Model 3D Tooth Model
  • the user since the user performs a calibration simulation by setting arbitrary criteria, there is a possibility that the actual calibration and the error are large.
  • guides Virtual set-up Guidance
  • the guide may be a 3D stone surface model (3D Stone Model), as shown in Figure 7b, a clipped 3D head image (3D Head Image) may be used, in addition to the movement of teeth between the simulation procedure
  • 3D Stone Model 3D Stone Model
  • a clipped 3D head image 3D Head Image
  • the teeth to be selected by the user and changed through the simulation are provided as three views on the right side of the screen.
  • the three fields of view are provided as a frontal view, a lateral view, and an occlusal view, and the resulting two-dimensional motion rotation transformation for each view is applied to the currently selected tooth model. Since the three-dimensional transformation is performed through a combination of two-dimensional transformations, it is possible to predict the appearance of the tooth arrangement after the tooth structure is deformed by the correction, and the distance, rotation direction, and rotation angle, etc., as shown in FIG. 7C. This value is displayed on the screen.
  • the teeth selected by the user may be displayed on the screen by changing the markers or measurement values displayed on the 3D head image in real time according to the teeth movement during tooth movement simulation. It is visualized to provide information on changes in the anatomical state of the patient.
  • the simulation procedure can only be performed depending only on the clinical experience of the doctor, but by providing a guide to the simulation procedure as described above to solve this problem, compared to the conventional three-dimensional operation UI difficult to precisely manipulate
  • UI user interface
  • a simulation as shown in FIG. 8 is automatically performed to display a screen that provides a process of showing teeth moving according to orthodontic procedures and changing facial appearances accordingly.
  • FIG. 9a performs simulation based on FIG. 8 and attaches the orthodontic device to the tooth model, and automatically designs the orthodontic treatment guide device using the data, and the orthodontic treatment through the 3D printer.
  • orthodontic treatment device (Virture set-up, Attach Orthodontics Devices) is attached to each of the teeth included in the teeth of the patient placed before or after the orthodontic simulation Prepare data for the device.
  • the doctor configures a tooth arrangement at the time point of completion of correction by a simulation performed based on the current state of the patient and various diagnosis results, and assigns a position suitable for the correction procedure to each tooth in this state.
  • an operation of automatically designing the orthodontic appliance guide device 70 (Automatic Orthodontic appliance or Surgical Guide Template Design) is performed, and the teeth of which the arrangement of the orthodontic device 80 is reflected Orthodontic treatment guide device 70 can be produced.
  • the manufacturing of the orthodontic treatment induction device 70 using a 3D printer can achieve the same effect, such as RP equipment (Rapid Prototyping Device), CNC equipment (Computerized Numerial Control Device) including a 3D printer Various devices may be applied.
  • RP equipment Rapid Prototyping Device
  • CNC equipment Computerized Numerial Control Device
  • 3D printer Various devices may be applied.
  • FIG. 9B performs simulation based on the simulation procedure according to FIG. 8, extracts a 3D tooth model according to each period by setting a predetermined period during the simulation, and generates respective negative data based on the extracted 3D tooth model.
  • FIG. 9C is a simulation based on the simulation procedure according to FIG. 8 and a predetermined period is set during the simulation to extract a 3D tooth model according to each period, and design each oral model data based on the extracted 3D tooth model.
  • a solid state oral model is obtained by using a 3D printer, and a diagram illustrating a process of obtaining a calibration device using a vacuum molding machine.
  • a stepwise orthodontic device 70 for transparent correction may be produced.
  • data input for the production of orthodontic appliance 70 For the generation of data input for the production of orthodontic appliance 70,
  • This process is a step that reflects the state in which all teeth cannot move at the same time due to tooth correction, extraction, etc.
  • the process of creating a space by extracting teeth to create a space where the teeth can enter and then moving the surrounding teeth by moving the surrounding teeth is performed in the first step. It may be divided into a second step and the like to move. That is, a plurality of simulation procedures may be included according to each tooth, and more precise and accurate simulation may be performed according to a doctor's treatment plan.
  • the doctor sets the movement weight for each tooth. That is, based on the length of the root, bone density of the alveolar bone, and the like, the movement speed for each tooth is expressed as a weight. This is used as data for the future orthodontic appliance manufacturing (70).
  • the doctor can divide the entire planned treatment period into several period areas, and can determine and determine how many orthodontic devices 70 should be manufactured by the plan according to the divided period areas.
  • the first process can also know about the information about the teeth that do not move during the period.
  • FIGS. 9C There are two types as shown in FIG. 9C. That is, as shown in FIG. 9B, there is a method of manufacturing the tooth correcting device 70 by using RP equipment or CNC by generating intaglio data of the expected tooth shape, and as shown in FIG. 9C. There is a method of generating data, generating a frame using the same, and manufacturing the orthodontic device 70 using a vacuum forging machine (vaccum formaning machine) based on the generated frame.
  • a vacuum forging machine vacuum formaning machine
  • the patient In performing orthodontic procedures, the patient should be lying in a chair with his mouth open, and the doctor should try to precisely attach a small orthodontic device to the patient's teeth while looking into the patient's narrow mouth. This inconvenience in the procedure not only prevented the correct attachment of the corrective device to the desired position, but even when the patient was diagnosed before the procedure and the position to attach the corrective device was determined, it was often not correctly attached to the correct position during the procedure.
  • the orthodontic treatment guide device is used.
  • a laboratory which manufactures the actual procedure guide device by reflecting the opinions of the physician and the physician who envisions and performs orthodontic procedures is conventionally used. Not only does the communication with each other not be realized in real time by making it divided, but also it is difficult to immediately reflect the opinions of the doctors in the manufacture of the induction device, and the incidence of errors in the method of manufacturing the induction device is high. There is.
  • the doctor indicates the position of the corrective device (bracket) to the gypsum model obtained from the patient's mouth and sends it to the laboratory.
  • a glue gun to produce orthodontic treatment guide (tray) has been operated to deliver to the hospital. Therefore, it takes a long time to manufacture and deliver the orthodontic device and orthodontic device, and the problem arises in the precise attachment of the orthodontic device and immediately reflects the opinion of the doctor who can be changed by various circumstances. There was a difficulty, so there was a possibility that errors could occur in the calibration. Because of these problems, some hospitals have specialized in orthodontic appliance induction device.In this case, the diagnosis and analysis for correction are done in the hospital by the doctor because it depends on X-ray imaging.
  • the production of the surgical guide device was made separately by a professional dental orthodontic device manufacturer who owns 3D scanning equipment and software to perform simulated orthodontic procedures.
  • the doctor directly examines and diagnoses the patient's condition, and establishes a treatment plan through consultation with the patient based on the analyzed data, and then the computer automatically generates the device based on the result data of simulation and simulation. This reduces the possibility of error.
  • the company automatically designs the orthodontic device 70 or orthodontic treatment guide device 70 based on the data transmitted from the hospital, and attached to the orthodontic treatment device 80 to manufacture and deliver Only facilities such as RP equipment (Rapid Prototyping Device) and CNC equipment (Computerized Numerial Control Device), including 3D printers that can produce orthodontic device 70 or orthodontic treatment guide device 70 based on the transmitted data If so, there is an advantage that can produce the orthodontic appliance 70 or orthodontic treatment guide device 70 without any other effort or effort.
  • RP equipment Rapid Prototyping Device
  • CNC equipment Computerized Numerial Control Device
  • the orthodontic treatment device 80 is exposed to the outside by providing a transparent dental orthodontic device 70 that can be mounted for each period according to the orthodontic state for patients having a burden in the interpersonal relationship, thereby providing teeth to the patients It was able to play a role in relieving the burden of interpersonal relationships that may occur due to the correction.
  • the patient's correction is examined and diagnosed using various methods such as jaw joint analysis, panoramic analysis, and 3D analysis, and a correction plan is established by performing analysis on the degree and duration of orthodontic teeth correction. Simulates tooth movement and simulates changes in facial appearance using a program capable of simulating, and transmits the simulated result data to a company using a computer based on the data to orthodontic device 70 or Since the orthodontic treatment guide device 70 is manufactured, the possibility of errors that may occur during orthodontic treatment is minimized.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Epidemiology (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • High Energy & Nuclear Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)

Description

환자맞춤형 치아교정 모의시술과 이를 통한 시뮬레이션 및 치아 교정장치 또는 치아교정 시술유도장치 제작방법
본 발명은 각각의 환자에게 적합한 치아교정을 위하여 환자를 검사하며 진단하고 이를 기반으로 교정계획을 세우며 모의시술 및 시뮬레이션을 한 후 교정을 시술하는 방법에 관한 것으로서, 더욱 상세하게는 사진촬영, 방사선 촬영, 인상채득 등의 다양한 방법으로 3D 두부영상을 획득하여 검사 및 진단하며, 치아교정의 가능정도와 기간 등에 대한 분석을 하고 치료계획을 수립한 후, 모의시술을 통해 치아이동에 따른 얼굴외형의 변화 등을 시뮬레이션하고, 시뮬레이션 된 결과를 바탕으로 자동으로 치아 교정장치를 디자인하여 제작하거나 또는 치아교정 시술유도장치를 디자인하여 제조한 후, 치아 교정장치를 이용하거나 또는 치아교정 시술유도장치를 이용하여 교정시술장치를 부착하여 치아교정을 수행하는 일련의 과정을 반영하는, 환자맞춤형 치아교정 모의시술과 이를 통한 시뮬레이션 및 치아 교정장치 또는 치아교정 시술유도장치 제작방법에 관한 기술이다.
일반적으로 3D 분석을 통한 치아교정을 위해서는 CBCT(Cone Beam Computed Tomography, 전산화 단층촬영) 또는 MRI(magnetic resonance imaging, 자기공명영상) 등으로 준비된 다수의 2D 단층 이미지 데이터를 활용한다. 그러나 이러한 단층 이미지 데이터들 자체는 진단과 분석을 위한 자료로 사용할 수 있을 뿐, 그 자체로 모의시술, 시뮬레이션 또는 교정을 위한 장치 제작이 불가능 하다는 문제가 있다.
한편, 교정 시술 시간을 줄여 환자와 의사의 피로도를 줄이기 위한 한 방법으로 치아교정 시술유도장치를 사용하는데, 이 시술유도장치를 제작하는데 있어 종래에는 교정 시술을 구상하고 수행하는 의사와 의사의 의견을 반영하여 실제 시술유도장치를 제작하는 기공소로 분할되어 제작을 함으로써 서로의 의사전달이 실시간으로 이루어지지 않을뿐더러, 시술유도장치 제작에 있어 의사의 의견이 즉각 반영되기 힘든 구조를 띄고 있을 뿐만 아니라, 시술유도장치 제작 방법에 있어 오차 발생율이 크다는 문제가 있다.
종래의 시술유도장치 제작방법을 살펴보자면, 의사가 환자의 구강으로부터 획득한 석고모델에 교정장치(브라켓)가 장착될 위치를 표시하여 기공소에 보내면, 석고모델에 표시된 위치를 기반으로 기공사가 교정장치(브라켓)를 부착하고, 글루건 등을 이용하여 치아교정 시술유도장치(트레이)를 제작하여 병원에 납품하는 방식으로 운영되어왔다. 따라서 교정장치 및 치아교정 시술유도장치를 제조하여 납품하는 과정에 시간이 오래 걸린다는 문제와 교정장치의 정밀한 부착에 문제가 발생하고, 여러 가지 사정에 의해 변경될 수 있는 의사의 의견을 즉시 반영하는 데에도 어려움이 있었으므로, 교정에 오류가 발생할 수 있다는 가능성이 존재하였다. 이러한 문제들 때문에 일부의 병원에서는 치아교정 시술유도장치를 전문적으로 제작하기도 하였는데, 이때에도 교정을 위한 진단 및 분석은 X선을 이용한 촬영에 의존하므로 의사에 의해 병원에서 이루어지고, 교정을 위한 치아교정 시술유도장치의 제작은 3D 스캐닝 장비와 모의 치아교정시술을 수행할 수 있는 소프트웨어를 소유한 전문 치아교정 시술유도장치 제작업체에서 별도로 이루어질 수밖에 없었다.
결국 의사와 소프트웨어 분석 업체 간의 석고모델 전달, 데이터 전송 또는 의사와 업체 간 수차례의 의사소통 과정이 필요했기 때문에, 치아교정 시술유도장치 제작에 시간이 오래 걸리고 오류의 가능성도 여전히 존재한다는 문제가 있었다.
본 발명은 이와 같은 문제점을 해결하기 위하여 창안된 것으로서, 시술유도장치 또는 치아 교정장치 제작에 있어 의사의 환자 진단 결과와 교정시술 구상내용 등을 반영하여 병원 내에서 정보를 입력하면 자동으로 장치 제작데이터가 생성되는 진단과 장치제작의 통일 시스템을 제공하여, 장치 제작에 있어 의사의 의견을 실시간으로 반영하고 장치 제작 시간을 줄이며, 컴퓨터를 이용한 정밀한 작업으로 장치의 오류를 최소화한다.
또한, 의사의 교정계획을 수립하는 모의시술을 위한 다양한 데이터를 생성하고 가공할 수 있도록 제공하여, 보다 정밀하고 사실적인 모의시술을 가능하게 하는 모델 생성방법을 제시한다.
또한, 의사의 교정계획을 세우기 위한 모의시술 방법에 대해, 종래에 비해 간단한 조작으로 정밀한 조작이 가능하도록 하고, 다양한 형식의 가이드 및 분석방법을 제공하여 사용자의 편의를 도모하는 동시에 치아교정에 필수적인 데이터들을 확인할 수 있는 모의시술 방법을 제공한다.
또, 환자에 대한 의사의 검사 및 진단 결과를 실시간으로 반영하여 치아교정의 가능정도와 기간 등에 대한 분석을 하고 시뮬레이션을 수행하되, 시뮬레이션 된 데이터를 바탕으로 이후에 자동으로 치아 교정장치 또는 시술유도장치를 제작하는 방법을 제공한다.
이처럼 제공되는 데이터 및 방법을 이용하여 교정의 오차를 줄이고 종래보다 빠르고 간단하게 치아 교정장치 또는 시술유도장치를 제작하여 치아교정을 시술하는 것을 그 목적으로 한다.
이와 같은 목적을 달성하기 위하여 본 발명에 따른 환자맞춤형 치아교정 모의시술과 이를 통한 시뮬레이션 및 치아 교정장치 또는 치아교정 시술유도장치 제작방법의 일측면에 따르면,
환자 맞춤형 치과교정 시술을 위한 방법으로서, 단층 촬영을 통해 얻은 복수 개의 2D 단층 이미지 데이터들을 이용하여 3D 두부영상이 생성되는 제 1단계; 상기 2D 단층 이미지 데이터 또는 3D 두부영상을 기반으로 환자의 현 상태가 분석 및 진단되고 치료계획이 수립되는 제 2단계; 단층 촬영 방식 또는 3D 스캐닝 방식을 이용하여 3D 구강표면 모델이 생성되는 제 3단계; 상기 3D 구강표면 모델이 상기 3D 두부영상에 정합되는 제 4단계; 상기 3D 두부영상과 그에 정합된 3D 구강표면 모델을 기반으로 3D 치아모델이 생성되는 제 5단계; 상기 3D 두부영상을 기반으로 3D 얼굴표면 모델을 생성한 후, 이를 기반으로 3D 얼굴모델이 생성되는 제 6단계; 상기 제 2단계에서 수립된 치료계획에 따라 모의시술이 수행되는 제 7단계; 상기 제 7단계에서 수행된 모의시술을 바탕으로 환자의 치아 이동 변화량에 따른 얼굴의 외형 변화 시뮬레이션이 수행되는 제 8단계; 및 상기 수행된 모의시술을 바탕으로 선택에 따라 치아교정 시술유도장치 또는 치아 교정장치에 관한 일련의 작업이 수행되어, 치아교정 시술유도장치 또는 치아교정 시술장치가 디자인되고 제작되는 제 9단계; 를 포함한다.
상기 3D 치아모델은, (a) CT, MRI 또는 초음파 진단과 같은 다양한 방법에 의해 획득한 두부 단층 이미지(DICOM series)가 조합되어 3D 두부영상이 생성되고, 석고모형과 3D 스캐너가 이용되어 생성되거나, 인트라 오랄 스캐너가 이용되어 생성 또는 석고모형과 CT가 이용되어 영역화, 재구축단계를 거쳐 3D 구강표면 모델이 생성되는 단계; (b) 상기 생성된 3D 구강표면 모델 및 상기 3D 두부영상에 표지점을 표시하는 단계; (c) 상기 표지점이 표시된 3D 구강표면 모델 및 3D 두부영상에 3D 표지점 기반의 정합을 수행하여 3D 두부영상에 3D 구강표면 모델을 정합하는 단계; (d) 상기 획득된, 3D 두부영상에 정합된 3D 구강표면 모델로부터 하나 이상의 3D 치아 크라운 모델을 추출하고, 상기 3D 두부영상으로부터 상기 추출된 치아 크라운에 대응하는 하나 이상의 3D 치아볼륨 모델을 추출하는 단계; 및 (e) 상기 추출된 하나 이상의 3D 치아 크라운 모델과 이에 대응하여 추출된 하나 이상의 3D 치아볼륨 모델의 좌표계를 동기화하여 3D 치아모델을 생성하는 단계; 를 포함할 수 있다.
상기 제 6단계는, (a) 2D 얼굴 사진 데이터와 3D 두부영상을 획득하며, 상기 획득된 3D 두부영상을 이용하여 3D 얼굴표면 모델을 복원하는 단계; (b) 상기 획득된 2D 얼굴 사진 데이터에 표지점을 표시하고, 상기 형성된 3D 얼굴표면 모델에 표지점을 표시하는 단계; (c) 상기 표지점이 표시된 3D 얼굴표면 모델을 상기 2D 얼굴 사진 데이터에 적용하기 위해서 상기 표시된 표지점을 기반으로 회전, 이동 및 임의의 축을 기준으로 크기 변환하여 3D 얼굴표면 모델의 위치와 크기를 2D 얼굴 사진 데이터에 맞추는 작업을 수행함으로써, 2D 얼굴 사진 데이터의 얼굴모습에 맞춰지도록 변환된 3D 얼굴표면 모델을 생성하는 단계; (d) 상기 2D 얼굴 사진 데이터와 상기 변환된 3D 얼굴표면 모델에 매개변수화 과정을 거쳐 텍스쳐 매쉬(Texture-Mesh)를 생성하는 단계; (e) 상기 3D 얼굴표면 모델과 상기 텍스쳐 메쉬의 법선벡터를 비교하여 가시성 우선순위를 체크하는 랭크(visibility rank)과정을 수행하는 단계; 및 (f) 상기 2D 얼굴 사진 데이터와 상기 3D 얼굴표면 모델 및 상기 매개 변수화 과정을 통해 생성된 텍스쳐 메쉬를 이용하여, 랭크(visibility rank) 과정에 의해 마킹된 최적의 가시성 텍스쳐만을 모아 텍스쳐 매핑(Texture Mapping)을 수행하는 단계; 를 포함할 수 있다.
상기 제 7단계 중 상기 모의시술은, (a) 3D 구강표면 모델로부터 추출된 하나 이상의 3D 치아 크라운 모델과 3D 두부영상으로부터 추출된 하나 이상의 3D 치아볼륨 모델을 결합하여 하나 이상의 3D 치아모델을 생성하는 단계; (b) 상기 생성된 3D 치아모델들에 적용될 수 있는 가이드를 3D 뷰(view)로써 화면의 일측에 제공하고, 상기 일측을 제외한 화면을 세 면으로 구분하여 세 가지 고정 뷰로써 표시하며, 상기 세 가지 고정 뷰는 정면 뷰, 측면 뷰 및 치아 저작면 뷰로써 제공되는 단계; 및 (c) 상기 제공된 3D 뷰(view)를 통해 가이드를 확인하고, 치아모델간의 위치를 확인하며, 모의시술을 수행할 치아를 선택 후 상기 세 가지 고정 뷰들을 통해 조작됨으로써 교정 모의시술이 수행되는 단계; 를 포함할 수 있다.
상기 치아 교정 시술을 위한 모의시술 방법으로서 사용자에 의해 선택되어 조작되는 치아는 상기 치아 이동 모의시술시 3D 두부영상에 표시된 표지점(landmarks) 또는 그를 이용한 측정값(measurement)들이 치아의 변환 상태에 따라 실시간으로 변경되며, 상기 변경된 표지점(landmarks) 또는 그를 이용한 측정값(measurement)들이 반영되어 3D 뷰 화면에 가시화되어 환자의 해부학적 상태 분석의 변화를 실시간으로 제공할 수 있다.
상기 제 8단계의 시뮬레이션은, 3단계에서 생성된 3D 치아모델 및 4단계에서 생성된 3D 얼굴모델이 반영되며, 상기 모의시술에 따른 치아이동 및 얼굴외형 변화가 단계별 설정 또는 자동으로 적용되어 확인됨으로써 이루어질 수 있다.
상기 제 9단계의 치아교정 시술유도장치는, 상기 시뮬레이션 된 결과를 바탕으로 자동으로 디자인되며, RP장비 또는 CNC장비를 이용하는 방법으로 제조될 수 있다.
상기 제 9단계의 치아 교정장치는, 상기 시뮬레이션 된 결과를 바탕으로 자동으로 디자인되며, 의사의 모의시술 결과에 의한 환자의 교정상태 진행 정도에 따라 얻은 치아모델들의 배치를 기반으로 생성한 복수개의 음각 데이터들을 기반으로 RP장비 또는 CNC장비를 이용하여 복수 개의 치아 교정장치를 제조함으로써 얻을 수 있다.
상기 제 9단계의 치아 교정장치는, 상기 시뮬레이션 된 결과를 바탕으로 자동으로 디자인되며, 의사의 모의시술 결과에 의한 환자의 교정상태 진행 정도에 따라 얻은 치아모델들의 배치를 기반으로 생성한 복수 개의 구강모형 데이터들을 기반으로 RP장비 또는 CNC장비를 이용하여 복수 개의 치아 구강모형을 제조한 후, 이를 바탕으로 진공성형장치를 통하여 복수 개의 치아 교정장치를 얻을 수 있다.
시술유도장치 또는 치아 교정장치 제작에 있어 의사의 환자 진단 결과와 교정시술 구상내용 등을 반영하여 병원 내에서 정보를 입력하면 자동으로 장치 제작데이터가 생성되는 진단과 장치제작의 통일 시스템을 제공하여, 장치 제작단계를 줄이고 그에 따른 시간소모를 감소시키며, 의사의 의견이 적극 반영되고 컴퓨터로 정밀하게 제작되는 시술유도장치 또는 치아 교정장치를 제작할 수 있도록 하는 효과가 있다.
본 발명에 따르면, 모의시술을 수행하여 이를 실시간으로 반영할 수 있도록 3D 두부영상에 정합된 3D 치아모델 및 3D 얼굴모델을 제공하고, 종래에 비해 간단한 조작으로 정밀한 조작이 가능하도록 하는 효과가 있다.
또한, 다양한 형식의 가이드 및 분석방법을 제공하여 사용자의 편의를 도모하는 동시에 치아교정에 필수적인 데이터들을 제공하여 모의시술하는 방법을 제공하고, 환자에 대한 의사의 검사 및 진단 결과를 실시간으로 반영하여 치아교정의 가능정도와 기간 등에 대한 분석을 하고 시뮬레이션을 수행하되, 시뮬레이션 된 데이터를 바탕으로 이후에 자동으로 치아교정 시술장치 또는 시술유도장치를 제작하는 방법을 제공하는 효과가 있다.
이처럼, 제공되는 데이터 및 방법을 이용하여 교정의 오차를 줄이고 종래보다 빠르고 간단하게 치아 교정장치 또는 시술유도장치를 제작하여 치아 교정시술을 수행하는 효과가 있다.
도 1은 본 발명에 의한 일실시예에 의해 CBCT 스캐닝 방식을 통하여 3D 두부영상을 획득하는 과정을 도시한 도면
도 2는 도 1에서 획득한 3D 두부영상 등을 이용하여 3D 검사, 진단 및 분석을 수행하는 과정을 도시한 도면
도 3은 본 발명에 의한 실시예들에 의해 석고모형을 CBCT 스캐닝하는 방식, 석고모형을 3D 스캐너로 스캐닝하는 방식 및 구강내 3D 스캐너로 스캐닝하는 방식을 이용하여 3D 구강표면 모델을 획득하는 과정을 도시한 도면
도 4a는 도 3에서 획득된 3D 구강표면 모델에 표지점을 표시하는 것을 도시한 도면
도 4b는 도 1에서 획득된 3D 두부영상에 3D 구강표면 모델과의 정합을 위한 표지점을 표시하는 것을 도시한 도면
도 4c는 표지점이 표시된 3D 구강표면 모델 및 3D 두부영상을 3D 표지점 기반의 정합을 수행하여 3D 두부영상에 3D 구강표면 모델이 정합된 것을 도시한 도면
도 5는 도 1에서 생성된 3D 두부영상으로부터 치아 개개별 3D 치아볼륨 모델을 획득하고 3D 두부영상에 정합된 3D 구강표면 모델로부터 3D 치아 크라운 모델을 추출하여, 상기 3D 치아볼륨 모델과 3D 치아 크라운 모델의 좌표계를 동기화시킴으로써 3D 치아모델을 생성하는 과정을 도시한 도면
도 6a는 두부 단층 이미지 데이터로부터 3D 두부영상을 구성하고 얼굴 피부 영역을 영역화 및 재구성하여 3D 얼굴표면 모델을 복원한 후, 복원된 3D 얼굴표면 모델에 포함된 부비동, 비강 부분을 제거하여 3D 얼굴표면 모델을 얻는 과정을 도시한 도면
도 6b는 도 6a에서 얻은 3D 얼굴표면 모델에 2D 얼굴 사진 데이터를 적용하여 텍스쳐 매핑 과정을 수행함으로써 3D 얼굴모델을 얻거나 또는 도 6a에서 얻은 3D 얼굴표면 모델에 3D 컬러 스캐너로 스캔한 데이터를 정합하는 과정을 수행함으로써 3D 얼굴모델을 얻는 과정을 도시한 도면
도 7a는 모의시술 사용자 인터페이스를 3D 뷰 및 정면, 측면, 저작면으로 구성된 세 가지 뷰로 표현하고 교정 모의시술을 수행하는 과정을 나타내는 도면
도 7b는 3D 구강표면 모델 또는 클리핑된 3D 두부영상을 가이드로 사용하여 모의시술을 수행하는 것을 나타내는 도면
도 7c는 치아 이동 모의시술시 3D 두부영상에 표시된 표지점 또는 그를 이용한 측정값들이 변경된 치아 위치에 따라 실시간으로 변경되며, 치아의 이동거리, 회전방향 및 회전각도 등을 확인할 수 있다는 것의 예시를 나타내는 도면
도 8은 도 7a 내지 도 7c에 의한 모의시술을 기반으로 치아 이동에 따른 시뮬레이션을 자동으로 수행한 결과를 나타내는 것의 예시를 나타내는 도면
도 9a는 도 8에 의하여 모의시술 기반의 시뮬레이션을 수행하며 교정장치를 치아모델에 부착한 후, 그 데이터를 이용하여 자동으로 치아교정 시술유도장치를 디자인하고, 3D 프린터를 통하여 상기 치아교정 시술유도장치를 제조하는 과정을 도시한 도면
도 9b는 도 8에 의하여 모의시술 기반의 시뮬레이션을 수행하며, 시뮬레이션 진행 중 일정 기간을 설정하여 각각의 기간에 따른 3D 치아모델을 추출하고, 추출된 3D 치아모델을 기반으로 각각의 음각 데이터를 생성한 후, 3D 프린터를 이용하여 복수 개의 치아 교정장치(70)를 얻는 과정을 도시한 도면
도 9c는 도 8에 의하여 모의시술 기반의 시뮬레이션을 수행하며 시뮬레이션 진행 중 일정 기간을 설정하여 각각의 기간에 따른 3D 치아모델을 추출하고, 추출된 3D 치아모델을 기반으로 각각의 구강모형 데이터를 디자인한 후 3D 프린터를 이용하여 고체상태의 구강모형을 획득하고, 진공성형기를 이용하여 교정장치를 얻는 과정을 도시한 도면
이하 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.
이하, 본 발명에서는 석고모형을 이용하여 3D 치아모델을 제조하는 과정에 대해서 설명하고 있다. 또한, 도면에 도시되지는 않았지만, 음각모형을 통하여 생성된 모델을 이용하여 3D 치아모델을 생성하는 과정에 대해서도 언급하고 있다. 그러나 3D 치아모델 생성을 위한 데이터의 수집 방법으로는 이에 한정되지 아니하고, 특정 데이터 또는 모델로부터 이미지 또는 모델을 얻을 수 있는 장치나 소프트웨어를 이용하는 방법 등 다양하게 변경이 가능하다.
도 1은 본 발명에 의한 일실시예에 의해 CBCT 스캐닝 방식을 통하여 3D 두부영상(3D Head Image)을 획득하는 과정을 도시한 도면이다.
도 1에 도시된 바와 같은 CBCT 스캐닝 방식 이외에 MRI, Ultrasonic diagnostics(초음파 진단) 등의 장비로부터 두부 단층 이미지 데이터(DICOMseries)를 획득할 수 있는데, 두부 단층 이미지 데이터(DICOMseries)의 획득은 이에 한정되지 아니하고 PET(poisitron emission tomography, 양전자 단층 촬영) 등 다양한 방법으로 가능하다.
이후, 상기 획득된 두부 단층 이미지 데이터(DICOMseries)들을 조합하여 부피(volume)를 가진 3D 두부영상(3D Head Image)을 생성하는데, 이는 3D 검사, 진단 및 분석(3D Diagnosis and 3D Analysis), 3D 치아모델(3D Tooth Model) 생성 및 3D 얼굴모델(3D Face Model, Textured Face Surface) 생성 등에 이용될 수 있다.
도 2는 도 1에서 획득한 3D 두부영상(3D Head Image)을 이용하여 3D 검사, 진단 및 분석(3D Diagnosis and 3D Analysis)을 수행하는 과정을 도시한 도면이다.
도 2를 참조하면, 본 발명에 의한 3D 검사, 진단 및 분석(3D Diagnosis and 3D Analysis)방법은 CBCT, MRI 등으로부터 획득한 3D 두부영상(20, 3D Head Image)을 이용한 3D 진단 방법, 상기 3D 두부영상(20, Head 3D Volume)을 다양한 방향으로 리슬라이스 하여 단층으로 진단할 수 있도록 제공하는 뷰(view)를 이용하여 진단하는 방법, 환자의 치아를 기준으로 파노라마 형식으로 제공하는 파노라마 뷰 및 턱관절의 볼륨영상 및 턱관절의 단층 정보 등을 제공하는 턱관절 뷰를 이용하여 진단하는 방법 등 다양한 방식으로 제공될 수 있다.
또한, 이러한 3D 검사, 진단 및 분석(3D Diagnosis and 3D Analysis)방법을 이용하여 환자의 두경부 형상을 수치적으로 분석하여 가시화하고, 입체적으로 제공하거나 파노라마 기계를 따로 구비하지 않더라도 환자의 치아 및 턱관절 영역을 파노라마 데이터로 직접 생성하여 제공할 수 있다.
이와 같은 3D 검사, 진단 및 분석(3D Diagnosis and 3D Analysis) 방법을 활용하여 의사와 환자가 교정 시술을 실행하기 전에 미리 치아교정의 가능정도, 발치여부 및 교정기간 등에 대해 분석을 하고 치료계획을 수립하는 것과 같은 정밀 상담(orientation)을 진행할 수 있게 된다. 이때, 제공되는 데이터는 전술한 바와 같이, 평면(slice)으로 제공될 수도 있으며 3D 입체(volume)로 표현될 수도 있고 사용자의 필요에 따라 투명도(밝기값, intensity value) 등을 조절하여 얼굴 전체의 뼈, 치아, 피부까지 표현된 얼굴 등을 각기 확인할 수 있다.
치아 교정시술 경과에 따른 얼굴변화 시뮬레이션, 시술유도장치 제작, 치아 교정장치 제작등의 데이터로 사용되는 모의시술(Virtual set-up)은 3D 두부 영상 데이터만 으로는 수행할 수 없어, 추가적인 데이터를 생성해야 한다. 본 시스템에서는 시뮬레이션을 위한 3D 얼굴모델(3D Face Model), 모의시술을 위한 3D 구강 표면모델(3D Stone Model)과 3D 치아모델(3D Tooth Model)등의 CAD 모델 데이터를 생성하는 기능을 제공하여, 병원 내부에서 별도의 장비나 추가금 없이 모의시술이 가능하도록 한다.
도 3a는 본 발명에 따른 일실시예에 의해 석고모형을 CBCT 등의 단층촬영 장비를 이용하여 단층촬영하고 이를 기반으로 3D 구강표면 모델(3D Stone Model)을 생성하는 과정을 나타내는 도면이다. 도 3b는 본 발명에 따른 일실시예에 의해 석고모형을 3D 스캐너(3D scanner)로 스캔하거나 또는 구강내 3D 스캐너(Intra-Oral 3D Scanner)를 기반으로 환자의 구강을 스캔하는 방식으로 3D 구강표면 모델(3D Stone Model)을 생성하는 과정을 도시한 도면이다.
환자의 구강을 본떠 제작한 석고모형 또는 환자의 구강을 본뜬 음각모형을 CBCT(Cone Beam Computed Tomography, 전산화 단층 촬영)등의 단층촬영을 하고 영역화 및 재구성(segmentation and reconstruction)하는 방법을 통하여 3D 구강표면 모델(3D Stone Model)을 획득한다. 이때, CBCT 촬영은 단층촬영을 통하여 3D 이미지를 형성하는 방법들의 일 예시로, 그 외에도 다양한 단층촬영 장비를 이용하여 석고모델을 촬영할 수 있고 이로써 3D 구강표면 모델(3D Stone Model)을 획득할 수 있다.
여기서, 환자의 구강을 본떠 제작한 석고모형 또는 환자의 구강을 본뜬 음각모형에 CBCT 촬영을 하는 이유는 3D 스캐너(3D scanner) 또는 구강내 3D 스캐너(Intra-Oral 3D Scanner) 등의 추가 장비와 추가 비용 없이 단일 장비로 3D 구강표면 모델(3D Stone Model)을 간접적으로 획득하기 위함이다. 또한, 기존 X선을 이용한 치아모델 생성방법의 문제 중 하나인 낮은 해상도를 갖는 데이터는 인체에 X선을 사용한다는 전제를 바탕으로 하는데, 석고모형은 강한 X선 사용이 허용되는 물체이므로 CT를 이용한 높은 해상도의 이미지를 얻어낼 수 있어 이를 기반으로 빠른 시간 내에 정확한 경계구분 작업(segmetation)이 가능하기 때문에 CT를 기반으로 하는 데에 문제가 되지 않는다. 이로써 3D 구강표면 모델(10, 3D Stone Model, 3D 치아 표면 CAD 모델)을 얻을 수 있다.
이때, 영역화(segmentation)는 경계선을 형성하여 원하는 영역을 선택하는 작업을 의미하는데, 일 예로 구강 단층 이미지 데이터(DICOM series)는 이미지를 층층으로 쌓은 것에 불과하여 경계 구분이 없으므로, 예컨대 각각의 단층 이미지에 대해 석고모형 표면과 공기층이 맞닿는 매질이 변하는 부분 등에 경계를 부가하여 구분이 용이하도록 하는 작업을 수행하며, 그러한 작업이 영역화(segmentation)에 해당한다. 즉, 치아의 크라운 부분, 잇몸, 치아 뿌리 등 CT, MRI 영상으로부터 획득한 영상 중 사용자가 데이터로서 사용할 부분을 구분하는 것을 의미한다. 이후, 영역화(segmentation)된 정보를 기반으로 3D 구강 영상에 마칭큐브 알고리즘(Marching cube algorism) 등의 기법을 이용하여 재구성(reconstruction)함으로써, 3D 구강표면 모델(3D Stone Model)을 생성한다. 이러한 과정을 통하여 획득된 3D 구강표면 모델(3D Stone Model)은 점, 선 및 면으로 구성되며 방향성을 가지는 3D CAD 모델로서, 새로운 모델을 제작하거나 시뮬레이션을 수행하는 것과 같은 CAD 모델 기반의 응용 프로세스가 가능하다.
한편, 환자의 구강을 본떠 제작한 석고모형 또는 환자의 구강을 본뜬 음각모형을 3D 스캐너(3D Scanner)를 이용하여 스캔하거나 또는 환자의 구강내에 3D 스캐너(Intra-Oral 3D scanner) 등을 삽입하고 구강내를 스캔함으로써 영역화 및 재구성(segmentation and reconstruction)의 과정 없이 3D 구강표면 모델(3D Stone Model)을 직접 추출할 수도 있다. 이때, 사용되는 3D 스캐너(3D Scanner) 또는 구강내 3D 스캐너(Intra-Oral 3D scanner)는 3D 스캐닝 장비의 예시들로, 그 외에도 CMM(Coordinate Measuring Machine), 레이저 스캔, 광학식 스캔 등 다양한 스캐닝 장비가 이용될 수 있다.
도 4a는 도 3에서 획득된 3D 구강표면 모델(3D Stone Model)에 표지점을 표시(3D Surface Landmrks)하는 것을 나타내는 도면이다. 도 4b는 도 1에서 획득된 3D 두부영상(3D Head Image)에 3D 구강표면 모델(3D Stone Model)과의 정합을 위한 표지점을 표시(3D Volume Landmarks)하는 것을 도시한 도면이다. 도 4c는 표지점이 표시된 3D 구강표면 모델(3D Stone Model) 및 3D 두부영상(3D Head Image)을 3D 표지점 기반의 정합(3D Landmark-Transform)을 수행하여 3D 두부영상(3D Head Image)에 3D 구강표면 모델(3D Stone Model)이 정합된 것을 도시한 도면이다.
이하, 도 4를 참조하여 3D 표지점 기반의 정합(3D landmark-transform) 과정을 설명한다.
도 3a 내지 도 3b의 과정을 통하여 획득된 3D 구강표면 모델(3D Stone Model)에, 도 4a에 도시된 바와 같이 표지점을 표시(3D Surface Landmrks)하게 되는데, 일 예로 양쪽 전치, 중절치, 대구치 등에 각각 표지점을 표시할 수 있다. 이는, 이후에 진행할 3D 표지점 기반의 정합 (3D landmark-transform)을 통해 3D 두부영상(3D Head Image)에 정합된 3D 구강표면 모델(Transformed 3D Stone Model) 획득하려는 것이다.
도 1에서 획득된 3D 두부영상(3D Head Image)에 3D 구강표면 모델(3D Stone Model)과의 정합을 위한 표지점을 표시(3D Volume Landmarks)한다. 이때, 3D 두부영상(3D Head Image)에 표시되는 표지점은 상기 3D 구강표면 모델(3D Stone Model)에 표시된 표지점과 대응되는 위치이다.
이후, 상기 3D 구강표면 모델(3D Stone Model)에 표시된 표지점 및 3D 두부영상(3D Head Image)에 표시된 표지점들을 이용한 정합(registration)을 수행한다. 즉, 3D 두부영상(3D Head Image)에 표시된 표지점에 3D 구강표면 모델(3D Stone Model)에 표시된 표지점을 최소한의 오차로 맞추기 위한 회전(rotate), 이동(translate) 하는 변환 과정을 3D 구강표면 모델에 동일하게 적용시켜 결과적으로 3D 구강표면 모델이 3D 두부영상에 정합된다. 이러한 과정을 3D 표지점 기반의 정합(3D Landmark-Transform)이라고 한다.
도 5는 도 1에서 생성된 3D 두부영상(3D Head Image)으로부터 치아 개개별 3D 치아볼륨 모델(3D Tooth Volume Model)을 획득하고 3D 두부영상(3D Head Image)에 정합된 3D 구강표면 모델(3D Stone Model)로부터 3D 치아 크라운 모델(3D Tooth Crown Model)을 추출하여, 3D 치아볼륨 모델(3D Tooth Volume Model)과 3D 치아 크라운 모델(3D Tooth Crown Model)의 좌표계를 동기화시킴으로써 3D 치아모델(3D Tooth Model)을 생성하는 과정을 도시한 도면이다.
도 5를 참조하면, 전술한 과정으로부터 생성된 3D 두부영상(3D Head Image)에 관심 영역만을 선택하는 과정(VOI, Volume of Interest)과 3D 이미지 마스킹(3D Image masking) 과정을 거쳐 치아 개개별 3D 치아볼륨 모델(3D Tooth Volume Model)을 획득한다. 여기서 3D 이미지 마스킹 과정이란, 상기 3D 치아볼륨 모델(3D Tooth Volume Model)을 구성하는 임의의 축을 기준으로 컨투어 드로잉(contour drawing, 윤곽선 그리기)을 수행하는 것과 같은 수동방식 또는 명령어 입력에 의하여 윤곽을 생성하는 등의 자동방식으로 윤곽선을 생성한 후, 상기 생성된 윤곽 외부의 부분을 삭제 또는 초기화하여 선택부분과 그 외의 부분과의 구분을 명확히 표현하는 것을 의미한다.
이후, 3D 두부영상(3D Head Image)에 정합된 3D 구강표면 모델(3D Stone Model)로부터 치아의 크라운 부분만을 추출하여 3D 치아 크라운 모델(3D Tooth Crown Model)을 생성(Tooth-crown carving and Create Tooth-Crown surface)한다. 여기서 3D 치아 크라운 모델(3D Tooth Crown Model)은 환자의 구강에서 치아 중 뿌리와 잇몸을 제외하고 육안으로 관찰할 수 있는 부분인 치관(齒冠)을 의미하는데, 마우스를 이용한 컨투어 드로잉(contour drawing, 윤곽선 그리기)과 같이 간단한 조작(carving) 또는 자동으로 구강 내 전체 치아의 크라운 부분을 추출할 수 있다.
이후에는 치아 각각에 대하여, 3D 두부영상(3D Head Image)에 정합된 3D 구강표면 모델(3D Stone Model)로부터 추출된 3D 치아 크라운 모델(3D Tooth Crown Model)과 3D 두부영상(3D Head Image)으로부터 추출된 치아 뿌리(치근(齒根))를 포함한 3D 치아볼륨 모델(3D Tooth Volume Model)의 좌표계를 동기화하여 3D 치아모델(3D Tooth Model)을 생성한다.
예를 들어, 3D 두부영상(3D Head Image)에 정합된 3D 구강표면 모델(3D Stone Model)로부터 윗부분의 좌측 어금니 3D 치아 크라운 모델(3D Tooth Crown Model)을 추출하고, 이에 대응하는 뿌리 부분을 포함한 3D 두부영상(3D Head Image)으로부터 추출한 3D 치아볼륨 모델(3D Tooth Volume Model)을 획득하여 두 가지 모델의 좌표계를 동기화하여 3D 치아모델(3D Tooth Model)을 생성한다. 이와 같이, 얻어진 3D 치아 크라운 모델(3D Tooth Crown Model) 및 3D 치아볼륨 모델(3D Tooth Volume Model) 각각에 대하여, 이들의 좌표계를 동기화하는 과정을 반복하여 3D 치아모델(3D Tooth Model)을 다수 개 획득한다.
이때, 생성된 3D 치아모델(3D Tooth Model)들은 전술한 과정을 통해 3D 두부영상(3D Head Image)과 그에 정합된 3D 구강표면 모델(3D Stone Model)을 기반으로 생성되기 때문에, 이미 정합되어 있는 상태로 생성이 된다. 전술한 과정을 통해 3D 치아모델(3D Tooth Model)을 이루는 3D 치아 크라운 모델(3D Tooth Crown Model)과 3D 치아볼륨 모델(3D Tooth Volume Model)의 좌표계가 동기화 되어있으므로, 3D 치아모델(3D Tooth Model)의 어느 부분을 움직이더라도 3D 치아 크라운 모델(3D Tooth Crown Model)과 3D 치아볼륨 모델(3D Tooth Volume Model)이 하나로써 움직이게 되는 실제 치아와 유사한 모습을 띄므로, 후술할 치아교정 시뮬레이션을 위한 모의시술에 이용될 수 있다.
도 6a는 두부 단층 이미지 데이터(DICOM series)로부터 3D 두부영상(3D Head Image)을 구성하고 얼굴 피부 영역을 영역화 및 재구성하여 3D 얼굴표면 모델(3D Face Surface)을 복원한 후, 복원된 3D 얼굴표면 모델(3D Face Surface)에 포함된 부비동, 비강 부분을 제거하여 3D 얼굴표면 모델(3D Face Surface)을 얻는 과정을 도시한 도면이다.
도 6a를 참조하면, 상기 도 1에서 생성한 3D 두부 영상에서 얼굴 피부 영역을 영역화(segmentation)하여 이를 3D로 재구성(reconstruction)함으로써 3D 얼굴표면 모델(3D Face Surface)로 복원한다.
이후, 복원된 3D 얼굴표면 모델(3D Face Surface)에 포함된 부비동, 비강 부분을 제거하는 과정을 수행한다. 즉, 상기의 과정을 통해 생성된 3D 얼굴표면 모델(3D Face Surface)에는 콧구멍 안 쪽, 예를 들어 콧구멍 안쪽의 빈 공간을 차지하는 부비동, 비강 부분 등이 포함되어 있다. 부비동, 비강 부분 등은 텍스쳐 매핑 또는 시뮬레이션 수행시 데이터 변형 등에 방해요소로 작용할 수 있다. 따라서, 관심영역 이외의 부분을 삭제하는 기법(예를 들어 P.O.I.; polyhedron of interest)을 이용하여 비교적 계산이 빠르고 간편한 2차식 곡면의 불린연산을 통해 3D 얼굴표면 모델(3D Face Surface) 중 불필요한 부분을 제거함으로써 새로운 모델 제작이나 시뮬레이션에 직접 활용되는 얼굴 피부만을 얻게 된다.
도 6b는 도 6a에서 얻은 3D 얼굴표면 모델(3D Face Surface)에 2D 얼굴 사진 데이터(2D Face Picture Image)를 적용하여 텍스쳐 매핑(Texture-Mapping) 과정을 수행함으로써 3D 얼굴모델(3D Face Model, Textured Face Surface)을 얻거나 또는 도 6a에서 얻은 3D 얼굴표면 모델(3D Face Surface)에 3D 컬러 스캐너(3D color scanner)로 스캔한 데이터를 정합하는 과정을 수행함으로써 3D 얼굴모델(3D Face Model, Textured Face Surface)을 얻는 과정을 도시한 도면이다.
첫째, 도 6a의 과정을 거쳐 3D 얼굴표면 모델(3D Face Surface)을 얻은 후, 도 6b에 도시된 바와 같이 상기 3D 얼굴표면 모델(3D Face Surface)에 2D 얼굴 사진 데이터(2D Face Picture Image)를 적용하는 텍스쳐 매핑(Texture-Mapping) 과정을 수행함으로써 3D 얼굴모델(3D Face Model, Textured Face Surface)을 얻을 수 있다. 전술한 과정을 통해 얻은 3D 얼굴표면 모델(3D Face Surface)을 매개변수화(Parameterization)함으로써 텍스쳐 매핑(Texture-Mapping)을 위한 텍스쳐 메쉬(Texture-Mesh)데이터를 얻을 수 있다.
여기서 텍스쳐 매핑(Texture-Mapping)이란 표현하고자 하는 이미지나 물체의 사실감을 높이기 위해 그 표면에 원하는 무늬나 색채 등과 같은 텍스쳐(Texture)를 입히는 작업으로서, 3D 표면 모델(3D Surface Model)에 2D 비트맵 이미지 등을 적용(mapping)하여 사실적이고 정교한 모델을 얻을 수 있는 기술을 의미한다. 이하, 매개변수화 과정(Parameterization process) 및 텍스쳐 메쉬(Texture-Mesh)에 대해 설명한다.
도 6a의 3D 얼굴표면 모델(3D Face Surface)을 기반으로 매개변수화 과정(Parameterization Process)이 시작되는데, 3D 얼굴표면 모델(3D Face Surface)을 2D 얼굴 사진 데이터(2D Face Picture Image)기반의 텍스쳐 평면에 투영하여 평면 모델을 생성(Project-Plane generation)한다.
이후, 축 값을 조정하고 구간을 동기화하며 크기를 조절하는 작업 등을 통해 표준화(정규화, 동기화)하여 2D 얼굴 사진 데이터(2D Face Picture Image)와 3D 얼굴표면 모델(Transformed 3D Face Surface)의 좌표값을 정렬(Texture Paramerter Space Nomalization)하는 과정을 수행한다. 이로써, 3차원의 3D 얼굴표면 모델(3D Face Surface)을 2차원으로 변환시켜 2D 얼굴 사진 데이터(2D Face Picture Image)와 동일하게 맞추게 되는데, 이를 텍스쳐 메쉬(Texture-Mesh) 데이터라고 한다.
여기서 텍스쳐 메쉬(Texture-Mesh) 데이터는 3D CAD 모델로서, 점, 선 및 면으로 구성되고 방향성이 있으며 안과 밖이 존재하는 다면체(Polyhedron, Polygonal Surface)로 구성된다. 본 발명에서는 텍스쳐 메쉬(Texture-Mesh)를 구성하는 면을 수만 내지 수십만 개의 삼각형으로 형성하는데, 이는 프로그램 상에서 사용자가 위치 등의 계산을 편하게 하기 위함이다.
텍스쳐 매핑(Texture-Mapping)을 수행함에 있어, 보다 실제 얼굴에 가까운 3D 얼굴모델(3D Face Model, Textured Face Surface)을 생성하기 위해 여러 방향에서 촬영한 사진들을 사용할 수도 있다. 이와 같은 경우, 3D 얼굴표면 모델(3D Face Surface)을 매개변수화 과정을 거쳐 생성된 텍스쳐 메쉬(Texture-Mesh)의 법선벡터와 3D 얼굴표면 모델(3D Face Surface)의 법선벡터를 이용한 가시성 순위를 체크(Regions Visibility check)한 후 최적의 가시성 부분을 선택하는 과정인 '랭크(visibility rank)'를 수행한다. 이는, 예컨대 콧대, 콧망울, 눈두덩이, 뺨 등이 사진 촬영을 한 방향에 따라 가시성이 달라질 수 있다는 것을 반영한 것이다. 다시 말하면, 3D 얼굴표면 모델(3D Face Surface)의 일정 영역인 하나 이상의 다각형 영역(제 1영역)의 제 1법선벡터와 제 1영역에 부합(매칭, maching)되는 텍스쳐 메쉬(Texture-Mesh) 데이터의 일정 영역(제 2영역)에 존재하는 제 2법선벡터가 이루는 각을 판단하여, 제 1법선벡터와 제 2법선벡터가 형성하는 각도가 180도에 가까울수록 가시성이 좋은 데이터로 판단하고 랭크(visibility rank)의 과정을 통해 우선순위를 매긴다. 이 랭크(visibility rank) 과정을 통한 우선순위를 이용하여 텍스쳐 매핑(Texture-Mapping)시 보다 가시성이 뛰어난 텍스쳐를 선별하여 매핑할 수 있다는 장점을 갖는다.
텍스쳐 매핑(Texture-Mapping)을 위해서는 2D 얼굴사진 이미지(2D Face Picture Image), 3D 얼굴표면 모델(3D Face Surface)및 텍스쳐 메쉬(Texture-Mesh) 데이터를 이용한다. 텍스쳐 메쉬를 구성하고 있는 일정 영역(단위)당, 그 각각에 대응하는 2D 얼굴사진 이미지(2D Face Picture Image)의 영역으로부터 텍스쳐를 추출하고, 이 텍스쳐를 텍스쳐 메쉬를 이용하여 3D 얼굴표면 모델(3D Face Surface)의 3D 좌표에 대응시키는 텍스쳐 매핑(Texture-Mesh)의 과정을 수행함으로써, 텍스쳐 된 입체적 얼굴모델(Textured Face Surface)데이터를 얻을 수 있다.
이때, 상기 서술한 랭크(visibility rank)의 우선순위에 따라 다수의 2D 얼굴사진 이미지(2D Face Picture Image)와 그에 해당하는 다수의 3D 얼굴표면 모델(3D Face Surface)에서 우선순위가 높은 것을 취하여 매핑하는 것을 통해 보다 뛰어난 가시성을 갖는 3D 얼굴모델(Textured Face Surface)을 생성할 수 있다.
둘째, 도 6b를 참조하면, 3D 두부영상(3D Head image)으로부터 영역화하고 재구성(segmentation and reconstruction)한 3D 얼굴표면 모델(3D Face Surface)에 3D 컬러 스캐너(3D Color scanner)로부터 얻은 데이터를 정합(registration)하는 과정을 통하여 3D 얼굴모델(Textured Face Surface)을 생성할 수도 있다. 물론, 그 외에도 특정 데이터 또는 모델로부터 텍스쳐가 입혀진 3D 표면모델(3D Surface)을 얻을 수 있는 장치나 소프트웨어를 이용하는 방법 등 다양한 방법이 있다.
3D 얼굴표면 모델(3D Face Surface) 및 3D 컬러 스캐너(3D color scanner)로 스캔한 데이터를 이용하여 각각의 점군 데이터를 형성하고, 여기서 얻은 데이터를 정리하고 3D 컬러 스캐너(3D color scanner)로 스캔한 데이터를 3D 얼굴표면 모델(3D Face Surface)에 정합하는 과정을 통해 3D 얼굴모델(3D Face Model, Textured Face Surface)을 생성한다.
3D 컬러 스캐너(3D color scanner)는 얼굴 자체를 스캔하여 텍스쳐가 입혀진 데이터를 획득하므로 텍스쳐를 따로 입히는 작업이 필요없기 때문에 텍스쳐 매핑(Texture-Mapping) 과정에서 발생할 수 있는 오차가 없고, 보다 간단하게 실제 얼굴 모습과 유사한 데이터를 제공할 수 있다. 하지만 적은 수의 다면체(Poly Hedron, Polygonal Surface)로 구성되므로 정밀한 데이터의 표현이 어렵고 추가적인 수정 작업, 즉 시뮬레이션을 구현하기 위해 3D 컬러 스캐너(3D color scanner)를 이용한 결과값을 3D 얼굴표면 모델(3D Face Surface)에 정합하는 과정이 필요하다는 단점이 있다. 또한, 치과에서 일반적으로 갖추고 있는 CBCT 장비 이외에 추가적으로 3D 컬러 스캐너(3D color scanner)를 구비하는 비용이 필요하다는 단점이 있다.
따라서, 본 발명에서는 2D 얼굴 사진 데이터(2D Face Picture Image)와 두부 단층 이미지 데이터(DICOM series)를 입력 데이터로 이용하고 3D CAD 모델 복원 기술 및 텍스쳐 매핑(Texture Mapping) 기술을 적용하여 3D 얼굴모델(3D Face Model, Textured Face Surface)을 생성하는 과정에 중점을 두어 설명한다.
도 7a는 모의시술 사용자 인터페이스(Virtual set-up User Interface)를 3D 뷰(view) 및 정면(frontal view), 측면(lateral view), 저작면(occlusal view)으로 구성된 세 가지 고정 뷰로 표현하고 교정 모의시술을 수행하는 과정을 나타내는 도면이다. 도 7b는 3D 구강표면 모델(3D Stone Model) 또는 클리핑(Clipping)된 3D 두부영상(3D Head Image)을 가이드로 사용하여 모의시술을 수행하는 것을 나타내는 도면이다. 도 7c는 치아 이동 모의시술시 3D 두부영상(3D Head Image)에 표시된 표지점(landmark) 또는 그를 이용한 측정(measurement)값들이 변경된 치아 위치에 따라 실시간으로 변경되며, 치아의 이동거리, 회전방향 및 회전각도 등을 확인할 수 있다는 것의 예시를 나타내는 도면이다. 도 8은 도 7a 내지 도 7c에 의한 모의시술을 기반으로 치아 이동에 따른 시뮬레이션을 자동으로 수행한 결과를 나타내는 화면의 예시를 나타내는 도면이다.
도 7a를 참조하면, 모의시술 사용자 인터페이스(Virtual set-up User Interface)에 있어서, 네 가지의 서로 동기화된 시야(뷰(view), 이하 시야 및 뷰는 혼용하여 사용할 수 있음)를 제공한다. 이때, 화면의 좌측은 전술한 3D 치아모델(3D Tooth Model)들의 조합이 가시화되는 시야로서, 3D 뷰(view)로 제공되며, 이때, 사용자에 의해 선택된 치아는 우측에 정면 뷰(frontal view), 측면 뷰(lateral view) 및 저작면 뷰(occlusal view)로 구성된 세 가지 고정시점 뷰로써 제공된다.
종래에는 모의시술에 있어서, 2차원 모니터 화면상에서 정밀한 조작이 어려운 3차원 조작 UI를 제공하였기 때문에, 사용자가 모의시술을 수행함에 있어 정밀한 조작이 불편하다는 문제가 있었다. 따라서, 이러한 문제점을 극복하기 위해, 하나의 뷰에서 3차원의 모든 조작을 해야 했던 종래에 비해 3차원 조작을 2차원적인 여러 개의 조작으로 각각 세분화하여 보다 간단해진 조작에 의해 정밀한 조작이 가능한 사용자 인터페이스(User Interface)를 이용하는 모의시술 방법을 제안한다. 또한, 다양한 형식의 가이드를 제공하여 정확한 모의시술 및 사용자의 편의를 도모한다. 이때, 치아 구조 배치가 가이드 없이 3D 치아모델(3D Tooth Model)들만의 조합으로 구성된다면, 치아 교정에 있어서 기준이 없으므로 모의시술을 수행함에 있어 사용자의 임상경험만을 의존해야 한다는 단점이 있다. 또한 사용자가 임의의 기준을 정하여서 교정 모의시술을 수행하게 되므로, 실제 교정과 오차가 클 가능성이 있다. 이에, 치아가 배치된 구강 전체의 모습을 표시한 다양한 가이드를 사용(Virtual set-up Guidance)하여 치아의 이동 정도나 변형 정도를 현재 환자의 구강구조 내에서 적용할 수 있게 한다.
여기서 가이드는 도 7b에 도시된 바와 같이 3D 구강표면 모델(3D Stone Model)이 사용될 수도 있고, 클리핑(clipping)된 3D 두부영상(3D Head Image)이 사용될 수도 있으며, 그 외에도 모의시술 간 치아의 이동에 따른 3D 진단 및 분석(3D diagnosis and 3D analysis)에 사용된 측정값의 변화를 실시간으로 가시화할 수 있는 등 다양한 응용이 가능하다. 여기서, 3D 구강표면 모델(3D Stone Model)을 가이드로 사용하는 경우, 클리핑(clipping)된 3D 두부영상(3D Head Image)을 가이드로 사용하는 경우 또는 3D 진단 및 분석(3D diagnosis and 3D analysis)에 사용된 측정값을 사용하는 경우 중 어느 경우에도 사용자에 의해 선택되어 모의시술을 통해 변경될 치아는 화면의 우측에 세 가지 뷰로써 제공된다.
이때, 세 가지 시야는 정면 뷰(frontal view), 측면 뷰(lateral view) 및 저작면 뷰(occlusal view)로써 제공되며, 현재 선택된 치아모델에 각 뷰에 대한 2차원적인 이동회전변환을 적용시킴으로써 결과적으로 2차원적인 변환의 조합을 통해 3차원 변환이 이루어지므로, 교정에 의하여 치아 구조가 변형된 후의 치아배열 모습을 예측할 수 있으며, 도 7c에 도시된 바와 같이 이동되는 거리와 회전방향 및 회전각도 등이 수치로써 화면에 표시된다. 다시 말하면, 사용자에 의해 선택된 치아는, 치아 이동 모의시술시 3D 두부영상(3D Head Image)에 표시된 표지점(landmarks) 또는 그를 이용한 측정(measurement) 값들이 치아 이동에 따라 실시간으로 변경됨으로써, 화면에 가시화되어 환자의 해부학적 상태 변화 정보를 제공하게 된다.
결과적으로, 종래에는 의사의 임상 경험에만 의존한 모의시술이 수행될 수 밖에 없었으나, 전술한 바에 의하여 모의시술에 대한 가이드를 제공하여 이를 해결하고, 정밀한 조작이 어려운 기존의 3차원 조작 UI에 비해 전술한 2차원적인 조작으로 세분화된 UI(User interface)를 제공함으로써 사용자가 보다 편리하게 정밀한 조작을 할 수 있다.
전술한 바와 같이 모의시술이 수행된 후, 도 8에 도시된 바와 같은 시뮬레이션이 자동으로 시행되어 치아교정 시술에 따라 치아가 움직이며 그에 따라 변화하는 얼굴외형을 보여주는 과정을 제공하는 화면이 표현된다.
도 9a는 도 8에 의하여 모의시술 기반의 시뮬레이션을 수행하며 치아 교정장치를 치아모델에 부착한 후, 그 데이터를 이용하여 자동으로 치아교정 시술유도장치를 디자인하고, 3D 프린터를 통하여 상기 치아교정 시술유도장치를 제조하는 과정을 도시한 도면이다.
모의시술을 수행한 후, 치아교정 시뮬레이션을 수행하기 전 또는 수행한 후에 배치된 환자의 치열에 포함되는 치아 각각에 교정시술장치(80)를 부착하여(Virture set-up, Attach Orthodontics Devices) 시술유도장치를 위한 데이터를 준비한다. 예를 들어, 도 9a를 참조하면, 의사가 환자의 현재 상태와 다양한 진단 결과들을 바탕으로 실시한 모의시술로 교정이 완료된 시점의 치아 배치를 구성하고, 이 상태의 치아 각각에 교정시술에 적합한 위치를 선정하여 교정시술장치(80)를 부착하고 현재 치열의 모습으로 되돌리는 시뮬레이션 과정을 수행한다. 이로써, 현재 치열의 배치에서 정확하게 어느 위치에 교정시술장치(80)를 부착하여야 바람직한 교정의 효과를 얻을 수 있는지를 확인할 수 있으며, 이를 바탕으로 치아교정 시술유도장치(70) 디자인을 위한 데이터를 얻는다.
교정 모의시술 및 시뮬레이션 과정이 끝난 이후에, 자동으로 치아교정 시술유도장치(70)를 디자인(Automatic Orthodontic appliance or Surgical Guide Template Design)하는 작업이 수행되고, 교정시술장치(80)의 배치가 반영된 치아교정 시술유도장치(70)를 생산할 수 있다.
본 발명에서는 3D 프린터를 이용하여 치아교정 시술유도장치(70)를 제조하였으나 이에 한정되지 아니하고 3D 프린터를 포함한 RP 장비(Rapid Prototyping Device), CNC 장비(Computerized Numerial Control Device) 등의 동일한 효과를 얻을 수 있는 다양한 장치가 적용될 수 있다.
도 9b는 도 8에 의하여 모의시술 기반의 시뮬레이션을 수행하며, 시뮬레이션 진행 중 일정 기간을 설정하여 각각의 기간에 따른 3D 치아모델을 추출하고, 추출된 3D 치아모델을 기반으로 각각의 음각 데이터를 생성한 후, 3D 프린터를 이용하여 복수 개의 치아 교정장치(70)를 얻는 과정을 도시한 도면이다. 도 9c는 도 8에 의하여 모의시술 기반의 시뮬레이션을 수행하며 시뮬레이션 진행 중 일정 기간을 설정하여 각각의 기간에 따른 3D 치아모델을 추출하고, 추출된 3D 치아모델을 기반으로 각각의 구강모형 데이터를 디자인한 후 3D 프린터를 이용하여 고체상태의 구강모형을 획득하고, 진공성형기를 이용하여 교정장치를 얻는 과정을 도시한 도면이다.
도 9b 또는 도 9c를 참조하면, 도 9a의 과정을 통해 치아교정 시술유도장치(70)를 생산하는 것을 대신하여, 투명교정을 위한 단계별 치아 교정장치(70)를 생산할 수도 있다. 치아 교정장치(70)의 생산을 위해 입력되는 데이터의 생성을 위해서,
첫째, 도 1 내지 도 8을 이용하여 설명한 바와 같은 과정을 거쳐 모의시술 및 시뮬레이션을 실시한다. 이 과정은 덧니 교정, 발치 등으로 인해 일정 치아가 움직일 수 없는 등의 모든 치아가 한꺼번에 움직일 수 없는 상태를 반영하여 구분 짓는 단계이다. 예를 들면, 덧니를 교정한다고 하였을 때, 덧니가 들어갈 수 있는 공간을 만들기 위해 발치를 한 후, 주변 치아를 이동하여 주변 치아를 이동시킴으로써 공간을 만드는 과정을 제 1단계, 상기 생성된 공간에 덧니를 이동시키는 제 2단계 등으로 구분될 수 있다. 즉, 각각의 치아에 따라 복수 개의 모의시술 단계를 포함할 수 있으며, 의사의 시술 계획에 따라 보다 정밀하고 정확한 모의시술이 가능하게 된다.
둘째, 각각의 치아에 대한 모의시술의 각 단계 설정이 끝나면, 의사는 각 치아별로 이동 가중치를 설정하게 된다. 즉, 치근의 길이, 치조골의 골밀도 등을 기반으로 판단하여 각 치아별 이동 속도를 가중치로 표현하게 된다. 이는 차후 치아 교정장치(70) 제작을 위한 데이터로 이용된다.
셋째, 의사는 계획한 전체 시술 기간을 여러 개의 기간 영역으로 나눌 수 있으며, 이렇게 나눠진 기간 영역에 따른 계획에 의하여 몇 개의 치아 교정장치(70)가 제작되어야 할지를 판단하여 정할 수 있게 된다.
결국, 둘째 과정을 통해 파악된 각 치아별 이동속도 등의 정보 및 전술한 과정을 통하여 제공된 정보를 기반으로, 교정을 위한 전체의 기간 동안에 총 몇 개의 치아 교정장치(70)가 제작되어야 하며, 각각의 치아 교정장치(70)에 따라 치아의 이동 거리 정도를 어느 정도로 설정해야 하는지에 대하여 파악할 수 있다. 이때, 첫째 과정에 의해 해당 기간 동안에 움직이지 않는 치아에 대한 정보에 대해서도 알 수 있게 된다.
이후, 위와 같은 치아 교정장치(70) 모의시술 과정에 대한 결과를 토대로, 치아 교정장치(70)가 제작되어야 할 시점의 치아 모습에 맞는 치아 교정장치(70)를 제작하는 방법으로는 도 9b와 도 9c와 같이 두 가지가 있다. 즉, 도 9b에 도시된 바와 같이 예상 치아 모습의 음각 데이터를 생성하여 RP장비 혹은 CNC를 이용하여 치아 교정장치(70)를 제작하는 방법이 있으며, 도 9c에 도시된 바와 같이 예상 치아 모습의 양각 데이터를 생성하고 이를 이용하여 틀을 생성하고, 생성된 틀을 기반으로 진공성형장치(vaccum formaning machine) 등으로 치아 교정장치(70)를 제작하는 방법이 있다.
교정 시술을 수행함에 있어, 환자는 체어에 누워 입을 벌리고 있어야 하고, 의사는 환자의 좁은 구강을 들여다 보면서 작은 교정장치를 환자의 치아에 정밀하게 붙이기 위해 노력해야 한다. 이런 시술상의 불편함이 원하는 위치에 정확하게 교정장치를 부착하는 것을 방해할뿐더러, 시술전 환자를 진단하여 교정장치를 부착할 위치를 정했다 하여도, 시술시 해당 위치에 정확하게 부착하지 못하는 경우가 많았다. 이를 해결하기 위한 한 방안으로 치아교정 시술유도장치를 사용하는데, 이 시술유도장치를 제작하는데 있어 종래에는 교정 시술을 구상하고 수행하는 의사와 의사의 의견을 반영하여 실제 시술유도장치를 제작하는 기공소로 분할되어 제작을 함으로써 서로의 의사전달이 실시간으로 이루어지지 않을뿐더러, 시술유도장치 제작에 있어 의사의 의견이 즉각 반영되기 힘든 구조를 띄고 있을 뿐만 아니라, 시술유도장치 제작 방법에 있어 오차 발생율이 크다는 문제가 있다.
시술유도장치 제작방법을 살펴보자면, 의사가 환자의 구강으로부터 획득한 석고모델에 교정장치(브라켓)가 장착될 위치를 표시하여 기공소에 보내면, 석고모델에 표시된 위치를 기반으로 기공사가 교정장치(브라켓)를 부착하고, 글루건 등을 이용하여 치아교정 시술유도장치(트레이)를 제작하여 병원에 납품하는 방식으로 운영되어왔다. 따라서 교정장치 및 치아교정 시술유도장치를 제조하여 납품하는 과정에 시간이 오래 걸린다는 문제와 교정장치의 정밀한 부착에 문제가 발생하고, 여러 가지 사정에 의해 변경될 수 있는 의사의 의견을 즉시 반영하는 데에도 어려움이 있었으므로, 교정에 오류가 발생할 수 있다는 가능성이 존재하였다. 이러한 문제들 때문에 일부의 병원에서는 치아교정 시술유도장치를 전문적으로 제작하기도 하였는데, 이때에도 교정을 위한 진단 및 분석은 X선을 이용한 촬영에 의존하므로 의사에 의해 병원에서 이루어지고, 교정을 위한 치아교정 시술유도장치의 제작은 3D 스캐닝 장비와 모의 치아교정시술을 수행할 수 있는 소프트웨어를 소유한 전문 치아교정 시술유도장치 제작업체에서 별도로 이루어질 수밖에 없었다.
결국 의사와 소프트웨어 분석 업체 간의 석고모델 전달, 데이터 전송 또는 의사와 업체 간 수차례의 의사소통 과정이 필요했기 때문에, 치아교정 시술유도장치 제작에 시간이 오래 걸리고 오류의 가능성도 여전히 존재한다는 문제가 있었다.
위와같은 문제점을 해결하기 위한 방안으로, 전술한 과정에 의해 모의시술 및 시뮬레이션을 수행함으로써 이후 환자의 교정 진행 상태를 예측하고, 치아의 어느 위치에 교정시술장치(80)를 부착해야 하는지에 대하여 종래보다 더욱 정밀하고 정확하게 판단한 후 교정을 진행함으로써 교정에서 발생할 수 있는 오류의 가능성을 줄일 수 있게 되었다. 또한, 의사가 직접 환자의 상태를 검사하고 진단하며 분석된 데이터를 바탕으로 환자와 상담을 통해 치료계획을 수립한 후, 모의시술 및 시뮬레이션까지 수행한 결과 데이터를 기반으로 컴퓨터가 자동으로 장치 제작을 함으로써 오차 발생 가능성이 감소한다는 장점이 있다.
또, 업체에서는 병원에서 전송된 데이터를 기반으로 치아 교정장치(70) 또는 치아교정 시술유도장치(70)를 자동으로 설계하고, 여기에 교정시술장치(80)를 부착하여 제조하고 납품하면 되기 때문에, 전송된 데이터를 바탕으로 치아 교정장치(70) 또는 치아교정 시술유도장치(70)를 제작할 수 있는 3D 프린터를 포함한 RP 장비(Rapid Prototyping Device), CNC 장비(Computerized Numerial Control Device) 등의 설비만 갖춘다면, 그 외에 별도의 수고나 노력이 없더라도 치아 교정장치(70) 또는 치아교정 시술유도장치(70)를 생산할 수 있다는 잇점이 있다.
그 외에도 교정시술장치(80)가 외부에 노출됨으로써 대인 관계에 있어 부담을 갖는 환자들을 위해 교정 상태에 따라 기간별로 장착할 수 있는 투명 치아 교정장치(70)를 제조하여 제공함으로써, 환자들에게 치아 교정으로 인하여 발생할 수 있는 대인 관계의 부담을 덜어주는 역할을 할수 있게 되었다.
결과적으로, 환자의 교정 여부를 턱관절 분석, 파노라마 분석, 3D 분석 등 다양한 방법을 이용하여 검사 및 진단하고 치아교정의 가능정도와 기간 등에 대한 분석을 수행하여 교정계획을 수립하며, 간편한 조작에 의해 모의시술이 가능한 프로그램을 이용하여 치아이동을 모의시술하고 얼굴외형의 변화 등을 시뮬레이션하며, 시뮬레이션된 결과 데이터를 업체에 전송하면 업체는 해당 데이터를 기반으로 컴퓨터를 이용하여 치아 교정장치(70) 또는 치아교정 시술유도장치(70)를 제작하므로, 치아교정 중 발생할 수 있는 오류 가능성을 최소화한다.
이로써, 종래보다 간단하고 정밀하며 실제적으로 검사 및 진단, 분석, 치료계획 수립, 모의시술과 시뮬레이션, 치아 교정장치(70) 또는 치아교정 시술유도장치(70)의 제작과 같은 일련의 과정을 수행하는 환자맞춤형 치아진단 및 치아교정 방법을 제공할 수 있다.
이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.

Claims (9)

  1. 환자 맞춤형 치과교정 시술을 위한 방법으로서,
    단층 촬영을 통해 얻은 복수 개의 2D 단층 이미지 데이터들을 이용하여 3D 두부영상이 생성되는 제 1단계;
    상기 2D 단층 이미지 데이터 또는 3D 두부영상을 기반으로 환자의 현상태가 분석 및 진단되고 치료계획이 수립되는 제 2단계;
    단층 촬영 방식 또는 3D 스캐닝 방식을 이용하여 3D 구강표면 모델이 생성되는 제 3단계;
    상기 3D 구강표면 모델이 상기 3D 두부영상에 정합되는 제 4단계;
    상기 3D 두부영상과 그에 정합된 3D 구강표면 모델을 기반으로 3D 치아모델이 생성되는 제 5단계;
    상기 3D 두부영상을 기반으로 3D 얼굴표면 모델을 생성한 후, 이를 기반으로 3D 얼굴모델이 생성되는 제 6단계;
    상기 제 2단계에서 수립된 치료계획에 따라 모의시술이 수행되는 제 7단계;
    상기 제 7단계에서 수행된 모의시술을 바탕으로 환자의 치아 이동 변화량에 따른 얼굴의 외형 변화 시뮬레이션이 수행되는 제 8단계; 및
    상기 수행된 모의시술을 바탕으로 선택에 따라 치아교정 시술유도장치 또는 치아 교정장치에 관한 일련의 작업이 수행되어, 치아교정 시술유도장치 또는 치아교정 시술장치가 디자인되고 제작되는 제 9단계;
    를 포함하는 환자맞춤형 치아교정 모의시술과 이를 통한 시뮬레이션 및 치아 교정장치 또는 치아교정 시술유도장치 제작방법.
  2. 청구항 1에 있어서,
    상기 3D 치아모델은,
    (a) CT, MRI 또는 초음파 진단과 같은 다양한 방법에 의해 획득한 두부 단층 이미지(Dicom series)가 조합되어 3D 두부영상이 생성되고, 석고모형과 3D 스캐너가 이용된 생성, 인트라 오랄 스캐너가 이용된 생성 또는 석고모형과 CT가 이용되어 영역화, 재구축단계를 거쳐 3D 구강표면 모델이 생성되는 단계;
    (b) 상기 생성된 3D 구강표면 모델 및 상기 3D 두부영상에 표지점을 표시하는 단계;
    (c) 상기 표지점이 표시된 3D 구강표면 모델 및 3D 두부영상에 3D 표지점 기반의 정합을 수행하여 3D 두부영상에 3D 구강표면 모델을 정합하는 단계;
    (d) 상기 획득된, 3D 두부영상에 정합된 3D 구강표면 모델로부터 하나 이상의 3D 치아 크라운 모델을 추출하고, 상기 3D 두부영상으로부터 상기 추출된 치아 크라운에 대응하는 하나 이상의 3D 치아볼륨 모델을 추출하는 단계; 및
    (e) 상기 추출된 하나 이상의 3D 치아 크라운 모델과 이에 대응하여 추출된 하나 이상의 3D 치아볼륨 모델의 좌표계를 동기화하여 3D 치아모델을 생성하는 단계;
    를 포함하는 것을 특징으로 하는 환자맞춤형 치아교정 모의시술과 이를 통한 시뮬레이션 및 치아 교정장치 또는 치아교정 시술유도장치 제작방법.
  3. 청구항 1에 있어서,
    상기 제 6단계는,
    (a) 2D 얼굴 사진 데이터와 3D 두부영상을 획득하며, 상기 획득된 3D 두부영상을 이용하여 3D 얼굴표면 모델을 복원하는 단계;
    (b) 상기 획득된 2D 얼굴 사진 데이터에 표지점을 표시하고, 상기 형성된 3D 얼굴표면 모델에 표지점을 표시하는 단계;
    (c) 상기 표지점이 표시된 3D 얼굴표면 모델을 상기 2D 얼굴 사진 데이터에 적용하기 위해서 상기 표시된 표지점을 기반으로 회전, 이동 및 임의의 축을 기준으로 크기 변환하여 3D 얼굴표면 모델의 위치와 크기를 2D 얼굴 사진 데이터에 맞추는 작업을 수행함으로써, 2D 얼굴 사진 데이터의 얼굴모습에 맞춰지도록 변환된 3D 얼굴표면 모델을 생성하는 단계;
    (d) 상기 2D 얼굴 사진 데이터와 상기 변환된 3D 얼굴표면 모델에 매개변수화 과정을 거쳐 텍스쳐 매쉬(Texture-Mesh)를 생성하는 단계;
    (e) 상기 3D 얼굴표면 모델과 상기 텍스쳐 메쉬의 법선벡터를 비교하여 가시성 우선순위를 체크하는 랭크(visibility rank)과정을 수행하는 단계; 및
    (f) 상기 2D 얼굴 사진 데이터와 상기 3D 얼굴표면 모델 및 상기 매개 변수화 과정을 통해 생성된 텍스쳐 메쉬를 이용하여, 랭크(visibility rank) 과정에 의해 마킹된 최적의 가시성 텍스쳐만을 모아 텍스쳐 매핑(Texture Mapping)을 수행하는 단계;
    를 포함하는 것을 특징으로 하는 환자맞춤형 치아교정 모의시술과 이를 통한 시뮬레이션 및 치아 교정장치 또는 치아교정 시술유도장치 제작방법.
  4. 청구항 1에 있어서,
    상기 제 7단계 중 상기 모의시술은,
    (a) 3D 구강표면 모델로부터 추출된 하나 이상의 3D 치아 크라운 모델과 3D 두부영상으로부터 추출된 하나 이상의 3D 치아볼륨 모델을 결합하여 하나 이상의 3D 치아모델을 생성하는 단계;
    (b) 상기 생성된 3D 치아모델들에 적용될 수 있는 가이드를 3D 뷰(view)로써 화면의 일측에 제공하고, 상기 일측을 제외한 화면을 세 면으로 구분하여 세 가지 고정 뷰로써 표시하며, 상기 세 가지 고정시야 뷰는 정면 뷰, 측면 뷰 및 치아 저작면 뷰로써 제공되는 단계; 및
    (c) 상기 제공된 3D 뷰(view)를 통해 가이드를 확인하고, 치아모델간의 위치를 확인하며, 모의시술을 수행할 치아를 선택 후 상기 세 가지 고정시야 뷰들을 통해 조작됨으로써 교정 모의시술이 수행되는 단계;
    를 포함하는 것을 특징으로 하는 환자맞춤형 치아교정 모의시술과 이를 통한 시뮬레이션 및 치아 교정장치 또는 치아교정 시술유도장치 제작방법.
  5. 청구항 4에 있어서,
    상기 치아 교정 시술을 위한 모의시술 방법으로서 사용자에 의해 선택되어 조작되는 치아는
    상기 치아 이동 모의시술시 3D 두부영상에 표시된 표지점(landmarks) 또는 그를 이용한 측정값(measurement)들이 치아의 변환 상태에 따라 실시간으로 변경되며,
    상기 변경된 표지점(landmarks) 또는 그를 이용한 측정값(measurement)들이 반영되어 3D 뷰 화면에 가시화되어 환자의 해부학적 상태 분석의 변화를 실시간으로 제공하는 것을 특징으로 하는 환자맞춤형 치아교정 모의시술과 이를 통한 시뮬레이션 및 치아 교정장치 또는 치아교정 시술유도장치 제작방법.
  6. 청구항 1에 있어서,
    상기 제 8단계의 시뮬레이션은,
    3단계에서 생성된 3D 치아모델 및 4단계에서 생성된 3D 얼굴모델이 반영되며, 상기 모의시술에 따른 치아이동 및 얼굴외형 변화가 단계별 설정 또는 자동으로 적용되어 확인됨으로써 이루어지는 것을 특징으로 하는 환자맞춤형 치아교정 모의시술과 이를 통한 시뮬레이션 및 치아 교정장치 또는 치아교정 시술유도장치 제작방법.
  7. 청구항 1에 있어서,
    상기 제 9단계의 치아교정 시술유도장치는,
    상기 시뮬레이션 된 결과를 바탕으로 자동으로 디자인되며,
    RP장비 또는 CNC장비를 이용하는 방법으로 제조되는 것을 특징으로 하는 환자맞춤형 치아교정 모의시술과 이를 통한 시뮬레이션 및 치아 교정장치 또는 치아교정 시술유도장치 제작방법.
  8. 청구항 1에 있어서,
    상기 제 9단계의 치아 교정장치는,
    상기 시뮬레이션 된 결과를 바탕으로 자동으로 디자인되며,
    환자의 교정상태 진행 정도에 따라 얻은 복수 개의 음각 데이터들을 기반으로 RP장비 또는 CNC장비를 이용하여 복수 개의 치아 교정장치를 제조함으로써 얻는 것을 특징으로 하는 환자맞춤형 치아교정 모의시술과 이를 통한 시뮬레이션 및 치아 교정장치 또는 치아교정 시술유도장치 제작방법.
  9. 청구항 1에 있어서,
    상기 제 9단계의 치아 교정장치는,
    상기 시뮬레이션 된 결과를 바탕으로 자동으로 디자인되며,
    환자의 교정상태 진행 정도에 따라 얻은 복수 개의 구강모형 데이터들을 기반으로 RP장비 또는 CNC장비를 이용하여 복수 개의 치아 구강모형을 제조한 후, 이를 바탕으로 진공성형장치를 통하여 복수 개의 치아 교정장치를 얻는 것을 특징으로 하는 환자맞춤형 치아교정 모의시술과 이를 통한 시뮬레이션 및 치아 교정장치 또는 치아교정 시술유도장치 제작방법.
PCT/KR2015/006973 2014-07-04 2015-07-06 환자맞춤형 치아교정 모의시술과 이를 통한 시뮬레이션 및 치아 교정장치 또는 치아교정 시술유도장치 제작방법 WO2016003255A2 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0083998 2014-07-04
KR1020140083998A KR20160004862A (ko) 2014-07-04 2014-07-04 환자맞춤형 치아교정 모의시술과 이를 통한 시뮬레이션 및 치아 교정장치 또는 치아교정 시술유도장치 제작방법

Publications (1)

Publication Number Publication Date
WO2016003255A2 true WO2016003255A2 (ko) 2016-01-07

Family

ID=55020066

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/006973 WO2016003255A2 (ko) 2014-07-04 2015-07-06 환자맞춤형 치아교정 모의시술과 이를 통한 시뮬레이션 및 치아 교정장치 또는 치아교정 시술유도장치 제작방법

Country Status (2)

Country Link
KR (1) KR20160004862A (ko)
WO (1) WO2016003255A2 (ko)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101872393B1 (ko) * 2017-09-06 2018-06-28 단국대학교 산학협력단 개인맞춤형 치아 모델링 방법
CN108403134A (zh) * 2018-01-29 2018-08-17 北京朗视仪器有限公司 基于口腔ct设备进行人脸3d扫描的方法和装置
US20190117337A1 (en) * 2017-10-19 2019-04-25 Ormco Corporation Methods for orthodontic treatment planning with augmented visual analysis
CN111275808A (zh) * 2019-12-06 2020-06-12 上海正雅齿科科技股份有限公司 一种牙齿正畸模型的建立方法及装置
WO2020180763A1 (en) * 2019-03-04 2020-09-10 Open Technologies S.R.L. Dental scanning and visualization system
CN114049350A (zh) * 2021-12-15 2022-02-15 四川大学 一种牙槽骨轮廓预测模型的生成方法、预测方法及装置
US11517272B2 (en) 2018-05-10 2022-12-06 3M Innovative Properties Company Simulated orthodontic treatment via augmented visualization in real-time
WO2023277674A1 (ko) * 2021-07-01 2023-01-05 가톨릭대학교 산학협력단 한국인에서 표준화된 c형 근관을 가지는 치아의 제조방법

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101887198B1 (ko) * 2016-06-20 2018-09-06 주식회사 디오코 치아 교정 및 얼굴 성형 시뮬레이션 장치에서의 시뮬레이션 방법 및 이를 저장하는 컴퓨터로 판독 가능한 기록 매체
KR102424096B1 (ko) * 2017-05-16 2022-07-25 주식회사 디오 인공 치아 시술용 영상 정합을 위한 서비스 장치 및 이를 위한 이미지 정합 방법
KR102007316B1 (ko) * 2017-05-31 2019-08-05 연세대학교 산학협력단 외장 의안의 3차원 영상 생성 장치 및 방법
KR20190069653A (ko) * 2017-12-07 2019-06-20 박영현 구강 장치 및 그 제조 방법
KR102043626B1 (ko) * 2017-12-27 2019-12-02 주식회사 비앤에이치코리아 복수의 성형수술경험자의 비포 앤 애프터 이미지에 대한 빅데이터를 분석하여 성형수술을 희망하는 고객에게 가상의 성형이미지를 제공하는 딥러닝 기반 가상성형장치
WO2020060350A1 (ko) * 2018-09-21 2020-03-26 연세대학교 산학협력단 3차원 맞춤형 골신장술을 위한 골 신장장치, 그 제작방법, 기록매체 및 완전맞춤형 골신장장치 제작장치
KR102121963B1 (ko) * 2018-10-25 2020-06-11 울산대학교 산학협력단 치아 교정 임상 빅데이터를 이용한 투명 교정 모델 설정 장치, 그 방법 및 프로그램
KR102318522B1 (ko) * 2018-12-31 2021-10-29 한국전자통신연구원 수치표고모델을 이용한 3차원 가상 환경 저작 시스템 및 그것의 동작 방법
KR102330488B1 (ko) * 2019-03-22 2021-11-25 (주)바이오큐빅스 치아 교정을 위한 진단 정보의 제공 방법
KR102268433B1 (ko) * 2019-08-08 2021-06-23 오스템임플란트 주식회사 치아교정 진단 방법 및 장치
KR102269030B1 (ko) * 2019-10-24 2021-06-24 오스템임플란트 주식회사 교정 디자인 방법 및 그 장치
KR102401135B1 (ko) * 2020-03-10 2022-05-23 오스템임플란트 주식회사 디지털 치과 치료 시뮬레이션 방법 및 그 장치
KR102506836B1 (ko) * 2020-11-17 2023-03-07 오스템임플란트 주식회사 치아 배열 디자인 방법 및 그 장치
KR102566541B1 (ko) * 2021-02-18 2023-08-16 오스템임플란트 주식회사 치과 교정치료 계획 수립방법 및 그 장치
KR102667673B1 (ko) * 2021-09-09 2024-05-21 오스템임플란트 주식회사 치과 교정치료 계획 수립 방법 및 그 장치
KR102472416B1 (ko) * 2022-05-13 2022-11-30 주식회사 쓰리디오엔에스 얼굴 변환 시뮬레이션 수행 방법, 서버 및 컴퓨터 프로그램

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101872393B1 (ko) * 2017-09-06 2018-06-28 단국대학교 산학협력단 개인맞춤형 치아 모델링 방법
US20190117337A1 (en) * 2017-10-19 2019-04-25 Ormco Corporation Methods for orthodontic treatment planning with augmented visual analysis
US11033361B2 (en) 2017-10-19 2021-06-15 Ormco Corporation Methods for orthodontic treatment planning with augmented visual analysis
CN108403134A (zh) * 2018-01-29 2018-08-17 北京朗视仪器有限公司 基于口腔ct设备进行人脸3d扫描的方法和装置
US11517272B2 (en) 2018-05-10 2022-12-06 3M Innovative Properties Company Simulated orthodontic treatment via augmented visualization in real-time
WO2020180763A1 (en) * 2019-03-04 2020-09-10 Open Technologies S.R.L. Dental scanning and visualization system
CN111275808A (zh) * 2019-12-06 2020-06-12 上海正雅齿科科技股份有限公司 一种牙齿正畸模型的建立方法及装置
CN111275808B (zh) * 2019-12-06 2023-09-15 正雅齿科科技(上海)有限公司 一种牙齿正畸模型的建立方法及装置
WO2023277674A1 (ko) * 2021-07-01 2023-01-05 가톨릭대학교 산학협력단 한국인에서 표준화된 c형 근관을 가지는 치아의 제조방법
CN114049350A (zh) * 2021-12-15 2022-02-15 四川大学 一种牙槽骨轮廓预测模型的生成方法、预测方法及装置
CN114049350B (zh) * 2021-12-15 2023-04-07 四川大学 一种牙槽骨轮廓预测模型的生成方法、预测方法及装置

Also Published As

Publication number Publication date
KR20160004862A (ko) 2016-01-13

Similar Documents

Publication Publication Date Title
WO2016003255A2 (ko) 환자맞춤형 치아교정 모의시술과 이를 통한 시뮬레이션 및 치아 교정장치 또는 치아교정 시술유도장치 제작방법
US20180153659A1 (en) System and method for effective planning, visualization, and optimization of dental restorations
CN1998022B (zh) 用来驱动用于正颌手术的治疗计划的方法及其器械
WO2016003257A2 (ko) 치과 시술 시뮬레이션을 위한 치아모델 생성 방법
EP2134290B1 (en) Computer-assisted creation of a custom tooth set-up using facial analysis
US8244028B2 (en) Virtual cephalometric imaging
US6879712B2 (en) System and method of digitally modelling craniofacial features for the purposes of diagnosis and treatment predictions
EP3641653B1 (en) Method of recording of temporomandibular joint movement and geometry
JPWO2006033483A1 (ja) 人体情報抽出装置、人体撮影情報の基準面変換方法および断面情報検出装置
CN103908352B (zh) 用于生成数字虚拟颌架的方法和系统
Roden-Johnson et al. Comparison of hand-traced and computerized cephalograms: landmark identification, measurement, and superimposition accuracy
WO2017171295A1 (ko) 환자의 악골의 움직임 추정이 반영된 증강현실 시스템 및 증강현실 제공방법
WO2023013805A1 (ko) 자연 두부 위치에서 촬영된 3차원 cbct 영상에서 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출방법
US11654002B2 (en) Method for determining and visualizing tooth movements and planned instances of tooth repositioning
WO2019124845A1 (ko) 임플란트 진단용 영상 생성 시스템 및 그 생성방법
WO2016003256A1 (ko) 치아 교정 시술을 위한 모의시술 방법
Shen et al. Fusion Modeling of Intraoral Scanning and CBCT Images on Dental Caries
de Moraes¹ et al. 42 Medicine Meets Virtual Reality 11 JD Westwood et al.(Eds.) IOS Press, 2003
Ravi ShantharaJ et al. Craniofacial Imaging in Orthodontics-Past Present and Future
Aoki et al. 3D head model construction of individuals utilizing standard model and photogrammetry
Projections et al. Historical Overview Historical Perspectives on Imaging in Orthodontics Imaging Goals and Strategies

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15814359

Country of ref document: EP

Kind code of ref document: A2

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 08/05/2017)

122 Ep: pct application non-entry in european phase

Ref document number: 15814359

Country of ref document: EP

Kind code of ref document: A2