WO2014073818A1 - 임플란트 영상 생성방법 및 임플란트 영상 생성 시스템 - Google Patents

임플란트 영상 생성방법 및 임플란트 영상 생성 시스템 Download PDF

Info

Publication number
WO2014073818A1
WO2014073818A1 PCT/KR2013/009762 KR2013009762W WO2014073818A1 WO 2014073818 A1 WO2014073818 A1 WO 2014073818A1 KR 2013009762 W KR2013009762 W KR 2013009762W WO 2014073818 A1 WO2014073818 A1 WO 2014073818A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
image
stl
reference plate
implant
Prior art date
Application number
PCT/KR2013/009762
Other languages
English (en)
French (fr)
Inventor
박광범
Original Assignee
주식회사 메가젠임플란트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메가젠임플란트 filed Critical 주식회사 메가젠임플란트
Priority to RU2015121093/28A priority Critical patent/RU2597076C1/ru
Priority to CN201380058146.5A priority patent/CN104955399B/zh
Priority to US14/440,928 priority patent/US20150297149A1/en
Priority to BR112015010457-6A priority patent/BR112015010457B1/pt
Priority to JP2015541678A priority patent/JP2015533607A/ja
Priority to EP13853026.6A priority patent/EP2918229A4/en
Publication of WO2014073818A1 publication Critical patent/WO2014073818A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/0003Making bridge-work, inlays, implants or the like
    • A61C13/0004Computer-assisted sizing or machining of dental prostheses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/0003Making bridge-work, inlays, implants or the like
    • A61C13/0006Production methods
    • A61C13/0013Production methods using stereolithographic techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C19/00Dental auxiliary appliances
    • A61C19/04Measuring instruments specially adapted for dentistry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Definitions

  • the present invention relates to an implant image generation method and an implant image generation system, and more particularly, to combine the STL data and CT data using a reference plate, through which implant image generation that can accurately describe the tooth structure and gum structure A method and an image generation system.
  • the CT apparatus may acquire a stereoscopic image of the inside of the patient's body using an X-ray projection apparatus that rotates about the patient.
  • the CT device may acquire a 2D cross-sectional image of the patient's body and then combine the cross-sectional images to form a 3D image.
  • the higher density of tissue is darker and the lower density of tissue is brighter based on blood among the constituent tissues of the body. Therefore, when a prosthesis or prosthesis is present inside the body, X-rays are scattered or diffracted, so that an error may occur in a 2D image or a 3D image obtained by the CT apparatus.
  • the CT apparatus forms a two-dimensional or three-dimensional image of a region of interest of the medical staff among the tissues of the body, it may be inconvenient to have a general view of the body tissue.
  • Korean Patent Application No. 10-2008-0129545 describes a two-dimensional or three-dimensional stereoscopic image by continuously photographing a subject (for example, a patient) using a CT (Computed Tomography) device, and incorporating a panorama photographing method into the photographed CT image.
  • a subject for example, a patient
  • CT Computer Planar Tomography
  • Patent application 10-2008-0129545 describes a three-dimensional image by using a difference that is caused by varying the distance of the X-ray light source projected to the ROI when projecting the X-ray light source along the trajectory centered on the ROI of the subject.
  • the image acquired by the CT device is distorted by various types of prosthetics and prostheses provided inside the body of the patient.
  • the X-ray light source projected from the CT device to the tooth may be scattered and diffracted by the gold teeth or the prosthesis to distort the surrounding image.
  • Image distortion caused by the prosthesis or prosthesis can be illustrated through FIG. 1.
  • the artificial tooth shown in FIG. 1 may make it difficult to distort or identify an image around the artificial tooth by diffusely reflecting or diffracting X-rays. The same occurs in other prostheses or implants located inside the body of the patient, it is possible to reduce the accuracy of the image obtained through the CT device.
  • An object of the present invention is to combine the advantages of STL data and CT data in the implant procedure, to generate an accurate stereoscopic image of the patient's tooth structure and gum structure and to use it to guide accurate and safe implant procedures
  • An implant image generation method and system are provided.
  • the above object is performed by an implant image generation system for generating an implant image and reproducing it on a display device, and obtained CT (Computed Tomography) data obtained when a bite having a reference plate is inserted into a mouth of a patient. And acquiring STL (Stereo Lithography) data representing a three-dimensional shape with polygons with reference to the Plaster Patterns of Teeth, and after matching the reference plate coordinates of the CT data with the reference plate coordinates of the STL data, Correcting the CT data based on STL data, and generating a hybrid image in which the corrected CT data represents a region having a first density, and wherein the STL data represents a region having a second density. Is achieved.
  • STL Stereo Lithography
  • STL Stepo Lithography
  • CT Computed Tomography
  • Plaster Patterns of Teeth obtained when a bite having a reference plate is inserted into a patient's mouth CT data input module for acquiring data
  • CT data correction module for correcting the CT data based on the STL data after matching the reference plate coordinates of the CT data with the reference plate coordinates of the STL data.
  • the CT data and the STL data are combined by using a reference plate to generate accurate modeling data of the tooth structure and the gum structure, and the hybrid model in which the teeth and the gums are clearly described using the generated modeling data is generated.
  • the implant operator can prevent the accident in advance by performing the correct procedure using the hybrid image according to the present invention, and may contribute to the medical development by sharing the result of the procedure.
  • FIG. 1 illustrates a reference view of an example in which a CT image is distorted by a prosthesis or a prosthesis.
  • FIG. 2 is a conceptual diagram of an implant image generation system according to an embodiment of the present invention.
  • FIG 3 illustrates a reference view of an example of a bite inserted into a mouth of a patient.
  • FIG. 4 is a flowchart illustrating a method of generating an implant image according to an embodiment of the present invention.
  • FIG. 5 illustrates a flowchart according to an embodiment of a method of controlling a hybrid image.
  • 6 and 7 illustrate reference diagrams for an example of displaying a panoramic image on a screen.
  • FIG. 8 shows a reference drawing for a prototype of a byte produced by the applicant.
  • FIGS. 9 and 10 illustrate conceptual diagrams of an example in which an implant image generating system corrects coordinate information of STL data and CT data.
  • FIG. 11 illustrates a reference view of an example of a hybrid image formed by combining a CT image and an STL image.
  • the bite referred to herein is inserted into the oral cavity of the patient and can be used to model the teeth and gum structures provided in the oral cavity of the patient.
  • the bite may have a reference plate, which may be provided at a position facing one side of the bite to the outside of the mouth.
  • the reference plate can be used to calibrate CT (Computed Tomography) data.
  • the gypsum bones referred to herein may be formed by patterning the teeth and gums.
  • the gypsum is attached within the bite and can leave the shape of the teeth and surrounding gums when the patient's teeth press the gypsum after being inserted into the patient's mouth.
  • STL (Sereo Lithgraphy) data referred to herein may have ASCII (binary) or binary format, and in order to facilitate modeling data of stereoscopic objects in 3D (Dimension) programs in other types of 3D programs. It may refer to data representing a surface as a polygonal polygon.
  • the CT data referred to herein may refer to data about a cross-sectional image taken of a patient's teeth in a CT (Computed Tomography) device.
  • the CT data may refer to a stereoscopic image implemented using a plurality of cross-sectional images. It is not limited.
  • FIG. 2 is a conceptual diagram of an implant image generation system according to an embodiment of the present invention.
  • the implant image generating system 100 is network-connected with the plurality of user terminals 10a 10n and is wired or wirelessly connected to the CT device 30 so as to provide CT data from the CT device 30. Can be obtained.
  • the CT device 30 may generate CT data by cross-sectional scanning the structure of the patient's skull, teeth, and gums around the teeth using X-rays.
  • the CT data may include data about a byte 60 in addition to the structure and density information about the teeth and gums.
  • Byte 60 is inserted into the patient's oral cavity, and when engaged with the teeth, the plaster is filled with a bone for shaping the teeth and the gum structure around the teeth, and in the opposite direction to the oral insertion direction
  • the reference plate may be extended. The structure of the byte 60 will be described with reference to FIG. 3 together.
  • FIG 3 illustrates a reference view of an example of a bite inserted into a mouth of a patient.
  • the illustrated bite 60 may be composed of a body 61 having a curvature along the tooth arrangement of the patient, a reference plate 62 protruding in the opposite direction of the mouth from the center of the front teeth of the patient, the area facing the patient's teeth
  • the gypsum 63 is filled, and the filled gypsum 63 is pressed by the teeth, the tooth structure of the patient and the structure of the gum neighboring the teeth may be carved on the gypsum 63.
  • the reference plate 62 provided in the bite 60 has a rectangular pillar shape, and may protrude outward from the tooth of the patient at the center of the bite 60.
  • the reference plate 62 is not only included in the CT data but also included in the STL data generated for the plaster bone after the plaster bone for the patient's teeth and gums is generated. That is, data about the reference plate 62 may be included in both the CT data and the STL data.
  • the implant image generation system 100 is obtained by the plaster pattern, accurate STL CT data can be corrected around the data.
  • the implant image generating system 100 may match the coordinate information of the reference plate 62 in the STL data and the CT data.
  • the coordinate information of the reference plate 62 included in the CT data is corrected to the coordinate information included in the STL data. This may be referred to as reference point correction.
  • the distance between the coordinates of the CT data may be re-sized according to the coordinate correction of the CT data.
  • a hybrid image is formed by combining the corrected CT data and the STL data.
  • the STL data data about exoskeleton structures such as tooth structure and gum structure are combined with coordinate-corrected CT data to form a hybrid image so that CT data, which is difficult to express gums, can be faithfully represented.
  • the implant image generating system 100 may form a hybrid image and display the formed hybrid image on a display device.
  • the display device may be one of devices such as an LCD, an LED, a PDP, and a CRT connected to the implant image generating system 100.
  • the implant image generation system 100 may provide implant procedure data to a user terminal 10a 10n that requires knowledge and experience in hospitals, public health centers, medical schools (graduate schools), and other implant procedures.
  • the implant procedure data may have a form of a video in which a user interface provided by the implant image generating system 100 according to an embodiment is applied to an actual procedure site.
  • the implant procedure data may be learning materials for the user interface itself provided by the implant image generating system 100 according to the embodiment.
  • the implant procedure data may be charged in the pay-as-you-go system using a time from the login connection to the implant image generation system 100 in the user terminal 10a 10n to the end of the connection. On the other hand, the implant procedure data may be charged in proportion to the time when the user terminal 10a 10n accesses the implant procedure data. It is not limited.
  • the implant image generation system may include a modeling data input module 110, a CT data correction module 120, a hybrid image generation module 130, an image control module 140, and a database 150. .
  • the modeling data input module 110 uses the CT data acquired by the CT device 30 and the bytes 60 and bytes 60 inserted into the patient's mouth after the bite 60 is inserted into the patient's mouth.
  • STL data which is 3D modeling data about the obtained plaster patterns (Plaster Patterns Of Teeth), may be input.
  • 3D modeling data for the plaster bone may be generated by the 3D scanner 3D modeling data for the teeth and gums formed by the bite 60, the reference plate 62, the plaster bone.
  • the generated 3D modeling data may be STL data.
  • the STL data is the most accurate depiction of a patient's teeth and gums, as there is no external influence by the prosthesis and prosthesis that may be present in the patient's oral cavity, and there are no elements that interfere with 3D scanning.
  • the modeling data input module 110 may provide these data to the CT data correction module 120 after the CT data and the STL data are obtained.
  • the CT data correction module 120 extracts the coordinate information of the reference plate 62 included in the CT data and the coordinate information of the reference plate 62 included in the STL data, and extracts the coordinate information of the reference plate 62 included in the CT data.
  • the coordinate information is corrected to the coordinate information of the reference plate 62 included in the STL data.
  • the CT data may be corrected according to any one of the following items.
  • the CT data correction module 120 may mean correcting the coordinate information of the reference plate 62 included in the CT data to the coordinate information of the STL, and then correcting the distance between the reference plate 62 and the molar teeth of the corrected CT data to L2. Can be. By such correction, the entire CT data can be corrected based on the STL data.
  • the CT data correction module 120 may finally correct the CT data by re-sizing the distance between the coordinates for implementing the 3D image.
  • the resized CT data is provided to the hybrid image generating module 130, and the hybrid image generating module 130 combines the exoskeleton of the STL data with the corrected CT data to form a hybrid image in which both teeth and gums are expressed. can do.
  • the structure of the gums left on the plaster bone through the 3D scanner can be represented as STL data represented as polygons of triangles, squares, pentagons and other polygons. Therefore, when STL data having the same size as the corrected CT data is combined with the CT data, the CT data may represent all teeth, the oral cavity, and the gums. In this case, since the coordinates and sizes of the CT data are corrected by the STL data, the CT data may be precisely matched to the precision of the STL data.
  • FIG. 4 is a flowchart illustrating a method of generating an implant image according to an embodiment of the present invention. 4 will be described with reference to FIGS. 2 and 3 together.
  • an image of a patient's oral cavity in which a bite 60 is inserted into the oral cavity is captured by the CT device 30, and CT data is acquired through the CT device 30 (S201).
  • the implant image generating system 100 is extracted from the patient's mouth through the bite 60, and the plaster bite on the structure of the patient's teeth and gums through the extracted bite 60, using the plaster pattern
  • STL data that is 3D modeling data is generated.
  • the CT data and the STL data may include data for the byte 60.
  • the STL data may be obtained through 3D scanning of the gypsum bone.
  • the STL data and the CT data include data about the position and structure of the byte 60.
  • the implant image generating system 100 overlaps the byte 60 included in the CT data and the STL data (S203).
  • the overlap of the byte 60 may be processed by one of the method of overlapping the image of the CT data and the STL data, or the method of overlapping the coordinate information of the byte 60 in the CT data and the STL data.
  • Overlapping the byte 60 for the CT data and the STL data means that the reference point of the CT data and the STL data, that is, the position of the byte 60 is set to be the same.
  • the CT data and the STL data can share the same reference point, and the coordinate information of the CT data can be corrected in accordance with the STL data.
  • the implant image generation system 100 removes data representing the byte 60 from the CT data and the STL data (S204), and leaves only data on the teeth, gums and oral cavity of the patient.
  • the implant image generation system 100 may correct the coordinate information of the CT data whose position information of the reference plate 62 is corrected with reference to the STL data (S205).
  • the coordinate information of the CT data may be corrected by applying the distance between the reference plate 62 used as a reference point and each tooth included in the STL data to the CT data.
  • D2 may be corrected to D1.
  • the coordinate information included in the CT data may be corrected by referring to the distance value between the reference plate 62 and the STL data side coordinate information.
  • the implant image generating system 100 may combine the corrected CT data with the STL data and add an exoskeleton structure of the STL data to the CT data (S206).
  • the STL data includes the exoskeleton structure of the teeth and the gums around the teeth, and when combined with the CT data with the CT data corrected so that the image of the same size as the CT data is displayed, the gum structure that is not well represented in the CT data It can be expressed based on CT data.
  • the CT data represents the difference in density after the X-rays are projected onto the patient's teeth and gums, so that blood or gums of low density are relatively inferior in resolution to teeth.
  • the STL data is 3D modeling data of the teeth and gum structures of the gypsum pattern patient, the teeth and the gum structures around the teeth can be clearly described.
  • the image expressed through the CT data and the image expressed through the STL data may be resized to the same size. Accordingly, the CT data and the STL data, which are images of the same size, can be superimposed, the density of the tooth and the structure of the oral cavity can be well expressed by the overlapped CT data and the STL data, and the STL data is located around the teeth. Gum can be added to images of CT data. In this way, an image formed after combining CT data and STL data may be referred to as a "hybrid image".
  • the implant image generating system 100 may generate a 3D stereoscopic hybrid image (S207) and display it on a display device or store the file in a file form and provide the same to the user terminal 10a 10n.
  • S207 3D stereoscopic hybrid image
  • FIG. 5 illustrates a flowchart according to an embodiment of a method of controlling a hybrid image.
  • an implant image generating system 100 displays a main menu on a display apparatus, displays a user mode menu, and recognizes a mode set by a user (S301).
  • the implant image generation system 100 may provide various user modes for the generated hybrid image.
  • the user mode includes a bird's-eye view of the teeth in the direction of the skull, a bird's-eye view of the teeth in the direction of the jaw, a three-dimensional image in which the skull and the teeth are represented together, and a two-dimensional view of both the upper and lower teeth from the front. It may mean one of an individual mode or a panorama mode of a form including at least two or both of a bird's-eye view, a stereoscopic image, and a front image.
  • the implant image generating system 100 determines whether the panoramic menu is selected in the main menu (S302).
  • an image corresponding to the individual mode may be displayed on the display apparatus.
  • the implant image generating system 100 may display the bird's eye image, the stereoscopic image, and the front image together on one screen, or the bird's eye image and the stereoscopic image, or the stereoscopic image and the front image It can be displayed together on one screen.
  • the panoramic image may be displayed together with a plurality of images of the tooth, so that the medical staff can view and understand the image of the tooth and its surroundings from various angles.
  • the implant image generating system 100 may form a divided region for a screen (S303), and place a stereoscopic image, a front image, and a bird's eye image in each divided region (S305), and are disposed in the divided region.
  • the stereoscopic image, the frontal image, and the bird's-eye image may be controlled to be interlocked and displayed on the screen (S306). For example, assuming that a user clicks a canine using a mouse (or a keyboard) and then drags it in the molar direction in an image of a tooth represented in a frontal image, when selecting a canine, an area where a canine is expressed in a three-dimensional image is selected. In the center of the screen, when dragged in the molar direction, the area where the molar is expressed may be represented in the center of the screen.
  • the implant image generating system 100 may allow one of the bird's eye view image, the front image, and the stereoscopic image to be displayed on the screen independently (S304). That is, an image of the user selected image mode may be displayed on the screen.
  • 6 and 7 illustrate reference diagrams for an example of displaying a panoramic image on a screen.
  • FIG. 6 illustrates an example of a bird's eye view image.
  • FIG. 6 illustrates an example of a bird's eye view image obtained when viewed from the skull direction to the jaw direction.
  • the operator may select a tooth to be observed by the operator among the teeth of the patient as an input device such as a mouse.
  • reference numerals 401 to 405 are user-selected points by an input device such as a mouse, and show an example in which a user selects a tooth to be viewed as a stereoscopic image and a frontal image.
  • FIG. 7 illustrates an example of an image taken in the panorama mode.
  • a single screen is divided into three areas A1, A2, and A3, and a front image and A2 are included in the A1 area.
  • a stereoscopic image is displayed in the area and a bird's eye image is displayed in A3. If the operator clicks P1 on the front image displayed in the area A1 and then drags the mouse in the direction DR3, the stereoscopic image displayed in the area A2 rotates in the direction DR1 and the operator displays the area A1.
  • the mouse is dragged in the DR4 direction after clicking P1 on the front image, the stereoscopic image displayed in the area A2 may be rotated in the DR4 direction.
  • the stereoscopic image displayed in the area A2 is also displayed to display a position linked thereto. It can be rotated in the DR3 or DR4 direction.
  • the bird's-eye view displayed in the area A3 also displays a circular diagram at the position selected from the front image, so that the operator can refer to the bird's-eye view, stereoscopic image, and front image together to comprehensively understand the state and structure of the patient's teeth and surrounding gums. Can contribute to judgment.
  • P2 may correspond to the same position as the reference line REF of the tooth in the front image displayed in the area A1.
  • the position where the operator wants to take the bird's eye corresponds to P3
  • the position of P3 corresponds to the position of P1. That is, the images of the areas A1, A2, and A3 actually mean that the same tooth position is interlocked so that they can be located at the center of the screen.
  • FIG. 8 shows a reference drawing for a prototype of a byte produced by the applicant.
  • the bite may include a body 61, a reference plate 62, and a plaster 63 inserted into the mouth of the patient.
  • the body 61 and the reference plate 62 may be made of a plastic material.
  • the reference plate 62 may be integrally formed with the body 61 and may protrude from the body 61 to be located outside the oral cavity. As a result, the reference plate 62 may not be twisted or bent in the oral cavity, and in this state, CT data and STL data for the reference plate 62 may be generated.
  • Gypsum 63 may be provided in a direction facing the patient's teeth.
  • the gypsum 63 may imprint the shape of the patient's teeth and the gums around the teeth when the patient presses the gypsum 63 with the teeth.
  • the imprinted tooth and gum shapes are later used by the 3D scanner to generate STL data.
  • FIGS. 9 and 10 illustrate conceptual diagrams of an example in which an implant image generating system corrects coordinate information of STL data and CT data.
  • the STL image generated by the STL data and the CT image generated based on the CT data may define the distance or direction of the tooth with respect to the reference plate 62.
  • the reference plate 62 shown in Figs. 9 and 10 shows the same thing.
  • FIGS. 9 and 10 Before comparing FIGS. 9 and 10, the image of FIGS. 9 and 10 will be described.
  • the distance between the reference plates 62 and both ends of the tooth 80 are d1 and d2, respectively.
  • the CT image illustrated in FIG. 10 corresponds to a CT image generated based on CT data before coordinate information is corrected.
  • the distance d3 between both ends of the tooth 81 is biased in the direction A toward one side of the tooth 81 by the distance d7.
  • the deviation of the direction may be due to the image distortion caused by the prosthesis or prosthesis that the error of the CT image is located around the teeth (80).
  • the distance d4 between the reference plate 62 and the teeth 80 shown in FIG. 10 is corrected.
  • -> d1, d5-> d2 the distance between the reference plate 62 and each tooth of the patient can be corrected by referring to the definition of STL data using this method. Can proceed accordingly.
  • the reference plate 62 may be a reference point for correcting the distance or direction to each tooth in the CT data.
  • the coordinate information of the reference plate 62 should be corrected in accordance with the STL data before correcting the coordinate information of the CT data.
  • the coordinate information of the teeth included in the CT data may be corrected based on the STL data.
  • the shape and coordinate information of each tooth represented in the CT data may be resized by the STL data.
  • the CT image and the STL image formed by the CT data and the STL data may have the same size.
  • the CT image is coated with the exoskeleton of the gum implemented in the STL image to determine the shape and density of the tooth and the gum. It can be expressed.
  • An image in which the shape of the tooth and the gum is realized by combining CT data and STL data is defined as a hybrid image, which may have a shape illustrated in FIG. 11.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Epidemiology (AREA)
  • Theoretical Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Pulmonology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 기준 플레이트를 이용하여 CT 데이터와 STL 데이터를 결합함으로써 치아 구조 및 잇몸 구조에 대한 하이브리드 영상을 획득하는 임플란트 영상 생성 방법을 제안한다. 이를 위해 본 발명은 임플란트 영상을 생성하고 디스플레이장치에 재생하는 임플란트 영상 생성 시스템에 의해 수행되며, 환자의 구강에 기준 플레이트를 구비하는 바이트가 삽입되었을 때 획득되는 CT(Computed Tomography) 데이터 및 치아 석고 본(Plaster Patterns of Teeth)을 참조하여 폴리곤으로 입체를 표현하는 STL(STereo Lithography) 데이터를 획득하는 단계, CT 데이터의 기준 플레이트와 STL 데이터의 기준 플레이트 좌표를 일치시킨 후, STL 데이터를 기준으로 CT 데이터를 보정하는 단계 및 보정된 CT 데이터는 제1밀도의 영역을 표현하도록 하고, STL 데이터는 제2밀도의 영역을 표현하도록 하는 하이브리드 영상을 생성하는 단계로 구성될 수 있다.

Description

임플란트 영상 생성방법 및 임플란트 영상 생성 시스템
본 발명은 임플란트 영상 생성방법 및 임플란트 영상 생성 시스템에 관한 것으로, 더욱 상세하게는 기준 플레이트를 이용하여 STL 데이터와 CT 데이터를 결합하고, 이를 통해 치아 구조 및 잇몸 구조를 정확하게 묘사할 수 있는 임플란트 영상 생성방법 및 영상 생성 시스템에 관한 것이다.
통상적으로, CT 장치는 2차원 평면 이미지를 얻는 X선 촬영장치와는 달리, 환자를 중심으로 회전하는 X선 투사장치를 이용하여 환자의 신체 내부에 대한 입체적인 영상을 획득할 수 있다. 예컨대, CT 장치는 환자의 신체의 2차원 단면 영상을 획득한 후, 각 단면 영상을 조합하여 3차원 영상을 형성할 수 있다.
CT 장치는 신체를 구성하는 구성 조직들 중 혈액을 기준으로, 이보다 고 밀도인 조직은 어둡게 표현되고, 이보다 낮은 밀도의 조직은 밝게 표현하고 있다. 따라서, 신체 내부에 보형물 또는 보철물이 존재하는 경우, X선을 산란시키거나 회절시키게 되므로 CT 장치에 의해 획득되는 2차원 영상이나 3차원 영상에 오류가 발생할 수 있다. 또한, CT 장치는 신체의 조직들 중 의료진이 관심을 갖는 영역에 대해 2차원 또는 3차원 영상을 형성하므로 신체 조직을 전체적으로 조감하는데는 다소의 불편함이 있을 수 있다.
이러한 문제에 대해 한국 특허출원 10-2008-0129545에서는 CT(Computed Tomography) 장치를 이용하여 피사체(예컨대 환자)를 연속 촬영하고, 촬영된 CT 영상에 파노라마 촬영방법을 접목하여 2차원 또는 3차원 입체영상을 구현하는 3차원 영상 획득 장치를 제안한 바 있다. 특허출원 10-2008-0129545는 피사체의 관심 영역을 중심으로 하는 궤적을 따라 X선 광원을 투사할 때, 관심 영역으로 투사되는 X선 광원의 거리가 변동되도록 함으로써 변동되는 차이를 이용하여 입체 영상을 얻고 있다. 그러나, CT 장치에 의해 획득되는 영상은 환자의 신체 내부에 마련되는 다양한 형태의 보철물 및 보형물에 의해 영상이 왜곡되는 문제가 여전히 존재한다. 예컨대, 환자의 치아 중 금니가 있거나, 치아 교정을 위한 보철물이 존재하는 경우, CT 장치에서 치아로 투사된 X선 광원은 금니나 보철물에 의해 산란 및 회절되어 주변 영상을 왜곡시킬 수 있다. 보철물 또는 보형물에 의해 발생하는 영상 왜곡은 도 1을 통해 예시될 수 있다. 도 1에 도시된 인공치아는 X선을 난반사 시키거나 회절 시킴으로써 인공치아 주변의 영상을 왜곡시키거나 식별하기 어렵게 만들 수 있다. 이는 환자의 신체 내부에 위치하는 타 보철물이나 보형물에서도 동일하게 발생하는 것으로, CT 장치를 통해 획득되는 영상의 정확도를 저감시킬 수 있다.
이는, 치아를 제거하거나 삽입하기 위해, 고도로 정밀한 위치정보를 요구하는 임플란트 시술에서 환자의 치아를 천공할 위치에 오차를 유발할 소지가 있다. 또한, 치료가 요구되는 치아 부근에 보형물이나 보철물이 존재하는 경우, 고가의 CT 장비에 의해 획득되는 2차원 영상이나 3차원 입체영상이 무용지물이 될 우려가 있다.
본 발명의 목적은 임플란트 시술 시, STL 데이터와 CT 데이터의 장점을 결합함으로써, 환자의 치아 구조, 및 잇몸 구조에 대한 정확한 입체 영상을 생성하고 이를 이용하여 정확하고 안전한 임플란트 시술을 집도할 수 있도록 하는 임플란트 영상 생성방법 및 시스템을 제공함에 있다.
상기한 목적은 본 발명에 따라, 임플란트 영상을 생성하고 디스플레이장치에 재생하는 임플란트 영상 생성 시스템에 의해 수행되며, 환자의 구강에 기준 플레이트를 구비하는 바이트가 삽입되었을 때 획득되는 CT(Computed Tomography) 데이터 및 치아 석고 본(Plaster Patterns of Teeth)을 참조하여 폴리곤으로 입체를 표현하는 STL(Stereo Lithography) 데이터를 획득하는 단계, 상기 CT 데이터의 기준 플레이트와 상기 STL 데이터의 기준 플레이트 좌표를 일치시킨 후, 상기 STL 데이터를 기준으로 상기 CT 데이터를 보정하는 단계 및 상기 보정된 CT 데이터는 제1밀도의 영역을 표현하도록 하고, 상기 STL 데이터는 제2밀도의 영역을 표현하도록 하는 하이브리드 영상을 생성하는 단계에 의해 달성된다.
상기한 목적은 본 발명에 따라, 환자의 구강에 기준 플레이트를 구비하는 바이트가 삽입되었을 때 획득되는 CT(Computed Tomography) 데이터 및 치아 석고 본(Plaster Patterns of Teeth)을 이용하여 생성되는 STL(STereo Lithography) 데이터를 획득하는 CT 데이터 입력모듈, 상기 CT 데이터의 기준 플레이트와 상기 STL 데이터의 기준 플레이트 좌표를 일치시킨 후, 상기 STL 데이터를 기준으로 상기 CT 데이터를 보정하는 CT 데이터 보정모듈 및 상기 보정된 CT 데이터에 상기 STL 구조를 결합하며, 상기 CT 데이터는 상기 환자의 치아를 표현하고, 상기 STL 데이터는 상기 환자의 잇몸을 표현하도록 하여, 상기 CT 데이터와 상기 STL 데이터가 서로 다른 밀도를 표현하도록 하는 하이브리드 영상을 생성하는 하이브리드 영상 생성모듈에 의해 달성된다.
본 발명에 따르면, 기준 플레이트를 이용하여 CT 데이터와 STL 데이터를 결합함으로써 치아 구조, 및 잇몸 구조에 대한 정확한 모델링 데이터를 작성하고, 작성된 모델링 데이터를 이용하여 치아와 잇몸이 명확히 묘사되는 하이브리드 영상을 생성하여 이용할 수 있다. 임플란트 시술자는 본 발명에 따른 하이브리드 영상을 이용하여 정확한 시술을 함으로써 수술 사고를 미연에 방지할 수 있으며, 시술자의시술 결과를 공유하여 의술 발전에 기여할 수도 있다.
도 1은 보형물 또는 보철물에 의해 CT 영상이 왜곡되는 일 예에 대한 참조도면을 도시한다.
도 2는 본 발명의 일 실시예에 따른 임플란트 영상 생성 시스템의 개념도를 도시한다.
도 3은 환자의 구강으로 삽입되는 바이트의 일 예에 대한 참조도면을 도시한다.
도 4는 본 발명의 일 실시예에 따른 임플란트 영상 생성방법의 흐름도를 도시한다.
도 5는 하이브리드 영상을 제어하는 방법의 일 실시예에 따른 흐름도를 도시한다.
도 6과 도 7은 파노라마 영상을 화면에 표시하는 일 예에 대한 참조도면을 도시한다.
도 8은 본 출원인이 제작한 바이트의 시제품에 대한 참조도면을 도시한다.
도 9와 도 10은 임플란트 영상 생성 시스템이 STL 데이터와 CT 데이터의 좌표 정보를 보정하는 일 예에 대한 개념도를 도시한다.
도 11은 CT 영상과 STL 영상이 결합하여 형성되는 하이브리드 영상의 일 예에 대한 참조도면을 도시한다.
본 명세서에서 언급되는 바이트는 환자의 구강 내에 삽입되는 것으로, 환자의 구강 내에 마련되는 치아 및 잇몸 구조에 대한 모형을 뜨는데 이용될 수 있다. 바이트는 기준 플레이트를 구비할 수 있는데, 기준 플레이트는 바이트의 일 측에서 구강 외측으로 향하는 위치에 마련될 수 있다. 기준 플레이트는 CT(Computed Tomography) 데이터를 보정하는데 이용될 수 있다.
본 명세서에서 언급되는 석고 본은, 치아 및 잇몸에 대한 형태를 본 떠서 형성될 수 있다. 석고는 바이트 내에 부착되며, 환자의 구강 내로 삽입된 후 환자의 치아가 석고를 누를 때, 치아와 주변 잇몸의 형상을 남길 수 있다.
본 명세서에서 언급되는 STL(STereo Lithgraphy) 데이터는 아스키(ASCII) 혹은 바이너리(binary) 형식을 가질 수 있으며, 3D(Dimension) 프로그램에서 입체물의 모델링 데이터를 다른 종류의 3D 프로그램에서 인식하는데 용이하도록 입체물의 표면을 다각형화된 폴리곤(Poligon)으로 표현하는 데이터를 의미할 수 있다.
본 명세서에서 언급되는 CT 데이터는 CT(Computed Tomography) 장치에서 환자의 치아에 대해 촬상된 단면 영상에 대한 데이터를 의미할 수 있다. 다른 한편, CT 데이터는 복수의 단면 영상을 이용하여 구현된 입체 영상을 의미할 수 있다. 다만 한정하지는 않는다.
이하, 도면을 참조하여 본 발명을 상세히 설명하도록 한다.
도 2는 본 발명의 일 실시예에 따른 임플란트 영상 생성 시스템의 개념도를 도시한다.
도 2를 참조하면, 실시예에 따른 임플란트 영상 생성 시스템(100)은 복수의 사용자 단말기(10a 10n)와 네트워크 접속되고, CT 장치(30)와 유선 또는 무선 접속되어 CT 장비(30)로부터 CT 데이터를 획득할 수 있다. 이때, CT 장치(30)는 X선을 이용하여 환자의 두개골, 치아, 및 치아 주변의 잇몸의 구조를 단면 스캔(Scan)하여 CT 데이터를 생성할 수 있다.
CT 데이터는 치아 및 잇몸에 대한 구조와 밀도 정보 이외에 바이트(Byte)(60)에 대한 데이터가 포함될 수 있다. 바이트(Byte)(60)는 환자의 구강 내에 삽입되는 것으로, 치아와 맞물릴 때, 치아, 및 치아 주변의 잇몸 구조에 대해 본을 뜨기 위한 석고가 충진되며, 구강 삽입 방향과 반대되는 방향으로는 기준 플레이트가 연장되는 형태일 수 있다. 바이트(60)의 구조는 도 3을 함께 참조하여 설명하도록 한다.
도 3은 환자의 구강으로 삽입되는 바이트의 일 예에 대한 참조도면을 도시한다.
도시된 바이트(60)는 환자의 치아 배열을 따라 곡률을 가지는 바디(61), 환자의 앞니 중심부 쪽에서 구강 반대 방향으로 돌출되는 기준 플레이트(62)로 구성될 수 있으며, 환자의 치아와 대면하는 영역에는 석고(63)가 충진되고, 충진된 석고(63)가 치아에 의해 눌려지면, 환자의 치아 구조 및 치아와 이웃하는 잇몸의 구조가 석고(63)에 새겨질 수 있다.
바이트(60)에 마련되는 기준 플레이트(62)는 사각 기둥 형상이며, 바이트(60)의 중심부에서 환자의 치아 바깥측으로 돌출 형성될 수 있다. 기준 플레이트(62)는 CT 데이터에 포함되는 것은 물론, 환자의 치아와 잇몸에 대한 석고 본이 생성된 이후, 석고 본에 대해 작성되는 STL 데이터에도 포함된다. 즉, CT 데이터와 STL 데이터 양측 모두에 기준 플레이트(62)에 대한 데이터가 포함될 수 있다.
상기한 바이트(60)의 데이터가 포함되는 CT 데이터와 STL 데이터는 실시예에 따른 임플란트 영상 생성 시스템(100)으로 제공되며, 임플란트 영상 생성 시스템(100)은 석고 본을 통해 얻어지는, 치수가 정확한 STL 데이터를 중심으로 CT 데이터를 보정할 수 있다. 이를 위해, 임플란트 영상 생성 시스템(100)은 STL 데이터와 CT 데이터에서 기준 플레이트(62)의 좌표 정보를 일치시킬 수 있다. 임플란트 영상 생성 시스템(100)은,
1) CT 데이터에 포함되는 기준 플레이트(62)의 좌표 정보를 STL 데이터에 포함되는 좌표 정보로 보정한다. 이를 기준점 보정이라 할 수 있다.
2) CT 데이터에서 기준 플레이트(62)의 좌표 정보가 보정된 후, 보정된 기준 플레이트(62)의 좌표를 기준으로, 치아에 대한 좌표를 보정한다.
3) CT 데이터의 좌표 보정에 따라 CT 데이터의 좌표 간 거리는 리-사이징(Re-Sizing)될 수 있다.
4) CT 데이터를 보정 후, 보정된 CT 데이터와 STL 데이터를 결합하여 하이브리드 영상을 형성한다. STL 데이터에서 치아 구조와 잇몸 구조와 같은 외골격 구조에 대한 데이터를 좌표 보정된 CT 데이터에 결합하여 하이브리드 영상을 형성함으로써 잇몸에 대한 표현이 어려운 CT 데이터가 잇몸 구조를 충실히 표현할 수 있도록 한다.
1) 내지 4)에 기재된 바에 따라 임플란트 영상 생성 시스템(100)은 하이브리드 영상을 형성하고, 형성된 하이브리드 영상을 디스플레이장치에 표시할 수 있다. 디스플레이장치는 임플란트 영상 생성 시스템(100)에 연결되는 LCD, LED, PDP, CRT와 같은 장치들 중 하나일 수 있다.
한편, 임플란트 영상 생성 시스템(100)은 병원, 보건소, 의과대학교(대학원) 및 기타 임플란트 시술에 대한 지식과 경험을 필요로하는 사용자 단말기(10a 10n)로 임플란트 시술 데이터를 제공할 수 있다.
임플란트 시술 데이터는, 실시예에 따른 임플란트 영상 생성 시스템(100)이 제공하는 사용자 인터페이스를 실제 시술 현장에 적용한 동영상의 형태를 가질 수 있다. 또한, 임플란트 시술 데이터는 실시예에 따른 임플란트 영상 생성 시스템(100)이 제공하는 사용자 인터페이스 그 자체에 대한 학습 자료일 수도 있다. 임플란트 시술 데이터는 사용자 단말기(10a 10n)에서 임플란트 영상 생성 시스템(100)으로 로그인 접속한 이후부터 접속이 종료될 때까지의 시간을 이용하여 종량제로 과금할 수 있다. 다른 한편, 임플란트 시술 데이터는 사용자 단말기(10a 10n)에서 임플란트 시술 데이터에 접근한 시간에 비례하여 과금이 이루어질 수도 있다. 다만 한정하지는 않는다.
바람직하게는 임플란트 영상 생성 시스템은 모델링 데이터 입력 모듈(110), CT 데이터 보정모듈(120), 하이브리드 영상 생성모듈(130), 영상 제어모듈(140) 및 데이터베이스(150)를 포함하여 구성될 수 있다.
모델링 데이터 입력모듈(110)은 환자의 구강에 바이트(60)가 삽입된 이후, CT 장치(30)가 획득한 CT 데이터 및 환자의 구강에 삽입되는 바이트(60) 및 바이트(60)를 이용하여 획득된 석고 본(Plaster Patterns Of Teeth)에 대한 3D 모델링 데이터인 STL 데이터를 입력할 수 있다.
석고 본에 대한 3D 모델링 데이터는 3D 스캐너에 의해 바이트(60), 기준 플레이트(62), 석고 본으로 형성된 치아와 잇몸에 대한 3D 모델링 데이터가 생성될 수 있다. 이때 생성된 3D 모델링 데이터가 STL 데이터일 수 있다. STL 데이터는 환자의 구강 내에 존재할 수 있는 보철물 및 보형물에 의한 외부 영향이 존재하지 않고, 3D 스캐닝에 방해받는 요소가 존재하지 않는 바, 가장 정확하게 환자의 치아와 잇몸을 묘사할 수 있는 것이다.
모델링 데이터 입력모듈(110)은 CT 데이터 및 STL 데이터가 획득된 이후, 이들 데이터를 CT 데이터 보정모듈(120)로 제공할 수 있다.
CT 데이터 보정모듈(120)은 CT 데이터에 포함되는 기준 플레이트(62)의 좌표 정보와 STL 데이터에 포함되는 기준 플레이트(62)의 좌표 정보를 추출하고, CT 데이터에 포함되는 기준 플레이트(62)의 좌표 정보를 STL 데이터에 포함되는 기준 플레이트(62)의 좌표 정보로 보정한다. 좌표 보정에 따라, CT 데이터는 아래의 각 호에 기재된 것 중 어느 하나에 따라 보정될 수 있다.
5) CT 데이터에 포함되는 기준 플레이트(62)의 좌표 정보가 보정될 때, 보정된 편차를 CT 데이터의 전체 좌표 정보에 일괄 적용하여 보정하는 방법.
6) CT 데이터에 포함되는 기준 플레이트(62)의 좌표 정보가 보정된 후, 보정된 좌표 정보를 기준으로, 기준 플레이트(62)와 치아, 및 잇몸 사이의 거리를 STL 데이터의 값을 이용하여 보정하는 방법.
예컨대, CT 데이터에 포함된 기준 플레이트(62)의 좌표 정보와 어금니 사이의 거리가 L1이고, STL 데이터에 포함된 기준 플레이트(62)와 어금니 사이의 거리가 L2라고 가정할 때, CT 데이터 보정모듈(120)은 CT 데이터에 포함된 기준 플레이트(62)의 좌표 정보를 STL의 좌표 정보로 보정한 후, 보정된 CT 데이터의 기준 플레이트(62)와 어금니 사이의 거리를 L2로 보정하는 것을 의미할 수 있다. 이러한 보정에 의해 CT 데이터 전체는 STL 데이터를 기준으로 보정될 수 있다.
이후, CT 데이터 보정모듈(120)은 3D 영상을 구현하는 각 좌표 사이의 거리를 리-사이징(Re-Sizing) 함으로서 CT 데이터를 최종 보정할 수 있다.
리-사이징이 완료된 CT 데이터는 하이브리드 영상 생성모듈(130)로 제공되며, 하이브리드 영상 생성모듈(130)은 보정된 CT 데이터에 STL 데이터의 외골격을 결합하여 치아와 잇몸이 모두 표현되는 하이브리드 영상을 형성할 수 있다.
3D 스캐너를 통해 석고 본에 남겨진 잇몸의 구조는 삼각형, 사각형, 오각형 및 기타 다각형의 폴리곤(Polygon)으로 표현되는 STL 데이터로 표현될 수 있다. 따라서, 보정된 CT 데이터와 동일한 크기를 갖는 STL 데이터를 CT 데이터에 결합 시, CT 데이터는 치아, 구강 및 잇몸을 모두 표현할 수 있다. 이때, CT 데이터는 STL 데이터에 의해 좌표와 크기가 보정되었으므로, STL 데이터의 정밀도에 준하게 정교해질 수 있다.
도 4는 본 발명의 일 실시예에 따른 임플란트 영상 생성방법의 흐름도를 도시한다. 도 4는 도 2 내지 도 3을 함께 참조하여 설명하도록 한다.
도 4를 참조하면, 먼저, 구강 내에 바이트(60)가 삽입된 환자의 구강을 CT 장비(30)로 촬상하고, CT 장비(30)를 통해 CT 데이터를 획득한다(S201). 다음으로, 임플란트 영상 생성 시스템(100)은 바이트(60)를 통해 환자의 구강에서 적출하고, 적출된 바이트(60)를 통해 환자의 치아 및 잇몸의 구조에 대한 석고 본을 뜨고, 석고 본을 이용하여 3D 모델링 데이터인 STL 데이터를 생성한다(S202). 이때, CT 데이터와 STL 데이터에는 바이트(60)에 대한 데이터가 포함될 수 있다. 이때, STL 데이터는 석고 본에 대한 3D 스캐닝을 통해 획득될 수 있다. STL 데이터, 및 CT 데이터에는 바이트(60)의 위치 및 구조에 대한 데이터가 포함된다.
다음으로, 임플란트 영상 생성 시스템(100)은 CT 데이터와 STL 데이터에 포함되는 바이트(60)를 중첩한다(S203). 바이트(60)의 중첩은 CT 데이터와 STL 데이터 각각에 대한 영상을 통해 중첩하는 방법, 또는 CT 데이터와 STL 데이터에서 바이트(60)에 대한 좌표 정보를 중첩하는 방법 중 하나에 의해 처리될 수 있다.
CT 데이터와 STL 데이터에 대해 바이트(60)를 중첩한다는 것은 CT 데이터와 STL 데이터의 기준점, 즉 바이트(60)의 위치를 동일하게 설정한다는 것을 의미한다. 이러한 설정에 의해 CT 데이터와 STL 데이터가 동일한 기준점을 공유할 수 있으며, STL 데이터에 맞추어 CT 데이터의 좌표 정보를 보정할 수 있는 것이다.
다음으로, 임플란트 영상 생성 시스템(100)은 CT 데이터와 STL 데이터에서 바이트(60)를 표현하는 데이터를 제거하고(S204), 환자의 치아, 잇몸 및 구강에 대한 데이터만을 남긴다. 바이트(60)를 표현하기 위한 데이터를 제거한 후, 임플란트 영상 생성 시스템(100)은 STL 데이터를 참조하여 기준 플레이트(62)의 위치정보가 보정된 CT 데이터의 좌표 정보를 보정할 수 있다(S205). 좌표 정보의 보정은 기준점으로 이용되는 기준 플레이트(62)와 STL 데이터에 포함되는 각 치아 사이의 거리를 CT 데이터에 적용하여 CT 데이터의 좌표 정보를 보정할 수 있다.
예컨대, STL 데이터에서 기준 플레이트(62)와 어금니 사이의 거리가 D1이고, CT 데이터에서 기준 플레이트(62)와 어금니 사이의 거리가 D2라고 가정할 때, D2를 D1으로 보정할 수 있다. 이러한 보정에 의해 CT 데이터에 포함되는 좌표 정보들은 기준 플레이트(62)와 STL 데이터 측 좌표 정보 사이의 거리 값을 참조하여 보정될 수 있다. CT 데이터에서 좌표 정보가 보정된 이후, 임플란트 영상 생성 시스템(100)은 보정된 CT 데이터와 STL 데이터를 결합하며, STL 데이터의 외골격 구조를 CT 데이터에 부가할 수 있다(S206).
STL 데이터는 치아 및 치아 주변의 잇몸에 대한 외골격 구조를 포함하며, CT 데이터와 동일한 사이즈의 영상이 표현되도록 CT 데이터가 보정된 상태에서 CT 데이터와 결합 시, CT 데이터에서는 잘 표현되지 않는 잇몸 구조가 CT 데이터를 중심으로 표현될 수 있다.
CT 데이터는 X선이 환자의 치아와 잇몸에 투사된 후, 밀도 차이를 표현하므로, 저밀도인 혈액이나 잇몸은 치아에 비해 상대적으로 해상도가 떨어진다. 반면, STL 데이터는 석고 본을 뜬 환자의 치아와 잇몸 구조에 대한 3D 모델링 데이터 이므로, 치아와 치아 주변의 잇몸 구조는 선명하게 묘사할 수 있다.
STL 데이터를 참조하여 CT 데이터의 좌표 정보를 보정하면, CT 데이터를 통해 표현되는 영상과 STL 데이터를 통해 표현되는 영상은 동일한 크기로 리사이징(Re0Sizing) 될 수 있다. 이에 따라, 동일한 크기의 영상인 CT 데이터와 STL 데이터를 중첩시킬 수 있고, 중첩된 CT 데이터와 STL 데이터에 의해 치아의 밀도와 구강의 구조가 잘 표현될 수 있고, STL 데이터에서 치아 주변에 위치하는 잇몸을 CT 데이터의 영상에 부가할 수 있는 것이다. 이처럼 CT 데이터와 STL 데이터를 결합 후, 형성하는 영상을 "하이브리드 영상"이라 할 수 있다. 임플란트 영상 생성 시스템(100)은 3D 입체의 하이브리드 영상을 생성하여(S207) 디스플레이장치에 표현하거나, 또는 파일 형태로 저장하여 사용자 단말기(10a 10n)에 제공할 수 있다.
도 5는 하이브리드 영상을 제어하는 방법의 일 실시예에 따른 흐름도를 도시한다.
도 5를 참조하면, 먼저, 임플란트 영상 생성 시스템(100)은 디스플레이장치에 메인 메뉴를 표시하고, 사용자 모드 메뉴를 표시 후, 사용자에 의해 설정되는 모드를 인식한다(S301). 임플란트 영상 생성 시스템(100)은 생성된 하이브리드 영상에 대해 다양한 사용자 모드를 제공할 수 있다.
예컨대, 사용자 모드는, 치아를 두개골 방향에서 조감하는 조감 영상, 치아를 턱 방향에서 조감하는 조감 영상, 두개골과 치아가 함께 표현되는 입체 영상, 및 상측 치아와 하측 치아 양자를 정면에서 바라보는 2차원 형태의 정면 영상에 대한 개별 모드 또는 조감 영상, 입체 영상 및 정면 영상 중 적어도 둘 또는 모두를 포함하는 형태의 파노라마 모드 중 하나를 의미할 수 있다.
다음으로, 임플란트 영상 생성 시스템(100)은 메인 메뉴에서 파노라마 메뉴가 선택되는 가를 판단한다(S302).
파노라마 모드 대신 조감 영상, 입체 영상 및 정면 영상 각각에 대한 개별 모드가 사용자에 의해 선택되는 경우, 개별 모드에 대응하는 영상을 디스플레이장치에 표시할 수 있다. 반면, 사용자 선택된 모드가 파노라마 모드인 경우, 임플란트 영상 생성 시스템(100)은 조감 영상, 입체 영상 및 정면 영상이 하나의 화면에서 함께 표시되도록 하거나, 조감 영상과 입체 영상, 또는 입체 영상과 정면 영상이 하나의 화면에서 함께 표시되도록 할 수 있다. 이와 같은 파노라마 영상은 치아에 대한 여러 영상이 함께 표시되도록 함으로써 의료진이 치아와 그 주변에 대한 영상을 다양한 각도에서 조감 및 이해할 수 있도록 할 수 있다.
이를 위해, 임플란트 영상 생성 시스템(100)은 화면에 대해 분할영역을 형성할 수 있으며(S303), 각 분할영역에 입체 영상, 정면 영상 및 조감 영상을 각각 배치하고(S305), 분할 영역에 배치된 입체 영상, 정면 영상 및 조감 영상이 상호 연동되도록 제어하여 화면에 디스플레이할 수 있다(S306). 예컨대, 정면 영상에 표현되는 치아에 대한 영상에서 사용자가 마우스(또는 키보드)를 이용하여 송곳니를 클릭한 후, 어금니 방향으로 드래그한다고 가정할 때, 송곳니를 선택할 때에는 입체 영상에서 송곳니가 표현되는 영역을 화면의 중심에 표현되도록 하고, 이후, 어금니 방향으로 드래그 될 때는 어금니가 표현되는 영역이 화면에 중심에 표현되도록 할 수 있다.
이러한 영상의 연동을 통해 시술자는 조감 영상, 정면 영상 및 입체 영상이 독립적으로 이용되는 것이 아니라, 서로 관련된 영역이 표현되도록 할 수 있는 것이다. 한편, 사용자 선택된 모드가 파노라마 모드가 아닌 경우, 임플란트 영상 생성 시스템(100)은 조감 영상, 정면 영상 및 입체 영상 중 어느 하나가 독립적으로 화면에 표시되도록 할 수 있다(S304). 즉, 사용자 선택된 영상 모드의 영상이 화면에 표시되도록 할 수 있다.
도 6과 도 7은 파노라마 영상을 화면에 표시하는 일 예에 대한 참조도면을 도시한다.
도 6과 도 7을 함께 참조하여 설명하면, 먼저, 도 6은 조감 영상의 일 예를 도시한 것으로, 두개골 방향에서 턱 방향으로 바라볼 때, 획득되는 조감 영상의 일 예를 도시한다. 도시된 조감 영상에는 환자의 치아들 중 시술자가 관찰하고자 하는 치아를 마우스와 같은 입력장치로 선택할 수 있다. 도 6에는 참조부호 401 내지 405는 마우스와 같은 입력장치에 의해 사용자 선택된 포인트(Point)로서, 사용자가 입체 영상 및 정면 영상으로 조감하고자 하는 치아를 선택하는 일 예를 도시하고 있다.
다음으로, 도 7은 파노라마 모드에서 조감되는 영상의 일 예를 도시한 것으로서, 도 7을 참조하면, 단일 화면은 세 개의 영역(A1, A2 및 A3)으로 구획되고, A1 영역에는 정면 영상, A2 영역에는 입체 영상 및 A3에는 조감 영상이 표시되고 있다. 만일, 시술자가 A1 영역에 표시되는 정면 영상에서 P1을 클릭한 후, DR3 방향으로 마우스를 드래그(Drag)하는 경우, A2 영역에 표시되는 입체 영상은 DR1 방향으로 회전하며, 시술자가 A1 영역에 표시되는 정면 영상에서 P1을 클릭 후, DR4 방향으로 마우스를 드래그하는 경우, A2 영역에 표시되는 입체 영상은 DR4 방향으로 회전할 수 있다.
즉, A1 영역에 표시되는 정면 영상에서 시술자가 마우스와 같은 입력장치를 이용하여 원하는 위치를 선택하고 선택한 상태에서 드래그 입력을 가하면, A2 영역에 표시되는 입체 영상 또한, 이에 연동되는 위치를 표시하기 위해 DR3 또는 DR4 방향으로 회전할 수 있는 것이다. 이때, A3 영역에 표시되는 조감 영상 또한 정면 영상에서 선택된 위치에 원형의 다이어그램을 표시함으로써, 시술자가 조감 영상, 입체 영상 및 정면 영상을 함께 참조하여 환자의 치아 및 주변 잇몸의 상태와 구조를 종합적으로 판단하는데 기여할 수 있다.
한편, 도 7에서, P2는 A1 영역에 표시되는 정면 영상에서 치아에 대한 기준선(REF)과 동일한 위치에 대응할 수 있다.
또한, A3 영역의 조감 영상에서, 시술자가 조감을 원하는 위치는 P3에 대응하며, P3의 위치는 P1의 위치와도 대응한다. 즉, A1, A2 및 A3 영역의 영상들은 사실 동일한 치아 위치가 화면 중심부에 배치될 수 있도록 연동됨을 의미하고 있다.
도 8은 본 출원인이 제작한 바이트의 시제품에 대한 참조도면을 도시한다.
도 8을 참조하면, 바이트는 환자의 구강 내부로 삽입되는 몸체(61), 기준 플레이트(62) 및 석고(63)를 포함하여 구성될 수 있다.
몸체(61)와 기준 플레이트(62)는 플라스틱 재질로 구성될 수 있다. 기준 플레이트(62)는 몸체(61)와 일체로 형성될 수 있으며, 구강 외부에 위치하도록 몸체(61)에서 돌출 형성될 수 있다. 이를 통해 기준 플레이트(62)가 구강 내부에서 비틀리거나, 휘지 않도록 할 수 있으며, 이 상태에서 기준 플레이트(62)에 대한 CT 데이터와 STL 데이터가 생성될 수 있다.
석고(63)는 환자의 치아와 대면하는 방향에 마련될 수 있다. 석고(63)는 환자가 치아로 석고(63)에 압력을 가할 때, 환자의 치아 및 치아 주변의 잇몸 형상이 각인될 수 있다. 각인된 치아 및 잇몸 형상은 추후 3D 스캐너가 STL 데이터를 생성하는데 이용된다.
도 9와 도 10은 임플란트 영상 생성 시스템이 STL 데이터와 CT 데이터의 좌표 정보를 보정하는 일 예에 대한 개념도를 도시한다.
도 9와 도 10을 함께 참조하면, STL 데이터에 의해 생성되는 STL 영상과 CT 데이터를 토대로 생성되는 CT 영상은 기준 플레이트(62)를 중심으로 치아의 거리나 방향을 정의할 수 있다. 도 9와 도 10에 도시된 기준 플레이트(62)는 동일한 것을 나타낸다.
도 9와 도 10을 비교하기 전, 도 9와 도 10의 영상을 설명하면 아래와 같다.
- 아래 -
- 도 9에서, 기준 플레이트(62)와 치아(80)의 양측 종단의 거리는 각각 d1, d2이다.
- 도 10에서 기준 플레이트(62)와 치아(80)의 양측 종단의 거리는 각각 d3, d4이다.
- 도 10에 도시된 CT 영상은 좌표 정보가 보정되기 이전의 CT 데이터를 토대로 생성되는 CT 영상에 해당한다.
- 도 10에 도시된 CT 영상에서 치아(81)의 양측 종단 사이의 거리(d3)는 거리 d7 만큼 치아(81)의 일 측으로 A 방향으로 치우쳐져 있다. 이러한 방향 편차는 CT 영상의 오차가 치아(80) 주변에 위치하는 보형물이나 보철물에 의해 발생하는 영상 왜곡에 기인할 수 있다.
여기서, 기준 플레이트(62)와 치아(80) 사이의 거리인 d1과 d2를 이용하여 d4와 d5 값을 보정하면, 도 10에 도시된 기준 플레이트(62)와 치아(80) 사이의 거리인 d4 -> d1, d5 -> d2로 보정할 수 있으며, 이러한 방법을 이용하여 기준 플레이트(62)와 환자의 각 치아들 사이의 거리는 STL 데이터에 정의된 바를 참조하여 CT 데이터의 값을 보정하는 방법에 따라 진행될 수 있다.
본 발명에서, 기준 플레이트(62)는 CT 데이터에서 각 치아와의 거리나 방향을 보정하는 기준점이 될 수 있다.
따라서, STL 데이터와 CT 데이터에서 기준 플레이트(62)의 매칭이 요구되는 것이며, CT 데이터의 좌표 정보를 보정하기 전 기준 플레이트(62)의 좌표 정보가 STL 데이터에 맞추어 보정되어야 하는 것이다. CT 데이터에서 기준 플레이트(62)의 좌표보정이 이루어진 후, CT 데이터에 포함되는 치아의 좌표 정보는 STL 데이터를 기준으로 보정될 수 있다. 이에 따라, CT 데이터에서 표현하는 각 치아의 형태, 좌표 정보는 STL 데이터에 의해 리사이징 될 수 있다. 리사이징이 처리된 후, CT 데이터와 STL 데이터에 의해 형성되는 CT 영상과 STL 영상은 동일한 사이즈를 가질 수 있는 바, CT 영상에는 STL 영상에서 구현되는 잇몸의 외골격을 입혀 치아와 잇몸의 형태와 밀도를 표현할 수 있는 것이다. CT 데이터와 STL 데이터의 결합에 의해 치아와 잇몸의 형상이 구현되는 영상은 하이브리드 영상이라 정의하며, 이는 도 11에 도시된 형태를 가질 수 있다.

Claims (14)

  1. 임플란트 영상을 생성하고 디스플레이장치에 재생하는 임플란트 영상 생성 시스템에 의해 수행되며,
    환자의 구강에 기준 플레이트를 구비하는 바이트가 삽입되었을 때 획득되는 CT(Computed Tomography) 데이터 및 치아 석고 본(Plaster Patterns of Teeth)을 참조하여 폴리곤으로 입체를 표현하는 STL(STereo Lithography) 데이터를 획득하는 단계;
    상기 CT 데이터의 기준 플레이트와 상기 STL 데이터의 기준 플레이트 좌표를 일치시킨 후, 상기 STL 데이터를 기준으로 상기 CT 데이터를 보정하는 단계; 및
    상기 보정된 CT 데이터는 제1밀도의 영역을 표현하도록 하고,
    상기 STL 데이터는 제2밀도의 영역을 표현하도록 하는 하이브리드 영상을 생성하는 단계;를 포함하는 것을 특징으로 하는 임플란트 영상 생성방법.
  2. 제1항에 있어서,
    상기 CT 데이터를 보정하는 단계는,
    상기 CT 데이터의 좌표 정보를 상기 STL 데이터의 좌표 정보로 보정하는 단계인 것을 특징으로 하는 임플란트 영상 생성방법.
  3. 제1항에 있어서,
    상기 CT 데이터를 보정하는 단계는,
    상기 CT 데이터를 상기 STL 데이터에 맞도록 리-사이징(Re-Sizing)하는 단계인 것을 특징으로 하는 임플란트 영상 생성방법.
  4. 제1항에 있어서,
    상기 CT 데이터를 보정하는 단계는,
    상기 CT 데이터에 마련되는 상기 기준 플레이트의 좌표 정보를 상기 STL 데이터에 마련되는 기준 플레이트의 좌표 정보로 보정하고, 보정된 기준 플레이트의 좌표 정보를 기준으로, CT 데이터의 좌표 정보를 보정하는 단계인 것을 특징으로 하는 임플란트 영상 생성방법.
  5. 제1항에 있어서,
    상기 하이브리드 영상은,
    상기 STL 데이터의 외골격 구조를 상기 CT 데이터에 반영하여 형성되는 영상인 것을 특징으로 하는 임플란트 영상 생성방법.
  6. 제1항에 있어서,
    상기 데이터를 획득하는 단계 이후에 수행되며,
    상기 CT 데이터와 상기 STL 데이터의 기준 플레이트를 일치시킨 후, 상기 기준플레이트 및 상기 바이트에 대한 영상 데이터를 제거하는 단계;를 더 포함하는 것을 특징으로 하는 임플란트 영상 생성방법.
  7. 제1항에 있어서,
    상기 하이브리드(Hybrid) 영상을 형성하는 단계 이후 수행되며,
    화면의 디스플레이영역을 제1분할영역 및 제2분할영역으로 구획하는 단계;
    상기 제1분할영역 및 상기 제2분할영역에 각각 상기 치아에 대한 평면 영상, 및 상기 치아에 대한 입체영상을 배치하는 단계; 및
    상기 평면 영상 및 상기 입체영상 중 어느 하나에 사용자 제어가 가해질 때, 다른 하나의 영상이 이에 연동하여 변화하는 연동 영상을 상기 화면에 디스플레이하는 단계;를 포함하는 것을 특징으로 하는 임플란트 영상 생성방법.
  8. 제7항에 있어서,
    상기 연동 영상은,
    회전하는 영상인 것을 특징으로 하는 임플란트 영상 생성방법.
  9. 환자의 구강에 기준 플레이트를 구비하는 바이트가 삽입되었을 때 획득되는 (Computed Tomography) 데이터 및 치아 석고 본(Plaster Patterns of Teeth)을 이용하여 생성되는 STL(STereo Lithography) 데이터를 획득하는 CT 데이터 입력모듈;
    상기 CT 데이터의 기준 플레이트와 상기 STL 데이터의 기준 플레이트 좌표를 일치시킨 후, 상기 STL 데이터를 기준으로 상기 CT 데이터를 보정하는 CT 데이터 보정모듈; 및
    상기 보정된 CT 데이터에 상기 STL 구조를 결합하며, 상기 CT 데이터는 상기 환자의 치아를 표현하고, 상기 STL 데이터는 상기 환자의 잇몸을 표현하도록 하여, 상기 CT 데이터와 상기 STL 데이터가 서로 다른 밀도를 표현하도록 하는 하이브리드 영상을 생성하는 하이브리드 영상 생성모듈;을 포함하는 것을 특징으로 하는 임플란트 영상 생성 시스템.
  10. 제9항에 있어서,
    상기 CT 데이터 보정모듈은,
    상기 CT 데이터의 기준 플레이트 좌표를 상기 STL 데이터에 기술되는 기준 플레이트 좌표로 보정하는 기준점 보정을 수행하는 것을 특징으로 하는 임플란트 영상 생성 시스템.
  11. 제10항에 있어서,
    상기 CT 데이터 보정모듈은,
    상기 기준점 보정 후, 상기 기준 플레이트의 좌표 보정값을 참조하여 상기 CT 데이터의 좌표를 보정하는 것을 특징으로 하는 임플란트 영상 생성 시스템.
  12. 제9항에 있어서,
    상기 CT 데이터 보정모듈은,
    상기 기준 플레이트와 상기 STL 데이터의 위치관계를 참조하여 상기 기준 플레이트 좌표가 보정된 CT 데이터의 좌표 정보를 보정하는 것을 특징으로 하는 임플란트 영상 생성 시스템.
  13. 제12항에 있어서,
    상기 CT 데이터 보정모듈은,
    상기 좌표 정보의 보정에 따라 상기 좌표 상호 간의 거리를 리사이징하는 것을 특징으로 하는 임플란트 영상 생성 시스템.
  14. 제9항에 있어서,
    상기 보정된 CT 데이터에 상기 STL 데이터의 외골격 구조를 반영하여 입체 영상을 형성하는 하이브리드 영상 생성모듈;을 더 포함하는 것을 특징으로 하는 임플란트 영상 생성 시스템.
PCT/KR2013/009762 2012-11-08 2013-10-31 임플란트 영상 생성방법 및 임플란트 영상 생성 시스템 WO2014073818A1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
RU2015121093/28A RU2597076C1 (ru) 2012-11-08 2013-10-31 Способ и система для создания изображения имплантата
CN201380058146.5A CN104955399B (zh) 2012-11-08 2013-10-31 产生假体影像的方法和系统
US14/440,928 US20150297149A1 (en) 2012-11-08 2013-10-31 Method and system for generating implant image
BR112015010457-6A BR112015010457B1 (pt) 2012-11-08 2013-10-31 Método e sistema para gerar imagem de implante
JP2015541678A JP2015533607A (ja) 2012-11-08 2013-10-31 インプラント映像生成方法およびインプラント映像生成システム
EP13853026.6A EP2918229A4 (en) 2012-11-08 2013-10-31 IMPLANT IMAGE CREATION METHOD AND IMPLANT IMAGE CREATION SYSTEM

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2012-0126259 2012-11-08
KR20120126259 2012-11-08
KR10-2013-0012588 2013-02-04
KR1020130012588A KR101315032B1 (ko) 2012-11-08 2013-02-04 임플란트 영상 생성방법 및 임플란트 영상 생성 시스템

Publications (1)

Publication Number Publication Date
WO2014073818A1 true WO2014073818A1 (ko) 2014-05-15

Family

ID=49637753

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/009762 WO2014073818A1 (ko) 2012-11-08 2013-10-31 임플란트 영상 생성방법 및 임플란트 영상 생성 시스템

Country Status (9)

Country Link
US (1) US20150297149A1 (ko)
EP (1) EP2918229A4 (ko)
JP (1) JP2015533607A (ko)
KR (1) KR101315032B1 (ko)
CN (1) CN104955399B (ko)
BR (1) BR112015010457B1 (ko)
RU (1) RU2597076C1 (ko)
TW (1) TWI578964B (ko)
WO (1) WO2014073818A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018516708A (ja) * 2015-06-09 2018-06-28 ▲シャ▼承▲キン▼SHE, Chengxin 顎顔面矯正手術画像校正デザインシステム及びその方法

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9135498B2 (en) * 2012-12-14 2015-09-15 Ormco Corporation Integration of intra-oral imagery and volumetric imagery
GB201305658D0 (en) * 2013-03-27 2013-05-15 Nikon Metrology Nv Registration object, correction method and apparatus for computed radiographic tomography
KR101691977B1 (ko) * 2016-01-18 2017-01-02 경북대학교 산학협력단 마이크로 스크류 시스템 및 이를 이용한 구강 이미지 파일 합성 방법
KR101877895B1 (ko) 2016-10-06 2018-07-12 주식회사 메가젠임플란트 임플란트 진단용 영상 생성 시스템 및 그 생성방법
US10885407B2 (en) * 2016-11-23 2021-01-05 Simbionix Ltd. Method and system for three-dimensional print oriented image segmentation
CN107644454B (zh) * 2017-08-25 2020-02-18 北京奇禹科技有限公司 一种图像处理方法及装置
KR102061644B1 (ko) * 2017-12-19 2020-02-11 주식회사 키스톤 임플란트 진단용 영상 생성 시스템 및 그 생성방법
KR102033250B1 (ko) * 2018-06-25 2019-10-16 오스템임플란트 주식회사 보철물 디자인 과정에서 교합 관계를 구현하는 장치 및 그 방법
KR102021100B1 (ko) * 2018-11-23 2019-11-04 주식회사 디오 치아 수복물 설계를 위한 이미지 처리방법 및 이에 적용되는 범용트레이
CN110916821A (zh) * 2019-12-11 2020-03-27 浙江雅仕美医疗器械科技有限公司 基于3d打印的隐形矫正器的制备方法
CN111419442B (zh) * 2020-04-03 2021-08-24 泉州装备制造研究所 一种u型槽牙托槽及其客制化的成型方法
CN111839580B (zh) * 2020-07-22 2024-05-24 桂林市啄木鸟医疗器械有限公司 牙片影像生成方法、装置、电子设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070054723A (ko) * 2004-09-14 2007-05-29 오라티오 비.브이. 미적인 임플란트 어버트먼트를 가지는 세라믹 치아임플란트의 제조방법 및 설치방법
JP2011004796A (ja) * 2009-06-23 2011-01-13 Akita Univ 光造形技術を用いた顎口腔モデルおよびその作製方法
KR20110125781A (ko) * 2010-05-14 2011-11-22 정제교 3차원 영상획득장치의 보조 장치물 및 악안면두경부가 포함된 3차원 영상획득방법

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0514554D0 (en) * 2005-07-15 2005-08-24 Materialise Nv Method for (semi-) automatic dental implant planning
US8043091B2 (en) * 2006-02-15 2011-10-25 Voxelogix Corporation Computer machined dental tooth system and method
CN101578076B (zh) * 2007-01-10 2013-10-23 诺贝尔生物服务公司 用于牙设计和制备的方法和系统
CN101393653B (zh) * 2008-10-16 2011-06-15 浙江大学 一种通过牙颌石膏模型ct数据和牙颌的全景透视图重建全牙的三维模型方法
DE102009010699C5 (de) * 2009-02-27 2020-11-12 Marcus Abboud Bohrschablone zum Präparieren eines Patienten-Kieferknochens für ein medizinisches Zahn-Implantat
KR20100117385A (ko) * 2009-04-24 2010-11-03 이태경 마커를 구비한 트레이를 이용한 임플란트용 이미지 매칭 방법
RU2414190C2 (ru) * 2009-05-19 2011-03-20 Государственное образовательное учреждение Высшего профессионального образования "Омская государственная медицинская академия Федерального агентства по здравоохранению и социальному развитию Росздрава" Способ изготовления экзопротеза верхней челюсти
KR20100074092A (ko) * 2010-05-20 2010-07-01 손정오 쾌속조형기를 이용한 인공치아 제조장치 및 방법
US8371849B2 (en) * 2010-10-26 2013-02-12 Fei Gao Method and system of anatomy modeling for dental implant treatment planning
US20120214121A1 (en) * 2011-01-26 2012-08-23 Greenberg Surgical Technologies, Llc Orthodontic Treatment Integrating Optical Scanning and CT Scan Data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070054723A (ko) * 2004-09-14 2007-05-29 오라티오 비.브이. 미적인 임플란트 어버트먼트를 가지는 세라믹 치아임플란트의 제조방법 및 설치방법
JP2011004796A (ja) * 2009-06-23 2011-01-13 Akita Univ 光造形技術を用いた顎口腔モデルおよびその作製方法
KR20110125781A (ko) * 2010-05-14 2011-11-22 정제교 3차원 영상획득장치의 보조 장치물 및 악안면두경부가 포함된 3차원 영상획득방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2918229A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018516708A (ja) * 2015-06-09 2018-06-28 ▲シャ▼承▲キン▼SHE, Chengxin 顎顔面矯正手術画像校正デザインシステム及びその方法

Also Published As

Publication number Publication date
CN104955399A (zh) 2015-09-30
CN104955399B (zh) 2018-06-22
KR101315032B1 (ko) 2013-10-08
EP2918229A1 (en) 2015-09-16
BR112015010457B1 (pt) 2022-05-03
TWI578964B (zh) 2017-04-21
US20150297149A1 (en) 2015-10-22
EP2918229A4 (en) 2016-08-03
RU2597076C1 (ru) 2016-09-10
TW201431537A (zh) 2014-08-16
JP2015533607A (ja) 2015-11-26
BR112015010457A2 (pt) 2017-07-11

Similar Documents

Publication Publication Date Title
WO2014073818A1 (ko) 임플란트 영상 생성방법 및 임플란트 영상 생성 시스템
US20210267729A1 (en) Methods and systems for dental procedures
WO2016003257A2 (ko) 치과 시술 시뮬레이션을 위한 치아모델 생성 방법
EP1904978B1 (en) Registration of 3-d images of 3-d objects
JP5671734B2 (ja) 顔面解析を用いた特注歯セットアップのコンピュータ支援作成
WO2016003255A2 (ko) 환자맞춤형 치아교정 모의시술과 이를 통한 시뮬레이션 및 치아 교정장치 또는 치아교정 시술유도장치 제작방법
WO2018056544A1 (ko) 치과 수술용 증강현실 시스템 및 구현방법
US20190380811A1 (en) Implant surgery guiding method
WO2017111184A1 (ko) 치아 모델링 방법
WO2021006471A1 (ko) 임플란트 구조물 자동 식립을 통한 임플란트 수술 계획 수립 방법, 이를 위한 사용자 인터페이스 제공 방법 및 그 치아영상 처리장치
WO2020189917A1 (ko) 임플란트 중심선을 이용한 임플란트 식립 계획 수립 방법 및 이를 위한 치과영상 처리장치
US20220265356A1 (en) Ray-free dental x-ray periapical film virtual imaging method based on virtual reality
WO2020209496A1 (ko) 치아 오브젝트 검출 방법 및 치아 오브젝트를 이용한 영상 정합 방법 및 장치
CN210784765U (zh) 兼具光学导航功能的数字化种植导板及种植系统
KR20200084982A (ko) 위험 인자를 고려한 픽스쳐 자동 식립이 가능한 치과용 임플란트 시술 계획 방법 및 그 장치
WO2021235664A1 (ko) 상악동 거상술 시뮬레이션 방법 및 그 장치
JP6868255B2 (ja) 支台歯形成支援装置
WO2019124845A1 (ko) 임플란트 진단용 영상 생성 시스템 및 그 생성방법
WO2022060183A1 (ko) 3차원 스캔 데이터 처리 시스템 및 3차원 스캔 데이터 처리 방법
WO2024190951A1 (ko) 증강현실을 이용한 치아 삭제 가이드 방법 및 이를 수행하기 위한 장치
WO2024190949A1 (ko) 증강현실을 이용한 임플란트 수술 가이드 방법 및 이를 수행하기 위한 장치
WO2022059929A1 (ko) 의치 제작을 위한 교합고경 재현 방법
WO2018164307A1 (ko) 인공 치아의 시술 가이드를 제공하는 시스템, 전자 장치 및 방법
CN112137744A (zh) 兼具光学导航功能的数字化种植导板及其使用方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13853026

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14440928

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2015541678

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112015010457

Country of ref document: BR

REEP Request for entry into the european phase

Ref document number: 2013853026

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2013853026

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2015121093

Country of ref document: RU

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 112015010457

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20150507