WO2018066764A1 - System and method for generating images for implant evaluation - Google Patents

System and method for generating images for implant evaluation Download PDF

Info

Publication number
WO2018066764A1
WO2018066764A1 PCT/KR2017/000324 KR2017000324W WO2018066764A1 WO 2018066764 A1 WO2018066764 A1 WO 2018066764A1 KR 2017000324 W KR2017000324 W KR 2017000324W WO 2018066764 A1 WO2018066764 A1 WO 2018066764A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
stereoscopic image
area
axis
matching
Prior art date
Application number
PCT/KR2017/000324
Other languages
French (fr)
Korean (ko)
Inventor
김종철
박광범
Original Assignee
주식회사 메가젠임플란트
김종철
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메가젠임플란트, 김종철 filed Critical 주식회사 메가젠임플란트
Priority to CN201790001316.XU priority Critical patent/CN210446984U/en
Publication of WO2018066764A1 publication Critical patent/WO2018066764A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4504Bones
    • A61B5/4509Bone density determination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Definitions

  • the present invention relates to an implant diagnosis image generating system and a method of generating the same, and more particularly, to an implant diagnosis image generating system and a method for generating the same used for the diagnosis and procedure planning of dental implants.
  • Dental implants originally meant a replacement that healed when human tissue was lost, but in dentistry, it refers to a series of procedures for implanting artificial teeth.
  • Artificial tooth procedures also called implants or implant procedures
  • a drill to drill the implantation position, then implant the fixture into the alveolar bone and fusion to the bone, then abutment the fixture After joining the abutments, it is usually done by putting the final prosthesis on the abutment.
  • Dental implants enhance the function of dentures, improve the aesthetics of dental prosthetic restorations, as well as dissipate excessive stress on surrounding supportive bone tissue, as well as single missing restorations. It also helps to stabilize the teeth.
  • Such dental implants generally include fixtures implanted as artificial roots, abutments joined on the fixtures, abutment screws securing the abutments to the fixtures, and abutments to the abutments. Includes artificial teeth.
  • the abutment may be coupled to the fixture to maintain the bonding state before the abutment is coupled to the fixture, that is, until the fixture is fused to the alveolar bone.
  • the fixture which is a component of the dental implant, serves as an artificial tooth root as a part that is placed in a drill hole formed in the alveolar bone by using a drill or the like at the position where the implant is to be treated. Therefore, the fixture should be firmly placed in the alveolar bone.
  • the bone density of the alveolar bone is a very important factor in implant placement, and the placement position, depth and direction of the implant are determined according to the condition of the bone density of the patient.
  • Implant diagnosis image generation system by using a computer tomography (CT) to visually display the oral area of the patient to assist the simulation procedure, etc., which is very important in determining the implantation position, depth and orientation of the implant There is a problem that the indication of the bone density of the alveolar bone is provided in an inaccurate and difficult to recognize state.
  • CT computer tomography
  • the implant diagnosis image generation system displays the bone density of the alveolar bone only in achromatic shade, making it difficult for a doctor to recognize the bone density of the alveolar bone quickly, and only displays the bone density of the alveolar bone, and the virtual position where the implant is to be placed.
  • the time for the doctor to determine the optimal implant placement location is not provided because the bone density for each field is not provided individually.
  • the first image information acquisition device for obtaining first stereoscopic image data for the oral region of the subject;
  • a second image information acquisition device that scans the Plaster Patterns of Teeth of the subject to obtain second stereoscopic image data;
  • a data processing unit configured to receive the first stereoscopic image data and the second stereoscopic image data, match the matching, and generate integrated stereoscopic image data, wherein the data processor is configured to perform the operation on the integrated stereoscopic image data.
  • an implant diagnosis image generating system may be visually displayed on the basis of the virtual fixture to display the bone density around the virtual fixture.
  • the data processing apparatus may visually display a bone density of an area in contact with an outer contour of the virtual fixture.
  • the bone density around the virtual fixture may be displayed in different colors according to the numerical value of the bone density.
  • the color may be colored
  • the Plaster Patterns of Teeth may be provided with registration markers for matching the first stereoscopic image data with the second stereoscopic image data.
  • the matching reference markers may be provided in plural and may be spaced apart from each other.
  • the data processing apparatus includes an input unit for receiving information from a user; A generation unit which generates the integrated stereoscopic image data and is electrically connected to the input unit and corrects the integrated stereoscopic image data according to information input from the user; And a display unit electrically connected to the operation unit to visually display the integrated stereoscopic image data and the bone density around the virtual fixture.
  • the data processing apparatus may pre-match the first stereoscopic image data and the second stereoscopic image data based on the coordinates of the matching reference marker of the second stereoscopic image data. After the pre-matching step, the integration through a precise matching step of precisely matching the second stereoscopic image data to the first stereoscopic image data in the pre-matched integrated stereoscopic image data 3D image data can be generated.
  • the calculator may further include a tooth region display area in which the tooth region of the subject is visually displayed in the first stereoscopic image data, and the second stereoscopic image data in the display area of the display unit.
  • pre-matching the virtual coordinates to the unified stereoscopic image data display area Stereoscopic image data can be displayed.
  • the operation unit divides the display area of the display unit into a plurality of divided regions, and the plurality of divided regions of different planar images of the pre-matched integrated stereoscopic image data.
  • the second stereoscopic image data may be input to the first stereoscopic image data in each of the divided regions through the input unit.
  • the plurality of divided areas may include: a first area in which a planar image obtained by cutting the pre-matched integrated stereoscopic image data into a first axis and a second axis intersecting the first axis; A second region in which a planar image cropped by a third axis intersecting the second axis and the second axis is shown at a position of a first moving point displayed in the first area; A third area in which a planar image cropped by the first axis and the third axis is shown at a position of a first moving point displayed in the first area; A fourth region in which a planar image cut along the second axis and the third axis is shown at a position of a second moving point displayed on the first area; A fifth region in which a planar image cut along the first axis and the third axis is shown at a position of a second moving point displayed on the first area; And a sixth region in which the planar image cut along the second axis and the third axis
  • the first to third moving points may be moved by the user's manipulation, and the images of the second area and the third area may be changed in conjunction with the movement of the first moving point, and the fourth area and The image of the fifth area may be changed in conjunction with the movement of the second moving point, and the image of the sixth area may be variable in conjunction with the movement of the third moving point.
  • An image generating method may be provided.
  • the bone density displaying step may visually display the bone density of an area in contact with an outer contour of the virtual fixture.
  • the bone density around the virtual fixture may be displayed in different colors according to the numerical value of the bone density.
  • the color may be colored
  • the obtaining of the second image information may include: generating a plaster pattern of teeth of the operator; Providing a registration marker for registration of the first stereoscopic image data and the second stereoscopic image data in a plaster pattern of the subject; And scanning the plaster patterns of the operator (Plaster Patterns of Teeth).
  • the matching reference markers may be provided in plural and may be spaced apart from each other.
  • the first stereoscopic image data and the second stereoscopic image data are pre-matched based on the coordinates of the matching reference marker of the second stereoscopic image data.
  • -matching line matching step And a precision matching step of precisely matching the second stereoscopic image data to the first stereoscopic image data in the pre-matched integrated stereoscopic image data.
  • the display area of the screen provided to the user may include a tooth area display area in which the tooth area of the subject is visually displayed among the first stereoscopic image data, and a second area in which the second stereoscopic image data is visually displayed.
  • a display area of a screen provided to a user is divided into a plurality of divided areas, and different planar images of the pre-matched integrated stereoscopic image data are divided into the plurality of divided areas. Disposed in the field; And correcting the second stereoscopic image data to match the first stereoscopic image data in each of the divided regions.
  • the plurality of divided areas may include: a first area in which a planar image obtained by cutting the pre-matched integrated stereoscopic image data into a first axis and a second axis intersecting the first axis; A second region in which a planar image cropped by a third axis intersecting the second axis and the second axis is shown at a position of a first moving point displayed in the first area; A third area in which a planar image cropped by the first axis and the third axis is shown at a position of a first moving point displayed in the first area; A fourth region in which a planar image cut along the second axis and the third axis is shown at a position of a second moving point displayed on the first area; A fifth region in which a planar image cut along the first axis and the third axis is shown at a position of a second moving point displayed on the first area; And a sixth area in which a planar image cut along the second axis and the third axi
  • the first to third moving points may be moved by the user's manipulation, and the images of the second area and the third area may be changed in conjunction with the movement of the first moving point, and the fourth area and The image of the fifth area may be changed in conjunction with the movement of the second moving point, and the image of the sixth area may be variable in conjunction with the movement of the third moving point.
  • the user when a virtual fixture to be implanted by an operator is superimposed on the integrated stereoscopic image data, the user visually displays the bone density around the virtual fixture based on the virtual fixture, thereby allowing the user to visualize the virtual fixture.
  • FIG. 1 is a diagram illustrating an image diagnosis system for implant diagnosis according to an embodiment of the present invention.
  • FIG. 2 is a view of the dental gypsum bone of FIG. 1.
  • 3 and 4 are diagrams in which the bone density around the virtual fixture is visually displayed on the display unit of FIG. 1.
  • FIG. 5 is a diagram illustrating an implant diagnosis image generating method according to the implant diagnosis image generating system of FIG. 1.
  • FIG. 6 and 7 illustrate screens of a display unit in a line matching step of the integrated stereoscopic image data acquisition step of FIG. 5.
  • FIG. 8 and 9 illustrate screens of a display unit in a fine matching step of the integrated stereoscopic image data acquisition step of FIG. 5.
  • the first axis refers to the X axis
  • the second axis refers to the Y axis
  • the third axis refers to the Z axis.
  • Implant diagnosis image generating system as shown in Figures 1 to 4, the first image information acquisition device 110 for obtaining the first stereoscopic image data for the oral region of the subject, and the teeth of the subject
  • the second image information acquisition device 120 scanning the plaster patterns of teeth (G) to obtain second stereoscopic image data, and receiving and matching the first stereoscopic image data and the second stereoscopic image data.
  • a data processor 130 to generate integrated stereoscopic image data.
  • the first image information obtaining apparatus 110 acquires first stereoscopic image data of an oral region of the subject.
  • the first image information obtaining apparatus 110 of the present embodiment includes computed tomography (CT).
  • CT computed tomography
  • the first stereoscopic image data of the present embodiment refers to a stereoscopic image implemented using a plurality of cross-sectional images.
  • the scope of the present invention is not limited, and various stereoscopic image acquisition apparatuses, such as a magnetic resonance imaging apparatus, may be used as the first image information acquisition apparatus 110 of the present embodiment.
  • the second image information obtaining apparatus 120 scans the dental gypsum bone G of the subject to obtain second stereoscopic image data.
  • Dental gypsum bone (G) of the present embodiment is formed in the shape of the subject's teeth and gums, after the tray provided with the impression material is inserted into the oral cavity of the facilitator, the tooth of the subject presses the impression material, It is manufactured in the shape.
  • the matching reference marker G2 serves as a reference coordinate for matching the first stereoscopic image data and the second stereoscopic image data, and the matching reference marker G2 of the second stereoscopic image data through the data processing device 130. ) Is used to generate the integrated stereoscopic image data through registration of virtual position coordinates corresponding to the matching reference marker G2 in the first stereoscopic image data.
  • the matching reference markers G2 of the present embodiment are provided in plural and are spaced apart from each other. In this embodiment, at least three matching reference markers G2 are provided, and at least three matching reference markers G2 are spaced apart from each other.
  • the registration reference marker G2 is formed of a structure or material that can be distinguished from the dental gypsum bone body G1 in the second stereoscopic image data.
  • the second image information obtaining apparatus 120 includes a 3D scanner (not shown) that scans the dental gypsum bone G to obtain second stereoscopic image data.
  • the second stereoscopic image data of the present embodiment includes stereolithography (STL) data, and the stereolithography (STL) data may have an ASCII or binary format, and the stereoscopic object may be a 3D object in a 3D program.
  • the modeling data is a data that expresses the surface of a three-dimensional object as a polygonal polygon so that it can be easily recognized by other types of 3D programs.
  • the data processing device 130 receives the first stereoscopic image data and the second stereoscopic image data and matches to generate the integrated stereoscopic image data.
  • the data processing apparatus 130 may include an input unit 131 that receives information from a user, an operation unit 132 that receives the first stereoscopic image data and the second stereoscopic image data, and generates integrated stereoscopic image data, and an operation unit ( And a display unit 133 that is electrically connected to 132 and visually displays integrated stereoscopic image data.
  • the input unit 131 is electrically connected to the operation unit 132 and receives control information from the user and transfers it to the operation unit 132.
  • the calculator 132 receives the first stereoscopic image data and the second stereoscopic image data, generates integrated stereoscopic image data, and visually displays the integrated stereoscopic image data on the display unit 133.
  • the generation of the integrated stereoscopic image data is performed by the organic connection of the input unit 131, the display unit 133, and the calculation unit 132.
  • the first three-dimensional image data obtained from the first image information acquisition device 110 such as a computed tomography (CT) device, compared to the advantage that can accurately grasp the bone shape of the subject, etc., inside the mouth of the subject
  • CT computed tomography
  • the second stereoscopic image data which contains very accurate information about the internal structure of the subject
  • the first stereoscopic image data which contains accurate information about the bone shape of the subject
  • the first stereoscopic image data and the second stereoscopic image data may be lined based on the coordinates of the matching reference marker G2 of the second stereoscopic image data.
  • the line matching step the first stereoscopic image data and the second stereoscopic image data are quickly and approximately matched.
  • the line matching step is performed based on the coordinates of the matching reference marker G2 of the second stereoscopic image data.
  • the first stereoscopic image data and the second stereoscopic image data are pre-matched.
  • a screen as shown in FIGS. 6 to 7 is provided to the user on the screen of the display unit 133.
  • the screen includes a tooth region display zone Z1 in which the tooth region of the subject is visually displayed among the first stereoscopic image data, and a second stereoscopic image data display zone Z2 in which the second stereoscopic image data is visually displayed.
  • An integrated stereoscopic image data display zone Z3 in which stereoscopic image data is visually displayed is displayed.
  • the tooth region display zone Z1 visually displays the tooth region of the subject among the first stereoscopic image data.
  • the tooth region of the subject displayed in the tooth region display zone Z1 may be selected by a control signal through the user's input unit 131.
  • the second stereoscopic image data is visually displayed in the second stereoscopic image data display zone Z2
  • the integrated stereoscopic image data is visually displayed in the integrated stereoscopic image data display zone Z3.
  • the user inputs the coordinates of the matching reference marker G2 in the second stereoscopic image data display zone Z2 to the calculator 132. That is, when the user clicks the three registration reference markers G2 displayed on the second stereoscopic image data display zone Z2 through the input unit 131, for example, the mouse, the clicked coordinates are transmitted to the calculation unit 132. .
  • the operation unit 132 compares the coordinates of the input registration reference marker G2 with the virtual coordinates, overlaps the first stereoscopic image data and the second stereoscopic image data, and then adds them to the integrated stereoscopic image data display zone Z3. Pre-matching integrated stereoscopic image data in which second stereoscopic image data is superimposed on one stereoscopic image data is displayed.
  • the integrated stereoscopic image data display zone Z3 of FIG. 6 only the first stereoscopic image data is displayed because no coordinate input by a user is performed.
  • a matching reference marker Integrated stereoscopic images in which the second stereoscopic image data is pre-matched to the first stereoscopic image data as virtual coordinates corresponding to the coordinates of G2 and the coordinates of the matching reference marker G2 are input. The data is displayed.
  • the screen as shown in FIGS. 8 to 9 is provided to the user on the screen of the display unit 133. That is, a plurality of divided areas D1, D2, D3, D4, D5, and D6 are displayed on the screen provided to the user through the display unit 133 in the precise matching step. Different planar images of integrated stereoscopic image data that are pre-matched are arranged in the plurality of partitions D1, D2, D3, D4, D5, and D6.
  • the planar images of the pre-matched integrated stereoscopic image data displayed on the plurality of partitions D1, D2, D3, D4, D5, and D6 may be the first stereoscopic image data and the second stereoscopic image. It is possible to distinguish the data (for example, appearance lines of the first stereoscopic image data and the second stereoscopic image data are expressed in different colors) so that the user can visually recognize whether or not they are matched.
  • the first divided area D1 is a plane of pre-matched integrated stereoscopic image data and corresponds to a user's manipulation screen.
  • an image obtained by cutting the integrated stereoscopic image data pre-matched on the X-Y axis plane is displayed.
  • Three moving points M1, M2, and M3 are displayed in the first partition, and when the user moves the input point through the input unit 131 such as a mouse, the second to sixth partitions D2, D3, D4, The image of D5, D6) is changed.
  • an image cut in the Y-Z axis plane at the position of the first moving point M1 of the first divided area D1 is displayed.
  • an image cut in the X-Z axis plane at the position of the first moving point M1 of the first divided area D1 is displayed.
  • the images of the second divided area D2 and the third divided area D3 are located at the position of the first moving point M1 moved according to the movement of the first moving point M1 of the first divided area D1. Variable to flat image.
  • the images of the second to sixth division areas D2, D3, D4, D5, and D6 are affected by manipulation by the user's input unit 131. That is, an image such as a position and a posture of the second stereoscopic image data displayed on the second to sixth divided regions D2, D3, D4, D5, and D6 may be changed by a user's manipulation.
  • the planar images displayed on the first to sixth divided regions D1, D2, D3, D4, D5, and D6 are expressed in different colors, and thus, the first stereoscopic image data and the second stereoscopic image. Since the data can be divided, the user precisely matches the second stereoscopic image data by clicking and dragging the second stereoscopic image data through the input unit 131 such as a mouse.
  • the information of the state where the user precisely matches the image of the second stereoscopic image data to the image of the first stereoscopic image data using the input unit 131 is input to the calculating unit 132, and the calculating unit 132 pre-matches. (pre-matching) integrated stereoscopic image data by correcting the pre-matched integrated stereoscopic image data according to the information of the precisely matched state input by the input unit (131) Generate video data.
  • the position of the fixture P to be placed in the subject in the integrated stereoscopic image data is determined.
  • the user determines the position of the fixture P while overlapping the virtual fixture P to be placed by the operator on various positions of the integrated stereoscopic image data displayed on the display unit 133.
  • the operation unit 132 surrounds the virtual fixture P based on the virtual fixture P.
  • FIG. Calculate your bone density.
  • the bone density around the virtual fixture P refers to the bone density of the area in contact with the outer contour of the virtual fixture P, where the thread outer line of the fixture P is located. Bone density of the site.
  • the display unit 133 is electrically connected to the operation unit 132 and visually displays integrated stereoscopic image data (ie, displayed as a 2D plane image, a 3D image, or the like).
  • the display unit 133 may display not only integrated stereoscopic image data but also first stereoscopic image data and second stereoscopic image data as visual images.
  • the display unit 133 of the present embodiment visually displays the bone density around the virtual fixture P based on the virtual fixture P calculated by the calculator 132.
  • the display unit 133 visually displays the bone density of the region in contact with the outer contour of the virtual fixture P calculated by the operation unit 132.
  • the bone density around the virtual fixture P displayed on the display unit 133 is displayed in different colors according to the numerical value of the bone density.
  • the color displayed on the display unit 133 according to the numerical value of the bone density is made of chromatic color.
  • the implant diagnosis image generating system of the present embodiment displays the bone density around the virtual fixture P in different colored hues according to the numerical value of the bone density, thereby allowing the user to display the bone density around the virtual fixture P. This has the advantage of being intuitively recognizable.
  • the high BMD is shown in yellow or green and the low BMD is shown in red or blue.
  • the scope of the present invention is not limited thereto, and the BMD may be displayed in various other colors. .
  • FIG. 5 is a view illustrating an implant diagnosis image generating method according to the implant diagnosis image generating system of FIG. 1, and FIGS. 6 and 7 illustrate screens of a display unit in a line matching step of the integrated stereoscopic image data acquisition step of FIG. 5.
  • FIGS. 6 and 7 illustrate screens of a display unit in a line matching step of the integrated stereoscopic image data acquisition step of FIG. 5.
  • 8 and 9 are diagrams illustrating screens of a display unit in a precise registration step of the integrated stereoscopic image data acquisition step of FIG. 5.
  • the first image information acquisition step (S110) for obtaining the first three-dimensional image data for the oral region of the subject, and the dental gypsum of the subject The second image information acquisition step (S120) of scanning the bone (G) to obtain second stereoscopic image data, and matching the first stereoscopic image data and the second stereoscopic image data to generate integrated stereoscopic image data
  • the integrated stereoscopic image data acquisition step (S130) and the virtual fixture P to be implanted in the integrated stereoscopic image data are superimposed on the virtual fixture P based on the virtual fixture P, It includes a bone density display step (S140) for visually displaying the bone density.
  • first stereoscopic image data of the mouth region of the subject is obtained.
  • the first image information acquisition device 110 acquires first stereoscopic image data by photographing an oral region of a subject.
  • the second image information acquisition device 120 scans the dental gypsum bone G of the subject to obtain second stereoscopic image data.
  • the registration reference marker for registration of the stereoscopic image data on the dental gypsum bone body G1 of the subject manufactured in the step of generating the dental gypsum bone G ( G2) is formed.
  • the registration reference marker G2 provided in the dental gypsum main body G1 is used as a reference coordinate for registration of the first stereoscopic image data and the second stereoscopic image data in the integrated stereoscopic image data acquisition step S130.
  • the integrated stereoscopic image data is generated by matching the first stereoscopic image data and the second stereoscopic image data.
  • the first three-dimensional image data obtained from the first image information acquisition device 110 such as a computed tomography (CT) device, compared to the advantage that can accurately grasp the bone shape of the subject, etc., inside the mouth of the subject
  • CT computed tomography
  • the second stereoscopic image data which contains very accurate information about the internal structure of the subject
  • the first stereoscopic image data which contains accurate information about the bone shape of the subject
  • the integrated stereoscopic image data should be generated, and a matching process that must be accompanied for the superposition of the first stereoscopic image data and the second stereoscopic image data is performed in the integrated stereoscopic image data acquisition step (S130).
  • the line matching step S131 is a method of quickly matching the first stereoscopic image data and the second stereoscopic image data.
  • the matching reference marker G2 of the second stereoscopic image data is performed.
  • the first stereoscopic image data and the second stereoscopic image data are pre-matched based on the coordinates.
  • the display area of the screen provided to the user is visually displayed on the tooth region display zone Z1 in which the tooth region of the subject is visually displayed among the first stereoscopic image data, and the second stereoscopic image data is visually displayed. Partitioning the second stereoscopic image data display zone (Z2) and the integrated stereoscopic image data display zone (Z3) into which the integrated stereoscopic image data is visually displayed, and for registration in the second stereoscopic image data display zone (Z2).
  • a reference marker coordinate input step of inputting the coordinates of the reference marker G2 a virtual coordinate input step of inputting virtual coordinates corresponding to the coordinates of the reference marker G2 for registration in the tooth region display area Z1, and input Displaying the integrated stereoscopic image data pre-matched in the integrated stereoscopic image data display zone Z3 by matching the coordinates of the matched reference marker G2 with the virtual coordinates. It includes.
  • the display area of the screen provided to the user through the display unit 133 is the tooth region of the subject among the first stereoscopic image data.
  • This visually displayed tooth region display zone Z1 the second stereoscopic image data display zone Z2 in which the second stereoscopic image data is visually displayed, and the integrated stereoscopic image data display in which the integrated stereoscopic image data is visually displayed. It is partitioned into zone Z3.
  • the second stereoscopic image data is visually displayed in the second stereoscopic image data display zone Z2
  • the integrated stereoscopic image data is visually displayed in the integrated stereoscopic image data display zone Z3.
  • the tooth region of the subject displayed in the tooth region display zone Z1 and the second stereoscopic image data displayed in the second stereoscopic image data display zone Z2 both represent the structure of the oral region of the subject. Since the second stereoscopic image data has more accurate information about the structure of the region, when generating the integrated stereoscopic image data, the structure of the oral cavity of the subject among the first stereoscopic image data is replaced with the second stereoscopic image data. For this replacement, the first stereoscopic image data and the second stereoscopic image data must be matched through the reference marker coordinate input step and the virtual coordinate input step.
  • the coordinates of the matching reference marker G2 are input in the second stereoscopic image data display zone Z2. That is, when the user clicks the three registration reference markers G2 displayed on the second stereoscopic image data display zone Z2 through the input unit 131, for example, the mouse, the clicked coordinates are transmitted to the calculation unit 132. .
  • virtual coordinates corresponding to the coordinates of the matching reference marker G2 are input in the tooth region display zone Z1. That is, the user compares the image of the tooth region displayed in the tooth region display region Z1 with the image of the dental gypsum bone G displayed in the second stereoscopic image data display region Z2 and then displays the image in the tooth region display region Z1.
  • the clicked coordinate is transmitted to the operation unit 132.
  • the coordinates of the matching reference marker G2 input to the operation unit 132 are compared with the virtual coordinates, and the first stereoscopic image data is compared.
  • the integrated stereoscopic image data display zone Z3 of FIG. 6 only the first stereoscopic image data is displayed since the reference marker coordinate input step and the virtual coordinate input step have not been performed, but the integrated stereoscopic image data display zone Z3 of FIG. It can be seen that the image of the integrated stereoscopic image data in which the second stereoscopic image data is superimposed on the first stereoscopic image data is displayed according to the reference marker coordinate input step and the virtual coordinate input step.
  • the user compares the image of the tooth area display area Z1 with the image of the second stereoscopic image data display area Z2 to determine the area of the tooth area display area Z1. Since the image is clicked on an imaginary position where the reference marker G2 is to be placed in the image, the degree of registration of the pre-matched integrated stereoscopic image data passed through the line matching step S131 is perfect. Although not in a state, the pre-matching integrated stereoscopic image data which has undergone the line matching step S131 is almost matched.
  • the second stereoscopic image data is precisely matched with the first stereoscopic image data in the pre-matched integrated stereoscopic image data which is almost matched.
  • the display area of the screen provided to the user through the display unit 133 is divided into a plurality of divided areas, and different planar images of the integrated stereoscopic image data that are pre-matched. And disposing the plurality of divided regions, and correcting the second stereoscopic image data to match the first stereoscopic image data in each divided region.
  • the display area of the screen provided to the user through the display unit 133 in the fine matching step S132 is divided into a plurality of divided areas D1, D2, D3, D4, D5, and D6. It is divided into Different planar images of integrated stereoscopic image data that are pre-matched are arranged in the plurality of partitions D1, D2, D3, D4, D5, and D6.
  • the planar images of the pre-matched integrated stereoscopic image data displayed on the plurality of partitions D1, D2, D3, D4, D5, and D6 may be the first stereoscopic image data and the second stereoscopic image. It is possible to distinguish the data (for example, appearance lines of the first stereoscopic image data and the second stereoscopic image data are expressed in different colors) so that the user can visually recognize whether or not they are matched.
  • the display area of the screen provided to the user through the display unit 133 in the fine matching step S132 is the first to sixth divided areas D1, D2, and D3. , D4, D5, and D6).
  • Three moving points M1, M2, and M3 are displayed in the first partition, and when the user moves the input point through the input unit 131 such as a mouse, the second to sixth partitions D2, D3, D4, The image of D5, D6) is changed.
  • an image cut in the Y-Z axis plane at the position of the first moving point M1 of the first divided area D1 is displayed.
  • an image cut in the X-Z axis plane at the position of the first moving point M1 of the first divided area D1 is displayed.
  • the images of the fourth divided area D4 and the fifth divided area D5 are located at the position of the second moving point M2 moved according to the movement of the second moving point M2 of the first divided area D1. Variable to flat image.
  • an image cut in the Y-Z axis plane at the position of the third moving point M3 of the first divided area D1 is displayed.
  • the image of the sixth divided area D6 is changed into a planar image at the position of the third moving point M3 moved according to the movement of the third moving point M3 of the first divided area D1.
  • the image of the second to sixth divided areas D2, D3, D4, D5, and D6 is changed according to the positional change of the first to third moving points M1, M2, and M3. You can see that.
  • the images of the second to sixth division areas D2, D3, D4, D5, and D6 are affected by manipulation by the user's input unit 131. That is, an image such as a position and a posture of the second stereoscopic image data displayed on the second to sixth divided regions D2, D3, D4, D5, and D6 may be changed by a user's manipulation.
  • the user moves the first to third moving points M1, M2, and M3, and the first stereoscopic image data and the second stereoscopic image data in the planar image of the integrated stereoscopic image data pre-matched at various sites.
  • the stereoscopic image data is checked to be matched, and the first stereoscopic image data and the second stereoscopic image data are precisely matched by moving the second stereoscopic image data relative to the first stereoscopic image data through the input unit 131.
  • the user may manipulate the scale of the first stereoscopic image data through the scale manipulation unit S displayed on the display area of the screen provided to the user through the display unit 133.
  • the scale operation of the first stereoscopic image data causes the overall size of the first stereoscopic image data to be relatively changed with respect to the second stereoscopic image data when there is an overall size difference between the first stereoscopic image data and the second stereoscopic image data.
  • the precision matching operation of the first stereoscopic image data and the second stereoscopic image data is further facilitated.
  • the integrated stereoscopic image data which is approximately pre-matched after preliminarily fast matching the first stereoscopic image data and the second stereoscopic image data is performed.
  • the matching accuracy can be increased while reducing the overall matching time.
  • Bone density such as the alveolar bone of the subject during the planning of the procedure is a very important factor, and determines the implantation position, depth and direction of the implant according to the state of the bone density of the subject.
  • the virtual fixture P to be implanted in the subject is superimposed on the integrated stereoscopic image data, but the virtual fixture P is superimposed.
  • the bone density around the virtual fixture P is visually displayed.
  • the bone density around the virtual fixture P is displayed in different colors according to the numerical value of the bone density, thereby allowing the user to surround the virtual fixture P.
  • the invention can be used in the medical industry, in particular in the dental medical industry.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Rheumatology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)

Abstract

Disclosed is a system for generating images for an implant evaluation. The system for generating images for an implant evaluation according to the present invention comprises: a first image data acquisition unit for acquiring first three-dimensional image data of the oral cavity of a patient; a second image data acquisition unit for acquiring second three-dimensional image data by scanning plaster patterns of the teeth of the patient; and a data processing apparatus for generating composite three-dimensional image data by receiving and matching the first and second three-dimensional image data, wherein the data processing apparatus overlays a virtual fixture to be implanted in the patient onto the composite three-dimensional image data, and on the basis of the virtual fixture, visually displays the bone densities of the surroundings of the virtual fixture.

Description

임플란트 진단용 영상 생성 시스템 및 그 생성방법Implant Diagnosis System and Its Generation Method
본 발명은, 임플란트 진단용 영상 생성 시스템 및 그 생성방법에 관한 것으로서, 보다 상세하게는, 치과용 임플란트의 진단 및 시술계획에 사용되는 임플란트 진단용 영상 생성 시스템 및 그 생성방법에 관한 것이다.The present invention relates to an implant diagnosis image generating system and a method of generating the same, and more particularly, to an implant diagnosis image generating system and a method for generating the same used for the diagnosis and procedure planning of dental implants.
치과용 임플란트는 원래 인체조직이 상실되었을 때, 회복시켜 주는 대치물을 의미하지만, 치과에서는 인공으로 만든 치아를 이식하는 일련의 시술을 가리킨다.Dental implants originally meant a replacement that healed when human tissue was lost, but in dentistry, it refers to a series of procedures for implanting artificial teeth.
상실된 치근(뿌리)을 대신할 수 있도록 인체에 거부반응이 없는 티타늄(titanium) 등으로 만든 치근인 픽스츄어(fixture)를 치아가 빠져나간 치조골에 심은 뒤, 인공치아를 고정시켜 치아의 기능을 회복하도록 하는 시술이다.To replace the lost roots (roots), a fixture made of titanium, etc., which is not rejected by the human body, is planted in the alveolar bone where the teeth fall out, and the artificial teeth are fixed to restore the function of the teeth. It is a procedure to make.
일반 보철물이나 틀니의 경우, 시간이 지나면 주위 치아와 뼈가 상하지만 임플란트는 주변 치아조직을 상하지 않게 하며, 자연치아와 기능이나 모양이 같으면서도 충치가 생기지 않으므로 반영구적으로 사용할 수 있는 장점이 있다.In the case of general prosthetics or dentures, the surrounding teeth and bones are damaged after time, but the implants do not damage the surrounding dental tissues.
인공치아 시술(임플란트 또는 임플란트 시술이라고도 함)은, 픽스츄어의 종류에 따라 다양하지만 소정의 드릴을 사용하여 식립위치를 천공한 후 픽스츄어를 치조골에 식립하여 뼈에 골융합시킨 다음, 픽스츄어에 지대주(abutment)를 결합시킨 후에, 지대주에 최종 보철물을 씌움으로써 완료되는 것이 일반적이다.Artificial tooth procedures (also called implants or implant procedures) vary depending on the type of fixture, but use a drill to drill the implantation position, then implant the fixture into the alveolar bone and fusion to the bone, then abutment the fixture After joining the abutments, it is usually done by putting the final prosthesis on the abutment.
치과용 임플란트는 단일 결손치 수복은 물론이거니와 부분 무치아 및 완전 무치아 환자에게 의치의 기능을 증진시키고, 치아 보철 수복의 심미적인 면을 개선시키며, 나아가 주위의 지지골 조직에 가해지는 과도한 응력을 분산시킴과 아울러 치열의 안정화에 도움을 준다.Dental implants enhance the function of dentures, improve the aesthetics of dental prosthetic restorations, as well as dissipate excessive stress on surrounding supportive bone tissue, as well as single missing restorations. It also helps to stabilize the teeth.
이러한 치과용 임플란트는 일반적으로, 인공 치근으로서 식립되는 픽스츄어(Fixture)와, 픽스츄어 상에 결합되는 지대주(Abutment)와, 지대주를 픽스츄어에 고정하는 지대주 스크류(Abutment Screw)와, 지대주에 결합되는 인공치아를 포함한다. 여기서, 지대주를 픽스츄어에 결합시키기 전에, 즉 치조골에 픽스츄어가 골융합되기까지의 기간 동안에 지대주가 픽스츄어에 결합되어 결합 상태를 유지하기도 한다.Such dental implants generally include fixtures implanted as artificial roots, abutments joined on the fixtures, abutment screws securing the abutments to the fixtures, and abutments to the abutments. Includes artificial teeth. Here, the abutment may be coupled to the fixture to maintain the bonding state before the abutment is coupled to the fixture, that is, until the fixture is fused to the alveolar bone.
치과용 임플란트의 한 구성요소인 픽스츄어는, 임플란트가 시술되는 위치에 드릴 등을 이용하여 치조골에 형성된 드릴 홀에 식립되는 부분으로서 인공 치근의 역할을 담당한다. 따라서 픽스츄어는 치조골에 견고하게 식립되어야 한다.The fixture, which is a component of the dental implant, serves as an artificial tooth root as a part that is placed in a drill hole formed in the alveolar bone by using a drill or the like at the position where the implant is to be treated. Therefore, the fixture should be firmly placed in the alveolar bone.
이러한 임플란트의 식립은 환자마다 많은 차이가 있는데 이는 환자의 치아의 상태, 임플란트 시술이 필요한 치아의 위치, 환자의 치조골의 상태 등 다양한 요인에 의해 임플란트의 식립 위치 등이 결정되기 때문이다. The placement of such implants varies greatly from patient to patient, since the implantation position of the implant is determined by various factors such as the patient's tooth condition, the position of the tooth requiring the implant procedure, and the condition of the patient's alveolar bone.
특히 치조골의 골밀도는 임플란트 식립 시 매우 중요한 요소이며, 환자의 골밀도의 상태에 따라 임플란트의 식립 위치 및 깊이와 방향을 결정하게 되는데 이는 환자의 특성을 고려하여 신중하게 결정하여야 한다. In particular, the bone density of the alveolar bone is a very important factor in implant placement, and the placement position, depth and direction of the implant are determined according to the condition of the bone density of the patient.
한편, 상술한 바와 같이 임플란트의 식립은 환자마다 많은 차이가 있으므로, 종래에 이러한 차이를 의사가 정확하게 인지할 수 있도록 도와주는 임플란트 진단용 영상 생성 시스템이 개발되어 왔다. On the other hand, as described above, since the implantation of the implant varies greatly from patient to patient, an image diagnosis system for implant diagnosis has been developed to help the doctor to accurately recognize the difference.
종래기술에 따른 임플란트 진단용 영상 생성 시스템은, 컴퓨터 단층촬영(CT) 등을 활용하여 환자의 구강 영역을 시각적으로 표시하여 모의 시술 등에 도움을 주는데, 임플란트의 식립 위치 및 깊이와 방향을 결정하는데 매우 중요한 치조골의 골밀도에 대한 표시가 부정확하고 의사가 인지하기 어려운 상태로 제공되는 문제점이 있다. Implant diagnosis image generation system according to the prior art, by using a computer tomography (CT) to visually display the oral area of the patient to assist the simulation procedure, etc., which is very important in determining the implantation position, depth and orientation of the implant There is a problem that the indication of the bone density of the alveolar bone is provided in an inaccurate and difficult to recognize state.
특히, 종래기술에 따른 임플란트 진단용 영상 생성 시스템은 치조골의 골밀도를 무채색의 명암으로만 표시하여 의사가 치조골의 골밀도를 빠르게 인식하기 어렵게 하며, 전체적인 치조골의 골밀도만을 표시할 뿐 임플란트가 식립될 가상의 위치들에 대한 골밀도를 개별적으로 제공하지 않아 의사가 최적의 임플란트 식립 위치를 파악하는 시간이 길어지는 문제점이 있다.In particular, the implant diagnosis image generation system according to the prior art displays the bone density of the alveolar bone only in achromatic shade, making it difficult for a doctor to recognize the bone density of the alveolar bone quickly, and only displays the bone density of the alveolar bone, and the virtual position where the implant is to be placed. There is a problem in that the time for the doctor to determine the optimal implant placement location is not provided because the bone density for each field is not provided individually.
따라서 본 발명이 해결하고자 하는 과제는, 픽스츄어를 기준으로 하여 픽스츄어가 식립될 가상의 위치 주변의 치조골 골밀도를 시각적으로 표시할 수 있는 임플란트 진단용 영상 생성 시스템 및 그 생성방법을 제공하는 것이다.Accordingly, an object of the present invention is to provide an image diagnosis system for implant diagnosis and a method of generating the same, which can visually display bone density of alveolar bone around a virtual position where a fixture is to be placed, based on the fixture.
본 발명의 일 측면에 따르면, 피시술자의 구강 영역에 대한 제1 입체 영상 데이터를 획득하는 제1 영상정보 획득장치; 상기 피시술자의 치아 석고 본(Plaster Patterns of Teeth)을 스캔하여 제2 입체 영상 데이터를 획득하는 제2 영상정보 획득장치; 및 상기 제1 입체 영상 데이터 및 상기 제2 입체 영상 데이터를 전달받아 정합(matching)하여 통합 입체 영상 데이터를 생성하는 데이터 처리장치를 포함하며, 상기 데이터 처리장치는, 상기 통합 입체 영상 데이터에 상기 피시술자에게 식립될 가상의 픽스츄어가 중첩되면, 상기 가상의 픽스츄어를 기준으로 하여 상기 가상의 픽스츄어 주위의 골밀도를 시각적으로 표시하는 것을 특징으로 하는 임플란트 진단용 영상 생성 시스템이 제공될 수 있다.According to an aspect of the invention, the first image information acquisition device for obtaining first stereoscopic image data for the oral region of the subject; A second image information acquisition device that scans the Plaster Patterns of Teeth of the subject to obtain second stereoscopic image data; And a data processing unit configured to receive the first stereoscopic image data and the second stereoscopic image data, match the matching, and generate integrated stereoscopic image data, wherein the data processor is configured to perform the operation on the integrated stereoscopic image data. When the virtual fixture to be placed in the superimposition, an implant diagnosis image generating system may be visually displayed on the basis of the virtual fixture to display the bone density around the virtual fixture.
상기 데이터 처리장치는, 상기 가상의 픽스츄어의 외곽 컨투어(contour)에 접하는 영역의 골밀도를 시각적으로 표시할 수 있다The data processing apparatus may visually display a bone density of an area in contact with an outer contour of the virtual fixture.
상기 가상의 픽스츄어 주위의 골밀도는, 상기 골밀도의 수치에 따라 서로 다른 색상으로 표시될 수 있다The bone density around the virtual fixture may be displayed in different colors according to the numerical value of the bone density.
상기 색상은 유채색일 수 있다The color may be colored
상기 치아 석고 본(Plaster Patterns of Teeth)에는 상기 제1 입체 영상 데이터와 상기 제2 입체 영상 데이터의 정합을 위한 정합용 기준 마커(marker)가 마련될 수 있다The Plaster Patterns of Teeth may be provided with registration markers for matching the first stereoscopic image data with the second stereoscopic image data.
상기 정합용 기준 마커는 다수개로 마련되며, 상호 이격되어 배치될 수 있다The matching reference markers may be provided in plural and may be spaced apart from each other.
상기 데이터 처리장치는, 사용자로부터 정보를 입력받는 입력부; 상기 통합 입체 영상 데이터를 생성하며, 상기 입력부에 전기적으로 연결되어 상기 사용자로부터 입력된 정보에 따라 상기 통합 입체 영상 데이터를 보정하는 연산부; 및 상기 연산부에 전기적으로 연결되며, 상기 통합 입체 영상 데이터와 상기 가상의 픽스츄어 주위의 골밀도를 시각적으로 표시하는 표시부를 포함할 수 있다.The data processing apparatus includes an input unit for receiving information from a user; A generation unit which generates the integrated stereoscopic image data and is electrically connected to the input unit and corrects the integrated stereoscopic image data according to information input from the user; And a display unit electrically connected to the operation unit to visually display the integrated stereoscopic image data and the bone density around the virtual fixture.
상기 데이터 처리장치는, 상기 제2 입체 영상 데이터의 정합용 기준 마커(marker)의 좌표를 기준으로 하여 상기 제1 입체 영상 데이터와 상기 제2 입체 영상 데이터를 선(先) 정합(pre-matching)하는 선(先) 정합단계 후, 상기 선(先) 정합(pre-matching)된 통합 입체 영상 데이터에서 상기 제2 입체 영상 데이터를 상기 제1 입체 영상 데이터에 정밀 정합하는 정밀 정합단계를 거쳐 상기 통합 입체 영상 데이터를 생성할 수 있디.The data processing apparatus may pre-match the first stereoscopic image data and the second stereoscopic image data based on the coordinates of the matching reference marker of the second stereoscopic image data. After the pre-matching step, the integration through a precise matching step of precisely matching the second stereoscopic image data to the first stereoscopic image data in the pre-matched integrated stereoscopic image data 3D image data can be generated.
상기 선(先) 정합단계에서 상기 연산부는 , 상기 표시부의 표시영역을 상기 제1 입체 영상 데이터 중 상기 피시술자의 치아 영역이 시각적으로 표시되는 치아 영역 표시구역과, 상기 제2 입체 영상 데이터가 시각적으로 표시되는 제2 입체 영상 데이터 표시구역과, 상기 통합 입체 영상 데이터가 시각적으로 표시되는 통합 입체 영상 데이터 표시구역으로 구획하며, 상기 입력부를 통해 상기 제2 입체 영상 데이터 표시구역에서 상기 정합용 기준 마커(marker)의 좌표를 입력받고, 상기 입력부를 통해 상기 치아 영역 표시구역에서 상기 정합용 기준 마커(marker)의 좌표에 해당되는 가상의 좌표를 입력받으며, 입력된 상기 정합용 기준 마커(marker)의 좌표와 상기 가상의 좌표를 정합하여 상기 통합 입체 영상 데이터 표시구역에 상기 선(先) 정합(pre-matching)된 통합 입체 영상 데이터를 표시할 수 있다.In the pre-matching step, the calculator may further include a tooth region display area in which the tooth region of the subject is visually displayed in the first stereoscopic image data, and the second stereoscopic image data in the display area of the display unit. A second stereoscopic image data display zone to be displayed and an integrated stereoscopic image data display zone where the integrated stereoscopic image data is visually displayed, and the matching reference marker in the second stereoscopic image data display zone through the input unit; a coordinate of a marker), a virtual coordinate corresponding to the coordinate of the registration reference marker in the tooth region display zone, and the coordinate of the input reference marker. And pre-matching the virtual coordinates to the unified stereoscopic image data display area. Stereoscopic image data can be displayed.
상기 정밀 정합단계에서 상기 연산부는 , 상기 표시부의 표시영역을 다수개의 분할영역으로 구획하며, 상기 선(先) 정합(pre-matching)된 통합 입체 영상 데이터의 서로 다른 평면 영상들을 상기 다수개의 분할영역들에 배치하고, 상기 입력부를 통해 상기 각각의 분할영역에서 제1 입체 영상 데이터에 제2 입체 영상 데이터가 정합된 상태를 입력받을 수 있다.In the precision matching step, the operation unit divides the display area of the display unit into a plurality of divided regions, and the plurality of divided regions of different planar images of the pre-matched integrated stereoscopic image data. The second stereoscopic image data may be input to the first stereoscopic image data in each of the divided regions through the input unit.
상기 다수개의 분할영역들은, 상기 선(先) 정합(pre-matching)된 통합 입체 영상 데이터를 제1축과 상기 제1축에 교차하는 제2축으로 자른 평면 이미지가 도시된 제1 영역; 상기 제1 영역에 표시되는 제1 이동점의 위치에서 상기 제2축과 상기 제2축에 교차하는 제3축으로 자른 평면 이미지가 도시된 제2 영역; 상기 제1 영역에 표시되는 제1 이동점의 위치에서 상기 제1축과 상기 제3축으로 자른 평면 이미지가 도시된 제3 영역; 상기 제1 영역에 표시되는 제2 이동점의 위치에서 상기 제2축과 제3축으로 자른 평면 이미지가 도시된 제4 영역; 상기 제1 영역에 표시되는 제2 이동점의 위치에서 상기 제1축과 제3축으로 자른 평면 이미지가 도시된 제5 영역; 및 상기 제1 영역에 표시되는 제3 이동점의 위치에서 상기 제2축과 제3축으로 자른 평면 이미지가 도시된 제6 영역을 포함할 수 있다.The plurality of divided areas may include: a first area in which a planar image obtained by cutting the pre-matched integrated stereoscopic image data into a first axis and a second axis intersecting the first axis; A second region in which a planar image cropped by a third axis intersecting the second axis and the second axis is shown at a position of a first moving point displayed in the first area; A third area in which a planar image cropped by the first axis and the third axis is shown at a position of a first moving point displayed in the first area; A fourth region in which a planar image cut along the second axis and the third axis is shown at a position of a second moving point displayed on the first area; A fifth region in which a planar image cut along the first axis and the third axis is shown at a position of a second moving point displayed on the first area; And a sixth region in which the planar image cut along the second axis and the third axis is shown at the position of the third moving point displayed on the first area.
상기 제1 내지 제3 이동점은, 상기 사용자의 조작에 의해 이동가능하며, 상기 제2 영역 및 상기 제3 영역의 이미지는 상기 제1 이동점의 이동에 연동되어 가변되며, 상기 제4 영역 및 상기 제5 영역의 이미지는 상기 제2 이동점의 이동에 연동되어 가변되며, 상기 제6 영역의 이미지는 상기 제3 이동점의 이동에 연동되어 가변될 수 있다.The first to third moving points may be moved by the user's manipulation, and the images of the second area and the third area may be changed in conjunction with the movement of the first moving point, and the fourth area and The image of the fifth area may be changed in conjunction with the movement of the second moving point, and the image of the sixth area may be variable in conjunction with the movement of the third moving point.
본 발명의 다른 실시예에 따르면, 피시술자의 구강 영역에 대한 제1 입체 영상 데이터를 획득하는 제1 영상정보 획득단계; 상기 피시술자의 치아 석고 본(Plaster Patterns of Teeth)을 스캔하여 제2 입체 영상 데이터를 획득하는 제2 영상정보 획득단계; 상기 제1 입체 영상 데이터 및 상기 제2 입체 영상 데이터를 정합(matching)하여 통합 입체 영상 데이터를 생성하는 통합 입체 영상 데이터 획득단계; 및 상기 통합 입체 영상 데이터에 상기 피시술자에게 식립될 가상의 픽스츄어를 중첩시키되, 상기 가상의 픽스츄어를 기준으로 하여 상기 가상의 픽스츄어 주위의 골밀도를 시각적으로 표시하는 골밀도 표시단계를 포함하는 임플란트 진단용 영상 생성방법이 제공될 수 있다.According to another embodiment of the invention, the first image information acquisition step of acquiring the first stereoscopic image data for the oral region of the subject; Second image information obtaining step of acquiring second stereoscopic image data by scanning Plaster Patterns of Teeth of the subject; An integrated stereoscopic image data obtaining step of generating integrated stereoscopic image data by matching the first stereoscopic image data and the second stereoscopic image data; And a bone density display step of superimposing a virtual fixture to be implanted by the subject in the integrated stereoscopic image data, and visually displaying bone density around the virtual fixture based on the virtual fixture. An image generating method may be provided.
상기 골밀도 표시단계는, 상기 가상의 픽스츄어의 외곽 컨투어(contour)에 접하는 영역의 골밀도를 시각적으로 표시할 수 있다The bone density displaying step may visually display the bone density of an area in contact with an outer contour of the virtual fixture.
상기 가상의 픽스츄어 주위의 골밀도는, 상기 골밀도의 수치에 따라 서로 다른 색상으로 표시될 수 있다The bone density around the virtual fixture may be displayed in different colors according to the numerical value of the bone density.
상기 색상은 유채색일 수 있다The color may be colored
상기 제2 영상정보 획득단계는, 상기 피시술자의 치아 석고 본(Plaster Patterns of Teeth)을 생성하는 단계; 상기 피시술자의 치아 석고 본(Plaster Patterns of Teeth)에 상기 제1 입체 영상 데이터와 상기 제2 입체 영상 데이터의 정합을 위한 정합용 기준 마커(marker)를 마련하는 단계; 및 상기 피시술자의 치아 석고 본(Plaster Patterns of Teeth)을 스캔하는 단계를 포함할 수 있다The obtaining of the second image information may include: generating a plaster pattern of teeth of the operator; Providing a registration marker for registration of the first stereoscopic image data and the second stereoscopic image data in a plaster pattern of the subject; And scanning the plaster patterns of the operator (Plaster Patterns of Teeth).
상기 정합용 기준 마커는 다수개로 마련되며, 상호 이격되어 배치될 수 있다The matching reference markers may be provided in plural and may be spaced apart from each other.
상기 통합 입체 영상 데이터 획득단계는, 상기 제2 입체 영상 데이터의 정합용 기준 마커(marker)의 좌표를 기준으로 하여 상기 제1 입체 영상 데이터와 상기 제2 입체 영상 데이터를 선(先) 정합(pre-matching)하는 선 정합단계; 및 상기 선(先) 정합(pre-matching)된 통합 입체 영상 데이터에서 상기 제2 입체 영상 데이터를 상기 제1 입체 영상 데이터에 정밀 정합하는 정밀 정합단계를 포함할 수 있다In the acquiring of the integrated stereoscopic image data, the first stereoscopic image data and the second stereoscopic image data are pre-matched based on the coordinates of the matching reference marker of the second stereoscopic image data. -matching line matching step; And a precision matching step of precisely matching the second stereoscopic image data to the first stereoscopic image data in the pre-matched integrated stereoscopic image data.
상기 선 정합단계는, 사용자에게 제공되는 화면의 표시영역을 상기 제1 입체 영상 데이터 중 상기 피시술자의 치아 영역이 시각적으로 표시되는 치아 영역 표시구역과, 상기 제2 입체 영상 데이터가 시각적으로 표시되는 제2 입체 영상 데이터 표시구역과, 상기 통합 입체 영상 데이터가 시각적으로 표시되는 통합 입체 영상 데이터 표시구역으로 구획하는 단계; 상기 제2 입체 영상 데이터 표시구역에서 상기 정합용 기준 마커(marker)의 좌표가 입력되는 기준 마커 좌표 입력단계; 상기 치아 영역 표시구역에서 상기 정합용 기준 마커(marker)의 좌표에 해당되는 가상의 좌표가 입력되는 가상 좌표 입력단계; 및 입력된 상기 정합용 기준 마커(marker)의 좌표와 상기 가상의 좌표를 정합하여 상기 통합 입체 영상 데이터 표시구역에 상기 선(先) 정합(pre-matching)된 통합 입체 영상 데이터를 표시하는 단계를 포함할 수 있다In the line matching step, the display area of the screen provided to the user may include a tooth area display area in which the tooth area of the subject is visually displayed among the first stereoscopic image data, and a second area in which the second stereoscopic image data is visually displayed. Partitioning the stereoscopic image data display zone into an integrated stereoscopic image data display zone in which the integrated stereoscopic image data is visually displayed; A reference marker coordinate input step of inputting coordinates of the registration reference marker in the second stereoscopic image data display area; A virtual coordinate input step of inputting a virtual coordinate corresponding to the coordinate of the registration reference marker in the tooth region display area; And displaying the integrated stereoscopic image data pre-matched in the integrated stereoscopic image data display zone by matching the input coordinates of the matching reference marker and the virtual coordinates. Can contain
상기 정밀 정합단계는, 사용자에게 제공되는 화면의 표시영역이 다수개의 분할영역으로 구획되며, 상기 선(先) 정합(pre-matching)된 통합 입체 영상 데이터의 서로 다른 평면 영상들이 상기 다수개의 분할영역들에 배치되는 단계; 및 상기 각각의 분할영역에서 제1 입체 영상 데이터에 제2 입체 영상 데이터가 정합되도록 보정되는 단계를 포함할 수 있다In the precise matching step, a display area of a screen provided to a user is divided into a plurality of divided areas, and different planar images of the pre-matched integrated stereoscopic image data are divided into the plurality of divided areas. Disposed in the field; And correcting the second stereoscopic image data to match the first stereoscopic image data in each of the divided regions.
상기 다수개의 분할영역들은, 상기 선(先) 정합(pre-matching)된 통합 입체 영상 데이터를 제1축과 상기 제1축에 교차하는 제2축으로 자른 평면 이미지가 도시된 제1 영역; 상기 제1 영역에 표시되는 제1 이동점의 위치에서 상기 제2축과 상기 제2축에 교차하는 제3축으로 자른 평면 이미지가 도시된 제2 영역; 상기 제1 영역에 표시되는 제1 이동점의 위치에서 상기 제1축과 상기 제3축으로 자른 평면 이미지가 도시된 제3 영역; 상기 제1 영역에 표시되는 제2 이동점의 위치에서 상기 제2축과 제3축으로 자른 평면 이미지가 도시된 제4 영역; 상기 제1 영역에 표시되는 제2 이동점의 위치에서 상기 제1축과 제3축으로 자른 평면 이미지가 도시된 제5 영역; 및 상기 제1 영역에 표시되는 제3 이동점의 위치에서 상기 제2축과 제3축으로 자른 평면 이미지가 도시된 제6 영역을 포함할 수 있다The plurality of divided areas may include: a first area in which a planar image obtained by cutting the pre-matched integrated stereoscopic image data into a first axis and a second axis intersecting the first axis; A second region in which a planar image cropped by a third axis intersecting the second axis and the second axis is shown at a position of a first moving point displayed in the first area; A third area in which a planar image cropped by the first axis and the third axis is shown at a position of a first moving point displayed in the first area; A fourth region in which a planar image cut along the second axis and the third axis is shown at a position of a second moving point displayed on the first area; A fifth region in which a planar image cut along the first axis and the third axis is shown at a position of a second moving point displayed on the first area; And a sixth area in which a planar image cut along the second axis and the third axis is shown at the position of the third moving point displayed on the first area.
상기 제1 내지 제3 이동점은, 상기 사용자의 조작에 의해 이동가능하며, 상기 제2 영역 및 상기 제3 영역의 이미지는 상기 제1 이동점의 이동에 연동되어 가변되며, 상기 제4 영역 및 상기 제5 영역의 이미지는 상기 제2 이동점의 이동에 연동되어 가변되며, 상기 제6 영역의 이미지는 상기 제3 이동점의 이동에 연동되어 가변될 수 있다.The first to third moving points may be moved by the user's manipulation, and the images of the second area and the third area may be changed in conjunction with the movement of the first moving point, and the fourth area and The image of the fifth area may be changed in conjunction with the movement of the second moving point, and the image of the sixth area may be variable in conjunction with the movement of the third moving point.
본 발명의 실시예들은, 통합 입체 영상 데이터에 피시술자에게 식립될 가상의 픽스츄어가 중첩되면 가상의 픽스츄어를 기준으로 하여 가상의 픽스츄어 주위의 골밀도를 시각적으로 표시함으로써, 사용자가 가상의 픽스츄어 주위의 골밀도를 직관적으로 인식할 수 있게 하는 이점이 있다. According to embodiments of the present invention, when a virtual fixture to be implanted by an operator is superimposed on the integrated stereoscopic image data, the user visually displays the bone density around the virtual fixture based on the virtual fixture, thereby allowing the user to visualize the virtual fixture. There is an advantage to be able to intuitively recognize the surrounding bone density.
도 1은 본 발명의 일 실시예에 따른 임플란트 진단용 영상 생성 시스템이 도시된 도면이다. 1 is a diagram illustrating an image diagnosis system for implant diagnosis according to an embodiment of the present invention.
도 2는 도 1의 치아 석고 본이 도시된 도면이다.FIG. 2 is a view of the dental gypsum bone of FIG. 1.
도 3 및 도 4는 도 1의 표시부에 가상의 픽스츄어 주위의 골밀도가 시각적으로 표시된 도면이다.3 and 4 are diagrams in which the bone density around the virtual fixture is visually displayed on the display unit of FIG. 1.
도 5는 도 1의 임플란트 진단용 영상 생성 시스템에 따른 임플란트 진단용 영상 생성방법이 도시된 도면이다.FIG. 5 is a diagram illustrating an implant diagnosis image generating method according to the implant diagnosis image generating system of FIG. 1.
도 6 및 도 7은 도 5의 통합 입체 영상 데이터 획득단계 중 선 정합단계에서 표시부의 화면이 도시된 도면이다.6 and 7 illustrate screens of a display unit in a line matching step of the integrated stereoscopic image data acquisition step of FIG. 5.
도 8 및 도 9는 도 5의 통합 입체 영상 데이터 획득단계 중 정밀 정합단계에서 표시부의 화면이 도시된 도면이다.8 and 9 illustrate screens of a display unit in a fine matching step of the integrated stereoscopic image data acquisition step of FIG. 5.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다.In order to fully understand the present invention, the operational advantages of the present invention, and the objects achieved by the practice of the present invention, reference should be made to the accompanying drawings which illustrate preferred embodiments of the present invention and the contents described in the accompanying drawings.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써, 본 발명을 상세히 설명한다. 다만, 본 발명을 설명함에 있어서 이미 공지된 기능 혹은 구성에 대한 설명은, 본 발명의 요지를 명료하게 하기 위하여 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, in describing the present invention, descriptions of functions or configurations already known will be omitted to clarify the gist of the present invention.
이하에서 제1축은 X축을, 제2축은 Y축을, 제3축은 Z축을 의미한다.Hereinafter, the first axis refers to the X axis, the second axis refers to the Y axis, and the third axis refers to the Z axis.
도 1은 본 발명의 일 실시예에 따른 임플란트 진단용 영상 생성 시스템이 도시된 도면이고, 도 2는 도 1의 치아 석고 본이 도시된 도면이며, 도 3 및 도 4는 도 1의 표시부에 가상의 픽스츄어 주위의 골밀도가 시각적으로 표시된 도면이다.1 is a view showing an implant diagnosis image generating system according to an embodiment of the present invention, Figure 2 is a view showing a dental gypsum bone of Figure 1, Figures 3 and 4 are virtual to the display portion of FIG. Bone density around the fixture is a visual representation.
본 실시예에 따른 임플란트 진단용 영상 생성 시스템은, 도 1 내지 4에 도시된 바와 같이, 피시술자의 구강 영역에 대한 제1 입체 영상 데이터를 획득하는 제1 영상정보 획득장치(110)와, 피시술자의 치아 석고 본(Plaster Patterns of Teeth, G)을 스캔하여 제2 입체 영상 데이터를 획득하는 제2 영상정보 획득장치(120)와, 제1 입체 영상 데이터 및 제2 입체 영상 데이터를 전달받아 정합(matching)하여 통합 입체 영상 데이터를 생성하는 데이터 처리장치(130)를 포함한다. Implant diagnosis image generating system according to the present embodiment, as shown in Figures 1 to 4, the first image information acquisition device 110 for obtaining the first stereoscopic image data for the oral region of the subject, and the teeth of the subject The second image information acquisition device 120 scanning the plaster patterns of teeth (G) to obtain second stereoscopic image data, and receiving and matching the first stereoscopic image data and the second stereoscopic image data. And a data processor 130 to generate integrated stereoscopic image data.
제1 영상정보 획득장치(110)는 피시술자의 구강 영역에 대한 제1 입체 영상 데이터를 획득한다. 본 실시예의 제1 영상정보 획득장치(110)는 컴퓨터 단층촬영(Computed Tomography, CT)을 포함하며 본 실시예의 제1 입체 영상 데이터는 복수의 단면 영상을 이용하여 구현된 입체 영상을 의미하는데, 이에 본 발명의 권리범위가 한정되지 않으며 자기공명영상(magnetic resonance imaging) 장치 등 다양한 입체 영상 획득장치가 본 실시예의 제1 영상정보 획득장치(110)로 사용될 수 있다.The first image information obtaining apparatus 110 acquires first stereoscopic image data of an oral region of the subject. The first image information obtaining apparatus 110 of the present embodiment includes computed tomography (CT). The first stereoscopic image data of the present embodiment refers to a stereoscopic image implemented using a plurality of cross-sectional images. The scope of the present invention is not limited, and various stereoscopic image acquisition apparatuses, such as a magnetic resonance imaging apparatus, may be used as the first image information acquisition apparatus 110 of the present embodiment.
제2 영상정보 획득장치(120)는 피시술자의 치아 석고 본(G)을 스캔하여 제2 입체 영상 데이터를 획득한다. The second image information obtaining apparatus 120 scans the dental gypsum bone G of the subject to obtain second stereoscopic image data.
본 실시예의 치아 석고 본(G)은, 피시술자의 치아 및 잇몸에 대한 형태로 형성되는데, 인상재가 마련된 트레이가 파시술자의 구강 내로 삽입된 후 피시술자의 치아가 인상재를 눌러 인상된 치아와 주변 잇몸의 형상으로 제작된다.Dental gypsum bone (G) of the present embodiment is formed in the shape of the subject's teeth and gums, after the tray provided with the impression material is inserted into the oral cavity of the facilitator, the tooth of the subject presses the impression material, It is manufactured in the shape.
본 실시예의 치아 석고 본(G)에는 제1 입체 영상 데이터와 제2 입체 영상 데이터의 정합을 위한 정합용 기준 마커(G2)가 마련된다. The dental gypsum bone G of the present embodiment is provided with a matching reference marker G2 for matching the first stereoscopic image data with the second stereoscopic image data.
이러한 정합용 기준 마커(G2)는 제1 입체 영상 데이터와 제2 입체 영상 데이터의 정합을 위한 기준좌표가 되는 것으로서, 데이터 처리장치(130)를 통해 제2 입체 영상 데이터의 정합용 기준 마커(G2)의 좌표와 제1 입체 영상 데이터에서 정합용 기준 마커(G2)에 해당되는 가상의 위치좌표의 정합을 통해 통합 입체 영상 데이터를 생성할 때에 사용된다. The matching reference marker G2 serves as a reference coordinate for matching the first stereoscopic image data and the second stereoscopic image data, and the matching reference marker G2 of the second stereoscopic image data through the data processing device 130. ) Is used to generate the integrated stereoscopic image data through registration of virtual position coordinates corresponding to the matching reference marker G2 in the first stereoscopic image data.
본 실시예의 정합용 기준 마커(G2)는 다수개로 마련되며, 상호 이격되어 배치된다. 본 실시예에서 정합용 기준 마커(G2)는 적어도 3개 이상으로 마련되며, 3개 이상의 정합용 기준 마커(G2)는 상호 이격되어 배치된다.The matching reference markers G2 of the present embodiment are provided in plural and are spaced apart from each other. In this embodiment, at least three matching reference markers G2 are provided, and at least three matching reference markers G2 are spaced apart from each other.
이러한 정합용 기준 마커(G2)는 제2 입체 영상 데이터에서 치아 석고 본 본체(G1)와 구별될 수 있는 구조 또는 재질로 마련된다.The registration reference marker G2 is formed of a structure or material that can be distinguished from the dental gypsum bone body G1 in the second stereoscopic image data.
제2 영상정보 획득장치(120)는 치아 석고 본(G)을 스캔하여 제2 입체 영상 데이터를 획득하는 3차원 스캐너(미도시)를 포함한다. 본 실시예의 제2 입체 영상 데이터는 스테레오리소그라피(stereolithography, STL) 데이터를 포함하며, 스테레오리소그라피(STL) 데이터는 아스키(ASCII) 또는 바이너리(binary) 형식을 가질 수 있으며, 3D(Dimension) 프로그램에서 입체물의 모델링 데이터를 다른 종류의 3D 프로그램에서 인식하는데 용이하도록 입체물의 표면을 다각형화된 폴리곤(Polygon)으로 표현하는 데이터이다.The second image information obtaining apparatus 120 includes a 3D scanner (not shown) that scans the dental gypsum bone G to obtain second stereoscopic image data. The second stereoscopic image data of the present embodiment includes stereolithography (STL) data, and the stereolithography (STL) data may have an ASCII or binary format, and the stereoscopic object may be a 3D object in a 3D program. The modeling data is a data that expresses the surface of a three-dimensional object as a polygonal polygon so that it can be easily recognized by other types of 3D programs.
한편 데이터 처리장치(130)는, 제1 입체 영상 데이터 및 제2 입체 영상 데이터를 전달받아 정합(matching)하여 통합 입체 영상 데이터를 생성한다. On the other hand, the data processing device 130 receives the first stereoscopic image data and the second stereoscopic image data and matches to generate the integrated stereoscopic image data.
이러한 데이터 처리장치(130)는, 사용자로부터 정보를 입력받는 입력부(131)와, 제1 입체 영상 데이터 및 제2 입체 영상 데이터를 전달받아 통합 입체 영상 데이터를 생성하는 연산부(132)와, 연산부(132)에 전기적으로 연결되며 통합 입체 영상 데이터를 시각적으로 표시하는 표시부(133)를 포함한다.The data processing apparatus 130 may include an input unit 131 that receives information from a user, an operation unit 132 that receives the first stereoscopic image data and the second stereoscopic image data, and generates integrated stereoscopic image data, and an operation unit ( And a display unit 133 that is electrically connected to 132 and visually displays integrated stereoscopic image data.
입력부(131)는 연산부(132)에 전기적으로 연결되어 사용자로부터의 제어정보를 입력받아 연산부(132)에 전달한다. The input unit 131 is electrically connected to the operation unit 132 and receives control information from the user and transfers it to the operation unit 132.
연산부(132)는, 제1 입체 영상 데이터 및 제2 입체 영상 데이터를 전달받아 통합 입체 영상 데이터를 생성하여 표시부(133)에 시각적으로 표시한다.The calculator 132 receives the first stereoscopic image data and the second stereoscopic image data, generates integrated stereoscopic image data, and visually displays the integrated stereoscopic image data on the display unit 133.
즉 통합 입체 영상 데이터의 생성은, 입력부(131), 표시부(133) 및 연산부(132)의 유기적인 연계에 의해 이루어진다.That is, the generation of the integrated stereoscopic image data is performed by the organic connection of the input unit 131, the display unit 133, and the calculation unit 132.
이러한 통합 입체 영상 데이터의 생성은, 아래에서 자세히 후술하겠지만 여기서 먼저 간단히 설명한다. The generation of such integrated stereoscopic image data will be described in detail below, although it will be described later in detail.
컴퓨터 단층촬영(Computed Tomography, CT)기구와 같은 제1 영상정보 획득장치(110)로부터 획득된 제1 입체 영상 데이터는, 피시술자의 뼈 형상 등을 정확하게 파악할 수 있는 장점에 비하여, 피시술자의 구강 내부에 마련되는 다양한 형태의 보철물 및 보형물에 의해 영상이 왜곡될 수 있는 문제가 있다.The first three-dimensional image data obtained from the first image information acquisition device 110, such as a computed tomography (CT) device, compared to the advantage that can accurately grasp the bone shape of the subject, etc., inside the mouth of the subject There is a problem that an image may be distorted by various types of prostheses and prostheses.
따라서 피시술자의 치아 석고 본(G)을 스캔함으로써 피시술자의 구강 내부 구조에 대한 매우 정확한 정보를 담고 있는 제2 입체 영상 데이터와 피시술자의 뼈 형상 등에 대한 정확한 정보를 담고 있는 제1 입체 영상 데이터가 중첩된 통합 입체 영상 데이터가 생성되어야 하고, 제1 입체 영상 데이터와 제2 입체 영상 데이터의 중첩을 위해 제1 입체 영상 데이터와 제2 입체 영상 데이터를 정합하는 과정이 필요하다.Therefore, by scanning the dental gypsum bone (G) of the subject, the second stereoscopic image data, which contains very accurate information about the internal structure of the subject, and the first stereoscopic image data, which contains accurate information about the bone shape of the subject, are superimposed. Integrated stereoscopic image data should be generated, and a process of registering the first stereoscopic image data and the second stereoscopic image data is necessary to overlap the first stereoscopic image data and the second stereoscopic image data.
제1 입체 영상 데이터와 제2 입체 영상 데이터를 정합하는 과정은, 제2 입체 영상 데이터의 정합용 기준 마커(G2)의 좌표를 기준으로 하여 제1 입체 영상 데이터와 제2 입체 영상 데이터를 선(先) 정합(pre-matching)하는 선 정합단계와, 선(先) 정합(pre-matching)된 통합 입체 영상 데이터에서 제2 입체 영상 데이터를 제1 입체 영상 데이터에 정밀 정합하는 정밀 정합단계를 포함한다.In the matching of the first stereoscopic image data and the second stereoscopic image data, the first stereoscopic image data and the second stereoscopic image data may be lined based on the coordinates of the matching reference marker G2 of the second stereoscopic image data. A pre-matching line matching step and a precise matching step of precisely matching the second stereoscopic image data to the first stereoscopic image data in the pre-matched integrated stereoscopic image data. do.
선 정합단계는 제1 입체 영상 데이터와 제2 입체 영상 데이터를 대략적으로 빠르게 정합하는 방식으로, 이러한 선 정합단계에서는, 제2 입체 영상 데이터의 정합용 기준 마커(G2)의 좌표를 기준으로 하여 제1 입체 영상 데이터와 제2 입체 영상 데이터를 선(先) 정합(pre-matching)한다. In the line matching step, the first stereoscopic image data and the second stereoscopic image data are quickly and approximately matched. In this line matching step, the line matching step is performed based on the coordinates of the matching reference marker G2 of the second stereoscopic image data. The first stereoscopic image data and the second stereoscopic image data are pre-matched.
이러한 선 정합단계에서 표시부(133)의 화면에는, 도 6 내지 7에 도시된 바와 같은 화면이 사용자에게 제공된다. 이러한 화면에는 제1 입체 영상 데이터 중 피시술자의 치아 영역이 시각적으로 표시되는 치아 영역 표시구역(Z1)과, 제2 입체 영상 데이터가 시각적으로 표시되는 제2 입체 영상 데이터 표시구역(Z2)과, 통합 입체 영상 데이터가 시각적으로 표시되는 통합 입체 영상 데이터 표시구역(Z3)이 표시된다.In this line matching step, a screen as shown in FIGS. 6 to 7 is provided to the user on the screen of the display unit 133. The screen includes a tooth region display zone Z1 in which the tooth region of the subject is visually displayed among the first stereoscopic image data, and a second stereoscopic image data display zone Z2 in which the second stereoscopic image data is visually displayed. An integrated stereoscopic image data display zone Z3 in which stereoscopic image data is visually displayed is displayed.
치아 영역 표시구역(Z1)에는 제1 입체 영상 데이터 중 피시술자의 치아 영역이 시각적으로 표시된다. 치아 영역 표시구역(Z1)에 표시되는 피시술자의 치아 영역은 사용자의 입력부(131)를 통한 제어신호에 의해 그 영역이 선택될 수 있다.The tooth region display zone Z1 visually displays the tooth region of the subject among the first stereoscopic image data. The tooth region of the subject displayed in the tooth region display zone Z1 may be selected by a control signal through the user's input unit 131.
또한, 제2 입체 영상 데이터 표시구역(Z2)에는 제2 입체 영상 데이터가 시각적으로 표시되며, 통합 입체 영상 데이터 표시구역(Z3)에는 통합 입체 영상 데이터가 시각적으로 표시된다.In addition, the second stereoscopic image data is visually displayed in the second stereoscopic image data display zone Z2, and the integrated stereoscopic image data is visually displayed in the integrated stereoscopic image data display zone Z3.
도 6에 도시된 표시부(133)의 화면에서 사용자가 제2 입체 영상 데이터 표시구역(Z2)에서 정합용 기준 마커(G2)의 좌표를 연산부(132)에 입력한다. 즉 사용자가 입력부(131), 예를 들어 마우스를 통해 제2 입체 영상 데이터 표시구역(Z2)에 표시된 3개의 정합용 기준 마커(G2)를 클릭하면, 클릭된 좌표가 연산부(132)에 전달된다.In the screen of the display unit 133 illustrated in FIG. 6, the user inputs the coordinates of the matching reference marker G2 in the second stereoscopic image data display zone Z2 to the calculator 132. That is, when the user clicks the three registration reference markers G2 displayed on the second stereoscopic image data display zone Z2 through the input unit 131, for example, the mouse, the clicked coordinates are transmitted to the calculation unit 132. .
이후 사용자가 치아 영역 표시구역(Z1)에서 정합용 기준 마커(G2)의 좌표에 해당되는 가상의 좌표를 연산부(132)에 입력한다. 즉, 사용자가 치아 영역 표시구역(Z1)에 표시된 치아 영역의 이미지와 제2 입체 영상 데이터 표시구역(Z2)에 표시된 치아 석고 본(G)의 이미지를 비교한 후 치아 영역 표시구역(Z1)에 표시된 치아 영역의 이미지에 정합용 기준 마커(G2)의 위치에 해당하는 가상의 위치를 클릭하면, 클릭된 좌표가 연산부(132)에 전달된다.Thereafter, the user inputs virtual coordinates corresponding to the coordinates of the registration reference marker G2 in the tooth region display zone Z1 to the calculator 132. That is, the user compares the image of the tooth region displayed in the tooth region display region Z1 with the image of the dental gypsum bone G displayed in the second stereoscopic image data display region Z2 and then displays the image in the tooth region display region Z1. When the virtual position corresponding to the position of the registration reference marker G2 is clicked on the displayed image of the tooth region, the clicked coordinate is transmitted to the operation unit 132.
이후 연산부(132)에서는 입력된 정합용 기준 마커(G2)의 좌표와 가상의 좌표를 비교하여 제1 입체 영상 데이터와 제2 입체 영상 데이터를 중첩시킨 후 통합 입체 영상 데이터 표시구역(Z3)에 제1 입체 영상 데이터에 제2 입체 영상 데이터가 중첩된 선(先) 정합(pre-matching)된 통합 입체 영상 데이터를 표시한다. Thereafter, the operation unit 132 compares the coordinates of the input registration reference marker G2 with the virtual coordinates, overlaps the first stereoscopic image data and the second stereoscopic image data, and then adds them to the integrated stereoscopic image data display zone Z3. Pre-matching integrated stereoscopic image data in which second stereoscopic image data is superimposed on one stereoscopic image data is displayed.
도 6의 통합 입체 영상 데이터 표시구역(Z3)에는 사용자에 의한 좌표입력이 수행되지 않아 제1 입체 영상 데이터만 표시되어 있지만, 도 7의 통합 입체 영상 데이터 표시구역(Z3)에는 정합용 기준 마커(G2)의 좌표와 정합용 기준 마커(G2)의 좌표에 해당되는 가상의 좌표가 입력됨에 따라 제2 입체 영상 데이터가 제1 입체 영상 데이터에 선(先) 정합(pre-matching)된 통합 입체 영상 데이터가 표시된다.In the integrated stereoscopic image data display zone Z3 of FIG. 6, only the first stereoscopic image data is displayed because no coordinate input by a user is performed. However, in the integrated stereoscopic image data display zone Z3 of FIG. 7, a matching reference marker ( Integrated stereoscopic images in which the second stereoscopic image data is pre-matched to the first stereoscopic image data as virtual coordinates corresponding to the coordinates of G2 and the coordinates of the matching reference marker G2 are input. The data is displayed.
이러한 선 정합단계는 사용자가 치아 영역 표시구역(Z1)의 이미지와 제2 입체 영상 데이터 표시구역(Z2)의 이미지를 비교하여 치아 영역 표시구역(Z1)의 이미지에 정합용 기준 마커(G2)가 있을 가상의 위치를 클릭하는 방식을 취하므로, 선 정합단계를 거친 선(先) 정합(pre-matching)된 통합 입체 영상 데이터의 정합도는 완벽한 상태는 아니지만 선 정합단계를 거친 선(先) 정합(pre-matching)된 통합 입체 영상 데이터는 거의 정합된 상태이다. In this line matching step, the user compares the image of the tooth region display zone Z1 with the image of the second stereoscopic image data display zone Z2, and the matching reference marker G2 is added to the image of the tooth region display zone Z1. Since the method of clicking a virtual position to be present is clicked, the degree of registration of the pre-matched integrated stereoscopic image data that has been pre-matched is not perfect but is pre-matched. Pre-matched integrated stereoscopic image data is almost matched.
따라서 정밀 정합단계에서는 거의 정합된 상태인 선(先) 정합(pre-matching)된 통합 입체 영상 데이터에서 제2 입체 영상 데이터를 제1 입체 영상 데이터에 정밀 정합시킨다. Accordingly, in the precision matching step, the second stereoscopic image data is precisely matched to the first stereoscopic image data in the pre-matched integrated stereoscopic image data which is almost matched.
이러한 정밀 정합단계에서 표시부(133)의 화면에는, 도 8 내지 9에 도시된 바와 같은 화면이 사용자에게 제공된다. 즉 정밀 정합단계에서 표시부(133)를 통해 사용자에게 제공되는 화면에는, 다수개의 분할영역(D1, D2, D3, D4, D5, D6)이 표시된다. 이러한 다수개의 분할영역(D1, D2, D3, D4, D5, D6)에는 선(先) 정합(pre-matching)된 통합 입체 영상 데이터의 서로 다른 평면 영상들이 배치된다. In the precise matching step, the screen as shown in FIGS. 8 to 9 is provided to the user on the screen of the display unit 133. That is, a plurality of divided areas D1, D2, D3, D4, D5, and D6 are displayed on the screen provided to the user through the display unit 133 in the precise matching step. Different planar images of integrated stereoscopic image data that are pre-matched are arranged in the plurality of partitions D1, D2, D3, D4, D5, and D6.
이때 다수개의 분할영역(D1, D2, D3, D4, D5, D6)에 표시되는 선(先) 정합(pre-matching)된 통합 입체 영상 데이터의 평면 영상들은 제1 입체 영상 데이터와 제2 입체 영상 데이터의 구분이 가능하도록 하여(예를 들어, 제1 입체 영상 데이터와 제2 입체 영상 데이터의 외관라인이 서로 다른 색으로 표현됨) 사용자가 시각적으로 정합여부를 알 수 있도록 한다.In this case, the planar images of the pre-matched integrated stereoscopic image data displayed on the plurality of partitions D1, D2, D3, D4, D5, and D6 may be the first stereoscopic image data and the second stereoscopic image. It is possible to distinguish the data (for example, appearance lines of the first stereoscopic image data and the second stereoscopic image data are expressed in different colors) so that the user can visually recognize whether or not they are matched.
도 8 또는 도 9에 도시된 바와 같이, 본 실시예에서 정밀 정합단계에서 표시부(133)를 통해 사용자에게 제공되는 화면의 표시영역은 제1 내지 제6 분할영역(D1, D2, D3, D4, D5, D6)으로 구획된다.As shown in FIG. 8 or 9, in the present exemplary embodiment, the display area of the screen provided to the user through the display unit 133 in the fine matching step includes the first to sixth divided areas D1, D2, D3, D4, and the like. D5, D6).
제1 분할영역은(D1)은 선(先) 정합(pre-matching)된 통합 입체 영상 데이터의 평면이며 사용자의 조작화면에 해당된다. 본 실시예에서 제1 분할영역은 선(先) 정합(pre-matching)된 통합 입체 영상 데이터를 X-Y축 평면으로 자른 이미지가 표시된다. The first divided area D1 is a plane of pre-matched integrated stereoscopic image data and corresponds to a user's manipulation screen. In the present exemplary embodiment, an image obtained by cutting the integrated stereoscopic image data pre-matched on the X-Y axis plane is displayed.
제1 분할영역에는 3개의 이동점(M1, M2, M3)이 표시되는데, 사용자가 마우스 등의 입력부(131)를 통해 입력점을 이동시키면 제2 내지 제6 분할영역(D2, D3, D4, D5, D6)의 이미지가 변경된다. Three moving points M1, M2, and M3 are displayed in the first partition, and when the user moves the input point through the input unit 131 such as a mouse, the second to sixth partitions D2, D3, D4, The image of D5, D6) is changed.
제2 분할영역(D2)에는, 제1 분할영역(D1)의 제1 이동점(M1)의 위치에서 Y-Z축 평면으로 자른 이미지가 표시된다. 제3 분할영역(D3)에는, 제1 분할영역(D1)의 제1 이동점(M1)의 위치에서 X-Z축 평면으로 자른 이미지가 표시된다.In the second divided area D2, an image cut in the Y-Z axis plane at the position of the first moving point M1 of the first divided area D1 is displayed. In the third divided area D3, an image cut in the X-Z axis plane at the position of the first moving point M1 of the first divided area D1 is displayed.
제2 분할영역(D2) 및 제3 분할영역(D3)의 이미지는 제1 분할영역(D1)의 제1 이동점(M1)의 이동에 따라 이동된 제1 이동점(M1)의 위치에서의 평면 이미지로 가변된다.The images of the second divided area D2 and the third divided area D3 are located at the position of the first moving point M1 moved according to the movement of the first moving point M1 of the first divided area D1. Variable to flat image.
제4 분할영역(D4)에는, 제1 분할영역은(D1)의 제2 이동점(M2)의 위치에서 Y-Z축 평면으로 자른 이미지가 표시된다. 제5 분할영역(D5)에는, 제1 분할영역(D1)의 제2 이동점(M2)의 위치에서 X-Z축 평면으로 자른 이미지가 표시된다.In the fourth divided area D4, an image cut in the Y-Z axis plane at the position of the second moving point M2 of the first divided area D1 is displayed. In the fifth divided area D5, an image cut in the X-Z axis plane at the position of the second moving point M2 of the first divided area D1 is displayed.
제4 분할영역(D4) 및 제5 분할영역(D5)의 이미지는 제1 분할영역(D1)의 제2 이동점(M2)의 이동에 따라 이동된 제2 이동점(M2)의 위치에서의 평면 이미지로 가변된다.The images of the fourth divided area D4 and the fifth divided area D5 are located at the position of the second moving point M2 moved according to the movement of the second moving point M2 of the first divided area D1. Variable to flat image.
제6 분할영역(D6)에는, 제1 분할영역(D1)의 제3 이동점(M3)의 위치에서 Y-Z축 평면으로 자른 이미지가 표시된다. 제6 분할영역(D6)의 이미지는 제1 분할영역(D1)의 제3 이동점(M3)의 이동에 따라 이동된 제3 이동점(M3)의 위치에서의 평면 이미지로 가변된다.In the sixth divided area D6, an image cut in the Y-Z axis plane at the position of the third moving point M3 of the first divided area D1 is displayed. The image of the sixth divided area D6 is changed into a planar image at the position of the third moving point M3 moved according to the movement of the third moving point M3 of the first divided area D1.
도 8과 도 9를 비교하여 보면 제1 내지 제3 이동점(M1, M2, M3)의 위치 변화에 따라 제2 내지 제6 분할영역(D2, D3, D4, D5, D6)의 이미지가 변경된 것을 볼 수 있다.8 and 9, the image of the second to sixth divided areas D2, D3, D4, D5, and D6 is changed according to the positional change of the first to third moving points M1, M2, and M3. You can see that.
한편, 제2 내지 제6 분할영역(D2, D3, D4, D5, D6)의 이미지들은 사용자의 입력부(131)를 통한 조작에 영향을 받는다. 즉 제2 내지 제6 분할영역(D2, D3, D4, D5, D6)에 표시된 제2 입체 영상 데이터의 위치 및 자세 등의 이미지가 사용자의 조작에 의해 변화될 수 있다. Meanwhile, the images of the second to sixth division areas D2, D3, D4, D5, and D6 are affected by manipulation by the user's input unit 131. That is, an image such as a position and a posture of the second stereoscopic image data displayed on the second to sixth divided regions D2, D3, D4, D5, and D6 may be changed by a user's manipulation.
따라서 사용자는 제1 내지 제3 이동점(M1, M2, M3)을 이동시키며 여러 부위에서 선(先) 정합(pre-matching)된 통합 입체 영상 데이터의 평면 영상에서 제1 입체 영상 데이터와 제2 입체 영상 데이터의 정합 여부를 확인하고 입력부(131)를 통해 제2 입체 영상 데이터를 제1 입체 영상 데이터에 대해 상대 이동시켜 제1 입체 영상 데이터와 제2 입체 영상 데이터를 정밀하게 정합한다.Therefore, the user moves the first to third moving points M1, M2, and M3, and the first stereoscopic image data and the second stereoscopic image data in the planar image of the integrated stereoscopic image data pre-matched at various sites. The stereoscopic image data is checked to be matched, and the first stereoscopic image data and the second stereoscopic image data are precisely matched by moving the second stereoscopic image data relative to the first stereoscopic image data through the input unit 131.
이때, 상술한 바와 같이 제1 내지 제6 분할영역(D1, D2, D3, D4, D5, D6)에 표시된 평면 영상들은 외관라인이 서로 다른 색으로 표현되어 제1 입체 영상 데이터와 제2 입체 영상 데이터의 구분이 가능하므로, 사용자는 마우스와 같은 입력부(131)를 통해 제2 입체 영상 데이터를 클릭한 후 이를 드래그(drag)하는 방식으로 정밀 정합한다.In this case, as described above, the planar images displayed on the first to sixth divided regions D1, D2, D3, D4, D5, and D6 are expressed in different colors, and thus, the first stereoscopic image data and the second stereoscopic image. Since the data can be divided, the user precisely matches the second stereoscopic image data by clicking and dragging the second stereoscopic image data through the input unit 131 such as a mouse.
사용자가 입력부(131)를 이용하여 제1 입체 영상 데이터의 이미지에 제2 입체 영상 데이터의 이미지를 정밀 정합한 상태의 정보는 연산부(132)에 입력되고, 연산부(132)는 선(先) 정합(pre-matching)된 통합 입체 영상 데이터를 입력부(131)에 의해 입력된 정밀 정합된 상태의 정보에 따라 선(先) 정합(pre-matching)된 통합 입체 영상 데이터를 보정하여 정밀 정합된 통합 입체 영상 데이터를 생성한다.The information of the state where the user precisely matches the image of the second stereoscopic image data to the image of the first stereoscopic image data using the input unit 131 is input to the calculating unit 132, and the calculating unit 132 pre-matches. (pre-matching) integrated stereoscopic image data by correcting the pre-matched integrated stereoscopic image data according to the information of the precisely matched state input by the input unit (131) Generate video data.
이러한 정밀 정합된 통합 입체 영상 데이터 생성 후, 연산부(132)는 제1 입체 영상 데이터에 제2 입체 영상 데이터에 중첩하고, 제1 입체 영상 데이터 중 제2 입체 영상 데이터에 해당하는 부분을 제2 입체 영상 데이터로 대체하여 최종적인 통합 입체 영상 데이터를 생성한다.After generating the precisely matched integrated stereoscopic image data, the operation unit 132 superimposes the first stereoscopic image data on the second stereoscopic image data, and the portion corresponding to the second stereoscopic image data of the first stereoscopic image data is the second stereoscopic image. The final integrated stereoscopic image data is generated by replacing the image data.
상술한 바와 같은 통합 입체 영상 데이터의 생성이 완료된 후, 통합 입체 영상 데이터에서 피시술자에게 식립될 픽스츄어(P)의 위치를 결정한다. 이때, 사용자는 표시부(133)에 표시되는 통합 입체 영상 데이터의 여러 위치에 피시술자에게 식립될 가상의 픽스츄어(P)를 중첩시켜 보며 픽스츄어(P)의 위치를 결정한다. After the generation of the integrated stereoscopic image data as described above is completed, the position of the fixture P to be placed in the subject in the integrated stereoscopic image data is determined. In this case, the user determines the position of the fixture P while overlapping the virtual fixture P to be placed by the operator on various positions of the integrated stereoscopic image data displayed on the display unit 133.
본 실시예의 데이터 처리장치(130)는, 통합 입체 영상 데이터에 피시술자에게 식립될 가상의 픽스츄어(P)가 중첩되면 가상의 픽스츄어(P)를 기준으로 하여 가상의 픽스츄어(P) 주위의 골밀도를 시각적으로 표시한다.In the data processing apparatus 130 according to the present embodiment, when the virtual fixture P to be implanted in the integrated stereoscopic image data is superimposed on the virtual fixture P based on the virtual fixture P, Visually display bone density.
즉 본 실시예에서 연산부(132)는, 통합 입체 영상 데이터에 피시술자에게 식립될 가상의 픽스츄어(P)가 중첩되면, 가상의 픽스츄어(P)를 기준으로 하여 가상의 픽스츄어(P) 주위의 골밀도를 계산한다. That is, in the present embodiment, when the virtual fixture P to be implanted by the operator is overlaid on the integrated stereoscopic image data, the operation unit 132 surrounds the virtual fixture P based on the virtual fixture P. FIG. Calculate your bone density.
본 실시예에서 가상의 픽스츄어(P) 주위의 골밀도는, 가상의 픽스츄어(P)의 외곽 컨투어(contour)에 접하는 영역의 골밀도를 말하는 것으로, 픽스츄어(P)의 나사산 외곽라인이 위치되는 부위의 골밀도이다.In the present embodiment, the bone density around the virtual fixture P refers to the bone density of the area in contact with the outer contour of the virtual fixture P, where the thread outer line of the fixture P is located. Bone density of the site.
표시부(133)는, 연산부(132)에 전기적으로 연결되며 통합 입체 영상 데이터를 시각적으로 표시한다(즉, 2차원 평면 이미지 및 3차원 이미지 등으로 표시한다). 이러한 표시부(133)는 통합 입체 영상 데이터뿐만 아니라 제1 입체 영상 데이터와 제2 입체 영상 데이터도 시각적 이미지로 표시할 수 있다.The display unit 133 is electrically connected to the operation unit 132 and visually displays integrated stereoscopic image data (ie, displayed as a 2D plane image, a 3D image, or the like). The display unit 133 may display not only integrated stereoscopic image data but also first stereoscopic image data and second stereoscopic image data as visual images.
또한 본 실시예의 표시부(133)는, 연산부(132)에서 연산된 가상의 픽스츄어(P)를 기준으로 하여 가상의 픽스츄어(P) 주위의 골밀도를 시각적으로 표시한다.In addition, the display unit 133 of the present embodiment visually displays the bone density around the virtual fixture P based on the virtual fixture P calculated by the calculator 132.
즉 표시부(133)는, 도 3 및 도 4에 도시된 바와 같이, 연산부(132)에서 계산된 가상의 픽스츄어(P)의 외곽 컨투어(contour)에 접하는 영역의 골밀도를 시각적으로 표시한다. 본 실시예에서 표시부(133)에 표시되는 가상의 픽스츄어(P) 주위의 골밀도는, 골밀도의 수치에 따라 서로 다른 색상으로 표시된다.That is, as shown in FIGS. 3 and 4, the display unit 133 visually displays the bone density of the region in contact with the outer contour of the virtual fixture P calculated by the operation unit 132. In the present embodiment, the bone density around the virtual fixture P displayed on the display unit 133 is displayed in different colors according to the numerical value of the bone density.
또한, 본 실시예에서 골밀도의 수치에 따라 표시부(133)에 표시되는 색상은 유채색으로 이루어진다. 이와 같이 본 실시예의 임플란트 진단용 영상 생성 시스템은, 가상의 픽스츄어(P) 주위의 골밀도를 골밀도의 수치에 따라 서로 다른 유채색의 색상으로 표시함으로써, 사용자가 가상의 픽스츄어(P) 주위의 골밀도를 직관적으로 인식할 수 있게 하는 이점이 있다. In addition, in the present embodiment, the color displayed on the display unit 133 according to the numerical value of the bone density is made of chromatic color. As described above, the implant diagnosis image generating system of the present embodiment displays the bone density around the virtual fixture P in different colored hues according to the numerical value of the bone density, thereby allowing the user to display the bone density around the virtual fixture P. This has the advantage of being intuitively recognizable.
본 실시예에서 높은 골밀도 수치는 노란색 또는 녹색으로 표시되고 낮은 골밀도 수치는 붉은색이나 푸른색으로 표시되는데, 본 발명의 권리범위가 이에 한정되는 것은 아니며 골밀도의 수치를 다른 다양한 색상으로 표시할 수 있다. In the present embodiment, the high BMD is shown in yellow or green and the low BMD is shown in red or blue. The scope of the present invention is not limited thereto, and the BMD may be displayed in various other colors. .
이하에서 본 실시예의 임플란트 진단용 영상 생성 시스템에 따른 임플란트 진단용 영상 생성방법을 도 1 내지 도 9를 참조하여 도 5 내지 도 9를 위주로 설명한다. Hereinafter, an implant diagnosis image generating method according to the implant diagnosis image generating system of the present embodiment will be described with reference to FIGS. 5 to 9.
도 5는 도 1의 임플란트 진단용 영상 생성 시스템에 따른 임플란트 진단용 영상 생성방법이 도시된 도면이고, 도 6 및 도 7은 도 5의 통합 입체 영상 데이터 획득단계 중 선 정합단계에서 표시부의 화면이 도시된 도면이며, 도 8 및 도 9는 도 5의 통합 입체 영상 데이터 획득단계 중 정밀 정합단계에서 표시부의 화면이 도시된 도면이다.5 is a view illustrating an implant diagnosis image generating method according to the implant diagnosis image generating system of FIG. 1, and FIGS. 6 and 7 illustrate screens of a display unit in a line matching step of the integrated stereoscopic image data acquisition step of FIG. 5. 8 and 9 are diagrams illustrating screens of a display unit in a precise registration step of the integrated stereoscopic image data acquisition step of FIG. 5.
본 실시예에 따른 임플란트 진단용 영상 생성방법은, 도 5에 자세히 도시된 바와 같이, 피시술자의 구강 영역에 대한 제1 입체 영상 데이터를 획득하는 제1 영상정보 획득단계(S110)와, 피시술자의 치아 석고 본(G)을 스캔하여 제2 입체 영상 데이터를 획득하는 제2 영상정보 획득단계(S120)와, 제1 입체 영상 데이터 및 제2 입체 영상 데이터를 정합(matching)하여 통합 입체 영상 데이터를 생성하는 통합 입체 영상 데이터 획득단계(S130)와, 통합 입체 영상 데이터에 피시술자에게 식립될 가상의 픽스츄어(P)가 중첩되면 가상의 픽스츄어(P)를 기준으로 하여 가상의 픽스츄어(P) 주위의 골밀도를 시각적으로 표시하는 골밀도 표시단계(S140)를 포함한다.Implant diagnosis image generating method according to the present embodiment, as shown in detail in Figure 5, the first image information acquisition step (S110) for obtaining the first three-dimensional image data for the oral region of the subject, and the dental gypsum of the subject The second image information acquisition step (S120) of scanning the bone (G) to obtain second stereoscopic image data, and matching the first stereoscopic image data and the second stereoscopic image data to generate integrated stereoscopic image data When the integrated stereoscopic image data acquisition step (S130) and the virtual fixture P to be implanted in the integrated stereoscopic image data are superimposed on the virtual fixture P based on the virtual fixture P, It includes a bone density display step (S140) for visually displaying the bone density.
제1 영상정보 획득단계(S110)에서는 피시술자의 구강 영역에 대한 제1 입체 영상 데이터를 획득된다. 이러한 제1 영상정보 획득단계(S110)에서는, 도 1에 도시된 바와 같이, 제1 영상정보 획득장치(110)가 피시술자의 구강 영역을 촬영하여 제1 입체 영상 데이터를 획득한다.In the first image information acquisition step (S110), first stereoscopic image data of the mouth region of the subject is obtained. In this first image information acquisition step (S110), as shown in FIG. 1, the first image information acquisition device 110 acquires first stereoscopic image data by photographing an oral region of a subject.
제2 영상정보 획득단계(S120)에서는, 제2 영상정보 획득장치(120)가 피시술자의 치아 석고 본(G)을 스캔하여 제2 입체 영상 데이터를 획득된다. In the second image information acquisition step (S120), the second image information acquisition device 120 scans the dental gypsum bone G of the subject to obtain second stereoscopic image data.
더욱 자세하게 설명하면, 본 실시예의 제2 영상정보 획득단계(S120)는, 피시술자의 치아 석고 본(G)을 생성하는 단계와, 피시술자의 치아 석고 본(G)에 정합용 기준 마커(G2)를 마련하는 단계와, 정합용 기준 마커(G2)가 마련된 치아 석고 본(G)을 스캔하는 단계를 포함한다.In more detail, the second image information acquisition step (S120) of the present embodiment may include generating a dental gypsum bone (G) of the subject, and matching the reference marker G2 to the dental gypsum bone (G) of the subject. And preparing and scanning the dental gypsum bone G in which the registration reference marker G2 is provided.
정합용 기준 마커(G2)를 마련하는 단계에서는, 치아 석고 본(G)을 생성하는 단계에서 제작된 피시술자의 치아 석고 본 본체(G1)에 제2 입체 영상 데이터의 정합을 위한 정합용 기준 마커(G2)를 형성한다. In the preparing of the registration reference marker G2, the registration reference marker for registration of the stereoscopic image data on the dental gypsum bone body G1 of the subject manufactured in the step of generating the dental gypsum bone G ( G2) is formed.
치아 석고 본 본체(G1)에 마련된 정합용 기준 마커(G2)는 통합 입체 영상 데이터 획득단계(S130)에서 제1 입체 영상 데이터와 제2 입체 영상 데이터의 정합을 위한 기준좌표로 활용된다.The registration reference marker G2 provided in the dental gypsum main body G1 is used as a reference coordinate for registration of the first stereoscopic image data and the second stereoscopic image data in the integrated stereoscopic image data acquisition step S130.
통합 입체 영상 데이터 획득단계(S130)에서는, 제1 입체 영상 데이터 및 제2 입체 영상 데이터를 정합(matching)하여 통합 입체 영상 데이터를 생성한다. In the integrated stereoscopic image data acquisition step (S130), the integrated stereoscopic image data is generated by matching the first stereoscopic image data and the second stereoscopic image data.
컴퓨터 단층촬영(Computed Tomography, CT)기구와 같은 제1 영상정보 획득장치(110)로부터 획득된 제1 입체 영상 데이터는, 피시술자의 뼈 형상 등을 정확하게 파악할 수 있는 장점에 비하여, 피시술자의 구강 내부에 마련되는 다양한 형태의 보철물 및 보형물에 의해 영상이 왜곡될 수 있는 문제가 있다.The first three-dimensional image data obtained from the first image information acquisition device 110, such as a computed tomography (CT) device, compared to the advantage that can accurately grasp the bone shape of the subject, etc., inside the mouth of the subject There is a problem that an image may be distorted by various types of prostheses and prostheses.
따라서 피시술자의 치아 석고 본(G)을 스캔함으로써 피시술자의 구강 내부 구조에 대한 매우 정확한 정보를 담고 있는 제2 입체 영상 데이터와 피시술자의 뼈 형상 등에 대한 정확한 정보를 담고 있는 제1 입체 영상 데이터가 중첩된 통합 입체 영상 데이터가 생성되어야하고, 제1 입체 영상 데이터와 제2 입체 영상 데이터의 중첩을 위해 필수적으로 수반되어야 하는 매칭과정이 통합 입체 영상 데이터 획득단계(S130)에서 수행된다.Therefore, by scanning the dental gypsum bone (G) of the subject, the second stereoscopic image data, which contains very accurate information about the internal structure of the subject, and the first stereoscopic image data, which contains accurate information about the bone shape of the subject, are superimposed. The integrated stereoscopic image data should be generated, and a matching process that must be accompanied for the superposition of the first stereoscopic image data and the second stereoscopic image data is performed in the integrated stereoscopic image data acquisition step (S130).
이러한 통합 입체 영상 데이터 획득단계(S130)는, 제2 입체 영상 데이터의 정합용 기준 마커(G2)의 좌표를 기준으로 하여 제1 입체 영상 데이터와 제2 입체 영상 데이터를 선(先) 정합(pre-matching)하는 선 정합단계(S131)와, 선(先) 정합(pre-matching)된 통합 입체 영상 데이터에서 제2 입체 영상 데이터를 제1 입체 영상 데이터에 정밀 정합하는 정밀 정합단계(S132)를 포함한다.In the integrated stereoscopic image data acquisition step (S130), the first stereoscopic image data and the second stereoscopic image data are pre-aligned based on the coordinates of the matching reference marker G2 of the second stereoscopic image data. and a fine matching step (S132) for precisely matching the second stereoscopic image data to the first stereoscopic image data in the integrated stereoscopic image data pre-matched. Include.
선 정합단계(S131)는 제1 입체 영상 데이터와 제2 입체 영상 데이터를 대략적으로 빠르게 정합하는 방식으로, 이러한 선 정합단계(S131)에서는, 제2 입체 영상 데이터의 정합용 기준 마커(G2)의 좌표를 기준으로 하여 제1 입체 영상 데이터와 제2 입체 영상 데이터를 선(先) 정합(pre-matching)한다. The line matching step S131 is a method of quickly matching the first stereoscopic image data and the second stereoscopic image data. In this line matching step S131, the matching reference marker G2 of the second stereoscopic image data is performed. The first stereoscopic image data and the second stereoscopic image data are pre-matched based on the coordinates.
이러한 선 정합단계(S131)는, 사용자에게 제공되는 화면의 표시영역을 제1 입체 영상 데이터 중 피시술자의 치아 영역이 시각적으로 표시되는 치아 영역 표시구역(Z1), 제2 입체 영상 데이터가 시각적으로 표시되는 제2 입체 영상 데이터 표시구역(Z2), 그리고 통합 입체 영상 데이터가 시각적으로 표시되는 통합 입체 영상 데이터 표시구역(Z3)으로 구획하는 단계와, 제2 입체 영상 데이터 표시구역(Z2)에서 정합용 기준 마커(G2)의 좌표가 입력되는 기준 마커 좌표 입력단계와, 치아 영역 표시구역(Z1)에서 정합용 기준 마커(G2)의 좌표에 해당되는 가상의 좌표가 입력되는 가상 좌표 입력단계와, 입력된 정합용 기준 마커(G2)의 좌표와 가상의 좌표를 정합하여 통합 입체 영상 데이터 표시구역(Z3)에 선(先) 정합(pre-matching)된 통합 입체 영상 데이터를 표시하는 단계를 포함한다.In the line matching step (S131), the display area of the screen provided to the user is visually displayed on the tooth region display zone Z1 in which the tooth region of the subject is visually displayed among the first stereoscopic image data, and the second stereoscopic image data is visually displayed. Partitioning the second stereoscopic image data display zone (Z2) and the integrated stereoscopic image data display zone (Z3) into which the integrated stereoscopic image data is visually displayed, and for registration in the second stereoscopic image data display zone (Z2). A reference marker coordinate input step of inputting the coordinates of the reference marker G2, a virtual coordinate input step of inputting virtual coordinates corresponding to the coordinates of the reference marker G2 for registration in the tooth region display area Z1, and input Displaying the integrated stereoscopic image data pre-matched in the integrated stereoscopic image data display zone Z3 by matching the coordinates of the matched reference marker G2 with the virtual coordinates. It includes.
도 6 내지 7을 참고하여 선 정합단계(S131)를 설명하면, 도 6에 도시된 바와 같이 표시부(133)를 통해 사용자에게 제공되는 화면의 표시영역은, 제1 입체 영상 데이터 중 피시술자의 치아 영역이 시각적으로 표시되는 치아 영역 표시구역(Z1)과, 제2 입체 영상 데이터가 시각적으로 표시되는 제2 입체 영상 데이터 표시구역(Z2)과, 통합 입체 영상 데이터가 시각적으로 표시되는 통합 입체 영상 데이터 표시구역(Z3)으로 구획된다. Referring to FIGS. 6 to 7, the line matching step (S131) will be described. As shown in FIG. 6, the display area of the screen provided to the user through the display unit 133 is the tooth region of the subject among the first stereoscopic image data. This visually displayed tooth region display zone Z1, the second stereoscopic image data display zone Z2 in which the second stereoscopic image data is visually displayed, and the integrated stereoscopic image data display in which the integrated stereoscopic image data is visually displayed. It is partitioned into zone Z3.
치아 영역 표시구역(Z1)에는 제1 입체 영상 데이터 중 피시술자의 치아 영역이 시각적으로 표시된다. 치아 영역 표시구역(Z1)에 표시되는 피시술자의 치아 영역은 사용자의 입력부(131)를 통한 제어신호에 의해 그 영역이 선택될 수 있다.The tooth region display zone Z1 visually displays the tooth region of the subject among the first stereoscopic image data. The tooth region of the subject displayed in the tooth region display zone Z1 may be selected by a control signal through the user's input unit 131.
또한, 제2 입체 영상 데이터 표시구역(Z2)에는 제2 입체 영상 데이터가 시각적으로 표시되며, 통합 입체 영상 데이터 표시구역(Z3)에는 통합 입체 영상 데이터가 시각적으로 표시된다.In addition, the second stereoscopic image data is visually displayed in the second stereoscopic image data display zone Z2, and the integrated stereoscopic image data is visually displayed in the integrated stereoscopic image data display zone Z3.
치아 영역 표시구역(Z1)에 표시된 피시술자의 치아 영역과 제2 입체 영상 데이터 표시구역(Z2)에 표시된 제2 입체 영상 데이터는 모두 피시술자의 구강 영역의 구조를 나타내는 것으로, 상술한 바와 같이 피시술자의 구강 영역의 구조에 대해서는 제2 입체 영상 데이터가 더욱 정확한 정보를 갖고 있으므로, 통합 입체 영상 데이터를 생성할 때에는 제1 입체 영상 데이터 중 피시술자의 구강영역에 대한 구조는 제2 입체 영상 데이터로 대체된다. 이러한 대체를 위해서는 제1 입체 영상 데이터와 제2 입체 영상 데이터가 기준 마커 좌표 입력단계와 가상 좌표 입력단계를 통해 정합되어야 한다.The tooth region of the subject displayed in the tooth region display zone Z1 and the second stereoscopic image data displayed in the second stereoscopic image data display zone Z2 both represent the structure of the oral region of the subject. Since the second stereoscopic image data has more accurate information about the structure of the region, when generating the integrated stereoscopic image data, the structure of the oral cavity of the subject among the first stereoscopic image data is replaced with the second stereoscopic image data. For this replacement, the first stereoscopic image data and the second stereoscopic image data must be matched through the reference marker coordinate input step and the virtual coordinate input step.
기준 마커 좌표 입력단계에서는, 제2 입체 영상 데이터 표시구역(Z2)에서 정합용 기준 마커(G2)의 좌표가 입력된다. 즉 사용자가 입력부(131), 예를 들어 마우스를 통해 제2 입체 영상 데이터 표시구역(Z2)에 표시된 3개의 정합용 기준 마커(G2)를 클릭하면, 클릭된 좌표가 연산부(132)에 전달된다.In the reference marker coordinate input step, the coordinates of the matching reference marker G2 are input in the second stereoscopic image data display zone Z2. That is, when the user clicks the three registration reference markers G2 displayed on the second stereoscopic image data display zone Z2 through the input unit 131, for example, the mouse, the clicked coordinates are transmitted to the calculation unit 132. .
가상 좌표 입력단계에서는, 치아 영역 표시구역(Z1)에서 정합용 기준 마커(G2)의 좌표에 해당되는 가상의 좌표가 입력된다. 즉, 사용자가 치아 영역 표시구역(Z1)에 표시된 치아 영역의 이미지와 제2 입체 영상 데이터 표시구역(Z2)에 표시된 치아 석고 본(G)의 이미지를 비교한 후 치아 영역 표시구역(Z1)에 표시된 치아 영역의 이미지에 정합용 기준 마커(G2)의 위치에 해당하는 가상의 위치를 클릭하면, 클릭된 좌표가 연산부(132)에 전달된다.In the virtual coordinate input step, virtual coordinates corresponding to the coordinates of the matching reference marker G2 are input in the tooth region display zone Z1. That is, the user compares the image of the tooth region displayed in the tooth region display region Z1 with the image of the dental gypsum bone G displayed in the second stereoscopic image data display region Z2 and then displays the image in the tooth region display region Z1. When the virtual position corresponding to the position of the registration reference marker G2 is clicked on the displayed image of the tooth region, the clicked coordinate is transmitted to the operation unit 132.
이후 선(先) 정합(pre-matching)된 통합 입체 영상 데이터를 표시하는 단계에서는, 연산부(132)에 입력된 정합용 기준 마커(G2)의 좌표와 가상의 좌표를 비교하여 제1 입체 영상 데이터와 제2 입체 영상 데이터를 중첩시킨 후 통합 입체 영상 데이터 표시구역(Z3)에 제1 입체 영상 데이터에 제2 입체 영상 데이터가 중첩된 선(先) 정합(pre-matching)된 통합 입체 영상 데이터를 표시한다. Thereafter, in the displaying of the pre-matched integrated stereoscopic image data, the coordinates of the matching reference marker G2 input to the operation unit 132 are compared with the virtual coordinates, and the first stereoscopic image data is compared. Superimposed second stereoscopic image data and pre-matching integrated stereoscopic image data in which the second stereoscopic image data is superimposed on the first stereoscopic image data in the integrated stereoscopic image data display zone Z3. Display.
도 6의 통합 입체 영상 데이터 표시구역(Z3)에는 아직 기준 마커 좌표 입력단계와 가상 좌표 입력단계가 수행되지 않아 제1 입체 영상 데이터만 표시되어 있지만, 도 7의 통합 입체 영상 데이터 표시구역(Z3)에는 기준 마커 좌표 입력단계와 가상 좌표 입력단계의 수행에 따라 제2 입체 영상 데이터가 제1 입체 영상 데이터에 중첩된 통합 입체 영상 데이터의 이미지가 표시된 것을 볼 수 있다.In the integrated stereoscopic image data display zone Z3 of FIG. 6, only the first stereoscopic image data is displayed since the reference marker coordinate input step and the virtual coordinate input step have not been performed, but the integrated stereoscopic image data display zone Z3 of FIG. It can be seen that the image of the integrated stereoscopic image data in which the second stereoscopic image data is superimposed on the first stereoscopic image data is displayed according to the reference marker coordinate input step and the virtual coordinate input step.
상술한 선 정합단계(S131)의 가상 좌표 입력단계에서는, 사용자가 치아 영역 표시구역(Z1)의 이미지와 제2 입체 영상 데이터 표시구역(Z2)의 이미지를 비교하여 치아 영역 표시구역(Z1)의 이미지에 정합용 기준 마커(G2)가 있을 가상의 위치를 클릭하는 방식을 취하므로, 선 정합단계(S131)를 거친 선(先) 정합(pre-matching)된 통합 입체 영상 데이터의 정합도는 완벽한 상태는 아니지만 선 정합단계(S131)를 거친 선(先) 정합(pre-matching)된 통합 입체 영상 데이터는 거의 정합된 상태이다. In the above-described virtual coordinate input step of the line registration step S131, the user compares the image of the tooth area display area Z1 with the image of the second stereoscopic image data display area Z2 to determine the area of the tooth area display area Z1. Since the image is clicked on an imaginary position where the reference marker G2 is to be placed in the image, the degree of registration of the pre-matched integrated stereoscopic image data passed through the line matching step S131 is perfect. Although not in a state, the pre-matching integrated stereoscopic image data which has undergone the line matching step S131 is almost matched.
따라서 정밀 정합단계(S132)에서는, 거의 정합된 상태인 선(先) 정합(pre-matching)된 통합 입체 영상 데이터에서 제2 입체 영상 데이터를 제1 입체 영상 데이터에 정밀 정합시킨다. Therefore, in the fine matching step (S132), the second stereoscopic image data is precisely matched with the first stereoscopic image data in the pre-matched integrated stereoscopic image data which is almost matched.
정밀 정합단계(S132)는, 표시부(133)를 통해 사용자에게 제공되는 화면의 표시영역이 다수개의 분할영역으로 구획되며 선(先) 정합(pre-matching)된 통합 입체 영상 데이터의 서로 다른 평면 영상들이 다수개의 분할영역들에 배치되는 단계와, 각각의 분할영역에서 제1 입체 영상 데이터에 제2 입체 영상 데이터가 정합되도록 보정되는 단계를 포함한다.In the precise matching step S132, the display area of the screen provided to the user through the display unit 133 is divided into a plurality of divided areas, and different planar images of the integrated stereoscopic image data that are pre-matched. And disposing the plurality of divided regions, and correcting the second stereoscopic image data to match the first stereoscopic image data in each divided region.
도 8 또는 도 9에 도시된 바와 같이, 정밀 정합단계(S132)에서 표시부(133)를 통해 사용자에게 제공되는 화면의 표시영역은 다수개의 분할영역(D1, D2, D3, D4, D5, D6)으로 구획된다. 이러한 다수개의 분할영역(D1, D2, D3, D4, D5, D6)에는 선(先) 정합(pre-matching)된 통합 입체 영상 데이터의 서로 다른 평면 영상들이 배치된다. As shown in FIG. 8 or 9, the display area of the screen provided to the user through the display unit 133 in the fine matching step S132 is divided into a plurality of divided areas D1, D2, D3, D4, D5, and D6. It is divided into Different planar images of integrated stereoscopic image data that are pre-matched are arranged in the plurality of partitions D1, D2, D3, D4, D5, and D6.
이때 다수개의 분할영역(D1, D2, D3, D4, D5, D6)에 표시되는 선(先) 정합(pre-matching)된 통합 입체 영상 데이터의 평면 영상들은 제1 입체 영상 데이터와 제2 입체 영상 데이터의 구분이 가능하도록 하여(예를 들어, 제1 입체 영상 데이터와 제2 입체 영상 데이터의 외관라인이 서로 다른 색으로 표현됨) 사용자가 시각적으로 정합여부를 알 수 있도록 한다.In this case, the planar images of the pre-matched integrated stereoscopic image data displayed on the plurality of partitions D1, D2, D3, D4, D5, and D6 may be the first stereoscopic image data and the second stereoscopic image. It is possible to distinguish the data (for example, appearance lines of the first stereoscopic image data and the second stereoscopic image data are expressed in different colors) so that the user can visually recognize whether or not they are matched.
도 8 또는 도 9에 도시된 바와 같이, 본 실시예에서 정밀 정합단계(S132)에서 표시부(133)를 통해 사용자에게 제공되는 화면의 표시영역은 제1 내지 제6 분할영역(D1, D2, D3, D4, D5, D6)으로 구획된다.As shown in FIG. 8 or 9, in the present exemplary embodiment, the display area of the screen provided to the user through the display unit 133 in the fine matching step S132 is the first to sixth divided areas D1, D2, and D3. , D4, D5, and D6).
제1 분할영역은(D1)은 선(先) 정합(pre-matching)된 통합 입체 영상 데이터의 평면이며 사용자의 조작화면에 해당된다. 본 실시예에서 제1 분할영역은 선(先) 정합(pre-matching)된 통합 입체 영상 데이터를 X-Y축 평면으로 자른 이미지가 표시된다. The first divided area D1 is a plane of pre-matched integrated stereoscopic image data and corresponds to a user's manipulation screen. In the present exemplary embodiment, an image obtained by cutting the integrated stereoscopic image data pre-matched on the X-Y axis plane is displayed.
제1 분할영역에는 3개의 이동점(M1, M2, M3)이 표시되는데, 사용자가 마우스 등의 입력부(131)를 통해 입력점을 이동시키면 제2 내지 제6 분할영역(D2, D3, D4, D5, D6)의 이미지가 변경된다. Three moving points M1, M2, and M3 are displayed in the first partition, and when the user moves the input point through the input unit 131 such as a mouse, the second to sixth partitions D2, D3, D4, The image of D5, D6) is changed.
제2 분할영역(D2)에는, 제1 분할영역(D1)의 제1 이동점(M1)의 위치에서 Y-Z축 평면으로 자른 이미지가 표시된다. 제3 분할영역(D3)에는, 제1 분할영역(D1)의 제1 이동점(M1)의 위치에서 X-Z축 평면으로 자른 이미지가 표시된다.In the second divided area D2, an image cut in the Y-Z axis plane at the position of the first moving point M1 of the first divided area D1 is displayed. In the third divided area D3, an image cut in the X-Z axis plane at the position of the first moving point M1 of the first divided area D1 is displayed.
제2 분할영역(D2) 및 제3 분할영역(D3)의 이미지는 제1 분할영역(D1)의 제1 이동점(M1)의 이동에 따라 이동된 제1 이동점(M1)의 위치에서의 평면 이미지로 가변된다.The images of the second divided area D2 and the third divided area D3 are located at the position of the first moving point M1 moved according to the movement of the first moving point M1 of the first divided area D1. Variable to flat image.
제4 분할영역(D4)에는, 제1 분할영역은(D1)의 제2 이동점(M2)의 위치에서 Y-Z축 평면으로 자른 이미지가 표시된다. 제5 분할영역(D5)에는, 제1 분할영역(D1)의 제2 이동점(M2)의 위치에서 X-Z축 평면으로 자른 이미지가 표시된다.In the fourth divided area D4, an image cut in the Y-Z axis plane at the position of the second moving point M2 of the first divided area D1 is displayed. In the fifth divided area D5, an image cut in the X-Z axis plane at the position of the second moving point M2 of the first divided area D1 is displayed.
제4 분할영역(D4) 및 제5 분할영역(D5)의 이미지는 제1 분할영역(D1)의 제2 이동점(M2)의 이동에 따라 이동된 제2 이동점(M2)의 위치에서의 평면 이미지로 가변된다.The images of the fourth divided area D4 and the fifth divided area D5 are located at the position of the second moving point M2 moved according to the movement of the second moving point M2 of the first divided area D1. Variable to flat image.
제6 분할영역(D6)에는, 제1 분할영역(D1)의 제3 이동점(M3)의 위치에서 Y-Z축 평면으로 자른 이미지가 표시된다. 제6 분할영역(D6)의 이미지는 제1 분할영역(D1)의 제3 이동점(M3)의 이동에 따라 이동된 제3 이동점(M3)의 위치에서의 평면 이미지로 가변된다.In the sixth divided area D6, an image cut in the Y-Z axis plane at the position of the third moving point M3 of the first divided area D1 is displayed. The image of the sixth divided area D6 is changed into a planar image at the position of the third moving point M3 moved according to the movement of the third moving point M3 of the first divided area D1.
도 8과 도 9를 비교하여 보면 제1 내지 제3 이동점(M1, M2, M3)의 위치 변화에 따라 제2 내지 제6 분할영역(D2, D3, D4, D5, D6)의 이미지가 변경된 것을 볼 수 있다.8 and 9, the image of the second to sixth divided areas D2, D3, D4, D5, and D6 is changed according to the positional change of the first to third moving points M1, M2, and M3. You can see that.
한편, 제2 내지 제6 분할영역(D2, D3, D4, D5, D6)의 이미지들은 사용자의 입력부(131)를 통한 조작에 영향을 받는다. 즉 제2 내지 제6 분할영역(D2, D3, D4, D5, D6)에 표시된 제2 입체 영상 데이터의 위치 및 자세 등의 이미지가 사용자의 조작에 의해 변화될 수 있다. Meanwhile, the images of the second to sixth division areas D2, D3, D4, D5, and D6 are affected by manipulation by the user's input unit 131. That is, an image such as a position and a posture of the second stereoscopic image data displayed on the second to sixth divided regions D2, D3, D4, D5, and D6 may be changed by a user's manipulation.
따라서 사용자는 제1 내지 제3 이동점(M1, M2, M3)을 이동시키며 여러 부위에서 선(先) 정합(pre-matching)된 통합 입체 영상 데이터의 평면 영상에서 제1 입체 영상 데이터와 제2 입체 영상 데이터의 정합 여부를 확인하고 입력부(131)를 통해 제2 입체 영상 데이터를 제1 입체 영상 데이터에 대해 상대 이동시켜 제1 입체 영상 데이터와 제2 입체 영상 데이터를 정밀하게 정합한다.Therefore, the user moves the first to third moving points M1, M2, and M3, and the first stereoscopic image data and the second stereoscopic image data in the planar image of the integrated stereoscopic image data pre-matched at various sites. The stereoscopic image data is checked to be matched, and the first stereoscopic image data and the second stereoscopic image data are precisely matched by moving the second stereoscopic image data relative to the first stereoscopic image data through the input unit 131.
한편, 사용자는 표시부(133)를 통해 사용자에게 제공되는 화면의 표시영역에 표시된 스케일 조작부(S)를 통해 제1 입체 영상 데이터의 스케일을 조작할 수 있다. 이러한 제1 입체 영상 데이터의 스케일 조작은, 제1 입체 영상 데이터와 제2 입체 영상 데이터 사이에 전체적인 크기 차이가 있을 때에 제1 입체 영상 데이터의 전체적인 크기를 제2 입체 영상 데이터에 대하여 상대적으로 가변시켜 제1 입체 영상 데이터와 제2 입체 영상 데이터의 정밀 정합 조작을 더욱 용이하게 한다.Meanwhile, the user may manipulate the scale of the first stereoscopic image data through the scale manipulation unit S displayed on the display area of the screen provided to the user through the display unit 133. The scale operation of the first stereoscopic image data causes the overall size of the first stereoscopic image data to be relatively changed with respect to the second stereoscopic image data when there is an overall size difference between the first stereoscopic image data and the second stereoscopic image data. The precision matching operation of the first stereoscopic image data and the second stereoscopic image data is further facilitated.
이와 같이 본 실시예에 따른 임플란트 진단용 영상 생성방법은, 제1 입체 영상 데이터와 제2 입체 영상 데이터를 대략적으로 빠르게 선 정합한 후 대략적으로 선(先) 정합(pre-matching)된 통합 입체 영상 데이터를 다시 정밀 정합함으로써, 전체적인 정합 시간을 단축하면서도 정합 정확도를 높일 수 있다.As described above, in the method for generating an image for diagnosis of implants according to the present embodiment, the integrated stereoscopic image data which is approximately pre-matched after preliminarily fast matching the first stereoscopic image data and the second stereoscopic image data is performed. By precise matching again, the matching accuracy can be increased while reducing the overall matching time.
다음, 정밀 정합단계(S132)를 거쳐 통합 입체 영상 데이터 획득단계(S130)가 완성된 후 사용자는 시술계획을 수립한다. 이러한 시술계획 시 피시술자의 치조골 등의 골밀도는 매우 중요한 요소이며, 피시술자의 골밀도의 상태에 따라 임플란트의 식립 위치 및 깊이와 방향을 결정하게 된다.Next, after the integrated stereoscopic image data acquisition step S130 is completed through the precision matching step S132, the user establishes a treatment plan. Bone density, such as the alveolar bone of the subject during the planning of the procedure is a very important factor, and determines the implantation position, depth and direction of the implant according to the state of the bone density of the subject.
따라서 픽스츄어(P) 식립 부위의 골밀도가 매우 중요한데, 본 실시예의 골밀도 표시단계(S140)에서는 픽스츄어(P) 식립 부위의 골밀도를 매우 직관적으로 표시하여 준다. Therefore, the bone density of the fixture (P) implantation site is very important. In the bone density display step (S140) of the present embodiment, the bone density of the fixture (P) implantation site is displayed very intuitively.
즉 본 실시예의 골밀도 표시단계(S140)에서는, 도 3 및 도 4에 도시된 바와 같이, 통합 입체 영상 데이터에 피시술자에게 식립될 가상의 픽스츄어(P)를 중첩시키되 가상의 픽스츄어(P)를 기준으로 하여 가상의 픽스츄어(P) 주위의 골밀도를 시각적으로 표시한다.That is, in the bone density display step (S140) of the present embodiment, as shown in FIGS. 3 and 4, the virtual fixture P to be implanted in the subject is superimposed on the integrated stereoscopic image data, but the virtual fixture P is superimposed. As a reference, the bone density around the virtual fixture P is visually displayed.
이러한 골밀도 표시단계(S140)에서는, 연산부(132)에서 계산된 가상의 픽스츄어(P)의 외곽 컨투어(contour)에 접하는 영역의 골밀도를 골밀도의 수치에 따라 서로 다른 색상으로 표시된다.In the bone density display step (S140), the bone density of the area in contact with the outer contour of the virtual fixture P calculated by the calculator 132 is displayed in different colors according to the numerical value of the bone density.
이와 같이 본 실시예에 따른 임플란트 진단용 영상 생성 시스템 및 생성방법은, 가상의 픽스츄어(P) 주위의 골밀도를 골밀도의 수치에 따라 서로 다른 색상으로 표시함으로써, 사용자가 가상의 픽스츄어(P) 주위의 골밀도를 직관적으로 인식할 수 있게 하는 이점이 있다. As described above, in the implant diagnosis image generating system and method according to the present embodiment, the bone density around the virtual fixture P is displayed in different colors according to the numerical value of the bone density, thereby allowing the user to surround the virtual fixture P. There is an advantage to be able to intuitively recognize the bone density of.
이상 도면을 참조하여 본 실시예에 대해 상세히 설명하였지만 본 실시예의 권리범위가 전술한 도면 및 설명에 국한되지는 않는다.Although the present embodiment has been described in detail with reference to the drawings, the scope of the present invention is not limited to the above-described drawings and descriptions.
이와 같이 본 발명은 기재된 실시예에 한정되는 것이 아니고, 본 발명의 사상 및 범위를 벗어나지 않고 다양하게 수정 및 변형할 수 있음은 이 기술의 분야에서 통상의 지식을 가진 자에게 자명하다. 따라서 그러한 수정예 또는 변형예들은 본 발명의 특허청구범위에 속한다 하여야 할 것이다.As described above, the present invention is not limited to the described embodiments, and various modifications and changes can be made without departing from the spirit and scope of the present invention, which will be apparent to those skilled in the art. Therefore, such modifications or variations will have to be belong to the claims of the present invention.
본 발명은 의료 산업, 특히 치과 의료 산업에 이용될 수 있다.The invention can be used in the medical industry, in particular in the dental medical industry.

Claims (23)

  1. 피시술자의 구강 영역에 대한 제1 입체 영상 데이터를 획득하는 제1 영상정보 획득장치;A first image information acquisition device for acquiring first stereoscopic image data about an oral region of a subject;
    상기 피시술자의 치아 석고 본(Plaster Patterns of Teeth)을 스캔하여 제2 입체 영상 데이터를 획득하는 제2 영상정보 획득장치; 및A second image information acquisition device that scans the Plaster Patterns of Teeth of the subject to obtain second stereoscopic image data; And
    상기 제1 입체 영상 데이터 및 상기 제2 입체 영상 데이터를 전달받아 정합(matching)하여 통합 입체 영상 데이터를 생성하는 데이터 처리장치를 포함하며,And a data processing apparatus configured to receive the first stereoscopic image data and the second stereoscopic image data and match them to generate integrated stereoscopic image data.
    상기 데이터 처리장치는,The data processing device,
    상기 통합 입체 영상 데이터에 상기 피시술자에게 식립될 가상의 픽스츄어가 중첩되면, 상기 가상의 픽스츄어를 기준으로 하여 상기 가상의 픽스츄어 주위의 골밀도를 시각적으로 표시하는 것을 특징으로 하는 임플란트 진단용 영상 생성 시스템.Implant diagnosis image generation system, characterized in that visually displays the bone density around the virtual fixture on the basis of the virtual fixture, if the virtual fixture to be implanted in the integrated stereoscopic image data is superimposed .
  2. 제1항에 있어서,The method of claim 1,
    상기 데이터 처리장치는, 상기 가상의 픽스츄어의 외곽 컨투어(contour)에 접하는 영역의 골밀도를 시각적으로 표시하는 것을 특징으로 하는 임플란트 진단용 영상 생성 시스템.And the data processing apparatus visually displays bone density of an area in contact with an outer contour of the virtual fixture.
  3. 제1항에 있어서,The method of claim 1,
    상기 가상의 픽스츄어 주위의 골밀도는, The bone density around the fictional fixture is
    상기 골밀도의 수치에 따라 서로 다른 색상으로 표시되는 것을 특징으로 하는 임플란트 진단용 영상 생성 시스템.Implant diagnosis image generation system, characterized in that displayed in different colors according to the value of the bone density.
  4. 제3항에 있어서,The method of claim 3,
    상기 색상은 유채색인 것을 특징으로 하는 임플란트 진단용 영상 생성 시스템.Implant diagnosis image generation system, characterized in that the color is colored.
  5. 제1항에 있어서,The method of claim 1,
    상기 치아 석고 본(Plaster Patterns of Teeth)에는 상기 제1 입체 영상 데이터와 상기 제2 입체 영상 데이터의 정합을 위한 정합용 기준 마커(marker)가 마련되는 것을 특징으로 하는 임플란트 진단용 영상 생성 시스템.Implant diagnosis image generation system, characterized in that the registration pattern markers for matching the first stereoscopic image data and the second stereoscopic image data is provided in the Plaster Patterns of Teeth.
  6. 제5항에 있어서,The method of claim 5,
    상기 정합용 기준 마커는 다수개로 마련되며, 상호 이격되어 배치되는 것을 특징으로 하는 임플란트 진단용 영상 생성 시스템.The matching reference markers are provided in plural, the implant diagnosis image generating system, characterized in that spaced apart from each other.
  7. 제1항에 있어서,The method of claim 1,
    상기 데이터 처리장치는,The data processing device,
    사용자로부터 정보를 입력받는 입력부;An input unit for receiving information from a user;
    상기 통합 입체 영상 데이터를 생성하며, 상기 입력부에 전기적으로 연결되어 상기 사용자로부터 입력된 정보에 따라 상기 통합 입체 영상 데이터를 보정하는 연산부; 및A generation unit which generates the integrated stereoscopic image data and is electrically connected to the input unit and corrects the integrated stereoscopic image data according to information input from the user; And
    상기 연산부에 전기적으로 연결되며, 상기 통합 입체 영상 데이터와 상기 가상의 픽스츄어 주위의 골밀도를 시각적으로 표시하는 표시부를 포함하는 임플란트 진단용 영상 생성 시스템.And a display unit electrically connected to the calculating unit and configured to visually display the integrated stereoscopic image data and the bone density around the virtual fixture.
  8. 제7항에 있어서,The method of claim 7, wherein
    상기 데이터 처리장치는,The data processing device,
    상기 제2 입체 영상 데이터의 정합용 기준 마커(marker)의 좌표를 기준으로 하여 상기 제1 입체 영상 데이터와 상기 제2 입체 영상 데이터를 선(先) 정합(pre-matching)하는 선(先) 정합단계 후, 상기 선(先) 정합(pre-matching)된 통합 입체 영상 데이터에서 상기 제2 입체 영상 데이터를 상기 제1 입체 영상 데이터에 정밀 정합하는 정밀 정합단계를 거쳐 상기 통합 입체 영상 데이터를 생성하는 것을 특징으로 하는 임플란트 진단용 영상 생성 시스템.Pre-matching to pre-match the first stereoscopic image data and the second stereoscopic image data based on the coordinates of the reference marker for registration of the second stereoscopic image data. After the step, generating the integrated stereoscopic image data through a precise matching step of precisely matching the second stereoscopic image data to the first stereoscopic image data from the pre-matched integrated stereoscopic image data. Implant diagnosis image generating system, characterized in that.
  9. 제8항에 있어서,The method of claim 8,
    상기 선(先) 정합단계에서 상기 연산부는 , In the pre-matching step, the operation unit,
    상기 표시부의 표시영역을 상기 제1 입체 영상 데이터 중 상기 피시술자의 치아 영역이 시각적으로 표시되는 치아 영역 표시구역과, 상기 제2 입체 영상 데이터가 시각적으로 표시되는 제2 입체 영상 데이터 표시구역과, 상기 통합 입체 영상 데이터가 시각적으로 표시되는 통합 입체 영상 데이터 표시구역으로 구획하며, A display area of the display unit in which the tooth region of the subject is visually displayed among the first stereoscopic image data, a second stereoscopic image data display area in which the second stereoscopic image data is visually displayed; It is divided into the integrated stereoscopic image data display area where the integrated stereoscopic image data is visually displayed.
    상기 입력부를 통해 상기 제2 입체 영상 데이터 표시구역에서 상기 정합용 기준 마커(marker)의 좌표를 입력받고,Receiving coordinates of the matching reference marker in the second stereoscopic image data display area through the input unit,
    상기 입력부를 통해 상기 치아 영역 표시구역에서 상기 정합용 기준 마커(marker)의 좌표에 해당되는 가상의 좌표를 입력받으며, The virtual unit receives virtual coordinates corresponding to the coordinates of the registration reference marker in the tooth region display area through the input unit,
    입력된 상기 정합용 기준 마커(marker)의 좌표와 상기 가상의 좌표를 정합하여 상기 통합 입체 영상 데이터 표시구역에 상기 선(先) 정합(pre-matching)된 통합 입체 영상 데이터를 표시하는 임플란트 진단용 영상 생성 시스템.Implant diagnosis image for displaying the integrated stereoscopic image data pre-matched to the integrated stereoscopic image data display zone by matching the input coordinates of the registration reference marker and the virtual coordinates Generating system.
  10. 제8항에 있어서,The method of claim 8,
    상기 정밀 정합단계에서 상기 연산부는 , In the precision matching step, the operation unit,
    상기 표시부의 표시영역을 다수개의 분할영역으로 구획하며, The display area of the display unit is divided into a plurality of divided areas,
    상기 선(先) 정합(pre-matching)된 통합 입체 영상 데이터의 서로 다른 평면 영상들을 상기 다수개의 분할영역들에 배치하고,Disposing different planar images of the pre-matched integrated stereoscopic image data in the plurality of partitions,
    상기 입력부를 통해 상기 각각의 분할영역에서 제1 입체 영상 데이터에 제2 입체 영상 데이터가 정합된 상태를 입력받는 것을 특징으로 하는 임플란트 진단용 영상 생성 시스템.And a state in which the second stereoscopic image data is matched to the first stereoscopic image data in each of the divided regions through the input unit.
  11. 제10항에 있어서,The method of claim 10,
    상기 다수개의 분할영역들은,The plurality of partitions,
    상기 선(先) 정합(pre-matching)된 통합 입체 영상 데이터를 제1축과 상기 제1축에 교차하는 제2축으로 자른 평면 이미지가 도시된 제1 영역;A first region showing a planar image obtained by cutting the pre-matched integrated stereoscopic image data into a first axis and a second axis intersecting the first axis;
    상기 제1 영역에 표시되는 제1 이동점의 위치에서 상기 제2축과 상기 제2축에 교차하는 제3축으로 자른 평면 이미지가 도시된 제2 영역; A second region in which a planar image cropped by a third axis intersecting the second axis and the second axis is shown at a position of a first moving point displayed in the first area;
    상기 제1 영역에 표시되는 제1 이동점의 위치에서 상기 제1축과 상기 제3축으로 자른 평면 이미지가 도시된 제3 영역; A third area in which a planar image cropped by the first axis and the third axis is shown at a position of a first moving point displayed in the first area;
    상기 제1 영역에 표시되는 제2 이동점의 위치에서 상기 제2축과 제3축으로 자른 평면 이미지가 도시된 제4 영역; A fourth region in which a planar image cut along the second axis and the third axis is shown at a position of a second moving point displayed on the first area;
    상기 제1 영역에 표시되는 제2 이동점의 위치에서 상기 제1축과 제3축으로 자른 평면 이미지가 도시된 제5 영역; 및 A fifth region in which a planar image cut along the first axis and the third axis is shown at a position of a second moving point displayed on the first area; And
    상기 제1 영역에 표시되는 제3 이동점의 위치에서 상기 제2축과 제3축으로 자른 평면 이미지가 도시된 제6 영역을 포함하는 임플란트 진단용 영상 생성 시스템.And a sixth region in which a planar image cropped by the second and third axes is shown at a position of a third moving point displayed in the first region.
  12. 제11항에 있어서,The method of claim 11,
    상기 제1 내지 제3 이동점은,The first to third moving point,
    상기 사용자의 조작에 의해 이동가능하며,Movable by the user's operation,
    상기 제2 영역 및 상기 제3 영역의 이미지는 상기 제1 이동점의 이동에 연동되어 가변되며,Images of the second area and the third area are variable in conjunction with movement of the first moving point,
    상기 제4 영역 및 상기 제5 영역의 이미지는 상기 제2 이동점의 이동에 연동되어 가변되며,The images of the fourth area and the fifth area are varied in conjunction with the movement of the second moving point.
    상기 제6 영역의 이미지는 상기 제3 이동점의 이동에 연동되어 가변되는 것을 특징으로 하는 임플란트 진단용 영상 생성 시스템.The image of the sixth region is implantable diagnosis image generation system, characterized in that the variable in conjunction with the movement of the third moving point.
  13. 피시술자의 구강 영역에 대한 제1 입체 영상 데이터를 획득하는 제1 영상정보 획득단계;First image information obtaining step of acquiring first stereoscopic image data of an oral region of a subject;
    상기 피시술자의 치아 석고 본(Plaster Patterns of Teeth)을 스캔하여 제2 입체 영상 데이터를 획득하는 제2 영상정보 획득단계; Second image information obtaining step of acquiring second stereoscopic image data by scanning Plaster Patterns of Teeth of the subject;
    상기 제1 입체 영상 데이터 및 상기 제2 입체 영상 데이터를 정합(matching)하여 통합 입체 영상 데이터를 생성하는 통합 입체 영상 데이터 획득단계; 및An integrated stereoscopic image data obtaining step of generating integrated stereoscopic image data by matching the first stereoscopic image data and the second stereoscopic image data; And
    상기 통합 입체 영상 데이터에 상기 피시술자에게 식립될 가상의 픽스츄어를 중첩시키되, 상기 가상의 픽스츄어를 기준으로 하여 상기 가상의 픽스츄어 주위의 골밀도를 시각적으로 표시하는 골밀도 표시단계를 포함하는 임플란트 진단용 영상 생성방법.Implant diagnosis image comprising the step of superimposing the virtual fixture to be implanted in the integrated stereoscopic image data, the bone density display step of visually displaying the bone density around the virtual fixture on the basis of the virtual fixture How to create.
  14. 제13항에 있어서,The method of claim 13,
    상기 골밀도 표시단계는, 상기 가상의 픽스츄어의 외곽 컨투어(contour)에 접하는 영역의 골밀도를 시각적으로 표시하는 것을 특징으로 하는 임플란트 진단용 영상 생성방법.In the bone density display step, the bone density of the area in contact with the outer contour (contour) of the virtual fixture visually displays the implant diagnostic image generating method.
  15. 제13항에 있어서,The method of claim 13,
    상기 가상의 픽스츄어 주위의 골밀도는, The bone density around the fictional fixture is
    상기 골밀도의 수치에 따라 서로 다른 색상으로 표시되는 것을 특징으로 하는 임플란트 진단용 영상 생성방법.Implant diagnosis image generating method characterized in that the display in different colors according to the value of the bone density.
  16. 제15항에 있어서,The method of claim 15,
    상기 색상은 유채색인 것을 특징으로 하는 임플란트 진단용 생성방법.The color generation method for diagnosing the implant, characterized in that the color.
  17. 제13항에 있어서,The method of claim 13,
    상기 제2 영상정보 획득단계는, The second image information acquisition step,
    상기 피시술자의 치아 석고 본(Plaster Patterns of Teeth)을 생성하는 단계; Generating a plaster pattern of the subject (Plaster Patterns of Teeth);
    상기 피시술자의 치아 석고 본(Plaster Patterns of Teeth)에 상기 제1 입체 영상 데이터와 상기 제2 입체 영상 데이터의 정합을 위한 정합용 기준 마커(marker)를 마련하는 단계; 및Providing a registration marker for registration of the first stereoscopic image data and the second stereoscopic image data in a plaster pattern of the subject; And
    상기 피시술자의 치아 석고 본(Plaster Patterns of Teeth)을 스캔하는 단계를 포함하는 것을 특징으로 하는 임플란트 진단용 영상 생성방법.Implant diagnosis image generation method comprising the step of scanning the plaster pattern (Plaster Patterns of Teeth) of the subject.
  18. 제17항에 있어서,The method of claim 17,
    상기 정합용 기준 마커는 다수개로 마련되며, 상호 이격되어 배치되는 것을 특징으로 하는 임플란트 진단용 영상 생성방법.The matching reference markers are provided in plural, the implant diagnostic image generating method, characterized in that spaced apart from each other.
  19. 제17항에 있어서,The method of claim 17,
    상기 통합 입체 영상 데이터 획득단계는,The integrated stereoscopic image data acquisition step,
    상기 제2 입체 영상 데이터의 정합용 기준 마커(marker)의 좌표를 기준으로 하여 상기 제1 입체 영상 데이터와 상기 제2 입체 영상 데이터를 선(先) 정합(pre-matching)하는 선 정합단계; 및A line matching step of pre-matching the first stereoscopic image data and the second stereoscopic image data based on the coordinates of the matching reference marker of the second stereoscopic image data; And
    상기 선(先) 정합(pre-matching)된 통합 입체 영상 데이터에서 상기 제2 입체 영상 데이터를 상기 제1 입체 영상 데이터에 정밀 정합하는 정밀 정합단계를 포함하는 임플란트 진단용 영상 생성방법.And a fine matching step of precisely matching the second stereoscopic image data to the first stereoscopic image data in the pre-matched integrated stereoscopic image data.
  20. 제19항에 있어서,The method of claim 19,
    상기 선 정합단계는,The line matching step,
    사용자에게 제공되는 화면의 표시영역을 상기 제1 입체 영상 데이터 중 상기 피시술자의 치아 영역이 시각적으로 표시되는 치아 영역 표시구역과, 상기 제2 입체 영상 데이터가 시각적으로 표시되는 제2 입체 영상 데이터 표시구역과, 상기 통합 입체 영상 데이터가 시각적으로 표시되는 통합 입체 영상 데이터 표시구역으로 구획하는 단계; The display area of the screen provided to the user includes a tooth region display region in which the tooth region of the subject is visually displayed among the first stereoscopic image data, and a second stereoscopic image data display region in which the second stereoscopic image data is visually displayed. Partitioning the integrated stereoscopic image data into an integrated stereoscopic image data display zone;
    상기 제2 입체 영상 데이터 표시구역에서 상기 정합용 기준 마커(marker)의 좌표가 입력되는 기준 마커 좌표 입력단계;A reference marker coordinate input step of inputting coordinates of the registration reference marker in the second stereoscopic image data display area;
    상기 치아 영역 표시구역에서 상기 정합용 기준 마커(marker)의 좌표에 해당되는 가상의 좌표가 입력되는 가상 좌표 입력단계; 및A virtual coordinate input step of inputting a virtual coordinate corresponding to the coordinate of the registration reference marker in the tooth region display area; And
    입력된 상기 정합용 기준 마커(marker)의 좌표와 상기 가상의 좌표를 정합하여 상기 통합 입체 영상 데이터 표시구역에 상기 선(先) 정합(pre-matching)된 통합 입체 영상 데이터를 표시하는 단계를 포함하는 임플란트 진단용 영상 생성방법.And matching the input coordinates of the matching reference marker and the virtual coordinates to display the pre-matched integrated stereoscopic image data in the integrated stereoscopic image data display area. Implant diagnostic image generation method.
  21. 제19항에 있어서,The method of claim 19,
    상기 정밀 정합단계는,The precision matching step,
    사용자에게 제공되는 화면의 표시영역이 다수개의 분할영역으로 구획되며, 상기 선(先) 정합(pre-matching)된 통합 입체 영상 데이터의 서로 다른 평면 영상들이 상기 다수개의 분할영역들에 배치되는 단계; 및 A display area of a screen provided to a user being partitioned into a plurality of partitions, and different planar images of the pre-matched integrated stereoscopic image data are disposed in the plurality of partitions; And
    상기 각각의 분할영역에서 제1 입체 영상 데이터에 제2 입체 영상 데이터가 정합되도록 보정되는 단계를 포함하는 임플란트 진단용 영상 생성방법.And correcting the second stereoscopic image data to match the first stereoscopic image data in each of the divided regions.
  22. 제21항에 있어서,The method of claim 21,
    상기 다수개의 분할영역들은,The plurality of partitions,
    상기 선(先) 정합(pre-matching)된 통합 입체 영상 데이터를 제1축과 상기 제1축에 교차하는 제2축으로 자른 평면 이미지가 도시된 제1 영역;A first region showing a planar image obtained by cutting the pre-matched integrated stereoscopic image data into a first axis and a second axis intersecting the first axis;
    상기 제1 영역에 표시되는 제1 이동점의 위치에서 상기 제2축과 상기 제2축에 교차하는 제3축으로 자른 평면 이미지가 도시된 제2 영역; A second region in which a planar image cropped by a third axis intersecting the second axis and the second axis is shown at a position of a first moving point displayed in the first area;
    상기 제1 영역에 표시되는 제1 이동점의 위치에서 상기 제1축과 상기 제3축으로 자른 평면 이미지가 도시된 제3 영역; A third area in which a planar image cropped by the first axis and the third axis is shown at a position of a first moving point displayed in the first area;
    상기 제1 영역에 표시되는 제2 이동점의 위치에서 상기 제2축과 제3축으로 자른 평면 이미지가 도시된 제4 영역; A fourth region in which a planar image cut along the second axis and the third axis is shown at a position of a second moving point displayed on the first area;
    상기 제1 영역에 표시되는 제2 이동점의 위치에서 상기 제1축과 제3축으로 자른 평면 이미지가 도시된 제5 영역; 및 A fifth region in which a planar image cut along the first axis and the third axis is shown at a position of a second moving point displayed on the first area; And
    상기 제1 영역에 표시되는 제3 이동점의 위치에서 상기 제2축과 제3축으로 자른 평면 이미지가 도시된 제6 영역을 포함하는 임플란트 진단용 영상 생성방법. And a sixth region in which a planar image cropped by the second axis and the third axis is shown at the position of the third moving point displayed in the first area.
  23. 제22항에 있어서,The method of claim 22,
    상기 제1 내지 제3 이동점은,The first to third moving point,
    상기 사용자의 조작에 의해 이동가능하며,Movable by the user's operation,
    상기 제2 영역 및 상기 제3 영역의 이미지는 상기 제1 이동점의 이동에 연동되어 가변되며,Images of the second area and the third area are variable in conjunction with movement of the first moving point,
    상기 제4 영역 및 상기 제5 영역의 이미지는 상기 제2 이동점의 이동에 연동되어 가변되며,The images of the fourth area and the fifth area are varied in conjunction with the movement of the second moving point.
    상기 제6 영역의 이미지는 상기 제3 이동점의 이동에 연동되어 가변되는 것을 특징으로 하는 임플란트 진단용 영상 생성방법. The image of the sixth region is implantable diagnostic image generation method characterized in that the variable in conjunction with the movement of the third moving point.
PCT/KR2017/000324 2016-10-06 2017-01-10 System and method for generating images for implant evaluation WO2018066764A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201790001316.XU CN210446984U (en) 2016-10-06 2017-01-10 Image generation system for implant diagnosis

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0129285 2016-10-06
KR1020160129285A KR101812484B1 (en) 2016-10-06 2016-10-06 Image Generation System for implant Diagnosis and the same

Publications (1)

Publication Number Publication Date
WO2018066764A1 true WO2018066764A1 (en) 2018-04-12

Family

ID=60939837

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/000324 WO2018066764A1 (en) 2016-10-06 2017-01-10 System and method for generating images for implant evaluation

Country Status (4)

Country Link
KR (1) KR101812484B1 (en)
CN (1) CN210446984U (en)
TW (1) TWI633874B (en)
WO (1) WO2018066764A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114040726A (en) * 2019-07-11 2022-02-11 奥齿泰有限责任公司 Multiple bone density display method for planning tooth implantation operation and image processing device thereof
EP3819868A4 (en) * 2018-07-03 2022-04-06 Beijing Yakebot Technology Co., Ltd Registration method for visual navigation of dental implant surgery, and electronic device
US20220183645A1 (en) * 2019-12-23 2022-06-16 Megagen Implant Co., Ltd. Artificial intelligence-based oral ct automatic color conversion device and method for driving same
CN114040726B (en) * 2019-07-11 2024-07-02 奥齿泰有限责任公司 Multiple bone density display method for planning dental implant surgery and image processing device thereof

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102043971B1 (en) * 2018-03-08 2019-11-12 주식회사 쓰리디산업영상 Method for extracting dental membrane shape, method for recommending membrane products, and apparatus implementing the methods
CN108877897B (en) * 2018-05-28 2022-12-13 牙博士医疗控股集团有限公司 Dental diagnosis and treatment scheme generation method and device and diagnosis and treatment system
CN108830915B (en) * 2018-05-28 2023-03-31 牙博士医疗控股集团有限公司 Method and device for realizing 3D (three-dimensional) simulation animation of oral cavity image
CN114052960B (en) * 2020-07-31 2022-12-09 先临三维科技股份有限公司 Method and device for acquiring digital oral cavity data and tooth scanner control system
CN116563474B (en) * 2023-07-05 2023-09-19 有方(合肥)医疗科技有限公司 Oral cavity panorama generating method and device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110055907A (en) * 2009-11-20 2011-05-26 이태경 Intraoral appliance for merging image of impression model and patient ct
KR101544773B1 (en) * 2015-04-01 2015-08-17 주식회사 디오 method for providing guide information of operation using surgical guide
KR101554157B1 (en) * 2014-05-09 2015-09-21 주식회사 디오 reference marker for attaching intraoral and manufacturing method for guide stent of dental implant operation using the same
KR20150108535A (en) * 2014-03-18 2015-09-30 주식회사 디오 dental implant insertion set and method for manufacturing thereof
KR20160106991A (en) * 2015-03-03 2016-09-13 주식회사 디오 method for manufacturing surgical guide and abutment, crown of dental implant using cloud system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100338974B1 (en) * 1999-03-15 2002-05-31 최은백, 이찬경 Simulation method for identifying bone density of mandible or maxilla and recording media storing program to perform the same
KR101444727B1 (en) * 2014-03-18 2014-09-26 주식회사 디오 method for manufacturing guide stent of dental implant

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110055907A (en) * 2009-11-20 2011-05-26 이태경 Intraoral appliance for merging image of impression model and patient ct
KR20150108535A (en) * 2014-03-18 2015-09-30 주식회사 디오 dental implant insertion set and method for manufacturing thereof
KR101554157B1 (en) * 2014-05-09 2015-09-21 주식회사 디오 reference marker for attaching intraoral and manufacturing method for guide stent of dental implant operation using the same
KR20160106991A (en) * 2015-03-03 2016-09-13 주식회사 디오 method for manufacturing surgical guide and abutment, crown of dental implant using cloud system
KR101544773B1 (en) * 2015-04-01 2015-08-17 주식회사 디오 method for providing guide information of operation using surgical guide

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3819868A4 (en) * 2018-07-03 2022-04-06 Beijing Yakebot Technology Co., Ltd Registration method for visual navigation of dental implant surgery, and electronic device
US11963845B2 (en) 2018-07-03 2024-04-23 Beijing Yakebot Technology Co. Ltd. Registration method for visual navigation in dental implant surgery and electronic device
CN114040726A (en) * 2019-07-11 2022-02-11 奥齿泰有限责任公司 Multiple bone density display method for planning tooth implantation operation and image processing device thereof
EP3998038A4 (en) * 2019-07-11 2023-07-05 Osstem Implant Co., Ltd. Multiple bone density displaying method for establishing implant procedure plan, and image processing device therefor
CN114040726B (en) * 2019-07-11 2024-07-02 奥齿泰有限责任公司 Multiple bone density display method for planning dental implant surgery and image processing device thereof
US20220183645A1 (en) * 2019-12-23 2022-06-16 Megagen Implant Co., Ltd. Artificial intelligence-based oral ct automatic color conversion device and method for driving same

Also Published As

Publication number Publication date
TWI633874B (en) 2018-09-01
TW201813596A (en) 2018-04-16
KR101812484B1 (en) 2017-12-28
CN210446984U (en) 2020-05-05

Similar Documents

Publication Publication Date Title
WO2018066764A1 (en) System and method for generating images for implant evaluation
WO2018066765A1 (en) Mobile apparatus-linked implant evaluation system
WO2018066763A1 (en) System and method for generating images for implant evaluation
US11284802B2 (en) Methods and systems for creating and interacting with three dimensional virtual models
WO2019212228A1 (en) Three-dimensional oral model analysis method and prosthesis design method including same
WO2019112301A2 (en) Apparatus and method for designating implant implantation region
WO2017010782A1 (en) Dental implant prosthesis using digital library and method for manufacturing same
WO2018143497A1 (en) Implant surgery guiding method
WO2016003255A2 (en) Patient-specific orthodontic trial procedure, simulation using same, and method for manufacturing orthodontic device or orthodontic procedure guiding device
WO2021133120A2 (en) Method for matching structure data and system for matching structure data using same
WO2016163579A1 (en) Dental implant kit
WO2019124846A1 (en) Dental implant surgery guide device, and system and method for manufacturing dental implant surgery guide device
WO2020185019A1 (en) Digital scan body alignment method and device using same
WO2019124845A1 (en) Image generation system and method for implant diagnosis
WO2020185015A1 (en) Method of processing three-dimensional scan data for manufacture of dental prosthesis
WO2019088343A1 (en) Method and system for designing prosthesis on basis of arc line
WO2021137652A2 (en) Method for using integrated library
WO2021133086A2 (en) Data integration method of 3-dimensional scanner and system using same
WO2023003192A1 (en) Image processing apparatus and image processing method
WO2022092838A1 (en) Data processing method and data processing device
WO2024025087A1 (en) Method and device for providing expected error information related to implant placement
WO2022197016A1 (en) Data processing method
WO2015111766A1 (en) Patient-customized abutment manufacturing method
WO2012087043A2 (en) Virtual surgical apparatus for dental treatment and method for manufacturing a wafer using same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17858559

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205 DATED 16.07.2019)

122 Ep: pct application non-entry in european phase

Ref document number: 17858559

Country of ref document: EP

Kind code of ref document: A1