WO2020184876A1 - 인공지능을 이용한 임플란트 수술 계획 수립 방법 및 이를 위한 의료영상 처리장치 - Google Patents

인공지능을 이용한 임플란트 수술 계획 수립 방법 및 이를 위한 의료영상 처리장치 Download PDF

Info

Publication number
WO2020184876A1
WO2020184876A1 PCT/KR2020/002895 KR2020002895W WO2020184876A1 WO 2020184876 A1 WO2020184876 A1 WO 2020184876A1 KR 2020002895 W KR2020002895 W KR 2020002895W WO 2020184876 A1 WO2020184876 A1 WO 2020184876A1
Authority
WO
WIPO (PCT)
Prior art keywords
fixture
information
determining
placement
learning
Prior art date
Application number
PCT/KR2020/002895
Other languages
English (en)
French (fr)
Inventor
조상형
김효정
Original Assignee
오스템임플란트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오스템임플란트 주식회사 filed Critical 오스템임플란트 주식회사
Publication of WO2020184876A1 publication Critical patent/WO2020184876A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis

Definitions

  • the present invention relates to a medical image processing technology including a guide design technology for dental implant surgery.
  • implant surgery In the implant surgery process using software, after establishing an implant placement plan in consideration of the implant structure (crown, abutment, fixture, etc.) and the patient's anatomical structure on the software, implant surgery is performed.
  • the position of the crown for each tooth number to be operated is first determined, and the initial placement position of the fixture is determined with the same axis as the reference axis of the crown. do. After that, it is based on a method of determining the final position through user adjustment.
  • the currently commercialized general fixture positioning method is configured to determine and provide the initial position of the fixture only on the same axis as the crown reference axis, and other operations are configured to be manually corrected by the user to determine the final position of the fixture.
  • a method of establishing an implant surgery plan using artificial intelligence and a medical image processing apparatus therefor is proposed in order to minimize the user's guide design work time.
  • An implant surgery plan establishment method using artificial intelligence includes the steps of acquiring a learning result learned based on artificial intelligence for image data of patients who have previously established a fixture placement plan, and the acquired learning result. And determining and providing placement information including the position and angle of the fixture to be actually placed according to the oral environment by using.
  • the step of determining and providing placement information based on the position of the fixture placed from the acquired learning result, the relationship information between the alveolar bone, the gingival margin, the adjacent teeth, the maxillary sinus, the neural tube, and the bone density is identified. It may include the step of determining and providing information on the placement of the fixture by reflecting the relationship information with the identified surrounding structures.
  • the step of determining and providing the implantation information includes determining the initial position of the fixture so that it is located at the center of the crown with the same central axis based on the central axis of the crown, and reflects the relationship information with the identified surrounding structures. It may include the step of determining and providing the final position of the fixture as the position is corrected.
  • the step of determining and providing placement information includes distance information from the alveolar bone learned from the center point in the top direction of the fixture based on the position of the fixture placed by tooth number in the previous data, and the mesial surface of the fixture and the alveolar bone ( Mesial), distal, lingual, and buccal (Buccal) learning results including distance information to determine the relationship between the fixture and alveolar bone, and the relationship between the identified fixture and alveolar bone. It may include the step of determining and providing a distance between the fixture and the alveolar bone based on the fixture.
  • the relationship between the fixture and the gum margin is obtained by acquiring the learning result including distance information from the gum margin in the top direction of the fixture based on the position of the fixture placed by tooth number from the previous data.
  • the determining may include determining and providing a distance between the fixture and the gum margin based on the relationship between the identified fixture and the gum margin.
  • the step of determining and providing the implantation information includes the steps of acquiring the learning result including the angle between the fixture and the adjacent teeth based on the position of the fixture placed by tooth number from the previous data, and grasping the relationship between the fixture and the adjacent teeth. It may include the step of determining and providing an insertion angle of the fixture so as to be parallel to the adjacent value in the mesial direction based on the relationship between the fixture and the adjacent value.
  • the step of determining and providing the placement information the lowermost point and the maxillary sinus and lower teeth in the direction of the lower apex (Apex) of the fixture by checking whether there is a collision with the maxillary sinus or neural tube based on the position of the fixture placed by tooth number in the previous data.
  • the step of acquiring the learning result including the distance to the jaw neural tube and the length information of the fixture by tooth number to determine the relationship between the maxillary sinus or the neural tube of the fixture, and the maxillary sinus invasion area of the fixture in case of a maxillary sinus collision is allowed to invade through the learning data. It may include the step of adjusting the length of the fixture when invasion exceeding the permitted invasion range occurs by defining a criterion or allowing a user to set an intrusion allowable range.
  • the step of determining and providing the placement information includes acquiring the learning result including the learned ossein information of the area in contact with the placed fixture or where the fixture is located to grasp bone quality information around the fixture, and the identified fixture. It may include the step of determining and enhancing the position of the fixture using the surrounding bone quality information.
  • the method of establishing an implant surgery plan using artificial intelligence may further include learning the previous data using artificial intelligence in order to determine placement information of a fixture to be actually placed.
  • the learning step includes learning the patient's anatomical structure including at least one of alveolar bone, adjacent teeth information, maxillary sinus and neural tube information based on the fixtures placed for the CT data of a patient who has previously established a fixture placement plan, and , It may include learning the position and angle of the fixture and the gum margin line according to the crown for each tooth number for which the crown position is determined for the oral model data of the patient who has previously established the fixture placement plan.
  • the method of establishing an implant surgery plan using artificial intelligence may further include testing the learning result, and reflecting the learning result to the fixture placement plan when the testing result is greater than or equal to a preset reference.
  • a medical image processing apparatus includes a data acquisition unit for acquiring image data and an oral environment using learning results learned based on artificial intelligence for image data of patients who have previously established a fixture placement plan. It includes a fixture determining unit that determines placement information including a position and angle of a fixture to be actually placed appropriately, and an output unit that displays placement information from image data together on a screen.
  • the fixture determination unit grasps relational information with surrounding structures including at least one of alveolar bone, gingival margin, adjacent teeth, maxillary sinuses, neural tube, and bone density based on the position of the fixture placed from the acquired learning result, and It is possible to determine the placement information of the fixture by reflecting the relationship information of.
  • the fixture determination unit includes distance information from the alveolar bone learned from the center point in the top direction of the fixture based on the position of the fixture placed by tooth number in the previous data, the mesial surface of the fixture and the alveolar bone (Mesial), and the distal surface (The relationship between the fixture and the alveolar bone is acquired by acquiring the learning result including distance information in the distal, lingual, and buccal directions, and the distance between the fixture and the alveolar bone based on the relationship between the identified fixture and the alveolar bone. Can be determined.
  • the fixture determiner acquires the learning result including distance information from the gum margin in the top direction of the fixture based on the position of the fixture placed by tooth number from the previous data to determine the relationship between the fixture and the gum margin, and identifies the fixture.
  • the distance between the fixture and the gum margin can be determined based on the relationship between the and the gum margin.
  • the fixture determiner acquires the learning result including the angle between the fixture and the adjacent value based on the position of the fixture placed by tooth number from the previous data to determine the relationship between the fixture and the adjacent value, and determines the relationship between the identified fixture and the adjacent value. Based on the basis, it is possible to determine the placement angle of the fixture so as to be parallel to the adjacent teeth in the mesial direction.
  • the fixture determination unit checks whether a collision with the maxillary sinus or neural tube is made based on the position of the fixture placed by tooth number from the previous data, and determines the distance between the lowest point and the maxillary sinus and inferior alveolar neural tube in the direction of the lower apex of the fixture. , By acquiring the learning result including the length information of the fixture for each tooth number, the relationship between the maxillary sinus or the neural tube of the fixture is grasped.In the case of a maxillary sinus impact, the maxillary sinus invasion area of the fixture defines the invasion tolerance standard through the learning data, or By allowing the user to set, the length of the fixture can be adjusted when invasion exceeds the allowable range.
  • the fixture determination unit obtains the learning result including the learned ossein information of the area in contact with the placed fixture or where the fixture is located to determine the bone quality information around the fixture, and uses the bone quality information around the identified fixture to obtain the fixture. You can determine the location of.
  • the medical image processing apparatus uses artificial intelligence to learn image data of patients who have previously established a fixture placement plan in order to determine placement information of a fixture to be actually placed, and a learning unit that provides the learning result to the fixture determination unit. It may contain more.
  • the learning unit learns the patient's anatomical structure including at least one of alveolar bone, adjacent teeth information, maxillary sinus and neural tube information based on the installed fixture based on the CT data of the patient who has previously established the fixture placement plan, and plans the previous fixture placement. It is possible to learn the placement position and angle of the fixture and the gum margin line according to the crown for each tooth number for which the crown position is determined based on the oral model data of the patient who has established.
  • the medical image processing apparatus may further include a testing unit that tests the learning result of the learning unit, and provides the learning result to the fixture determination unit when the testing result is greater than or equal to a preset reference.
  • a method for establishing an implant surgery plan using artificial intelligence and a medical image processing apparatus therefor it is possible to increase user convenience by minimizing manual manipulation by a user when determining a fixture placement position from image data.
  • FIG. 1 is a diagram showing the configuration of a medical image processing apparatus according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing a detailed configuration of the control unit of FIG. 1 according to an embodiment of the present invention
  • FIG. 3 is a diagram showing image data used for fixture placement according to an embodiment of the present invention.
  • FIG. 4 is a diagram illustrating an image screen for determining an actual fixture position using a result of learning a position between a crown and a fixture according to an embodiment of the present invention
  • FIG. 5 is a diagram illustrating an image screen for determining an actual fixture position using a result of learning a distance between a fixture and an alveolar bone according to an embodiment of the present invention
  • FIG. 6 is a diagram illustrating an image screen for determining a position of a fixture to be actually placed using a result of learning a distance between a fixture and a gum margin according to an embodiment of the present invention
  • FIG. 7 is a diagram illustrating an image screen for determining an angle of a fixture to be actually placed using data obtained by learning the angles of a fixture and adjacent teeth according to an embodiment of the present invention
  • FIG. 8 is a diagram illustrating an image screen for determining a position of a fixture using a result of learning a relationship between a fixture and a maxillary sinus and an inferior alveolar neural tube according to an embodiment of the present invention.
  • FIG. 9 is a view showing an image screen for determining fixture placement information using a result of learning bone density of an alveolar bone in contact with a fixture according to an embodiment of the present invention.
  • FIG. 10 is a diagram illustrating a method of establishing an implant surgery plan using artificial intelligence according to an embodiment of the present invention.
  • Combinations of each block in the attached block diagram and each step in the flowchart may be executed by computer program instructions (execution engines), and these computer program instructions are provided on a processor of a general purpose computer, special purpose computer or other programmable data processing device. As it may be mounted, its instructions executed by the processor of a computer or other programmable data processing device generate means for performing the functions described in each block of the block diagram or each step of the flowchart.
  • These computer program instructions may also be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing device to implement a function in a particular way, so that the computer usable or computer readable memory It is also possible to produce an article of manufacture containing instruction means for performing the functions described in each block of the block diagram or each step of the flow chart.
  • each block or each step may represent a module, segment, or part of code containing one or more executable instructions for executing specified logical functions, and in some alternative embodiments mentioned in the blocks or steps. It should be noted that it is also possible for functions to occur out of order. For example, two blocks or steps shown in succession may in fact be performed substantially simultaneously, and the blocks or steps may be performed in the reverse order of a corresponding function as necessary.
  • FIG. 1 is a diagram showing a configuration of a medical image processing apparatus according to an embodiment of the present invention.
  • the medical image processing apparatus 1 is an electronic device capable of executing a medical image processing program such as a guide design program for dental implant surgery.
  • Electronic devices include computers, notebook computers, laptop computers, tablet PCs, smartphones, mobile phones, personal media players (PMPs), personal digital assistants (PDAs), and the like.
  • Medical image processing programs include scan programs, CAD programs, etc. in addition to guide design programs. In addition, it can be applied to programs for general medical image processing other than for dental implant surgery.
  • the image processing process using a medical image processing program including a guide design program includes registration of surgical patients, acquisition of CT data and oral model data of the registered patient, registration of CT data and oral model data, creation of arch lines from the matched image data, and arch arch.
  • This process includes creating a panoramic image using lines, determining the position and size of the crown model from the patient's oral model data, determining the position of the implant structure including the fixture from the patient's CT data, designing the guide shape, and outputting the final guide. Is composed.
  • the present invention is configured to automatically provide the user with information on the placement of a fixture to be placed in the tooth area during the above process.
  • the placement information includes the position, angle, depth, length, diameter, and features of the fixture.
  • the present invention provides a user with information about the placement of a fixture by using artificial intelligence (AI).
  • AI artificial intelligence
  • Artificial intelligence is a field of computer engineering and information technology that studies how computers can do thinking, learning, and self-development that can be done with human intelligence, so that computers can imitate the intelligent behavior of humans. Say what to do.
  • This artificial intelligence technique is applied to the guide design software so that the computer learns the installation information of the fixtures planned for surgery in advance, and when this is applied for each operation plan case, the operation of the user to adjust the placement position and angle of the fixture is minimized. can do.
  • a medical image processing apparatus 1 includes a data acquisition unit 10, a storage unit 12, a control unit 14, an input unit 16, and an output unit 18. .
  • the data acquisition unit 10 acquires image data from a patient.
  • Image data necessary for fixture placement include CT data and oral model data.
  • the data acquisition unit 10 may execute CT data and oral model data in a program or load data stored in a web page and a server.
  • the oral model data is data with information on actual teeth including damaged teeth.
  • the oral model data may be obtained by scanning a plaster model created after a patient's mouth with a 3D scanner. As another example, it may be obtained by scanning the inside of the patient's oral cavity using a 3D intra-oral scanner.
  • the obtained oral model data may be stored in the storage unit 12.
  • CT data can be obtained by generating a patient's head tomography images using computed tomography (CT), segmenting the boundary of the tooth from each tomography image, and then combining them into one.
  • These oral model data and CT data are images obtained by photographing the maxillary teeth under the maxillary teeth with the patient's mouth open, the image obtained by photographing the mandibular teeth above the mandibular teeth with the mouth open, and the local area with the mouth closed. Includes images obtained, oral radiographs, etc.
  • the acquired CT data may be stored in the storage unit 12.
  • the storage unit 12 stores various data, such as information necessary for performing an operation of the dental implant surgery planning apparatus 3 and information generated according to the operation.
  • oral model data and CT data of an individual patient are stored, and user request for oral model data and CT data of a specific patient among all oral model data and CT data during dental treatment simulation. It can be provided to the control unit 14 according to.
  • the storage unit 12 stores images of the upper and lower teeth of an individual patient, and images of the upper and lower teeth that match the oral model data and CT data of a specific patient are stored at the user request. Accordingly, it can be provided to the control unit 14.
  • the control unit 14 controls each component while establishing an implant placement plan through control by a computer program.
  • the control unit 14 manages screen information displayed on the screen through the output unit 18 and performs a simulation of placing a virtual fixture object in the dental image.
  • a dental image in which a virtual fixture object is placed refers to a multidimensional image, such as 2D or 3D, showing the patient's tooth arrangement created to establish an implant surgery plan.
  • Various types of images such as X-ray, CT, MRI, panoramic images, oral scan images, images generated through reconstruction, and images that match multiple images, can be used for implant surgery planning.
  • the controller 14 determines and provides placement information including the placement position and angle of a fixture object for the image data acquired through the data acquisition unit 10. At this time, by reflecting the learning result learned using artificial intelligence for the image data of the patient who has previously established a fixture placement plan, the placement information of the fixture to be actually placed is determined and provided according to the oral environment. The detailed configuration of the control unit 14 will be described later with reference to FIG. 2.
  • the input unit 16 receives a user manipulation signal. For example, if the image data including the fixture displayed on the screen is determined by the control unit 14, the position and angle of the fixture may be input by receiving user manipulation for fine adjustment, if necessary, for the image data including the fixture displayed on the screen through the output unit 18. Can be adjusted.
  • the output unit 18 displays a screen. At this time, the output unit 18 displays image data (CT data, oral model data) on the screen.
  • CT image may be expressed as an axial view, a sagittal view, or a coronal view.
  • the output unit 18 displays the fixture placement result on an image in the screen.
  • FIG. 2 is a diagram showing a detailed configuration of the control unit of FIG. 1 according to an embodiment of the present invention.
  • control unit 14 includes a fixture determination unit 144, and may further include a learning unit 140 and a testing unit 142.
  • the fixture determination unit 144 determines the placement information of the fixture to be actually placed in accordance with the oral environment by using the learning result learned based on artificial intelligence for image data of patients who have previously established a fixture placement plan.
  • the placement information includes the position, angle, depth, length, diameter, and features of the fixture.
  • the fixture determination unit 144 includes relationship information with surrounding structures including at least one of alveolar bone, gingival margin, adjacent teeth, maxillary sinus, neural tube, and bone density based on the position of the installed fixture from the acquired learning result. To grasp. And, by reflecting the relationship information with the identified surrounding structures, it determines the placement information of the fixture.
  • the fixture determination unit 144 is the center point in the top direction of the fixture based on the position of the fixture placed for each tooth number from the previous data.
  • Learning results including distance information from the alveolar bone and distance information of the fixture and alveolar bone in the mesial, distal, lingual, and buccal directions are acquired, and Identify the relationship between the alveolar bones. Then, the distance between the fixture and the alveolar bone is determined based on the relationship between the identified fixture and the alveolar bone. An embodiment of this will be described later with reference to FIG. 5.
  • the fixture determination unit 144 determines the position of the fixture by tooth number from the previous data in the top direction of the fixture. The relationship between the fixture and the gingival margin is grasped by acquiring the learning result including the distance information of the family. Then, the distance between the fixture and the gum margin is determined based on the relationship between the identified fixture and the gum margin. An embodiment of this will be described later with reference to FIG. 6.
  • the fixture determination unit 144 includes the angle between the fixture and the adjacent teeth based on the position of the fixture placed by tooth number from the previous data. Acquire the learning result and grasp the relationship between the fixture and adjacent values. Then, based on the relationship between the identified fixture and adjacent teeth, the angle of placement of the fixture is determined to be parallel to the adjacent teeth in the mesial direction. An embodiment of this will be described later with reference to FIG. 7.
  • the fixture determination unit 144 checks whether there is a collision with the maxillary sinus or neural tube based on the position of the fixture placed by tooth number from previous data.
  • the relationship between the fixture's maxillary sinus or neural tube is acquired by acquiring the learning result including the distance between the lowermost point in the direction of the lower apex of the fixture and the maxillary sinus and inferior alveolar neural tube, and the length of the fixture by tooth number.
  • the fixture determination unit 144 defines the invasion allowance criteria through learning data for the maxillary sinus invasion area of the fixture when the maxillary sinus impacts, or allows the user to set the invasion allowable range, so that the length of the fixture when invasion exceeds the allowable invasion range. Can be adjusted. An embodiment of this will be described later with reference to FIG. 8.
  • the fixture determination unit 144 learns including learned ossein information of the area where the fixture is in contact with or where the fixture is placed. Acquire the result and grasp bone quality information around the fixture. Then, the location of the fixture is determined using bone quality information around the identified fixture. An embodiment of this will be described later with reference to FIG. 9.
  • the learning unit 140 learns using artificial intelligence on image data of a patient who has previously established a fixture placement plan in order to determine the placement information of the fixture to be actually placed, and provides the learning result to the fixture determination unit 144 do.
  • the learning unit 140 can learn the patient's anatomical structure, including alveolar bone, adjacent teeth information, maxillary sinus, and mandibular neural tube information, based on the fixtures placed for the CT data of a patient who has previously established a fixture placement plan. I can.
  • the testing unit 142 tests the learning result of the learning unit 140. In this case, when the testing result has an accuracy of more than a preset criterion, for example, 95% or more, the learning result is provided to the fixture determination unit 144.
  • FIG. 3 is a diagram illustrating image data used for fixture placement according to an embodiment of the present invention.
  • (a) of FIG. 3 shows CT data 300
  • the method of providing the location of the fixture to the user using artificial intelligence is based on utilizing the result of repetitive learning.
  • data on which a fixture placement plan is established is accumulated on the CT data 300 or the oral model data 310 and undergoes repetitive training and testing through a machine learning algorithm.
  • the test result has a preset reference, for example, 95% or more accuracy, it is applied to provide placement information including the position and angle of the fixture in the actual implant placement plan.
  • the training data in the training process utilizes the placement information of the fixture in the image data using the image processing device.
  • the image data includes CT data 300 and oral model data 310 as shown in FIG. 3.
  • the oral model data 310 is obtained by scanning the patient's oral gypsum model or directly scanning the patient's mouth.
  • the information that the image processing device learns in the training process is the patient's anatomical structure that can be checked from the patient's CT data 300, along with the alveolar bone and adjacent teeth information, as well as the maxillary sinus for the maxilla and the inferior alveolar neural tube information for the mandible. Includes.
  • the oral model data 310 includes the patient's gum information.
  • the placement position and angle of the fixture are learned according to the crown for each tooth number for which the crown position is determined.
  • FIG. 4 is a diagram illustrating an image screen for determining an actual fixture position using a result of learning a position between a crown and a fixture according to an embodiment of the present invention.
  • (a) of FIG. 4 shows an image in the axial direction
  • (b) shows an image in the cross/parallel direction.
  • the position of the fixture 410 is determined using the position of the crown 400 disposed on the oral model data 310. As shown in FIG. 4, the initial position of the fixture 410 is determined based on the axis of the crown 400, and the angle between the crown 400 and the central axis of the fixture 410 for each tooth number in the training process and the crown 400 ) To learn the positional relationship of the fixture according to the position.
  • the initial position of the fixture 410 is determined to be located at the center of the crown 400 with the same central axis as the central axis of the crown 400, but the final position of the fixture 410 in consideration of other anatomical structures including alveolar bone In the case of determining, the central axis of the crown 400 and the central axis of the fixture 410 may be different.
  • the location information of the fixture 410 for each tooth number including this case is learned by the medical image processing apparatus.
  • FIG. 5 is a diagram illustrating an image screen for determining an actual fixture position using a result of learning a distance between a fixture and an alveolar bone according to an embodiment of the present invention.
  • (a) of FIG. 5 shows the distance from the alveolar bone 500 in the top direction of the fixture 410
  • (b) of FIG. 5 is a mesial surface of the fixture 410, It shows the distance from the alveolar bone 500 in the distal, lingual, and buccal directions.
  • the learning of information related to the location of the fixture in consideration of the alveolar bone is the distance from the center point in the top direction of the fixture to the alveolar bone, the mesial surface of the fixture and the alveolar bone (Mesial), the distal surface (Distal), and the lingual side. It is possible to learn the distances in the (lingual) and buccal directions, and obtain the fixture placement information considering the distance between the fixture and the alveolar bone from the learning result. For example, as shown in FIG.
  • FIG. 6 is a diagram illustrating an image screen for determining a position of a fixture to be actually placed using a result of learning a distance between a fixture and a gum margin according to an exemplary embodiment of the present invention.
  • image data eg, oral model data
  • learn the distance between the gum margin 600 and the fixture 410 and use the learning result to learn the fixture 410 to be placed.
  • the distance to the gum margin 600 is learned in the direction of the top of the fixture 410 based on the fixture 410.
  • FIG. 7 is a diagram illustrating an image screen for determining an angle of a fixture to be actually placed using data obtained by learning the angles of a fixture and adjacent teeth according to an embodiment of the present invention.
  • (a) of FIG. 7 shows the angle between the adjacent tooth 700 in the mesial direction and the fixture 410 of the tooth number to be placed, and (b) is considering the adjacent tooth 700 It shows the fixture placement angle.
  • the fixture placement angle is determined to be adjacent to the mesial direction or parallel to the installed or to be placed fixture.
  • FIG. 8 is a diagram illustrating an image screen for determining a position of a fixture using a result of learning a relationship between a fixture and a maxillary sinus and an inferior alveolar neural tube according to an embodiment of the present invention.
  • (a) of FIG. 8 shows an image of the fixture 410 in consideration of the maxillary sinus 800
  • (b) shows the image of the fixture 410 in consideration of the inferior alveolar neural tube 810.
  • the collision between the inferior alveolar neural tube 810 and the fixture 410 should be additionally considered. 8 it is checked whether the maxillary sinus 800 and the inferior alveolar neural tube 810 collide in the direction of the lower apex (Apex) of the fixture 410 and the lowest point in the direction of the lower apex (Apex) of the fixture 410 And the distance between the maxillary sinus 800 and the inferior alveolar neural tube 810 and length information of the fixture 410 for each tooth number are learned.
  • the maxillary sinus invasion area of the fixture 410 defines the invasion tolerance standard through learning data or allows the user to set the invasion tolerance so that invasion beyond the invasion tolerance occurs.
  • the length of the fixture 410 can be adjusted. For example, as shown in FIG.
  • FIG. 9 is a view showing an image screen for determining fixture placement information using a result of learning bone density of an alveolar bone in contact with a fixture according to an embodiment of the present invention.
  • the medical image processing apparatus may additionally learn bone density information of an alveolar bone.
  • Bone density is generally classified into D1 ⁇ D5 according to bone quality and classified into Hard, Normal, Soft Bone, but sometimes classified into A1 ⁇ D4 according to software and manufacturer's policy.
  • Bone mineral density learns bone quality information of a region where the fixture 410 is placed or where the fixture 410 is placed, as shown in FIG. 9.
  • information about the bone quality is displayed as a warning phrase and used so that the user can check it.
  • the relationship between the location of the fixture and the surrounding structures is learned and tested using artificial intelligence, targeting the image data for which the fixture placement plan was previously established.
  • the testing is performed with image data in which the patient's CT data and oral model data are matched, and if the accuracy of the testing result is more than a preset criterion, for example, 95%, it is applied to the position of the fixture in the actual implant placement plan. Is proposed in the image processing apparatus. Furthermore, if correction is required according to the result, the user may fine-tune and determine the placement position of the final fixture.
  • FIG. 10 is a diagram illustrating a method of establishing an implant surgery plan using artificial intelligence according to an embodiment of the present invention.
  • the medical image processing apparatus 1 acquires a learning result learned based on artificial intelligence for image data of patients who have previously established a fixture placement plan (S1000).
  • the medical image processing apparatus 1 determines and provides placement information including the position and angle of the fixture to be actually placed according to the oral environment by using the acquired learning result (S1100).
  • the medical image processing apparatus 1 grasps the relationship information with the surrounding structures based on the position of the fixture placed from the acquired learning result, and By reflecting the relationship information, it is possible to determine the placement information of the fixture.
  • the surrounding structures may be alveolar bone, gingival margin, adjacent teeth, maxillary sinus, neural tube and bone density.
  • the medical image processing apparatus 1 determines the initial position of the fixture so that it has the same central axis with respect to the central axis of the crown and is located at the center of the crown, and then The final position of the fixture may be determined by modifying the initial position of the fixture by reflecting the relationship information of.
  • the medical image processing apparatus 1 may determine the distance between the fixture and the alveolar bone by using learning about the alveolar bone. For example, the medical image processing apparatus 1 includes distance information from the alveolar bone learned from the center point in the top direction of the fixture based on the position of the fixture placed by tooth number in the previous data, and the mesial center of the fixture and the alveolar bone. The relationship between the fixture and the alveolar bone is grasped by acquiring the learning result including distance information in the directions of the mesial, distal, lingual and buccal. Then, the distance between the fixture and the alveolar bone is determined based on the relationship between the identified fixture and the alveolar bone.
  • the medical image processing apparatus 1 may determine the distance between the fixture and the gum margin by using learning about the gum margin. For example, the medical image processing apparatus 1 acquires a learning result including distance information between the fixture and the gum margin in the top direction of the fixture based on the position of the fixture placed for each tooth number from previous data. Identify the relationship. Then, the distance between the fixture and the gum margin is determined based on the relationship between the identified fixture and the gum margin.
  • the medical image processing apparatus 1 may determine an angle between the fixture and the adjacent teeth by using learning about the adjacent teeth. For example, the medical image processing apparatus 1 obtains a learning result including an angle between a fixture and an adjacent tooth based on the position of a fixture placed for each tooth number from previous data to grasp the relationship between the fixture and adjacent teeth. Then, based on the relationship between the identified fixture and adjacent teeth, the angle of placement of the fixture is determined to be parallel to the adjacent teeth in the mesial direction.
  • the medical image processing apparatus 1 may determine the position of the fixture by using the learning result of the maxillary sinus or neural tube. For example, in the case of a maxillary sinus impact, the maxillary sinus invasion area of the fixture can be defined through the learning data by determining whether the maxillary sinus or neural tube is collided based on the position of the fixture implanted by tooth number from the previous data. By allowing the user to set the permissible range, the length of the fixture can be adjusted when an invasion beyond the permissible range occurs.
  • the medical image processing apparatus 1 may determine the position of the fixture by using learning about bone quality information of the alveolar bone contacting the fixture. For example, by acquiring the learning result including the learned bone quality information of the area where the fixture is in contact with or where the fixture is placed, bone quality information around the fixture is identified. In addition, the location of the fixture may be determined by using bone quality information around the identified fixture.
  • the method of establishing an implant surgery plan using artificial intelligence is a step of learning using artificial intelligence on image data of a patient who has previously established a fixture placement plan in order to determine placement information of a fixture to be actually placed. It further includes (S1300).
  • the medical image processing apparatus 1 learns the patient's anatomical structure including alveolar bone, adjacent teeth information, maxillary sinus, and neural tube information based on the fixture placed from the previous CT data, and the previous oral model It is possible to learn the placement position and angle of the fixture and the gum margin line according to the crown for each tooth number for which the crown position is determined for the data.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Epidemiology (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Primary Health Care (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Robotics (AREA)
  • Physiology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Dental Prosthetics (AREA)

Abstract

인공지능을 이용한 임플란트 수술 계획 수립 방법 및 이를 위한 의료영상 처리장치가 개시된다. 일 실시 예에 따른 인공지능을 이용한 임플란트 수술 계획 수립 방법은, 이전 픽스쳐 식립 계획을 수립한 환자들의 영상 데이터들을 대상으로 인공지능에 기반하여 학습한 학습 결과를 획득하는 단계와, 획득된 학습 결과를 이용하여 구강 환경에 맞게 실제 식립하고자 하는 픽스쳐의 위치 및 각도를 포함한 식립 정보를 결정하여 제공하는 단계를 포함한다.

Description

인공지능을 이용한 임플란트 수술 계획 수립 방법 및 이를 위한 의료영상 처리장치
본 발명은 치과 임플란트 수술용 가이드 디자인 기술을 포함한 의료영상 처리 기술에 관한 것이다.
소프트웨어를 이용한 임플란트 수술 과정은 소프트웨어 상에서 임플란트 구조물(크라운, 어버트먼트, 픽스쳐 등)과 환자의 해부학적 구조물을 고려하여 임플란트 식립 계획을 수립한 후, 임플란트 수술을 진행한다.
치과 임플란트 수술용 가이드 디자인 소프트웨어를 이용한 임플란트 식립 계획을 수립하는 과정에서 픽스쳐의 위치 결정은 수술할 치아번호 별 크라운의 위치를 우선적으로 결정하고 크라운의 기준 축과 동일한 축으로 픽스쳐의 초기 식립 위치가 결정된다. 이후 사용자 조정을 통하여 최종 위치를 결정하는 방식을 기본으로 한다.
현재 상용화된 일반적인 픽스쳐 위치 결정 방식은 크라운 기준 축과 동일한 축으로만 픽스쳐의 초기 위치를 결정하여 제공하고, 그 이외의 작업은 사용자가 수동으로 수정하여 픽스쳐 최종 위치를 결정하도록 구성되어 있다.
일 실시 예에 따라, 사용자의 가이드 디자인 작업시간을 최소화하기 위해 인공지능을 이용한 임플란트 수술 계획 수립 방법 및 이를 위한 의료영상 처리장치를 제안한다.
일 실시 예에 따른 인공지능을 이용한 임플란트 수술 계획 수립 방법은, 이전 픽스쳐 식립 계획을 수립한 환자들의 영상 데이터들을 대상으로 인공지능에 기반하여 학습한 학습 결과를 획득하는 단계와, 획득된 학습 결과를 이용하여 구강 환경에 맞게 실제 식립하고자 하는 픽스쳐의 위치 및 각도를 포함한 식립 정보를 결정하여 제공하는 단계를 포함한다.
식립 정보를 결정하여 제공하는 단계는, 획득된 학습 결과로부터 식립된 픽스쳐의 위치를 기반으로 치조골, 잇몸 마진, 인접치, 상악동, 신경관 및 골밀도 중 적어도 하나를 포함한 주변 구조물과의 관계정보를 파악하는 단계와, 파악된 주변 구조물과의 관계정보를 반영하여 픽스쳐의 식립 정보를 결정하여 제공하는 단계를 포함할 수 있다.
식립 정보를 결정하여 제공하는 단계는, 크라운의 중심 축을 기준으로 동일한 중심 축을 가지고 크라운의 중심에 위치하도록 픽스쳐의 초기 위치를 결정하는 단계와, 파악된 주변 구조물과의 관계정보를 반영하여 픽스쳐의 초기 위치를 수정함에 따라 픽스쳐의 최종 위치를 결정하여 제공하는 단계를 포함할 수 있다.
식립 정보를 결정하여 제공하는 단계는, 이전 데이터들에서 치아번호별 식립된 픽스쳐의 위치를 기준으로 픽스쳐의 탑(top) 방향 중심점으로부터 학습된 치조골과의 거리정보와, 픽스쳐와 치조골의 근심면(Mesial), 원심면(Distal), 설측(Lingual) 및 협측(Buccal) 방향으로의 거리정보를 포함하는 학습결과를 획득하여 픽스쳐와 치조골 간의 관계를 파악하는 단계와, 파악된 픽스쳐와 치조골 간의 관계를 기초로 하여 픽스쳐와 치조골 간의 거리를 결정하여 제공하는 단계를 포함할 수 있다.
식립 정보를 결정하여 제공하는 단계는, 이전 데이터들에서 치아번호별 식립된 픽스쳐의 위치를 기준으로 픽스쳐의 탑 방향으로 잇몸 마진과의 거리정보를 포함한 학습결과를 획득하여 픽스쳐와 잇몸 마진 간의 관계를 파악하는 단계와, 파악된 픽스쳐와 잇몸 마진 간의 관계를 기초로 하여 픽스쳐와 잇몸 마진 간의 거리를 결정하여 제공하는 단계를 포함할 수 있다.
식립 정보를 결정하여 제공하는 단계는, 이전 데이터들에서 치아번호별 식립된 픽스쳐의 위치를 기준으로 픽스쳐와 인접치 간의 각도를 포함한 학습결과를 획득하여 픽스쳐와 인접치의 관계를 파악하는 단계와, 파악된 픽스쳐와 인접치 간의 관계를 기초로 하여 근심면(Mesial) 방향의 인접치와 평행하도록 픽스쳐의 식립 각도를 결정하여 제공하는 단계를 포함할 수 있다.
식립 정보를 결정하여 제공하는 단계는, 이전 데이터들에서 치아번호별 식립된 픽스쳐의 위치를 기준으로 상악동 또는 신경관과의 충돌 여부를 확인하여 픽스쳐의 하방 정점(Apex) 방향으로 최하방점과 상악동 및 하치조 신경관과의 거리와, 치아번호 별 픽스쳐의 길이 정보를 포함한 학습결과를 획득하여 픽스쳐의 상악동 또는 신경관과의 관계를 파악하는 단계와, 상악동 충돌 시 픽스쳐의 상악동 침범영역은 학습 데이터를 통하여 침범 허용 기준을 정의하거나, 침범 허용 범위를 사용자가 설정할 수 있도록 하여 침범 허용 범위 이상의 침범이 발생하는 경우에 픽스쳐의 길이를 조정하는 단계를 포함할 수 있다.
식립 정보를 결정하여 제공하는 단계는, 식립된 픽스쳐와 맞닿거나 픽스쳐가 위치하는 부위의 학습된 골질(ossein) 정보를 포함한 학습결과를 획득하여 픽스쳐 주변의 골질 정보를 파악하는 단계와, 파악된 픽스쳐 주변의 골질 정보를 이용하여 픽스쳐의 위치를 결정하여 제고하는 단계를 포함할 수 있다.
인공지능을 이용한 임플란트 수술 계획 수립 방법은, 실제 식립하고자 하는 픽스쳐의 식립 정보를 결정하기 위해 이전 데이터들을 대상으로 인공지능을 이용하여 학습하는 단계를 더 포함할 수 있다.
학습하는 단계는, 이전 픽스쳐 식립 계획을 수립한 환자의 CT 데이터를 대상으로 식립된 픽스쳐를 기준으로 치조골, 인접치 정보, 상악동 및 신경관 정보 중 적어도 하나를 포함한 환자의 해부학적 구조물을 학습하는 단계와, 이전 픽스쳐 식립 계획을 수립한 환자의 구강 모델 데이터를 대상으로 크라운 위치가 결정된 치아번호 별 크라운에 따라 픽스쳐의 식립 위치와 각도 및 잇몸 마진 라인을 학습하는 단계를 포함할 수 잇다.
인공지능을 이용한 임플란트 수술 계획 수립 방법은, 학습 결과를 테스팅하는 단계와, 테스팅 결과가 미리 설정된 기준 이상인 경우 학습 결과를 픽스쳐 식립 계획에 반영하는 단계를 더 포함할 수 있다.
다른 실시 예에 따른 의료영상 처리장치는, 영상 데이터를 획득하는 데이터 획득부와, 이전 픽스쳐 식립 계획을 수립한 환자들의 영상 데이터들을 대상으로 인공지능에 기반하여 학습한 학습 결과를 이용하여 구강 환경에 맞게 실제 식립하고자 하는 픽스쳐의 위치 및 각도를 포함한 식립 정보를 결정하는 픽스쳐 결정부와, 영상 데이터에서 식립 정보를 함께 화면에 표시하는 출력부를 포함한다.
픽스쳐 결정부는, 획득된 학습 결과로부터 식립된 픽스쳐의 위치를 기반으로 치조골, 잇몸 마진, 인접치, 상악동, 신경관 및 골밀도 중 적어도 하나를 포함한 주변 구조물과의 관계정보를 파악하고, 파악된 주변 구조물과의 관계정보를 반영하여 픽스쳐의 식립 정보를 결정할 수 있다.
픽스쳐 결정부는, 이전 데이터들에서 치아번호별 식립된 픽스쳐의 위치를 기준으로 픽스쳐의 탑(top) 방향 중심점으로부터 학습된 치조골과의 거리정보와, 픽스쳐와 치조골의 근심면(Mesial), 원심면(Distal), 설측(Lingual) 및 협측(Buccal) 방향으로의 거리정보를 포함하는 학습결과를 획득하여 픽스쳐와 치조골 간의 관계를 파악하며, 파악된 픽스쳐와 치조골 간의 관계를 기초로 하여 픽스쳐와 치조골 간의 거리를 결정할 수 있다.
픽스쳐 결정부는, 이전 데이터들에서 치아번호별 식립된 픽스쳐의 위치를 기준으로 픽스쳐의 탑 방향으로 잇몸 마진과의 거리정보를 포함한 학습결과를 획득하여 픽스쳐와 잇몸 마진 간의 관계를 파악하며, 파악된 픽스쳐와 잇몸 마진 간의 관계를 기초로 하여 픽스쳐와 잇몸 마진 간의 거리를 결정할 수 있다.
픽스쳐 결정부는, 이전 데이터들에서 치아번호별 식립된 픽스쳐의 위치를 기준으로 픽스쳐와 인접치 간의 각도를 포함한 학습결과를 획득하여 픽스쳐와 인접치의 관계를 파악하며, 파악된 픽스쳐와 인접치 간의 관계를 기초로 하여 근심면(Mesial) 방향의 인접치와 평행하도록 픽스쳐의 식립 각도를 결정할 수 있다.
픽스쳐 결정부는, 이전 데이터들에서 치아번호별 식립된 픽스쳐의 위치를 기준으로 상악동 또는 신경관과의 충돌 여부를 확인하여 픽스쳐의 하방 정점(Apex) 방향으로 최하방점과 상악동 및 하치조 신경관과의 거리와, 치아번호 별 픽스쳐의 길이 정보를 포함한 학습결과를 획득하여 픽스쳐의 상악동 또는 신경관과의 관계를 파악하며, 상악동 충돌 시 픽스쳐의 상악동 침범영역은 학습 데이터를 통하여 침범 허용 기준을 정의하거나, 침범 허용 범위를 사용자가 설정할 수 있도록 하여 침범 허용 범위 이상의 침범이 발생하는 경우에 픽스쳐의 길이를 조정할 수 있다.
픽스쳐 결정부는, 식립된 픽스쳐와 맞닿거나 픽스쳐가 위치하는 부위의 학습된 골질(ossein) 정보를 포함한 학습결과를 획득하여 픽스쳐 주변의 골질 정보를 파악하며, 파악된 픽스쳐 주변의 골질 정보를 이용하여 픽스쳐의 위치를 결정할 수 있다.
의료영상 처리장치는, 실제 식립하고자 하는 픽스쳐의 식립 정보를 결정하기 위해 이전 픽스쳐 식립 계획을 수립한 환자의 영상 데이터들을 대상으로 인공지능을 이용하여 학습하고 학습 결과를 픽스쳐 결정부에 제공하는 학습부를 더 포함할 수 있다. 학습부는 이전 픽스쳐 식립 계획을 수립한 환자의 CT 데이터를 대상으로 식립된 픽스쳐를 기준으로 치조골, 인접치 정보, 상악동 및 신경관 정보 중 적어도 하나를 포함한 환자의 해부학적 구조물을 학습하고, 이전 픽스쳐 식립 계획을 수립한 환자의 구강 모델 데이터를 대상으로 크라운 위치가 결정된 치아번호 별 크라운에 따라 픽스쳐의 식립 위치와 각도 및 잇몸 마진 라인을 학습할 수 있다.
의료영상 처리장치는, 학습부의 학습 결과를 테스팅하되, 테스팅 결과가 미리 설정된 기준 이상인 경우 학습 결과를 픽스쳐 결정부에 제공하는 테스팅부를 더 포함할 수 있다.
일 실시 예에 따른 인공지능을 이용한 임플란트 수술 계획 수립 방법 및 이를 위한 의료영상 처리장치에 따르면, 영상 데이터에서 픽스쳐 식립 위치를 결정할 때 사용자에 의한 수동 조작을 최소화함으로써 사용자의 편의성을 증대시킬 수 있다.
도 1은 본 발명의 일 실시 예에 따른 의료영상 처리장치의 구성을 도시한 도면,
도 2는 본 발명의 일 실시 예에 따른 도 1의 제어부의 세부 구성을 도시한 도면,
도 3은 본 발명의 일 실시 예에 따른 픽스쳐 식립을 위해 사용되는 영상 데이터를 도시한 도면,
도 4는 본 발명의 일 실시 예에 따른 크라운과 픽스쳐 간의 위치를 학습한 결과를 이용하여 실제 픽스쳐의 위치를 결정하는 영상 화면을 도시한 도면,
도 5는 본 발명의 일 실시 예에 따른 픽스쳐와 치조골 간의 거리를 학습한 결과를 이용하여 실제 픽스쳐의 위치를 결정하는 영상 화면을 도시한 도면,
도 6은 본 발명의 일 실시 예에 따른 픽스쳐와 잇몸 마진의 거리를 학습한 결과를 이용하여 실제 식립하는 픽스쳐의 위치를 결정하는 영상 화면을 도시한 도면,
도 7은 본 발명의 일 실시 예에 따른 픽스쳐와 인접 치의 각도를 학습한 데이터를 이용하여 실제 식립하는 픽스쳐의 각도를 결정하는 영상 화면을 도시한 도면,
도 8은 본 발명의 일 실시 예에 따른 픽스쳐와 상악동 및 하치조 신경관 간의 관계를 학습한 결과를 이용하여 픽스쳐의 위치를 결정하는 영상 화면을 도시한 도면,
도 9는 본 발명의 일 실시 예에 따른 픽스쳐와 맞닿은 치조골의 골밀도를 학습한 결과를 이용하여 픽스쳐 식립 정보를 결정하는 영상 화면을 도시한 도면,
도 10은 본 발명의 일 실시 예에 따른 인공지능을 이용한 임플란트 수술 계획 수립 방법을 도시한 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이며, 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램인스트럭션들(실행 엔진)에 의해 수행될 수도 있으며, 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다.
이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치를 지향할 수 있는 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.
그리고 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명되는 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록 또는 각 단계는 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있으며, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하며, 또한 그 블록들 또는 단계들이 필요에 따라 해당하는 기능의 역순으로 수행되는 것도 가능하다.
이하, 첨부 도면을 참조하여 본 발명의 실시 예를 상세하게 설명한다. 그러나 다음에 예시하는 본 발명의 실시 예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 다음에 상술하는 실시 예에 한정되는 것은 아니다. 본 발명의 실시 예는 이 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공된다.
도 1은 본 발명의 일 실시 예에 따른 의료영상 처리장치의 구성을 도시한 도면이다.
의료영상 처리장치(1)는 치과 임플란트 수술용 가이드 디자인 프로그램과 같은 의료영상 처리 프로그램을 실행 가능한 전자장치이다. 전자장치는 컴퓨터, 노트북 컴퓨터, 랩탑 컴퓨터, 태블릿(Tablet) PC, 스마트폰, 휴대폰, PMP(Personal Media Player), PDA(Personal Digital Assistants) 등이 있다. 의료영상 처리 프로그램은 가이드 디자인 프로그램 이외에, 스캔 프로그램, CAD 프로그램 등이 있다. 또한, 치과 임플란트 수술용 이외에 다른 일반적인 의료 영상 처리를 위한 프로그램에 적용될 수 있다.
가이드 디자인 프로그램을 포함한 의료영상 처리 프로그램을 이용한 영상처리 과정은 수술 환자 등록, 등록된 환자의 CT 데이터 및 구강 모델 데이터 획득, CT 데이터 및 구강 모델 데이터의 정합, 정합된 영상 데이터에서 악궁 라인 생성 및 악궁 라인을 이용한 파노라믹 영상(panoramic image) 생성, 환자의 구강 모델 데이터에서 크라운 모델 위치 및 크기 결정, 환자의 CT 데이터에서 픽스쳐를 포함한 임플란트 구조물 위치 결정, 가이드 형상 디자인, 최종 가이드 출력을 포함한 과정으로 구성된다.
본 발명은 위 과정 중에서 치아 영역에 식립하고자 하는 픽스쳐(fixture)의 식립 정보를 자동으로 사용자에 제공하도록 구성된다. 식립 정보는 픽스쳐의 위치, 각도, 깊이, 길이, 직경, 특징 등을 포함한다. 특히, 본 발명은 인공지능(artificial intelligence: AI)을 활용하여 픽스쳐의 식립 정보를 사용자에 제공한다. 인공지능이란 인간의 지능으로 할 수 있는 사고, 학습, 자기 개발 등을 컴퓨터가 할 수 있도록 하는 방법을 연구하는 컴퓨터 공학 및 정보기술의 한 분야로서, 컴퓨터가 인간의 지능적인 행동을 모방할 수 있도록 하는 것을 말한다. 이러한 인공지능 기법을 가이드 디자인 소프트웨어에 적용하여 컴퓨터가 사전에 수술 계획된 픽스쳐의 식립 정보를 소프트웨어에서 학습하도록 하고, 이를 수술 계획 케이스 별로 적용하면 사용자가 픽스쳐의 식립 위치 및 각도 등을 조정하는 조작을 최소화할 수 있다.
이하, 도 1의 구성을 참조로 하여 전술한 특징을 가지는 의료영상 처리장치의 구성에 대해 후술한다.
도 1을 참조하면, 일 실시 예에 따른 의료영상 처리장치(1)는 데이터 획득부(10), 저장부(12), 제어부(14), 입력부(16) 및 출력부(18)를 포함한다.
데이터 획득부(10)는 환자로부터 영상 데이터를 획득한다. 픽스쳐 식립을 위해 필요한 영상 데이터는 CT 데이터, 구강 모델 데이터 등이 있다. 데이터 획득부(10)는 CT 데이터와 구강 모델 데이터를 프로그램에서 실행하거나 웹 페이지 및 서버에 저장된 데이터를 로딩할 수 있다.
구강 모델 데이터는 손상된 치아를 포함한 실제 치아들의 정보를 가진 데이터이다. 구강 모델 데이터는 환자의 구강을 본떠 생성한 석고 모형을 3D 스캐너(3D Scanner)로 스캐닝하여 획득될 수 있다. 다른 예로서, 구강 내 3D 스캐너(3D Intra-oral scanner)를 이용하여 환자의 구강 내부를 스캐닝하여 획득될 수 있다. 획득된 구강 모델 데이터는 저장부(12)에 저장될 수 있다.
CT 데이터는 CT(computed tomography, 컴퓨터 단층 촬영)를 사용하여 환자의 두부 단층 이미지들을 생성하고, 각각의 단층 이미지에서 치아 부분의 경계를 구분(Segmentation)한 후 하나로 취합함에 따라 획득될 수 있다. 이러한 구강 모델 데이터와 CT 데이터는 환자가 입을 벌린 상태에서 상악 치아 아래에서 상악 치아를 촬영하여 얻은 영상, 입을 벌린 상태에서 하악 치아 위에서 하악 치아를 촬영하여 얻은 영상, 입을 다문 상태에서 국소부위를 촬영하여 얻은 영상, 구강 방사선 사진 등을 포함한다. 획득된 CT 데이터는 저장부(12)에 저장될 수 있다.
저장부(12)에는 치과용 임플란트 수술 계획 장치(3)의 동작 수행을 위해 필요한 정보와 동작 수행에 따라 생성되는 정보 등의 각종 데이터가 저장된다. 일 실시 예에 따른 저장부(12)에는 개별 환자의 구강 모델 데이터와 CT 데이터가 저장되고, 치과 치료 시뮬레이션 시 전체 구강 모델 데이터들 및 CT 데이터들 중에서 특정 환자의 구강 모델 데이터 및 CT 데이터를 사용자 요청에 따라 제어부(14)에 제공할 수 있다. 이때, 저장부(12)에는 개별 환자의 상측 치열의 영상 및 하측 치열의 영상이 저장되어 있고, 특정 환자의 구강 모델 데이터 및 CT 데이터에 매칭되는 상측 치열의 영상 및 하측 치열의 영상을 사용자 요청에 따라 제어부(14)에 제공할 수 있다.
제어부(14)는 컴퓨터 프로그램에 의한 제어를 통하여 임플란트 식립 계획을 수립하면서 각 구성요소를 제어한다. 제어부(14)는 출력부(18)를 통해 화면에 보이는 화면정보를 관리하고, 치과 영상에 가상의 픽스쳐 객체를 식립하는 시뮬레이션을 수행한다. 가상의 픽스쳐 객체가 식립되는 치과 영상은 임플란트 수술 계획 수립을 위해 생성된 환자의 치아 배열이 나타난 2차원, 3차원 등의 다차원 영상을 의미한다. 임플란트 수술 계획에는 X-ray, CT, MRI, 파노라믹 영상, 구강 스캔 영상, 재구성을 통해 생성된 영상, 복수의 영상을 정합한 영상 등 다양한 종류의 영상이 활용될 수 있다.
일 실시 예에 따른 제어부(14)는 데이터 획득부(10)를 통해 획득된 영상 데이터를 대상으로 픽스쳐 객체의 식립 위치 및 각도를 포함한 식립 정보를 결정하여 제공한다. 이때, 이전 픽스쳐 식립 계획을 수립한 환자의 영상 데이터들을 대상으로 인공지능을 이용하여 학습한 학습 결과를 반영하여 구강 환경에 맞게 실제 식립하고자 하는 픽스쳐의 식립 정보를 결정하여 제공한다. 제어부(14)의 세부 구성은 도 2를 참조로 하여 후술한다.
입력부(16)는 사용자 조작신호를 입력받는다. 예를 들어, 제어부(14)에 의해 식립 정보가 결정되어 출력부(18)를 통해 화면에 표시되는 픽스쳐를 포함한 영상 데이터에 대하여 필요할 경우 미세조정을 위한 사용자 조작을 입력받아 픽스쳐 위치 및 각도 등을 조정할 수 있다.
출력부(18)는 화면을 표시한다. 이때, 출력부(18)는 영상 데이터(CT 데이터, 구강 모델 데이터)를 화면에 표시한다. CT 영상은 축 뷰(Axial View), 시상면 뷰(Sagittal View), 관상면 뷰(Coronal View)로 표현될 수 있다. 또한, 출력부(18)는 픽스쳐 식립 결과를 화면 내 영상에 표시한다.
도 2는 본 발명의 일 실시 예에 따른 도 1의 제어부의 세부 구성을 도시한 도면이다.
도 1 및 도 2를 참조하면, 제어부(14)는 픽스쳐 결정부(144)를 포함하며, 학습부(140) 및 테스팅부(142)를 더 포함할 수 있다.
픽스쳐 결정부(144)는 이전 픽스쳐 식립 계획을 수립한 환자들의 영상 데이터들을 대상으로 인공지능에 기반하여 학습한 학습 결과를 이용하여 구강 환경에 맞게 실제 식립하고자 하는 픽스쳐의 식립 정보를 결정한다. 식립 정보는 픽스쳐의 위치, 각도, 깊이, 길이, 직경, 특징 등을 포함한다.
일 실시 예에 따른 픽스쳐 결정부(144)는 획득된 학습 결과로부터 식립된 픽스쳐의 위치를 기반으로 치조골, 잇몸 마진, 인접치, 상악동, 신경관 및 골밀도 중 적어도 하나를 포함한 주변 구조물과의 관계정보를 파악한다. 그리고 파악된 주변 구조물과의 관계정보를 반영하여 픽스쳐의 식립 정보를 결정한다.
픽스쳐와 치조골 간의 거리에 대한 학습 결과를 이용한 실제 픽스쳐의 위치 결정 예를 들면, 픽스쳐 결정부(144)는 이전 데이터들에서 치아번호별 식립된 픽스쳐의 위치를 기준으로 픽스쳐의 탑(top) 방향 중심점으로부터 학습된 치조골과의 거리정보와, 픽스쳐와 치조골의 근심면(Mesial), 원심면(Distal), 설측(Lingual) 및 협측(Buccal) 방향으로의 거리정보를 포함하는 학습결과를 획득하여 픽스쳐와 치조골 간의 관계를 파악한다. 그리고 파악된 픽스쳐와 치조골 간의 관계를 기초로 하여 픽스쳐와 치조골 간의 거리를 결정한다. 이에 대한 실시 예는 도 5를 참조로 하여 후술한다.
픽스쳐와 잇몸 마진 간의 거리에 대한 학습 결과를 이용한 실제 픽스쳐의 위치 결정 예를 들면, 픽스쳐 결정부(144)는 이전 데이터들에서 치아번호별 식립된 픽스쳐의 위치를 기준으로 픽스쳐의 탑 방향으로 잇몸 마진과의 거리정보를 포함한 학습결과를 획득하여 픽스쳐와 잇몸 마진 간의 관계를 파악한다. 그리고 파악된 픽스쳐와 잇몸 마진 간의 관계를 기초로 하여 픽스쳐와 잇몸 마진 간의 거리를 결정한다. 이에 대한 실시 예는 도 6을 참조로 하여 후술한다.
픽스쳐와 인접치의 각도에 대한 학습 결과를 이용한 실제 픽스쳐의 각도 결정 예를 들면, 픽스쳐 결정부(144)는 이전 데이터들에서 치아번호별 식립된 픽스쳐의 위치를 기준으로 픽스쳐와 인접치 간의 각도를 포함한 학습결과를 획득하여 픽스쳐와 인접치의 관계를 파악한다. 그리고 파악된 픽스쳐와 인접치 간의 관계를 기초로 하여 근심면(Mesial) 방향의 인접치와 평행하도록 픽스쳐의 식립 각도를 결정한다. 이에 대한 실시 예는 도 7을 참조로 하여 후술한다.
상악동 또는 신경관에 대한 학습 결과를 이용한 실제 픽스쳐의 위치 결정 예를 들면, 픽스쳐 결정부(144)는 이전 데이터들에서 치아번호별 식립된 픽스쳐의 위치를 기준으로 상악동 또는 신경관과의 충돌 여부를 확인하여 픽스쳐의 하방 정점(Apex) 방향으로 최하방점과 상악동 및 하치조 신경관과의 거리와, 치아번호 별 픽스쳐의 길이 정보를 포함한 학습결과를 획득하여 픽스쳐의 상악동 또는 신경관과의 관계를 파악한다. 픽스쳐 결정부(144)는 상악동 충돌 시 픽스쳐의 상악동 침범영역은 학습 데이터를 통하여 침범 허용 기준을 정의하거나, 침범 허용 범위를 사용자가 설정할 수 있도록 하여 침범 허용 범위 이상의 침범이 발생하는 경우에 픽스쳐의 길이를 조정할 수 있다. 이에 대한 실시 예는 도 8을 참조로 하여 후술한다.
픽스쳐와 맞닿는 치조골의 골밀도에 대한 학습 결과를 이용한 실제 픽스쳐의 위치 결정 예를 들면, 픽스쳐 결정부(144)는 식립된 픽스쳐와 맞닿거나 픽스쳐가 위치하는 부위의 학습된 골질(ossein) 정보를 포함한 학습결과를 획득하여 픽스쳐 주변의 골질 정보를 파악한다. 그리고 파악된 픽스쳐 주변의 골질 정보를 이용하여 픽스쳐의 위치를 결정한다. 이에 대한 실시 예는 도 9를 참조로 하여 후술한다.
학습부(140)는 실제 식립하고자 하는 픽스쳐의 식립 정보를 결정하기 위해 이전 픽스쳐 식립 계획을 수립한 환자의 영상 데이터들을 대상으로 인공지능을 이용하여 학습하고 학습 결과를 픽스쳐 결정부(144)에 제공한다. 학습부(140)는 이전 픽스쳐 식립 계획을 수립한 환자의 CT 데이터를 대상으로 식립된 픽스쳐를 기준으로 치조골, 인접치 정보, 상악의 상악동, 하악의 신경관 정보를 포함한 환자의 해부학적 구조물을 학습할 수 있다. 또한, 이전 픽스쳐 식립 계획을 수립한 환자의 구강 모델 데이터를 대상으로 크라운 위치가 결정된 치아번호 별 크라운에 따라 픽스쳐의 식립 위치와 각도 및 잇몸 마진 라인을 학습할 수 있다.
테스팅부(142)는 학습부(140)의 학습 결과를 테스팅한다. 이때, 테스팅 결과가 미리 설정된 기준 이상, 예를 들어 95% 이상의 정확도를 가진 경우 학습 결과를 픽스쳐 결정부(144)에 제공한다.
도 3은 본 발명의 일 실시 예에 따른 픽스쳐 식립을 위해 사용되는 영상 데이터를 도시한 도면이다. 세부적으로, 도 3의 (a)는 CT 데이터(300)를, (b)는 구강 모델 데이터(310)를 각각 도시한 것이다.
인공지능을 이용하여 픽스쳐의 위치를 사용자에게 제공하는 방식은 반복적인 학습에 의한 결과물 도출을 활용하는 것을 기본으로 한다. 이를 위해 CT 데이터(300) 또는 구강 모델 데이터(310) 상에 픽스쳐 식립 계획이 수립된 데이터를 축적하고 기계학습 알고리즘을 통해 반복적인 트레이닝과 테스트 과정을 거친다. 이때, 테스트 결과가 미리 설정된 기준, 예를 들어, 95% 이상의 정확도를 가지면 이를 적용하여 실제 임플란트 식립 계획에서 픽스쳐의 위치 및 각도를 포함한 식립 정보를 제공한다.
트레이닝 과정에서의 학습 데이터는 영상 처리장치를 이용하여 영상 데이터에 픽스쳐를 식립하였던 식립 정보를 활용한다. 이때, 영상 데이터는 도 3에 도시된 바와 같이 CT 데이터(300)와 구강 모델 데이터(310)를 포함한다. 구강 모델 데이터(310)는 환자의 구강 석고 모델을 스캔하거나 환자의 구강을 직접 스캔하여 획득한 것이다. 트레이닝 과정에서 영상 처리장치가 학습하는 정보는 환자의 CT 데이터(300)에서 확인할 수 있는 환자의 해부학적 구조물로, 치조골, 인접치 정보와 더불어 상악의 경우는 상악동, 하악의 경우는 하치조 신경관 정보를 포함한다. 구강 모델 데이터(310)에서는 환자의 잇몸 정보를 포함한다. 또한, 환자의 구강 모델 데이터(310)에 크라운 위치가 결정된 치아번호 별 크라운에 따라 픽스쳐의 식립 위치와 각도도 학습하도록 한다.
도 4는 본 발명의 일 실시 예에 따른 크라운과 픽스쳐 간의 위치를 학습한 결과를 이용하여 실제 픽스쳐의 위치를 결정하는 영상 화면을 도시한 도면이다. 세부적으로, 도 4의 (a)는 Axial 방향의 영상을 도시한 것이고, (b)는 Cross/Parallel 방향 영상을 도시한 것이다.
먼저, 구강 모델 데이터(310)에 배치된 크라운(400)의 위치를 이용하여 픽스쳐(410)의 위치가 결정된다. 도 4에 도시된 바와 같이 픽스쳐(410)의 초기 위치는 크라운(400)의 축을 기준으로 결정되며, 트레이닝 과정에서 치아번호 별 크라운(400) 및 픽스쳐(410)의 중심 축 간 각도 및 크라운(400)의 위치에 따른 픽스쳐의 위치 관계를 학습한다. 픽스쳐(410)의 초기 위치는 크라운(400)의 중심 축과 동일한 중심 축을 가지고 크라운(400)의 중심에 위치하도록 결정되지만, 치조골을 포함한 그 외의 해부학적 구조물을 고려하여 픽스쳐(410)의 최종 위치를 결정하는 경우에는 크라운(400)의 중심 축과 픽스쳐(410)의 중심 축이 다를 수 있다. 이러한 경우를 포함한 치아번호 별 픽스쳐(410)의 위치정보를 의료영상 처리장치에서 학습하도록 한다.
도 5는 본 발명의 일 실시 예에 따른 픽스쳐와 치조골 간의 거리를 학습한 결과를 이용하여 실제 픽스쳐의 위치를 결정하는 영상 화면을 도시한 도면이다. 세부적으로 도 5의 (a)는 픽스쳐(410)의 탑(Top) 방향에서 치조골(500)과의 거리를 도시한 것이고, 도 5의 (b)는 픽스쳐(410)의 근심면(Mesial), 원심면(Distal), 설측(Lingual), 협측(Buccal) 방향에서 치조골(500)과의 거리를 도시한 것이다.
치조골을 고려한 픽스쳐 위치와 관련된 정보의 학습은 치아번호별 식립된 픽스쳐의 위치를 기준으로 픽스쳐의 탑 방향 중심점으로부터 치조골과의 거리, 픽스쳐와 치조골의 근심면(Mesial), 원심면(Distal), 설측(Lingual), 협측(Buccal) 방향으로의 거리를 학습하고 학습 결과로부터 픽스쳐와 치조골의 거리를 고려한 픽스쳐 식립 정보를 얻을 수 있다. 예를 들어, 도 5에 도시된 바와 같이 학습 결과로부터 CT 영상(300)에서 픽스쳐(410)의 탑 방향으로 치조골(500)과 픽스쳐(410)와의 거리는 최소 l mm(예를 들어, l = 1)로 하며, 픽스쳐(410)와 근심면(Mesial), 원심면(Distal), 설측(Lingual), 협측(Buccal) 방향으로 치조골(500)과의 거리는 최소 m mm(예를 들어, m = 1.5)로 해야 함을 인식하고 이에 맞게 픽스쳐(410)의 위치를 조정한다.
도 6은 본 발명의 일 실시 예에 따른 픽스쳐와 잇몸 마진의 거리를 학습한 결과를 이용하여 실제 식립하는 픽스쳐의 위치를 결정하는 영상 화면을 도시한 도면이다.
이전 픽스쳐 식립 계획을 수립한 환자들의 영상 데이터(예를 들어, 구강 모델 데이터)를 이용하여 잇몸 마진(600)과 픽스쳐(410) 간의 거리를 학습하고 학습 결과를 이용하여 식립하고자 하는 픽스쳐(410)의 잇몸 마진(600)과의 거리를 결정한다. 이때, 픽스쳐(410)를 기준으로 픽스쳐(410)의 탑(top) 방향으로 잇몸 마진(600)과의 거리를 학습한다. 도 6에 도시된 바와 같이 학습 데이터로부터 잇몸 마진(600)과 픽스쳐(410)과의 거리가 최소 n mm(예를 들어, n = 3) 임을 확인할 수 있다.
도 7은 본 발명의 일 실시 예에 따른 픽스쳐와 인접 치의 각도를 학습한 데이터를 이용하여 실제 식립하는 픽스쳐의 각도를 결정하는 영상 화면을 도시한 도면이다. 세부적으로, 도 7의 (a)는 근심면(Mesial) 방향의 인접치(700)와 식립되는 치아번호의 픽스쳐(410) 간의 각도를 도시한 것이고, (b)는 인접치(700)를 고려한 픽스쳐 식립 각도를 도시한 것이다.
이전 픽스쳐 식립 계획을 수립한 환자의 영상 데이터(예를 들어, CT 데이터)를 이용하여 환자의 픽스쳐(410)와 인접치(700)와의 각도를 학습하고 학습 결과를 이용하여 식립하고자 하는 픽스쳐(410)의 각도를 결정한다. 이때, 근심면(Mesial) 방향의 인접치(700)와 식립되는 치아번호의 픽스쳐(410) 간의 각도를 학습한다. 도 7에 도시된 바와 같이 CT 데이터(300)에서 학습결과를 반영하여 근심면(Mesial) 방향의 인접치 또는 식립된 또는 식립할 픽스쳐와 평행하도록 픽스쳐 식립 각도를 결정한다.
도 8은 본 발명의 일 실시 예에 따른 픽스쳐와 상악동 및 하치조 신경관 간의 관계를 학습한 결과를 이용하여 픽스쳐의 위치를 결정하는 영상 화면을 도시한 도면이다. 세부적으로 도 8의 (a)는 상악동(800)을 고려한 픽스쳐(410) 식립 영상을, (b)는 하치조 신경관(810)을 고려한 픽스쳐(410) 식립 영상을 도시한 것이다.
환자의 수술 부위가 상악인 경우에는 상악동(800)을, 하악인 경우에는 하치조 신경관(810)과 픽스쳐(410)의 충돌을 추가적으로 고려해야 한다. 도 8에 도시된 바와 같이 픽스쳐(410)의 하방 정점(Apex) 방향으로 상악동(800) 및 하치조 신경관(810)의 충돌 여부를 확인하며 픽스쳐(410)의 하방 정점(Apex) 방향으로 최하방점과 상악동(800) 및 하치조 신경관(810)의 거리와, 치아번호 별 픽스쳐(410)의 길이(Length) 정보를 학습한다.
의료영상 처리장치는, 상악동(800) 충돌 시 픽스쳐(410)의 상악동 침범영역은 학습 데이터를 통하여 침범 허용 기준을 정의하거나, 침범 허용 범위를 사용자가 설정할 수 있도록 하여 침범 허용 범위 이상의 침범이 발생하는 경우에 픽스쳐(410)의 길이를 조정할 수 있다. 예를 들어, 도 8에 도시된 바와 같이 픽스쳐(410)의 하방 정점(Apex) 방향으로 상악동(800) 및 하치조 신경관(810)의 충돌 여부를 확인하며 픽스쳐(410)의 하방 정점(Apex) 방향으로 최하방점과 상악동(800) 및 하치조 신경관(810)의 거리와, 치아번호 별 픽스쳐(410)의 길이(Length) 정보를 학습하여 침범 허용 기준을 정의할 수 있다.
도 9는 본 발명의 일 실시 예에 따른 픽스쳐와 맞닿은 치조골의 골밀도를 학습한 결과를 이용하여 픽스쳐 식립 정보를 결정하는 영상 화면을 도시한 도면이다.
도 9를 참조하면, 의료영상 처리장치는 치조골의 골밀도 정보를 추가적으로 학습할 수 있다. 골밀도는 골질(ossein)에 따라 일반적으로 D1~D5로 분류하여 Hard, Normal, Soft Bone으로 분류하지만, 소프트웨어 및 제조사의 정책에 따라 A1~D4로 분류하는 경우도 있다. 골밀도는 도 9에 도시된 바와 같이 식립된 픽스쳐(410)와 맞닿거나 픽스쳐가 위치하는 부위의 골질 정보를 학습한다. 테스팅 시, 학습 데이터에서 골질에 따라 픽스쳐(410)의 위치를 보정하거나 위치가 많이 벗어나는 경우에는 골질에 대한 정보를 경고문구로 표시하여 사용자가 확인할 수 있도록 이용한다.
이렇게 이전에 픽스쳐 식립 계획을 수립한 영상 데이터를 대상으로 픽스쳐의 위치와 주변 구조물과의 관계를 인공지능을 이용하여 학습 및 테스팅한다. 학습 및 테스팅을 기반으로 도출한 학습 결과를 반영하여 실제 식립할 픽스쳐의 식립 정보를 결정하고 이를 사용자에게 제안한다. 이때, 테스팅은 환자의 CT 데이터와 구강 모델 데이터가 정합된 상태의 영상 데이터로 진행하며, 테스팅 결과의 정확도가 미리 설정된 기준, 예를 들어 95% 이상인 경우 이를 적용하여 실제 임플란트 식립 계획에서 픽스쳐의 위치를 영상 처리장치에서 제안한다. 나아가, 결과에 따라 수정이 필요한 경우 사용자가 미세조정하여 최종 픽스쳐의 식립 위치를 결정할 수도 있다.
도 10은 본 발명의 일 실시 예에 따른 인공지능을 이용한 임플란트 수술 계획 수립 방법을 도시한 도면이다.
도 1 및 도 10을 참조하면, 의료영상 처리장치(1)는 이전 픽스쳐 식립 계획을 수립한 환자들의 영상 데이터들을 대상으로 인공지능에 기반하여 학습한 학습 결과를 획득한다(S1000).
이어서, 의료영상 처리장치(1)는 획득된 학습 결과를 이용하여 구강 환경에 맞게 실제 식립하고자 하는 픽스쳐의 위치 및 각도를 포함한 식립 정보를 결정하여 제공한다(S1100).
식립 정보를 결정하여 제공하는 단계(S1100)에서, 의료영상 처리장치(1)는 획득된 학습 결과로부터 식립된 픽스쳐의 위치를 기반으로 주변 구조물과의 관계정보를 파악하고, 파악된 주변 구조물과의 관계정보를 반영하여 픽스쳐의 식립 정보를 결정할 수 있다. 주변 구조물은 치조골, 잇몸 마진, 인접치, 상악동, 신경관 및 골밀도 등일 수 있다.
식립 정보를 결정하여 제공하는 단계(S1100)에서, 의료영상 처리장치(1)는 크라운의 중심 축을 기준으로 동일한 중심 축을 가지고 크라운의 중심에 위치하도록 픽스쳐의 초기 위치를 결정한 후, 파악된 주변 구조물과의 관계정보를 반영하여 픽스쳐의 초기 위치를 수정함에 따라 픽스쳐의 최종 위치를 결정할 수 있다.
식립 정보를 결정하여 제공하는 단계(S1100)에서, 의료영상 처리장치(1)는 치조골에 대한 학습을 활용하여 픽스쳐와 치조골의 거리를 결정할 수 있다. 예를 들어, 의료영상 처리장치(1)는 이전 데이터들에서 치아번호별 식립된 픽스쳐의 위치를 기준으로 픽스쳐의 탑(top) 방향 중심점으로부터 학습된 치조골과의 거리정보와, 픽스쳐와 치조골의 근심면(Mesial), 원심면(Distal), 설측(Lingual) 및 협측(Buccal) 방향으로 거리정보를 포함하는 학습결과를 획득하여 픽스쳐와 치조골 간의 관계를 파악한다. 그리고 파악된 픽스쳐와 치조골 간의 관계를 기초로 하여 픽스쳐와 치조골 간의 거리를 결정한다.
식립 정보를 결정하여 제공하는 단계(S1100)에서, 의료영상 처리장치(1)는 잇몸 마진에 대한 학습을 활용하여 픽스쳐와 잇몸 마진의 거리를 결정할 수 있다. 예를 들어, 의료영상 처리장치(1)는 이전 데이터들에서 치아번호별 식립된 픽스쳐의 위치를 기준으로 픽스쳐의 탑 방향으로 잇몸 마진과의 거리정보를 포함한 학습결과를 획득하여 픽스쳐와 잇몸 마진 간의 관계를 파악한다. 그리고 파악된 픽스쳐와 잇몸 마진 간의 관계를 기초로 하여 픽스쳐와 잇몸 마진 간의 거리를 결정한다.
식립 정보를 결정하여 제공하는 단계(S1100)에서, 의료영상 처리장치(1)는 인접치에 대한 학습을 활용하여 픽스쳐와 인접치의 각도를 결정할 수 있다. 예를 들어, 의료영상 처리장치(1)는 이전 데이터들에서 치아번호별 식립된 픽스쳐의 위치를 기준으로 픽스쳐와 인접치 간의 각도를 포함한 학습결과를 획득하여 픽스쳐와 인접치의 관계를 파악한다. 그리고 파악된 픽스쳐와 인접치 간의 관계를 기초로 하여 근심면(Mesial) 방향의 인접치와 평행하도록 픽스쳐의 식립 각도를 결정한다.
식립 정보를 결정하여 제공하는 단계(S1100)에서, 의료영상 처리장치(1)는 상악동 또는 신경관에 대한 학습결과를 활용하여 픽스쳐의 위치를 결정할 수 있다. 예를 들어, 이전 데이터들에서 치아번호별 식립된 픽스쳐의 위치를 기준으로 상악동 또는 신경관과의 충돌 여부를 확인하여 상악동 충돌 시 픽스쳐의 상악동 침범영역은 학습 데이터를 통하여 침범 허용 기준을 정의하거나, 침범 허용 범위를 사용자가 설정할 수 있도록 하여 침범 허용 범위 이상의 침범이 발생하는 경우에 픽스쳐의 길이를 조정할 수 있다.
식립 정보를 결정하여 제공하는 단계(S1100)에서, 의료영상 처리장치(1)는 픽스쳐와 맞닿는 치조골의 골질 정보에 대한 학습을 활용하여 픽스쳐의 위치를 결정할 수 있다. 예를 들어, 식립된 픽스쳐와 맞닿거나 픽스쳐가 위치하는 부위의 학습된 골질 정보를 포함한 학습결과를 획득하여 픽스쳐 주변의 골질 정보를 파악한다. 그리고 파악된 픽스쳐 주변의 골질 정보를 이용하여 픽스쳐의 위치를 결정할 수 있다.
일 실시 예에 따른 인공지능을 이용한 임플란트 수술 계획 수립 방법은, 실제 식립하고자 하는 픽스쳐의 식립 정보를 결정하기 위해 이전 픽스쳐 식립 계획을 수립한 환자의 영상 데이터들을 대상으로 인공지능을 이용하여 학습하는 단계(S1300)를 더 포함한다. 학습하는 단계(S1300)에서, 의료영상 처리장치(1)는 이전 CT 데이터에서 식립된 픽스쳐를 기준으로 치조골, 인접치 정보, 상악동, 신경관 정보를 포함한 환자의 해부학적 구조물을 학습하고, 이전 구강 모델 데이터를 대상으로 크라운 위치가 결정된 치아번호 별 크라운에 따라 픽스쳐의 식립 위치와 각도 및 잇몸 마진 라인을 학습할 수 있다.
이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.

Claims (15)

  1. 이전 픽스쳐 식립 계획을 수립한 환자들의 영상 데이터들을 대상으로 인공지능에 기반하여 학습한 학습 결과를 획득하는 단계; 및
    획득된 학습 결과를 이용하여 구강 환경에 맞게 실제 식립하고자 하는 픽스쳐의 위치 및 각도를 포함한 식립 정보를 결정하여 제공하는 단계;
    를 포함하는 것을 특징으로 하는 임플란트 수술 계획 수립 방법.
  2. 제 1 항에 있어서, 식립 정보를 결정하여 제공하는 단계는
    획득된 학습 결과로부터 식립된 픽스쳐의 위치를 기반으로 치조골, 잇몸 마진, 인접치, 상악동, 신경관 및 골밀도 중 적어도 하나를 포함한 주변 구조물과의 관계정보를 파악하는 단계: 및
    파악된 주변 구조물과의 관계정보를 반영하여 픽스쳐의 식립 정보를 결정하여 제공하는 단계;
    를 포함하는 것을 특징으로 하는 임플란트 수술 계획 수립 방법.
  3. 제 1 항에 있어서, 식립 정보를 결정하여 제공하는 단계는
    크라운의 중심 축을 기준으로 동일한 중심 축을 가지고 크라운의 중심에 위치하도록 픽스쳐의 초기 위치를 결정하여 제공하는 단계; 및
    파악된 주변 구조물과의 관계정보를 반영하여 픽스쳐의 초기 위치를 수정함에 따라 픽스쳐의 최종 위치를 결정하여 제공하는 단계;
    를 포함하는 것을 특징으로 하는 임플란트 수술 계획 수립 방법.
  4. 제 1 항에 있어서, 식립 정보를 결정하여 제공하는 단계는
    이전 데이터들에서 치아번호별 식립된 픽스쳐의 위치를 기준으로 픽스쳐의 탑(top) 방향 중심점으로부터 학습된 치조골과의 거리정보와, 픽스쳐와 치조골의 근심면(Mesial), 원심면(Distal), 설측(Lingual) 및 협측(Buccal) 방향으로의 거리정보를 포함하는 학습결과를 획득하여 픽스쳐와 치조골 간의 관계를 파악하는 단계; 및
    파악된 픽스쳐와 치조골 간의 관계를 기초로 하여 픽스쳐와 치조골 간의 거리를 결정하여 제공하는 단계;
    를 포함하는 것을 특징으로 하는 임플란트 수술 계획 수립 방법.
  5. 제 1 항에 있어서, 식립 정보를 결정하여 제공하는 단계는
    이전 데이터들에서 치아번호별 식립된 픽스쳐의 위치를 기준으로 픽스쳐의 탑 방향으로 잇몸 마진과의 거리정보를 포함한 학습결과를 획득하여 픽스쳐와 잇몸 마진 간의 관계를 파악하는 단계; 및
    파악된 픽스쳐와 잇몸 마진 간의 관계를 기초로 하여 픽스쳐와 잇몸 마진 간의 거리를 결정하여 제공하는 단계;
    를 포함하는 것을 특징으로 하는 임플란트 수술 계획 수립 방법.
  6. 제 1 항에 있어서, 식립 정보를 결정하여 제공하는 단계는
    이전 데이터들에서 치아번호별 식립된 픽스쳐의 위치를 기준으로 픽스쳐와 인접치 간의 각도를 포함한 학습결과를 획득하여 픽스쳐와 인접치의 관계를 파악하는 단계; 및
    파악된 픽스쳐와 인접치 간의 관계를 기초로 하여 근심면(Mesial) 방향의 인접치와 평행하도록 픽스쳐의 식립 각도를 결정하여 제공하는 단계;
    를 포함하는 것을 특징으로 하는 임플란트 수술 계획 수립 방법.
  7. 제 1 항에 있어서, 식립 정보를 결정하여 제공하는 단계는
    이전 데이터들에서 치아번호별 식립된 픽스쳐의 위치를 기준으로 상악동 또는 신경관과의 충돌 여부를 확인하여 픽스쳐의 하방 정점(Apex) 방향으로 최하방점과 상악동 및 하치조 신경관과의 거리와, 치아번호 별 픽스쳐의 길이 정보를 포함한 학습결과를 획득하여 픽스쳐의 상악동 또는 신경관과의 관계를 파악하는 단계;
    미리 설정된 픽스쳐 스펙을 기초로 하여 실제 픽스쳐의 길이 및 직경을 결정하여 제공하는 단계; 및
    상악동 충돌 시 픽스쳐의 상악동 침범영역은 학습 데이터를 통하여 침범 허용 기준을 정의하거나, 침범 허용 범위를 사용자가 설정할 수 있도록 하여 침범 허용 범위 이상의 침범이 발생하는 경우에 픽스쳐의 길이를 조정하는 단계;
    를 포함하는 것을 특징으로 하는 임플란트 수술 계획 수립 방법.
  8. 제 1 항에 있어서, 식립 정보를 결정하여 제공하는 단계는
    식립된 픽스쳐와 맞닿거나 픽스쳐가 위치하는 부위의 학습된 골질(ossein) 정보를 포함한 학습결과를 획득하여 픽스쳐 주변의 골질 정보를 파악하는 단계; 및
    파악된 픽스쳐 주변의 골질 정보를 이용하여 픽스쳐의 위치를 결정하여 제공하는 단계;
    를 포함하는 것을 특징으로 하는 임플란트 수술 계획 수립 방법.
  9. 제 1 항에 있어서, 임플란트 수술 계획 수립 방법은
    실제 식립하고자 하는 픽스쳐의 식립 정보를 결정하기 위해 이전 데이터들을 대상으로 인공지능을 이용하여 학습하는 단계;
    를 더 포함하는 것을 특징으로 하는 임플란트 수술 계획 수립 방법.
  10. 제 9 항에 있어서, 학습하는 단계는
    이전 픽스쳐 식립 계획을 수립한 환자의 CT 데이터를 대상으로 식립된 픽스쳐를 기준으로 치조골, 인접치 정보, 상악동 및 신경관 정보 중 적어도 하나를 포함한 환자의 해부학적 구조물을 학습하는 단계; 및
    이전 픽스쳐 식립 계획을 수립한 환자의 구강 모델 데이터를 대상으로 크라운 위치가 결정된 치아번호 별 크라운에 따라 픽스쳐의 식립 위치와 각도 및 잇몸 마진 라인을 학습하는 단계;
    를 포함하는 것을 특징으로 하는 임플란트 수술 계획 수립 방법.
  11. 제 9 항에 있어서, 임플란트 수술 계획 수립 방법은
    학습 결과를 테스팅하는 단계; 및
    테스팅 결과가 미리 설정된 기준 이상인 경우 학습 결과를 픽스쳐 식립 계획에 반영하는 단계;
    를 더 포함하는 것을 특징으로 하는 임플란트 수술 계획 수립 방법.
  12. 영상 데이터를 획득하는 데이터 획득부;
    이전 픽스쳐 식립 계획을 수립한 환자들의 영상 데이터들을 대상으로 인공지능에 기반하여 학습한 학습 결과를 이용하여 구강 환경에 맞게 실제 식립하고자 하는 픽스쳐의 위치 및 각도를 포함한 식립 정보를 결정하는 픽스쳐 결정부; 및
    영상 데이터에서 식립 정보를 함께 화면에 표시하는 출력부;
    를 포함하는 것을 특징으로 하는 의료영상 처리장치.
  13. 제 12 항에 있어서, 픽스쳐 결정부는
    획득된 학습 결과로부터 식립된 픽스쳐의 위치를 기반으로 치조골, 잇몸 마진, 인접치, 상악동, 신경관 및 골밀도 중 적어도 하나를 포함한 주변 구조물과의 관계정보를 파악하고,
    파악된 주변 구조물과의 관계정보를 반영하여 픽스쳐의 식립 정보를 결정하는 것을 특징으로 하는 의료영상 처리장치.
  14. 제 12 항에 있어서, 의료영상 처리장치는
    실제 식립하고자 하는 픽스쳐의 식립 정보를 결정하기 위해 이전 픽스쳐 식립 계획을 수립한 환자의 영상 데이터들을 대상으로 인공지능을 이용하여 학습하고 학습 결과를 픽스쳐 결정부에 제공하는 학습부;
    를 더 포함하는 것을 특징으로 하는 의료영상 처리장치.
  15. 제 14 항에 있어서, 학습부는
    이전 픽스쳐 식립 계획을 수립한 환자의 CT 데이터를 대상으로 식립된 픽스쳐를 기준으로 치조골, 인접치 정보, 상악동 및 신경관 정보 중 적어도 하나를 포함한 환자의 해부학적 구조물을 학습하고,
    이전 픽스쳐 식립 계획을 수립한 환자의 구강 모델 데이터를 대상으로 크라운 위치가 결정된 치아번호 별 크라운에 따라 픽스쳐의 식립 위치와 각도 및 잇몸 마진 라인을 학습하는 것을 특징으로 하는 의료영상 처리장치.
PCT/KR2020/002895 2019-03-12 2020-02-28 인공지능을 이용한 임플란트 수술 계획 수립 방법 및 이를 위한 의료영상 처리장치 WO2020184876A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190028214A KR102243185B1 (ko) 2019-03-12 2019-03-12 인공지능을 이용한 임플란트 수술 계획 수립 방법 및 이를 위한 의료영상 처리장치
KR10-2019-0028214 2019-03-12

Publications (1)

Publication Number Publication Date
WO2020184876A1 true WO2020184876A1 (ko) 2020-09-17

Family

ID=72427460

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/002895 WO2020184876A1 (ko) 2019-03-12 2020-02-28 인공지능을 이용한 임플란트 수술 계획 수립 방법 및 이를 위한 의료영상 처리장치

Country Status (2)

Country Link
KR (1) KR102243185B1 (ko)
WO (1) WO2020184876A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114159142A (zh) * 2021-09-30 2022-03-11 国家康复辅具研究中心 基于人工智能深度学习的胫骨外固定器安装辅助导板设计方法
CN114224488A (zh) * 2021-11-19 2022-03-25 杭州钉灵科技有限公司 基于状态捕捉的口腔种植机器人控制系统及其操作方法
CN116211458A (zh) * 2022-12-12 2023-06-06 高峰医疗器械(无锡)有限公司 种植体规划方法、装置、设备及存储介质

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102288816B1 (ko) * 2021-02-16 2021-08-12 박혁준 인공지능 기반 치아 수복을 위한 3d 보철물 제작 방법 및 애플리케이션
KR102575920B1 (ko) * 2021-05-27 2023-09-13 클리어테크놀로지 주식회사 덴탈 캐드 장치 및 그를 이용하는 제어방법
KR20230122384A (ko) 2022-02-14 2023-08-22 오스템임플란트 주식회사 임플란트 시뮬레이션을 위한 상악동 격벽 영역의 표시 방법, 그리고 이를 구현하기 위한 장치
KR20240069315A (ko) * 2022-11-11 2024-05-20 오스템임플란트 주식회사 위험 요소 가이드 방법, 컴퓨팅 장치 및 이를 위한 컴퓨터 판독 가능한 기록 매체

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160009163A (ko) * 2014-07-15 2016-01-26 오스템임플란트 주식회사 임플란트 선택 시스템 및 방법
KR20160048805A (ko) * 2013-08-26 2016-05-04 제임스 알 글라이드웰 덴탈 세라믹스 인코포레이티드 컴퓨터 실행된 치아 수복 설계
WO2018158411A1 (de) * 2017-03-03 2018-09-07 Sirona Dental Systems Gmbh Verfahren zur konstruktion einer restauration
KR20180106007A (ko) * 2017-03-17 2018-10-01 엄상호 임플란트 픽스쳐 자동 검색 및 드라이버 제안 솔루션
KR20180125790A (ko) * 2017-05-16 2018-11-26 주식회사 디오 인공 치아 시술 통합 솔루션 서비스를 제공하는 시스템, 이를 위한 서비스 장치 및 이를 이용한 인공 치아 시술 서비스 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160048805A (ko) * 2013-08-26 2016-05-04 제임스 알 글라이드웰 덴탈 세라믹스 인코포레이티드 컴퓨터 실행된 치아 수복 설계
KR20160009163A (ko) * 2014-07-15 2016-01-26 오스템임플란트 주식회사 임플란트 선택 시스템 및 방법
WO2018158411A1 (de) * 2017-03-03 2018-09-07 Sirona Dental Systems Gmbh Verfahren zur konstruktion einer restauration
KR20180106007A (ko) * 2017-03-17 2018-10-01 엄상호 임플란트 픽스쳐 자동 검색 및 드라이버 제안 솔루션
KR20180125790A (ko) * 2017-05-16 2018-11-26 주식회사 디오 인공 치아 시술 통합 솔루션 서비스를 제공하는 시스템, 이를 위한 서비스 장치 및 이를 이용한 인공 치아 시술 서비스 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114159142A (zh) * 2021-09-30 2022-03-11 国家康复辅具研究中心 基于人工智能深度学习的胫骨外固定器安装辅助导板设计方法
CN114224488A (zh) * 2021-11-19 2022-03-25 杭州钉灵科技有限公司 基于状态捕捉的口腔种植机器人控制系统及其操作方法
CN116211458A (zh) * 2022-12-12 2023-06-06 高峰医疗器械(无锡)有限公司 种植体规划方法、装置、设备及存储介质
CN116211458B (zh) * 2022-12-12 2023-10-03 高峰医疗器械(无锡)有限公司 种植体规划方法、装置、设备及存储介质

Also Published As

Publication number Publication date
KR20200116184A (ko) 2020-10-12
KR102243185B1 (ko) 2021-04-23

Similar Documents

Publication Publication Date Title
WO2020184876A1 (ko) 인공지능을 이용한 임플란트 수술 계획 수립 방법 및 이를 위한 의료영상 처리장치
WO2021025355A1 (ko) 임플란트 수술을 계획하는 방법, 장치 및 컴퓨터 프로그램
WO2016200177A1 (ko) 드릴링 가이드 장치 및 방법
WO2018056544A1 (ko) 치과 수술용 증강현실 시스템 및 구현방법
WO2020204375A1 (ko) 교정치료용 아치라인 생성방법 및 이를 위한 교정치료용 영상 처리장치
WO2019112301A2 (ko) 임플란트 식립영역 선정 장치 및 방법
WO2020184875A1 (ko) 파노라믹 영상을 이용한 치아번호 선택방법 및 이를 위한 의료영상 처리장치
WO2018164391A1 (ko) 3차원 하이브리드 영상 구축 프로그램을 이용한 악교정 시스템
WO2014073818A1 (ko) 임플란트 영상 생성방법 및 임플란트 영상 생성 시스템
WO2020189917A1 (ko) 임플란트 중심선을 이용한 임플란트 식립 계획 수립 방법 및 이를 위한 치과영상 처리장치
WO2020162730A1 (ko) 디지털 삼차원 치아모형의 인체의 해부학적 위치 및 평면 분석과 병합이 가능하도록 기준선이 있는 치과용 시스템
WO2019231116A1 (ko) 치과용 서지컬 가이드 설계 방법, 이를 위한 장치, 및 이를 기록한 기록매체
WO2021210723A1 (ko) 딥러닝을 이용한 3차원 의료 영상 데이터의 특징점 자동 검출 방법 및 장치
WO2020091115A1 (ko) 디지털 삼차원 치아모형시스템
WO2016175545A1 (ko) 치아 정밀 시술 방법 및 시스템
Jones Accuracy of mucosa supported guided dental implant surgery
WO2021006471A1 (ko) 임플란트 구조물 자동 식립을 통한 임플란트 수술 계획 수립 방법, 이를 위한 사용자 인터페이스 제공 방법 및 그 치아영상 처리장치
WO2022075698A2 (ko) 상하악 치열의 악궁 형태 및 교합 양상을 분류한 빅데이터 클라우드를 기반으로 한 악궁 형태, 교합양상을 분석할 수 있고, 해부학적 이상적인 위치에 상하악 치열이 병합될 수 있는 시스템
WO2020209496A1 (ko) 치아 오브젝트 검출 방법 및 치아 오브젝트를 이용한 영상 정합 방법 및 장치
Peng et al. A novel conversion method for radiographic guide into surgical guide
WO2020218734A1 (ko) 보철물 설계 시 언더컷 영역 표시방법 및 이를 수행하는 보철 캐드 장치
WO2023058994A1 (ko) 딥러닝 기반 치아 교정치료 결과 예측 방법 및 장치
Dreiseidler et al. Distance-dependent accuracy in Le Fort I maxillary repositioning procedures
WO2019124846A1 (ko) 치과용 임플란트 시술 가이드장치, 치과용 임플란트 시술 가이드장치 제작시스템 및 그 제작방법
WO2022250282A1 (ko) 치열 교정 기구를 설계하는 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20769371

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20769371

Country of ref document: EP

Kind code of ref document: A1