WO2024136072A1 - 딥러닝 방식을 이용한 임플란트 식별 방법 및 그 방법이 적용된 시스템 - Google Patents

딥러닝 방식을 이용한 임플란트 식별 방법 및 그 방법이 적용된 시스템 Download PDF

Info

Publication number
WO2024136072A1
WO2024136072A1 PCT/KR2023/016468 KR2023016468W WO2024136072A1 WO 2024136072 A1 WO2024136072 A1 WO 2024136072A1 KR 2023016468 W KR2023016468 W KR 2023016468W WO 2024136072 A1 WO2024136072 A1 WO 2024136072A1
Authority
WO
WIPO (PCT)
Prior art keywords
implant
abutment
shape
neural network
artificial neural
Prior art date
Application number
PCT/KR2023/016468
Other languages
English (en)
French (fr)
Inventor
김종문
최규옥
Original Assignee
오스템임플란트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오스템임플란트 주식회사 filed Critical 오스템임플란트 주식회사
Publication of WO2024136072A1 publication Critical patent/WO2024136072A1/ko

Links

Images

Definitions

  • the present disclosure relates to a method for identifying implants using a deep learning method and a system to which the method is applied. More specifically, it relates to a method for identifying implants installed in a patient's mouth by analyzing medical images taken of the patient's mouth and a system to which the method is applied.
  • Implants used in implant surgery are currently being provided with products with different specifications from each manufacturer, and at the same time, implants with specifications different from existing implant products are continuously being developed by implant manufacturers.
  • an automatic implant identification module a function to automatically search the type and manufacturer of the implant based on the implant image is provided through an automatic implant identification module. Because the manufacturer was inferred, it was difficult to distinguish between implants based solely on their appearance when there were various implants.
  • the technical task to be achieved through some embodiments of the present disclosure is to obtain information about the type and manufacturer of the implant installed in the patient's oral cavity by inputting a radiographic image including a panoramic image or an oral sensor image of the patient's oral cavity. It provides a method of extraction.
  • Another technical task to be achieved through some embodiments of the present disclosure is to segment a plurality of anatomical structures present in the patient's oral cavity by inputting a radiographic image including a panoramic image or an oral sensor image of the patient's oral cavity ( It provides a method for segmentation.
  • Another technical task to be achieved through some embodiments of the present disclosure is to input a radiographic image including a panoramic image or an oral sensor image of the patient's oral cavity to identify an object included in an artificial structure installed in the patient's oral cavity. It provides a method for determining the type.
  • Another technical task to be achieved through some embodiments of the present disclosure is to provide standards for the internal structure of the implant that determine the type and manufacturer of the implant installed in the patient's oral cavity.
  • Another technical task to be achieved through some embodiments of the present disclosure is to provide information on parts or kits necessary for treatment of the identified implant based on information on the identified implant.
  • an implant identification method using a deep learning method inputs the shape characteristics of the implant installed in the patient's oral cavity into a third artificial neural network, It may include obtaining an output value of the third artificial neural network and generating implant identification information including a manufacturer and implant type using the output value from the third artificial neural network.
  • the shape characteristic of the implant may include a shape identifier of the internal space between the implant and the abutment formed by fastening the implant and the abutment.
  • the shape identifier may include a shape identifier of the first internal space and a shape identifier of the second internal space.
  • the first internal space is a contact area between the internal thread of the implant and the abutment thread according to fastening of the implant and the abutment, and the abutment of the implant is sealed by the head of the abutment. It may be the remaining space in the hall. Additionally, the second internal space may be the contact area and another remaining space of the abutment fastening hole of the implant that is closed by the root-directed end of the abutment.
  • the step of acquiring information about the type of the implant and abutment includes an object having a Hounsfield Unit (HU) value greater than or equal to a reference value and having the largest volume within the region of interest of the medical image of the patient. It may include identifying as a first object and masking the first object.
  • HU Hounsfield Unit
  • the step of obtaining information about the type of the implant and the abutment may include selecting the first object as a tooth, an object containing only an implant, an object including a healing abutment in a separate implant, or an object integrated in a separate implant. It may include determining one of an object containing an abutment and an object containing a separate abutment to a separate implant.
  • the first object is a tooth, an object containing only an implant, an object including a healing abutment in a separate implant, an object including an integrated abutment in a separate implant, and an object including a separate abutment in a separate implant.
  • the step of determining one of the steps includes, when the first object is determined to be an object in which only an implant exists, determining the first object as one of an integrated implant and a separate implant based on the presence or absence of a screw thread structure inside the implant. May include steps.
  • the step of determining the first object as one of an integrated implant and a separate implant may include, when the first object is determined to be a separate implant, the first object being internally selected based on the structure of the separate implant. It may include a step of deciding on either an internal implant or an external implant.
  • the step of acquiring the shape characteristics of the implant from the second artificial neural network may include information about the type of implant and abutment input to the second artificial neural network to determine whether only the internal implant in the patient's mouth is When indicating presence, the external shape of the implant, the external thread shape of the implant, the number of external threads of the implant, the external shape of the implant Apex, the distance from the coronal apex of the implant to the internal thread of the implant , It may include the step of acquiring type 1 implant shape characteristics including the distance from the coronal vertex of the implant to the area where the abutment is fastened, the diameter of the thread within the implant, and the internal angle of the implant.
  • the step of obtaining shape characteristics of the implant from the second artificial neural network may include information on the type of implant and abutment input to the second artificial neural network being applied to the internal implant in the patient's mouth.
  • information on the type implant and abutment input to the second artificial neural network being applied to the internal implant in the patient's mouth may include obtaining type 2 implant shape characteristics.
  • the step of acquiring the shape characteristics of the implant from the second artificial neural network may include information about the type of implant and abutment input to the second artificial neural network being inserted into the patient's mouth.
  • the method may include obtaining shape characteristics of the type 1 implant and a shape identifier of a space remaining when the abutment is incorrectly fastened within the implant.
  • the step of obtaining the shape characteristics of the implant from the second artificial neural network may include determining that information about the type of implant and abutment input to the second artificial neural network is used only for external implants in the patient's oral cavity.
  • the step of obtaining shape characteristics of the implant from the second artificial neural network may include information about the type of implant and abutment input to the second artificial neural network being applied to the external implant in the patient's oral cavity.
  • the step of obtaining shape characteristics of the implant from the second artificial neural network may include information about the type of implant and abutment input to the second artificial neural network such that only integrated implants exist in the patient's mouth. When indicating, it may include obtaining type 5 implant shape characteristics, including the implant external thread shape, the number of implant external threads, and the implant external apex shape.
  • the method of identifying an implant installed in the patient's oral cavity may further include proposing a treatment plan corresponding to the implant identification information based on the implant identification information.
  • An implant identification system for solving the above technical problem may include one or more processors and a memory that stores one or more instructions.
  • the one or more processors input the shape characteristics of the implant installed in the patient's oral cavity to a third artificial neural network by executing the one or more stored instructions, and output values of the third artificial neural network.
  • An operation of generating implant identification information including the manufacturer and implant type may be performed using the acquisition operation and the output value output from the third artificial neural network.
  • the shape characteristic of the implant may include a shape identifier of the internal space between the implant and the abutment formed by fastening the implant and the abutment.
  • the one or more processors may further perform an operation of proposing a treatment plan corresponding to the implant identification information, based on the implant identification information.
  • a user can obtain information about the type and manufacturer of the implant installed in the patient's oral cavity.
  • a user may obtain information about the type of artificial structure present in the patient's oral cavity.
  • information about the types of implants and abutments installed in the patient's mouth can be obtained.
  • a user can obtain information about parts and kits needed to treat an implant installed in a patient's oral cavity.
  • information about the internal structure of an implant installed in the patient's oral cavity can be obtained.
  • an implant shape present in a specific region of interest in a medical image of a patient specified by a user may be obtained.
  • FIG 1 illustrates an example environment in which an implant identification system according to an embodiment of the present disclosure may be applied.
  • FIG. 2 is a diagram illustrating steps for augmenting input data that may be performed in some embodiments of the present disclosure.
  • FIG. 3 is a diagram illustrating steps for augmenting input data that may be performed in some embodiments of the present disclosure.
  • FIG. 4 is a diagram illustrating masked objects that can be displayed as a result of performing some embodiments of the present disclosure.
  • FIG. 5 is a diagram illustrating an exemplary medical image of a patient in which dental formula numbers are assigned to each tooth as a result of performing some embodiments of the present disclosure.
  • Figure 6 is a flow chart of an implant identification method using a deep learning method according to another embodiment of the present disclosure.
  • FIG. 7 is a flow chart to explain in more detail some of the steps described with reference to FIG. 6 .
  • Figure 8 is a diagram illustrating the results of the step of receiving a dental formula number that can be performed in some embodiments of the present disclosure.
  • FIG. 9 is a diagram illustrating a result of the step of identifying a first object that can be performed in some embodiments of the present disclosure.
  • FIG. 10 is a diagram illustrating a step of identifying an implant and an abutment included in a first object that can be performed in some embodiments of the present disclosure.
  • FIG. 11 is a diagram illustrating a step of identifying an implant and an abutment included in a first object that can be performed in some embodiments of the present disclosure.
  • FIG. 12 is a diagram illustrating a step of obtaining shape characteristics of an internal implant that can be performed in some embodiments of the present disclosure.
  • FIG. 13 is a diagram illustrating a step of obtaining shape characteristics of an object including an abutment in an internal implant that can be performed in some embodiments of the present disclosure.
  • FIG. 14 is a diagram illustrating a step of obtaining shape characteristics of an object including an abutment in an implant that can be performed in some embodiments of the present disclosure.
  • FIG. 15 is a diagram illustrating a step of obtaining shape characteristics of an external implant that can be performed in some embodiments of the present disclosure.
  • FIG. 16 is a diagram illustrating a step of obtaining shape characteristics of an object including an abutment in an external implant that can be performed in some embodiments of the present disclosure.
  • FIG. 17 is a diagram illustrating a step of obtaining shape characteristics of an integrated implant that can be performed in some embodiments of the present disclosure.
  • FIG. 18 is a diagram illustrating the results of predicting the manufacturer of an implant installed in a patient's oral cavity, which can be displayed as a result of performing some embodiments of the present disclosure.
  • FIG. 19 is a diagram illustrating the step of proposing a treatment plan based on a result of predicting the manufacturer of an implant installed in the patient's mouth, which can be displayed as a result of performing some embodiments of the present disclosure.
  • Figure 20 is a hardware configuration diagram of an implant identification system according to an embodiment of the present disclosure.
  • FIG. 1 illustrates an example environment in which an implant identification system according to an embodiment of the present disclosure may be applied.
  • the implant identification system 100 according to an embodiment of the present disclosure interacts with a patient management system (PMS) 200 and a user terminal 300 to use a deep learning method.
  • PMS patient management system
  • An implant identification method using the method can be performed.
  • implant identification system 100 and patient management system 200 are shown in FIG. 1 as separate systems, in some embodiments, implant identification system 100 and patient management system 200 are integrated into one system. It may also be configured in a stand-alone manner. In this case, operations performed in the implant identification system 100 may be understood as being performed in the patient management system 200.
  • the implant identification system 100 may be configured using one or more physical servers included in a server farm based on cloud technology such as a virtual machine.
  • the patient management system 200 may transmit a medical image of a specific patient's oral cavity to the implant identification system 100 based on an input from the user terminal 300.
  • the medical image may be a panoramic image of the patient's oral cavity or a radiographic image including an oral sensor image.
  • a panoramic image 21 of the patient may be input as the medical image.
  • the patient management system 200 uses the patient's panoramic image 200 to accurately extract information about the type and manufacturer of the implant installed in the patient's oral cavity from the patient's panoramic image 21.
  • the implant identification system uses the rotation image 22 of (21), the mirroring image 23 of the patient's panoramic image 21, and the inverted image 24 of the patient's panoramic image 21. It can be included in the medical image transmitted to (100).
  • an oral sensor image 31 of the patient may be input as the medical image.
  • the patient management system 200 allows the implant identification system 100 to accurately extract information about the type and manufacturer of the implant installed in the patient's oral cavity from the patient's oral sensor image 31.
  • the rotation image 32 of the sensor image 31, the mirroring image 33 of the patient's oral sensor image 31, and the inverted image 34 of the patient's oral sensor image 31 It can be included in the medical image transmitted to the implant identification system 100.
  • the patient management system 200 may include a panoramic image 41 of the patient with masked implants, teeth, and bone levels as the medical image, or an oral sensor image of the patient ( 42) can be transmitted to the implant identification system 100.
  • the patient management system 200 may transmit a panoramic image of the patient as the medical image to the implant identification system 100, where the medical image is the medical image.
  • the area corresponding to each tooth included in the image and the tooth formula number of each area corresponding to each tooth may be predefined.
  • the medical image may have a region 51 corresponding to the implant installed in the patient's oral cavity and a dental formula number of the region 51 corresponding to the implant may be predefined.
  • the patient management system 200 transmits the user's selection input for a specific dental formula included in the medical image of the patient received from the user terminal 300 to the implant identification system 100.
  • the information about the user's selection input for the specific dental formula that the patient management system 200 transmits to the implant identification system 100 may include an area corresponding to the tooth of the specific dental formula selected by the user.
  • the user terminal 300 may output an electronic chart received from the patient management system 200 through a network. Additionally, the user terminal 300 may display information about the type and manufacturer of the implant installed in the patient's mouth received from the implant identification system 100 to the user through the electronic chart.
  • the user terminal 300 may transmit the user's selection input for a specific dental formula included in the medical image of the patient to the patient management system 200.
  • the implant identification system 100 inputs a medical image of a patient with a predefined region of interest into a first artificial neural network, and selects an implant installed in the patient's oral cavity from the first artificial neural network. You can obtain information about the type of butment.
  • the implant identification system 100 inputs information about the type of implant and abutment obtained from the first artificial neural network into a second artificial neural network, and inputs information about the type of implant and abutment obtained from the first artificial neural network from the second artificial neural network.
  • the shape characteristics of the implant can be obtained.
  • the shape characteristics of the implant may include information on both the external shape and the identifier of the internal shape of the implant, which will be described later.
  • the implant identification system 100 inputs the shape characteristics of the implant installed in the patient's oral cavity obtained from the second artificial neural network into a third artificial neural network, and installs the implant in the patient's oral cavity.
  • Implant identification information including manufacturer information of the implant and implant type information can be obtained.
  • the implant identification system 100 may transmit a treatment plan determined to correspond to the implant identification information to the patient management system 200 based on the obtained implant identification information. .
  • the patient management system 200 transmits information about the electronic chart including the received treatment plan to the user terminal 300, and the user terminal 300 displays the electronic chart including the treatment plan. )can do.
  • FIGS. 6 to 19 a method for identifying an implant using a deep learning method according to another embodiment of the present disclosure will be described in detail with reference to FIGS. 6 to 19.
  • the steps to be described in several flowcharts may be understood as being performed by the implant identification system 100 described with reference to FIG. 1 unless otherwise specified.
  • Figure 6 is a flow chart of an implant identification method using a deep learning method according to another embodiment of the present disclosure.
  • the implant identification system 100 may receive a medical image of a patient with a preset region of interest from the patient management system 200 described with reference to FIG. 1 .
  • step S200 the implant identification system 100 inputs the medical image of the patient into a first artificial neural network, and receives information about the type of implant and abutment installed in the patient's mouth from the first artificial neural network. can be obtained.
  • step S200 will be described with reference to FIGS. 7 to 11.
  • the operation performed by the implant identification system 100 is that the implant identification system 100 inputs the medical image of the patient to a first artificial neural network. It may be carried out by doing.
  • the implant identification system 100 may identify a first object in the region of interest included in the medical image.
  • the implant identification system 100 identifies information from the patient's medical image included in the electronic chart 81 displayed on the user terminal 300 from the patient management system 200 described with reference to FIG. 1 . 1
  • the user's input for the dental formula 80 can be received, and the object existing in the area corresponding to the first dental formula 80 can be identified as the first object 71 in the case of a panoramic image, and in the case of an oral sensor image It can be identified as the first object 82.
  • the implant identification system 100 determines that the HU value present in the area corresponding to the first tooth formula 80 selected and input by the user is greater than or equal to the reference value, and the first tooth formula 80 is selected and inputted by the user.
  • the object with the largest volume present in the area corresponding to (80) can be identified as the first object 71 in the case of a panoramic image, and as the first object 82 in the case of an oral sensor image.
  • implant identification system 100 may mask the first object.
  • the implant identification system 100 may identify the implant and abutment included in the identified first object.
  • the implant identification system 100 may include the identified first object as a tooth, an object containing only an implant, an object including a healing abutment in a separate implant, and an integrated abutment in a separate implant. It can be determined to be either an object containing a detachable abutment or an object containing a detachable implant.
  • the implant identification system 100 divides the first object 82 into an object 91 including both an abutment and a crown, an object 92 containing only an implant, and an object 91 containing an implant. It may be determined that the butment is one of the fastened objects 93.
  • the implant identification system 100 identifies the first object as an integrated implant based on the presence or absence of a thread structure inside the implant. and a detachable implant.
  • the implant identification system 100 when the first object is identified as an object containing only an implant, the implant identification system 100 internally identifies the first object based on whether the top of the implant protrudes. It can be decided to be any one of implants, external implants, and integrated implants.
  • the implant identification system 100 identifies the first object based on the shape of the first object existing in the reference area 105 existing in the coronal direction of the first object. It can be determined to be either a separate implant 101 such as an internal implant 102 or an external implant 103, or an integrated implant 104.
  • the implant identification system 100 determines the shape 112 of the empty space inside the implant of the first object 82, between the implant and the abutment fastened to the implant. ), the abutment fastened to the implant of the first object 82 may be determined to be either an integrated abutment including a healing abutment or a separate abutment.
  • the implant identification system 100 determines the shape 112 of the empty space inside the implant of the first object 82, between the implant and the abutment fastened to the implant. ) Based on this, it can be determined whether the abutment is incorrectly fastened to the implant of the first object 82.
  • step S200 has been described in detail.
  • step S300 of FIG. 6 the implant identification system 100 inputs information about the type of implant and abutment installed in the patient's mouth obtained as a result of performing step S200 into the second artificial neural network, and identifies the type of implant and abutment of the implant. Shape features can be obtained.
  • the step of acquiring the shape characteristics of the implant will be described with reference to FIGS. 12 and 13.
  • the operation performed by the implant identification system 100 is that the implant identification system 100 is installed in the oral cavity of the patient in a second artificial neural network. This may be performed by entering information about the type of implant and abutment.
  • the implant identification system 100 may determine that the first object present in the patient's mouth is an internal implant. If this is indicated, information on the type of implant and abutment installed in the patient's oral cavity can be input into the second artificial neural network, and type 1 implant shape characteristics can be obtained from the second artificial neural network.
  • the shape characteristics of the type 1 implant will be described with reference to FIG. 12.
  • step S300 terms regarding the shape characteristics of the implant obtained from the second artificial neural network will be clarified.
  • Information about the external shape of the implant may include an angle from the apex of the implant in the coronal direction to the apex.
  • the apex may mean a point that first approaches the oral bone when inserting an implant.
  • the number of external threads of an implant that may appear in some embodiments of the present disclosure may mean the distance between each thread of the implant.
  • Information about the external thread shape of the implant includes whether the shape of the external thread of the implant is determined to be a reverse buttress shape, whether the shape of the external thread of the implant is round, Whether the shape of the external threads of the implant is judged to be in the form of round threads, whether the shape of the external threads of the implant is judged to be in the form of square threads, or whether the shape of the external threads of the implant is in the form of V-shape threads This may include whether the shape of the external thread of the implant is judged to be in the form of micro threads, and whether the shape of the external thread of the implant is judged to be in the form of a collar.
  • the external apex shape of the implant that may appear in some embodiments of the present disclosure includes whether the external apex of the implant is judged to be round, and whether the external apex of the implant is judged to be flat. This may include whether the external apex of the implant is judged to be sharp.
  • the type 1 implant shape feature may include an external shape 121 of the internal implant 129 installed in the patient's mouth, an external thread shape of the internal implant 129 ( 122), the number of external threads (123) of the internal implant (129), the external apex shape (124) of the internal implant (129), the internal implant (129) from the crown direction apex of the internal implant (129) ) Distance to the internal screw thread (125), distance from the crown direction apex of the internal implant (129) to the area where the abutment is fastened (126), internal screw thread diameter (127), internal implant (129) It may include an internal angle 128 of the implant 129.
  • the implant identification system 100 determines that the input information about the type of implant and abutment installed in the patient's mouth is a first object present in the patient's mouth.
  • the implant installed in the patient's oral cavity in the second artificial neural network and Information on the type of abutment can be input, and the type 1 implant shape features and type 2 implant shape features can be obtained from the second artificial neural network.
  • the shape characteristics of the type 2 implant will be described with reference to FIG. 13.
  • the type 2 implant shape feature may include a shape identifier of the first internal space 131 and a shape identifier of the second internal space 132.
  • the first internal space 131 is a contact area between the internal thread of the implant and the abutment thread according to fastening of the implant and the abutment, and the abutment area of the implant sealed by the head of the abutment. It may refer to the remaining space of the butment fastening hole.
  • the second internal space 132 may be a remaining space that is different from the contact area and the first internal space of the abutment fastening hole of the implant that is sealed by the root-directed end of the abutment.
  • the implant identification system 100 may provide information about the type of implant and abutment installed in the input patient's mouth so that the first object present in the patient's mouth is an implant.
  • the implant identification system 100 may provide information about the type of implant and abutment installed in the input patient's mouth so that the first object present in the patient's mouth is an implant.
  • input information about the type of implant and abutment installed in the patient's oral cavity into a second artificial neural network and input the first artificial neural network from the second artificial neural network. It is possible to obtain shape characteristics of the implant, a shape identifier of the second internal space, and a shape identifier of the space remaining when the abutment in the implant is incorrectly fastened.
  • the shape identifier of the second internal space 142 when the screw-removable abutment within the implant according to some other embodiments related to step S300 is fastened is the screw-removable abutment on the implant of the first object.
  • the contact area between the internal thread of the implant of the first object and the thread of the screw-removable abutment, and the abutment of the implant sealed by the root-directed end of the abutment It may refer to the shape identifier of the second internal space 142, which is the remaining space of the ment fastening hole.
  • the shape identifier of the space 146 remaining when the screw-removable abutment within the implant according to some other embodiments related to step S300 is incorrectly fastened is the shape identifier of the space 146 remaining when the screw-removable abutment within the implant shown in FIG. 14 is properly fastened. It is determined based on the shape and size of the space 145 remaining in the object 143 and the difference in the shape and size of the space 146 remaining in the object 144 where the screw-removable abutment in the implant was incorrectly fastened. You can.
  • the implant identification system 100 may determine that the first object present in the patient's mouth is an external implant. In the case where it is indicated, information on the type of implant and abutment installed in the patient's oral cavity can be input into the second artificial neural network, and type 3 implant shape characteristics can be obtained from the second artificial neural network.
  • the shape characteristics of the type 3 implant will be described with reference to FIG. 15.
  • the third type implant shape characteristics include the external shape 121 of the external implant 151 installed in the oral cavity of the patient, and the external thread shape 122 of the external implant 151. , the number of external threads (123) of the external implant (151), the external apex shape (124) of the external implant (151), from the apex in the coronal direction of the external implant (151) to the internal thread of the external implant (151) It may include the distance 125 and the thread diameter 127 inside the external implant 151.
  • the implant identification system 100 may display information about the type of implant and abutment installed in the input patient's mouth when the first object present in the patient's mouth is exposed.
  • information on the type of implant and abutment installed in the patient's oral cavity is entered into a second artificial neural network, and the first artificial neural network is input from the second artificial neural network.
  • Type 3 implant shape features and type 4 implant shape features can be obtained.
  • the shape characteristics of the type 4 implant will be described with reference to FIG. 16.
  • the fourth type implant shape feature according to some other embodiments related to step S300 is that the external implant 151 described with reference to FIG. 15 is formed by the head of the healing abutment according to the fastening of the healing abutment. It may include a shape identifier of the remaining space 161 of the abutment fastening hole of the external implant 151 that is sealed.
  • the implant identification system 100 determines that the input information about the type of implant and abutment installed in the patient's mouth is integrated with the first object present in the patient's mouth.
  • information on the type of implant and abutment installed in the patient's oral cavity can be input into the second artificial neural network, and type 5 implant shape characteristics can be obtained from the second artificial neural network.
  • the shape characteristics of the type 5 implant will be described with reference to FIG. 17.
  • the fifth type implant shape characteristics include the external thread shape 122 of the integrated implant 171, the number of external threads 123 of the integrated implant 171, and the integrated implant 171. It may include an external apex shape 124.
  • step S300 So far, several embodiments related to step S300 have been described in detail.
  • step S400 the implant identification system 100 inputs the shape characteristics of the implant obtained in step S300 into a third artificial neural network, and includes the manufacturer of the implant installed in the patient's oral cavity, the implant type estimation result, and the reliability of the estimation result. Implant identification information can be obtained.
  • the implant identification system 100 inputs the shape characteristics of the implant obtained from the second artificial neural network into the third artificial neural network, and as a result, the manufacturer information of the implant installed in the patient's oral cavity and the reliability of the estimation result 181. , information can be obtained that there is a 99% probability that the implant placed in the patient's mouth is a product of the Osstem implant manufacturer.
  • the implant identification information may include information about the thread spacing 183 of the implant installed in the patient's oral cavity.
  • the implant identification system 100 may provide the user with a treatment plan corresponding to the obtained implant identification information.
  • the implant identification system 100 detects based on the information about the thread spacing 183 of the implant installed in the patient's mouth obtained in step S400.
  • information 191 about the exposed implant may be provided through an electronic chart displayed on the user terminal 300.
  • the information 191 about the exposed implant may include the reason the implant was exposed and the distance at which the implant was exposed, as estimated by the implant identification system 100.
  • the implant identification system 100 determines that the exposed implant requires treatment and obtains the manufacturer information of the implant installed in the patient's mouth obtained in step S400. And based on the estimation result reliability 181, the user can be provided with information about a kit that can treat(?) the exposed implant corresponding to the manufacturer information of the implant as a treatment plan 192. there is.
  • the implant identification system 100 determines that removal of the implant installed in the patient's mouth is necessary and installs the implant in the patient's mouth obtained in step S400. Based on the manufacturer information of the implant and the reliability of the estimation result 181, information on a tool that can remove the implant corresponding to the manufacturer information of the implant can be provided to the user as a treatment plan 192. there is.
  • the implant identification system 100 determines that it is necessary to re-manufacture a prosthesis for the implant installed in the patient's oral cavity and Based on the manufacturer information of the implant installed and the reliability of the estimation result 181, information on the abutment corresponding to the manufacturer information of the implant may be provided to the user as a treatment plan 192.
  • the implant identification system 100 of FIG. 20 may refer to the implant identification system 100 described with reference to FIG. 1 .
  • the implant identification system 100 includes one or more processors 1100, a system bus 1600, a communication interface 1200, a memory 1400 that loads a computer program 1500 executed by the processor 1100, and , may include a storage 1300 that stores the computer program 1500.
  • the processor 1100 controls the overall operation of each component of the implant identification system 100.
  • the processor 1100 may perform operations on at least one application or program to execute methods/operations according to various embodiments of the present disclosure.
  • the memory 1400 stores various data, commands and/or information.
  • the memory 1400 may load one or more computer programs 1500 from the storage 1300 to execute methods/operations according to various embodiments of the present disclosure.
  • Bus 1600 provides communication functionality between components of implant identification system 100.
  • the communication interface 1200 supports Internet communication of the implant identification system 100.
  • Storage 1300 may non-temporarily store one or more computer programs 1500.
  • the computer program 1500 may include one or more instructions implementing methods/operations according to various embodiments of the present disclosure. When the computer program 1500 is loaded into the memory 1400, the processor 1100 can perform methods/operations according to various embodiments of the present disclosure by executing the one or more instructions.
  • the implant identification system 100 described with reference to FIG. 20 may be configured using one or more physical servers included in a server farm based on cloud technology, such as a virtual machine. You can.
  • the processor 1100, memory 1400, and storage 1300 among the components shown in FIG. 20 may be virtual hardware, and the communication interface 1200 may also be a virtual switch. It may be composed of virtualized networking elements such as switches.
  • the computer program 1500 inputs a medical image of a patient with a preset region of interest into a first artificial neural network, and determines the types of implants and abutments installed in the patient's oral cavity from the first artificial neural network.
  • An instruction ( instructions) may be included.
  • the technical ideas of the present disclosure described so far can be implemented as computer-readable code on a computer-readable medium.
  • the computer program recorded on the computer-readable recording medium can be transmitted to another computing device through a network such as the Internet and installed on the other computing device, and thus can be used on the other computing device.

Abstract

본 개시는 딥러닝 방식을 이용한 임플란트 식별 방법 및 그 방법이 적용된 시스템에 관한 것이다. 본 개시의 일 실시예에 따른 딥러닝 방식을 이용한 임플란트 식별 방법은, 제3 인공 신경망(Artificial Neural Network)에 환자의 구강에 식립된 임플란트의 형상 특징을 입력하고, 상기 제3 인공 신경망의 출력 값을 획득하는 단계 및 상기 제3 인공 신경망에서 출력된 출력 값을 이용하여, 제조사 및 임플란트 타입을 포함하는 임플란트 식별 정보를 생성하는 단계를 포함할 수 있다. 여기서, 상기 임플란트의 형상 특징은, 상기 임플란트와 어버트먼트의 체결에 따라 형성되는 상기 임플란트와 상기 어버트먼트 사이의 내부 공간의 형상 식별자를 포함하는 것일 수 있다.

Description

딥러닝 방식을 이용한 임플란트 식별 방법 및 그 방법이 적용된 시스템
본 개시는 딥러닝 방식을 이용한 임플란트 식별 방법 및 그 방법이 적용된 시스템에 관련된 것이다. 보다 자세하게는, 환자의 구강을 촬영한 의료 영상을 분석하여 환자의 구강에 식립된 임플란트를 식별하는 방법 및 그 방법이 적용된 시스템에 관한 것이다.
임플란트 수술에 이용하는 임플란트는 현재 제조사마다 상이한 규격을 갖는 제품들이 제공되고 있는 동시에, 기존의 임플란트 제품들과 또 다른 규격을 갖는 임플란트들이 임플란트 제조사에 의하여 지속적으로 개발되고 있다.
이에 따라 환자는 거주지 이전 등의 이유로 최초로 임플란트를 수술받은 병원이 아닌 다른 병원에 과거에 식립한 임플란트에 대한 치료를 위해 내원할 경우, 다른 병원에서는 환자의 구강에 식립된 임플란트의 상세한 규격에 관하여 인지하기 어렵다는 문제점이 있었다.
또한, 반영구적인 임플란트의 경우에도 환자의 상황에 따라 환자의 구강에 식립된 임플란트 주변에 골 소실이 발생하거나, 임플란트 파절이 발생되는 경우나, 임플란트 내부의 어버트먼트가 파절되는 경우 등의 문제가 발생하면 이에 대한 치료를 요하는데, 이때 병원에서는 타 병원에서 임플란트를 식립하고 내원한 환자의 임플란트의 제거 또는 임플란트 보철물을 재 제작하기 위한 제품의 사양을 파악하기 쉽지 않다는 문제점이 있다.
이러한 문제점을 해결하기 위해, 종래에는 임플란트 자동 식별 모듈 등을 통해 임플란트 이미지에 기반하여 임플란트의 종류 및 제조사를 자동으로 검색하는 기능을 제공하고 있으나, 이러한 종래 기술에는 임플란트의 외부적인 특징만으로 임플란트의 종류 및 제조사를 유추하기 때문에 임플란트가 다양한 경우 임플란트 외형을 통한 구분만으로는 어려운 문제점이 있었다.
따라서, 임플란트의 외부적 특징 및 내부적 구조 특징을 모두 고려하여 환자의 구강을 촬영한 의료 영상을 입력하는 것만으로도 환자의 구강에 식립된 임플란트의 종류 및 제조사에 대한 정보를 정확하게 추출하는 방법의 제공이 요구되고 있으나, 이러한 기능은 제공되지 못하고 있는 실정이며, 임플란트 내부적 구조 특징을 추출하는 방법 또한 구현하기 어렵다.
본 개시의 몇몇 실시예들을 통하여 달성하고자 하는 기술적 과제는, 환자의 구강을 촬영한 파노라마 영상 또는 구강 센서 영상을 포함한 방사선 촬영 영상을 입력하여 환자의 구강에 식립된 임플란트의 종류 및 제조사에 대한 정보를 추출하는 방법을 제공하는 것이다.
본 개시의 몇몇 실시예들을 통하여 달성하고자 하는 다른 기술적 과제는, 환자의 구강을 촬영한 파노라마 영상 또는 구강 센서 영상을 포함한 방사선 촬영 영상을 입력하여 환자의 구강에 존재하는 복수의 해부학적 구조물을 세그멘테이션(segmentation) 하는 방법을 제공하는 것이다.
본 개시의 몇몇 실시예들을 통하여 달성하고자 하는 또 다른 기술적 과제는, 환자의 구강을 촬영한 파노라마 영상 또는 구강 센서 영상을 포함한 방사선 촬영 영상을 입력하여 환자의 구강에 식립된 인공 구조물에 포함된 오브젝트의 유형을 결정하는 방법을 제공하는 것이다.
본 개시의 몇몇 실시예들을 통하여 달성하고자 하는 또 다른 기술적 과제는, 환자의 구강에 식립된 임플란트의 종류 및 제조사를 결정하는 임플란트의 내부적 구조에 관한 기준을 제공하는 것이다.
본 개시의 몇몇 실시예들을 통하여 달성하고자 하는 또 다른 기술적 과제는, 식별된 임플란트의 정보에 기초하여 식별된 임플란트의 치료에 필요한 부품 또는 키트에 관한 정보를 제공하는 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 기술적 과제를 해결하기 위한, 본 개시의 일 실시예에 따른 딥러닝 방식을 이용한 임플란트 식별 방법은, 제3 인공 신경망(Artificial Neural Network)에 환자의 구강에 식립된 임플란트의 형상 특징을 입력하고, 상기 제3 인공 신경망의 출력 값을 획득하는 단계 및 상기 제3 인공 신경망에서 출력된 출력 값을 이용하여, 제조사 및 임플란트 타입을 포함하는 임플란트 식별 정보를 생성하는 단계를 포함할 수 있다. 여기서, 상기 임플란트의 형상 특징은, 상기 임플란트와 어버트먼트의 체결에 따라 형성되는 상기 임플란트와 상기 어버트먼트 사이의 내부 공간의 형상 식별자를 포함하는 것일 수 있다.
몇몇 실시예에서, 상기 형상 식별자는, 제1 내부 공간의 형상 식별자 및 제2 내부 공간의 형상 식별자를 포함할 수 있다. 상기 제1 내부 공간은, 상기 임플란트와 어버트먼트의 체결에 따른 상기 임플란트의 내부 나사산과 상기 어버트먼트 나사산의 접촉 영역과, 상기 어버트먼트의 헤드에 의하여 밀폐되는 상기 임플란트의 어버트먼트 체결 홀의 잔여 공간일 수 있다. 또한, 상기 제2 내부 공간은 상기 접촉 영역과, 상기 어버트먼트의 치근 방향 말단에 의하여 밀폐되는 상기 임플란트의 어버트먼트 체결 홀의 다른 잔여 공간일 수 있다.
몇몇 실시예에서, 상기 임플란트 및 어버트먼트의 유형에 대한 정보를 획득하는 단계는, 상기 환자의 의료 영상의 관심 영역 내에 존재하는 HU(Hounsfield Unit) 값이 기준치 이상이고, 가장 큰 부피를 갖는 물체를 제1 오브젝트(object)로 식별하는 단계 및 상기 제1 오브젝트를 마스킹(masking) 하는 단계를 포함할 수 있다.
몇몇 실시예에서, 상기 임플란트 및 어버트먼트의 유형에 대한 정보를 획득하는 단계는, 상기 제1 오브젝트를 치아, 임플란트만 존재하는 오브젝트, 분리형 임플란트에 힐링 어버트먼트를 포함한 오브젝트, 분리형 임플란트에 일체형 어버트먼트를 포함한 오브젝트 및 분리형 임플란트에 분리형 어버트먼트를 포함한 오브젝트 중 어느 하나로 결정하는 단계를 포함할 수 있다.
몇몇 실시예에서, 상기 제1 오브젝트를 치아, 임플란트만 존재하는 오브젝트, 분리형 임플란트에 힐링 어버트먼트를 포함한 오브젝트, 분리형 임플란트에 일체형 어버트먼트를 포함한 오브젝트, 분리형 임플란트에 분리형 어버트먼트를 포함한 오브젝트 중 어느 하나로 결정하는 단계는, 상기 제1 오브젝트가 임플란트만 존재하는 오브젝트로 결정된 경우에, 상기 임플란트 내부의 나사산 구조의 존재 여부에 기초하여 상기 제1 오브젝트를 일체형 임플란트 및 분리형 임플란트 중 어느 하나로 결정하는 단계를 포함할 수 있다.
몇몇 실시예에서, 상기 제1 오브젝트를 일체형 임플란트, 분리형 임플란트 중 어느 하나로 결정하는 단계는, 상기 제1 오브젝트가 분리형 임플란트 결정된 경우에, 상기 분리형 임플란트의 구조에 기초하여 상기 제1 오브젝트를 인터널(Internal) 임플란트 및 익스터널(External) 임플란트 중 어느 하나로 결정하는 단계를 포함할 수 있다.
몇몇 실시예에서, 상기 제2 인공 신경망으로부터 상기 임플란트의 형상 특징을 획득하는 단계는, 상기 제2 인공 신경망에 입력된 임플란트 및 어버트먼트의 유형에 대한 정보가 상기 환자의 구강에 인터널 임플란트만 존재함을 가리키는 경우에, 상기 임플란트의 외부 형태, 상기 임플란트의 외부 나사산 형태, 상기 임플란트 외부 나사산 개수, 상기 임플란트 에이펙스(Apex)의 외부 형태, 상기 임플란트의 치관 방향 정점부터 상기 임플란트 내 나사산까지의 거리, 상기 임플란트의 치관 방향 정점부터 어버트먼트가 체결되는 부위까지의 거리, 상기 임플란트 내 나사산 직경, 상기 임플란트 내부 각도를 포함하는 제1형 임플란트 형상 특징을 획득하는 단계를 포함할 수 있다.
몇몇 실시예에서, 상기 제2 인공 신경망으로부터 상기 임플란트의 형상 특징을 획득하는 단계는, 상기 제2 인공 신경망에 입력된 임플란트 및 어버트먼트의 유형에 대한 정보가 상기 환자의 구강에 인터널 임플란트에 힐링 어버트먼트 또는 나사 일체형 어버트먼트가 체결된 오브젝트가 존재함을 가리키는 경우에, 상기 제1형 임플란트 형상 특징, 상기 제1 내부 공간의 형상 식별자 및 상기 제2 내부 공간의 형상 식별자를 포함하는, 제2형 임플란트 형상 특징을 획득하는 단계를 포함할 수 있다.
몇몇 실시예에서, 상기 제2 인공 신경망으로부터 상기 임플란트의 형상 특징을 획득하는 단계는, 상기 제2 인공 신경망에 입력된 임플란트 및 어버트먼트의 유형에 대한 정보가 상기 환자의 구강에 임플란트 내 나사 분리형 어버트먼트가 체결되어 있음을 가리키는 경우에, 상기 제1형 임플란트 형상 특징 및 상기 임플란트 내 상기 어버트먼트가 오체결되었을 때 잔존하는 공간의 형상 식별자를 획득하는 단계를 포함할 수 있다.
몇몇 실시예에서, 상기 제2 인공 신경망으로부터 상기 임플란트의 형상 특징을 획득하는 단계는, 상기 제2 인공 신경망에 입력된 임플란트 및 어버트먼트의 유형에 대한 정보가 상기 환자의 구강에 익스터널 임플란트만 존재함을 가리키는 경우에, 상기 임플란트의 외부 형태, 상기 임플란트 외부 나사산 형태, 상기 임플란트 외부 나사산 개수, 상기 임플란트의 치관 방향 정점부터 상기 임플란트 내 나사산까지의 거리, 상기 임플란트 내 나사산 직경을 포함하는 제3형 임플란트 형상 특징을 획득하는 단계를 포함할 수 있다.
몇몇 실시예에서, 상기 제2 인공 신경망으로부터 상기 임플란트의 형상 특징을 획득하는 단계는, 상기 제2 인공 신경망에 입력된 임플란트 및 어버트먼트의 유형에 대한 정보가 상기 환자의 구강에 익스터널 임플란트에 힐링 어버트먼트가 체결된 오브젝트가 존재함을 가리키는 경우에, 상기 제3형 임플란트 형상 특징 및 상기 임플란트와 상기 힐링 어버트먼트의 체결에 따른 상기 어버트먼트의 헤드에 의하여 밀폐되는 상기 임플란트의 어버트먼트 체결 홀의 잔여 공간의 형상 식별자를 포함하는, 제4형 임플란트 형상 특징을 획득하는 단계를 포함할 수 있다.
몇몇 실시예에서, 상기 제2 인공 신경망으로부터 상기 임플란트의 형상 특징을 획득하는 단계는, 상기 제2 인공 신경망에 입력된 임플란트 및 어버트먼트의 유형에 대한 정보가 상기 환자의 구강에 일체형 임플란트만 존재함을 가리키는 경우에, 상기 임플란트 외부 나사산 형태, 상기 임플란트 외부 나사산 개수, 상기 임플란트 외부 에이펙스 형태를 포함하는, 제5형 임플란트 형상 특징을 획득하는 단계를 포함할 수 있다.
몇몇 실시예에서, 상기 환자의 구강에 식립된 임플란트의 식별 방법은 상기 임플란트 식별 정보에 기초하여, 상기 임플란트 식별 정보에 대응되는 치료 계획을 제안하는 단계를 더 포함할 수 있다.
상기한 기술적 과제를 해결하기 위한 본 개시의 다른 실시예에 따른 임플란트 식별 시스템은, 하나 이상의 프로세서 및 하나 이상의 인스트럭션(instruction)들을 저장하는 메모리를 포함할 수 있다. 여기서, 상기 하나 이상의 프로세서는, 상기 저장된 하나 이상의 인스트럭션들을 실행시킴으로써, 제3 인공 신경망(Artificial Neural Network)에 환자의 구강에 식립된 임플란트의 형상 특징을 입력하고, 상기 제3 인공 신경망의 출력 값을 획득하는 동작 및 상기 제3 인공 신경망에서 출력된 출력 값을 이용하여, 제조사 및 임플란트 타입을 포함하는 임플란트 식별 정보를 생성하는 동작을 수행할 수 있다. 상기 임플란트의 형상 특징은, 상기 임플란트와 어버트먼트의 체결에 따라 형성되는 상기 임플란트와 상기 어버트먼트 사이의 내부 공간의 형상 식별자를 포함하는 것일 수 있다.
몇몇 실시예에서, 상기 하나 이상의 프로세서는, 상기 임플란트 식별 정보에 기초하여, 상기 임플란트 식별 정보에 대응되는 치료 계획을 제안하는 동작을 더 수행할 수 있다.
본 개시의 몇몇 실시예들에 따르면, 사용자는 환자의 구강에 식립된 임플란트의 종류 및 제조사에 대한 정보를 획득할 수 있다.
본 개시의 몇몇 실시예에 따르면, 사용자는 환자의 구강에 존재하는 인공 구조물의 종류에 대한 정보를 획득할 수 있다.
본 개시의 몇몇 실시예에 따르면, 환자의 구강에 식립된 임플란트 및 어버트먼트의 유형에 대한 정보가 획득될 수 있다.
본 개시의 몇몇 실시예에 따르면, 사용자는 환자의 구강에 식립된 임플란트의 처치에 필요한 부품 및 키트에 대한 정보를 획득할 수 있다.
본 개시의 몇몇 실시예에 따르면, 환자의 구강에 식립된 임플란트의 내부 구조에 대한 정보가 획득될 수 있다.
본 개시의 몇몇 실시예에 따르면, 사용자에 의해 특정된 환자의 의료 영상 내 특정 관심 영역에 존재하는 임플란트 형상이 획득될 수 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 개시의 일 실시예에 따른 임플란트 식별 시스템이 적용될 수 있는 예시적인 환경을 도시한다.
도 2는 본 개시의 몇몇 실시예에서 수행될 수 있는 입력 데이터를 증강시키는 단계를 예시하는 도면이다.
도 3은 본 개시의 몇몇 실시예에서 수행될 수 있는 입력 데이터를 증강시키는 단계를 예시하는 도면이다.
도 4는 본 개시의 몇몇 실시예의 수행결과 표시될 수 있는 마스킹된 오브젝트들을 예시적으로 설명하기 위한 도면이다.
도 5는 본 개시의 몇몇 실시예의 수행결과 치아 각각에 치식 번호가 부여된 환자의 의료 영상을 예시적으로 설명하기 위한 도면이다.
도 6은 본 개시의 다른 실시예에 따른 딥러닝 방식을 이용한 임플란트 식별 방법의 순서도이다.
도 7은 도 6을 참조하여 설명된 일부 단계를 보다 자세하게 설명하기 위한 순서도이다.
도 8은 본 개시의 몇몇 실시예에서 수행될 수 있는 치식 번호를 입력 받는 단계의 수행 결과를 예시하는 도면이다.
도 9는 본 개시의 몇몇 실시예에서 수행될 수 있는 제1 오브젝트를 식별하는 단계의 수행 결과를 예시하는 도면이다.
도 10은 본 개시의 몇몇 실시예에서 수행될 수 있는 제1 오브젝트에 포함된 임플란트 및 어버트먼트를 식별하는 단계를 예시적으로 설명하기 위한 도면이다.
도 11은 본 개시의 몇몇 실시예에서 수행될 수 있는 제1 오브젝트에 포함된 임플란트 및 어버트먼트를 식별하는 단계를 예시적으로 설명하기 위한 도면이다.
도 12는 본 개시의 몇몇 실시예에서 수행될 수 있는 인터널 임플란트의 형상 특징을 획득하는 단계를 예시적으로 설명하기 위한 도면이다.
도 13은 본 개시의 몇몇 실시예에서 수행될 수 있는 인터널 임플란트에 어버트먼트가 포함된 오브젝트의 형상 특징을 획득하는 단계를 예시적으로 설명하기 위한 도면이다.
도 14는 본 개시의 몇몇 실시예에서 수행될 수 있는 임플란트에 어버트먼트가 포함된 오브젝트의 형상 특징을 획득하는 단계를 예시적으로 설명하기 위한 도면이다.
도 15는 본 개시의 몇몇 실시예에서 수행될 수 있는 익스터널 임플란트의 형상 특징을 획득하는 단계를 예시적으로 설명하기 위한 도면이다.
도 16은 본 개시의 몇몇 실시예에서 수행될 수 있는 익스터널 임플란트에 어버트먼트가 포함된 오브젝트의 형상 특징을 획득하는 단계를 예시적으로 설명하기 위한 도면이다.
도 17은 본 개시의 몇몇 실시예에서 수행될 수 있는 일체형 임플란트의 형상 특징을 획득하는 단계를 예시적으로 설명하기 위한 도면이다.
도 18은 본 개시의 몇몇 실시예의 수행결과 표시될 수 있는 환자의 구강에 식립된 임플란트의 제조사를 예측한 결과를 예시적으로 설명하기 위한 도면이다.
도 19는 본 개시의 몇몇 실시예의 수행결과 표시될 수 있는 환자의 구강에 식립된 임플란트의 제조사를 예측한 결과에 기초하여 치료 계획을 제안하는 단계를 예시적으로 설명하기 위한 도면이다.
도 20은 본 개시의 일 실시예에 따른 임플란트 식별 시스템의 하드웨어 구성도이다.
이하, 첨부된 도면을 참조하여 본 개시의 바람직한 실시예들을 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명의 기술적 사상은 이하의 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 이하의 실시예들은 본 발명의 기술적 사상을 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 기술적 사상은 청구항의 범주에 의해 정의될 뿐이다.
본 개시를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
본 명세서에서 도면을 참고하여 설명한 흐름도에서, 동작 순서는 변경될 수 있고, 여러 동작들이 병합되거나, 어느 동작이 분할될 수 있고, 특정 동작은 수행되지 않을 수 있다.
이하, 도면들을 참조하여 본 개시의 몇몇 실시예들을 설명한다. 도 1은 본 개시의 일 실시예에 따른 임플란트 식별 시스템이 적용될 수 있는 예시적인 환경을 도시한다. 도 1에 도시된 바와 같이, 본 개시의 일 실시예에 따른 임플란트 식별 시스템(100)은 환자 관리 시스템(PMS: Patient Management System)(200) 및 사용자 단말(300)과 상호 작용하여 딥러닝 방식을 이용한 임플란트 식별 방법을 실시할 수 있다.
도 1에는 임플란트 식별 시스템(100)과 환자 관리 시스템(200)이 별개의 시스템인 것으로 도시되어 있으나, 몇몇 실시예들에서, 임플란트 식별 시스템(100)과 환자 관리 시스템(200)은 하나의 시스템에서 스탠드 얼론(stand-alone) 방식으로 구성될 수도 있을 것이다. 이 경우, 임플란트 식별 시스템(100)에서 수행되는 동작은 환자 관리 시스템(200)에서 수행되는 것으로 이해될 수 있다.
또한, 임플란트 식별 시스템(100)은 가상 머신 등 클라우드 기술에 기반하여 서버 팜(server farm)에 포함된 하나 이상의 물리 서버(physical server)를 이용하여 구성될 수도 있다.
이하, 도 1을 참조하여 도 1에 도시된 각 구성요소 및 각 구성요소들이 수행할 수 있는 동작에 관하여 보다 구체적으로 설명하기로 한다.
본 개시의 몇몇 실시예에 따른 환자 관리 시스템(200)은 사용자 단말(300)로부터의 입력에 기초하여, 특정 환자의 구강을 촬영한 의료 영상을 임플란트 식별 시스템(100)에 송신할 수 있다. 여기서, 상기 의료 영상은 상기 환자의 구강을 촬영한 파노라마 영상 또는 구강 센서 영상을 포함한 방사선 촬영 영상일 수 있다.
본 개시의 다른 몇몇 실시예에서 도 2를 참조하면, 상기 의료 영상으로서 상기 환자의 파노라마 영상(21)이 입력될 수 있다. 또한, 환자 관리 시스템(200)은 임플란트 식별 시스템(100)으로 하여금 환자의 파노라마 영상(21)으로부터 환자의 구강에 식립된 임플란트의 타입 및 제조사에 대한 정보를 정확하게 추출하도록 하기 위하여, 환자의 파노라마 영상(21)의 회전 영상(22), 환자의 파노라마 영상(21)의 좌우 반전(mirroring) 영상(23) 및 환자의 파노라마 영상(21)의 색반전(invert) 영상(24)을 상기 임플란트 식별 시스템(100)에 송신하는 의료 영상에 포함시킬 수 있다.
본 개시의 다른 몇몇 실시예에서 도 3을 참조하면, 상기 의료 영상으로서 상기 환자의 구강 센서 영상(31)이 입력될 수 있다. 또한, 환자 관리 시스템(200)은 임플란트 식별 시스템(100)으로 하여금 환자의 구강 센서 영상(31)으로부터 환자의 구강에 식립된 임플란트의 타입 및 제조사에 대한 정보를 정확하게 추출하도록 하기 위하여, 환자의 구강 센서 영상(31)의 회전 영상(32), 환자의 구강 센서 영상(31)의 좌우 반전(mirroring) 영상(33) 및 환자의 구강 센서 영상(31)의 색반전(invert) 영상(34)을 상기 임플란트 식별 시스템(100)에 송신하는 의료 영상에 포함시킬 수 있다.
본 개시의 또 다른 몇몇 실시예에서 도 4를 참조하면, 환자 관리 시스템(200)은 상기 의료 영상으로서 임플란트, 치아 및 본 레벨이 마스킹 처리 된 환자의 파노라마 영상(41) 또는 환자의 구강 센서 영상(42)을 임플란트 식별 시스템(100)에 송신할 수 있다.
본 개시의 또 다른 몇몇 실시예에서, 도 5를 참조하면, 환자 관리 시스템(200)은 상기 의료 영상으로서 환자의 파노라마 영상을 임플란트 식별 시스템(100)에 송신할 수 있되, 상기 의료 영상은 상기 의료 영상에 포함된 치아 각각에 대응되는 영역과 상기 치아 각각에 대응되는 영역 각각의 치식 번호가 기 정의된 것일 수 있다. 또한, 도 5에 도시된 바와 같이, 상기 의료 영상은 환자의 구강에 식립된 임플란트에 대응되는 영역(51)과 임플란트에 대응되는 영역(51)의 치식 번호도 기 정의된 것일 수 있다.
본 개시의 또 다른 몇몇 실시예에서, 환자 관리 시스템(200)은 사용자 단말(300)로부터 수신한 상기 환자의 의료 영상에 포함된 특정 치식에 대한 사용자의 선택 입력을 임플란트 식별 시스템(100)에 송신할 수 있다. 여기서, 환자 관리 시스템(200)이 임플란트 식별 시스템(100)에 송신하는 상기 특정 치식에 대한 사용자의 선택 입력에 대한 정보는 상기 사용자가 선택한 특정 치식의 치아에 대응되는 영역을 포함할 수 있다.
본 개시의 몇몇 실시예에 따른 사용자 단말(300)은 네트워크를 통하여 환자 관리 시스템(200)으로부터 수신된 전자 차트를 출력할 수 있다. 그리고, 사용자 단말(300)은 임플란트 식별 시스템(100)으로부터 수신한 환자의 구강에 식립된 임플란트의 종류 및 제조사에 대한 정보를 상기 전자 차트를 통해 사용자에게 표시할 수 있다.
본 개시의 다른 몇몇 실시예에 따른 사용자 단말(300)은 환자 관리 시스템(200)에 상기 환자의 의료 영상에 포함된 특정 치식에 대한 사용자의 선택 입력을 송신할 수 있다.
본 개시의 몇몇 실시예에 따른 임플란트 식별 시스템(100)은 제1 인공 신경망에 관심 영역이 기 정의된 환자의 의료 영상을 입력하고, 상기 제1 인공 신경망으로부터 상기 환자의 구강에 식립된 임플란트 및 어버트먼트의 유형에 대한 정보를 획득할 수 있다.
본 개시의 다른 몇몇 실시예에 따른 임플란트 식별 시스템(100)은 제2 인공 신경망에 상기 제1 인공 신경망으로부터 획득한 임플란트 및 어버트먼트의 유형에 대한 정보를 입력하고, 상기 제2 인공 신경망으로부터 상기 임플란트의 형상 특징을 획득할 수 있다. 여기서, 상기 임플란트의 형상 특징은 임플란트의 외부 형상 및 내부 형상의 식별자에 대한 정보를 모두 포함하는 것일 수 있으나, 이에 관하여는 후술한다.
본 개시의 또 다른 몇몇 실시예에 따른 임플란트 식별 시스템(100)은 제3 인공 신경망에 상기 제2 인공 신경망으로부터 획득한 환자의 구강에 식립된 임플란트의 형상 특징을 입력하고, 상기 환자의 구강에 식립된 임플란트의 제조사 정보, 임플란트 타입 정보를 포함하는 임플란트 식별 정보를 획득할 수 있다.
본 개시의 또 다른 몇몇 실시예에 따른 임플란트 식별 시스템(100)은 상기 획득한 임플란트 식별 정보를 기초로 상기 임플란트 식별 정보에 대응되는 것으로 판단되는 치료 계획을 환자 관리 시스템(200)에 송신할 수 있다.
또한, 환자 관리 시스템(200)은 상기 수신한 치료 계획을 포함하는 전자 차트에 대한 정보를 사용자 단말(300)에 송신하고, 사용자 단말(300)은 상기 치료 계획을 포함하는 전자 차트를 디스플레이(display)할 수 있다.
지금까지 도 1 내지 도 5를 참조하여 임플란트 식별 시스템(100)의 구성 및 동작과 임플란트 식별 시스템(100)이 적용될 수 있는 예시적인 환경에 포함된 구성요소들 각각이 수행할 수 있는 동작에 관하여 설명하였다. 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
이하 도 6 내지 도 19를 참조하여 본 개시의 다른 실시예에 따른 딥러닝 방식을 이용한 임플란트 식별 방법에 대하여 자세히 설명하도록 한다. 이하, 몇몇 순서도에서 설명될 단계는 특별한 언급이 없는 한 상기 도 1을 참조하여 설명한 임플란트 식별 시스템(100)에 의해 수행되는 것으로 이해되어도 좋다.
도 6은 본 개시의 다른 실시예에 따른 딥러닝 방식을 이용한 임플란트 식별 방법의 순서도이다.
단계 S100에서, 임플란트 식별 시스템(100)은 도 1을 참조하여 설명한 환자 관리 시스템(200)으로부터 관심 영역이 기 설정된 환자의 의료 영상을 입력 받을 수 있다.
다음으로, 단계 S200에서, 임플란트 식별 시스템(100)은 제1 인공 신경망에 상기 환자의 의료 영상을 입력하고, 상기 제1 인공 신경망으로부터 환자의 구강에 식립된 임플란트 및 어버트먼트의 유형에 대한 정보를 획득할 수 있다. 이하, 상기 단계 S200에 관하여는 도 7 내지 도 11을 참조하여 설명한다.
이하에서 도 7 내지 도 11을 참조하여 설명될 단계 S200과 관련된 몇몇 실시예에서 임플란트 식별 시스템(100)이 수행하는 동작은 임플란트 식별 시스템(100)이 제1 인공 신경망에 상기 환자의 의료 영상을 입력함으로써 수행되는 것일 수 있다.
도 7에 도시된 단계 S210에서, 임플란트 식별 시스템(100)은 상기 의료 영상에 포함된 관심 영역에서, 제1 오브젝트를 식별할 수 있다.
예를 들어 도 8을 참조하면, 임플란트 식별 시스템(100)은 도 1을 참조하여 설명한 환자 관리 시스템(200)으로부터 사용자 단말(300)에 표시된 전자 차트(81)에 포함된 환자의 의료 영상에서 제1 치식(80)에 대한 사용자의 입력을 수신하고, 제1 치식(80)에 대응되는 영역에 존재하는 오브젝트를 파노라마 영상의 경우 제1 오브젝트(71)로 식별할 수 있으며, 구강 센서 영상의 경우 제1 오브젝트(82)로 식별 할 수 있다.
단계 S210과 관련된 몇몇 실시예에서, 도 8을 참조하면, 임플란트 식별 시스템(100)은 사용자가 선택 입력한 제1 치식(80)에 대응되는 영역 내에 존재하는 HU 값이 기준치 이상이고, 제1 치식(80)에 대응되는 영역 내에 존재하는 가장 큰 부피를 갖는 오브젝트를 파노라마 영상의 경우 제1 오브젝트(71)로 식별할 수 있으며, 구강 센서 영상의 경우 제1 오브젝트(82)로 식별할 수 있다.
단계 S210과 관련된 몇몇 실시예에서, 임플란트 식별 시스템(100)은 제1 오브젝트를 마스킹(masking)할 수 있다.
단계 S220에서, 임플란트 식별 시스템(100)은 상기 식별한 제1 오브젝트에서, 상기 제1 오브젝트에 포함된 임플란트 및 어버트먼트를 식별할 수 있다.
단계 S220과 관련된 몇몇 실시예에서, 임플란트 식별 시스템(100)은 상기 식별한 제1 오브젝트를 치아, 임플란트만 존재하는 오브젝트, 분리형 임플란트에 힐링 어버트먼트를 포함한 오브젝트, 분리형 임플란트에 일체형 어버트먼트를 포함한 오브젝트 및 분리형 임플란트에 분리형 어버트먼트를 포함한 오브젝트 중 어느 하나인 것으로 결정할 수 있다.
예를 들어, 도 9를 참조하면, 임플란트 식별 시스템(100)은 제1 오브젝트(82)를 어버트먼트 및 크라운을 모두 포함하는 오브젝트(91), 임플란트만 존재하는 오브젝트(92), 임플란트에 어버트먼트가 체결된 오브젝트(93) 중 어느 하나인 것으로 결정할 수 있다.
단계 S220과 관련된 몇몇 실시예에서, 임플란트 식별 시스템(100)은 제1 오브젝트가 임플란트만 존재하는 오브젝트로 식별된 경우에, 상기 임플란트 내부의 나사산 구조의 존재 여부에 기초하여 상기 제1 오브젝트를 일체형 임플란트 및 분리형 임플란트 중 어느 하나인 것으로 결정할 수 있다.
단계 S220과 관련된 몇몇 실시예에서, 임플란트 식별 시스템(100)은 제1 오브젝트가 임플란트만 존재하는 오브젝트로 식별된 경우에, 상기 임플란트 상단의 돌출 여부에 기초하여 상기 제1 오브젝트를 인터널(internal) 임플란트, 익스터널(external) 임플란트 및 일체형 임플란트 중 어느 하나인 것으로 결정할 수 있다.
예를 들어, 도 10을 참조하여 설명하면, 임플란트 식별 시스템(100)은 제1 오브젝트의 치관 방향에 존재하는 기준 영역(105) 내에 존재하는 제1 오브젝트의 형상에 기초하여, 상기 제1 오브젝트를 인터널 임플란트(102), 익스터널 임플란트(103)와 같은 분리형 임플란트(101) 및 일체형 임플란트(104) 중 어느 하나인 것으로 결정할 수 있다.
단계 S220과 관련된 몇몇 실시예에서, 도 11을 참조하면, 임플란트 식별 시스템(100)은 제1 오브젝트(82)의 임플란트 내부의, 임플란트와 임플란트에 체결되는 어버트먼트 사이의 빈 공간의 형상(112)에 기초하여, 제1 오브젝트(82)의 임플란트에 체결된 어버트먼트를 힐링 어버트먼트를 포함한 일체형 어버트먼트 또는 분리형 어버트먼트 중 어느 하나인 것으로 결정할 수 있다.
단계 S220과 관련된 몇몇 실시예에서, 도 11을 참조하면, 임플란트 식별 시스템(100)은 제1 오브젝트(82)의 임플란트 내부의, 임플란트와 임플란트에 체결되는 어버트먼트 사이의 빈 공간의 형상(112)에 기초하여, 제1 오브젝트(82)의 임플란트에 상기 어버트먼트가 오체결 되어 있는 지의 여부를 결정할 수 있다.
지금까지 단계 S200에 관하여 자세히 설명하였다.
이하, 도 6을 참조하여 계속 설명한다.
도 6의 단계 S300에서, 임플란트 식별 시스템(100)은 제2 인공 신경망에 상기 단계 S200의 수행 결과 획득한 환자의 구강에 식립된 임플란트 및 어버트먼트의 유형에 대한 정보를 입력하고, 상기 임플란트의 형상 특징을 획득할 수 있다. 이하, 상기 임플란트의 형상 특징을 획득하는 단계를 도 12 내지 도 13을 참조하여 설명하기로 한다.
이하에서 도 12 내지 도 13을 참조하여 설명될 단계 S300과 관련된 몇몇 실시예에서 임플란트 식별 시스템(100)이 수행하는 동작은 임플란트 식별 시스템(100)이 제2 인공 신경망에 상기 환자의 구강에 식립된 임플란트 및 어버트먼트의 유형에 대한 정보를 입력함으로써 수행되는 것일 수 있다.
단계 S300과 관련된 몇몇 실시예에서, 임플란트 식별 시스템(100)은 상기 입력한 환자의 구강에 식립된 임플란트 및 어버트먼트의 유형에 대한 정보가 상기 환자의 구강에 존재하는 제1 오브젝트가 인터널 임플란트임을 가리키는 경우에, 제2 인공 신경망에 상기 환자의 구강에 식립된 임플란트 및 어버트먼트의 유형에 대한 정보를 입력하고, 상기 제2 인공 신경망으로부터 제1형 임플란트 형상 특징을 획득할 수 있다. 여기서, 상기 제1형 임플란트 형상 특징에 대하여는 도 12를 참조하여 설명하기로 한다.
또한, 단계 S300과 관련된 몇몇 실시예를 설명하기에 앞서, 상기 제2 인공 신경망으로부터 획득되는 임플란트의 형상 특징에 관한 용어에 대하여 명확히 하기로 한다.
본 개시의 몇몇 실시예에서 등장할 수 있는 임플란트의 외부 형태에 대한 정보는, 임플란트의 치관 방향 정점으로부터 에이펙스(Apex)까지의 각도를 포함할 수 있다.
여기서, 본 개시의 몇몇 실시예에 따른 에이펙스는, 임플란트 삽입 시에 처음으로 구강 뼈와 인접하는 지점을 의미할 수 있다.
본 개시의 몇몇 실시예에서 등장할 수 있는 임플란트의 외부 나사산 개수는, 임플란트의 나사산 각각 간의 간격을 의미할 수도 있다.
본 개시의 몇몇 실시예에서 등장할 수 있는 임플란트의 외부 나사산 형태에 대한 정보는, 임플란트의 외부 나사산의 형태가 리버스 버트리스(reverse buttress) 형태로 판단되는 지의 여부, 임플란트의 외부 나사산의 형태가 라운드 스레드(round threads) 형태로 판단되는 지의 여부, 임플란트의 외부 나사산의 형태가 스퀘어 스레드(square threads) 형태로 판단되는 지의 여부, 임플란트의 외부 나사산의 형태가 브이-쉐이프 스레드(V-shape threads) 형태로 판단되는 지의 여부, 임플란트의 외부 나사산의 형태가 마이크로 스레드(micro threads) 형태로 판단되는 지의 여부, 임플란트의 외부 나사산의 형태가 칼라(collar) 형태로 판단되는 지의 여부를 포함할 수 있다.
본 개시의 몇몇 실시예에서 등장할 수 있는 임플란트의 외부 에이펙스 형태는, 상기 임플란트의 외부 에이펙스가 라운드(round) 형으로 판단되는 지의 여부, 상기 임플란트의 외부 에이펙스가 플랫(flat) 형으로 판단되는 지의 여부, 상기 임플란트의 외부 에이펙스가 샤프(sharp) 형으로 판단되는 지의 여부를 포함할 수 있다.
단계 S300과 관련된 다른 몇몇 실시예에서, 상기 제1형 임플란트 형상 특징은, 상기 환자의 구강에 식립된 인터널 임플란트(129)의 외부 형태(121), 인터널 임플란트(129)의 외부 나사산 형태(122), 인터널 임플란트(129)의 외부 나사산 개수(123), 인터널 임플란트(129)의 외부 에이펙스(Apex) 형태(124), 인터널 임플란트(129)의 치관 방향 정점부터 인터널 임플란트(129) 내 나사산까지의 거리(125), 인터널 임플란트(129)의 치관 방향 정점부터 어버트먼트가 체결되는 부위까지의 거리(126), 인터널 임플란트(129) 내 나사산 직경(127), 인터널 임플란트(129)의 내부 각도(128)를 포함할 수 있다.
단계 S300과 관련된 또 다른 몇몇 실시예에서, 임플란트 식별 시스템(100)은 상기 입력한 환자의 구강에 식립된 임플란트 및 어버트먼트의 유형에 대한 정보가 상기 환자의 구강에 존재하는 제1 오브젝트가 인터널 임플란트에 힐링 어버트먼트가 체결된 오브젝트(133) 또는 인터널 임플란트에 나사 일체형 어버트먼트가 체결된 오브젝트(134)임을 가리키는 경우에, 제2 인공 신경망에 상기 환자의 구강에 식립된 임플란트 및 어버트먼트의 유형에 대한 정보를 입력하고, 상기 제2 인공 신경망으로부터 상기 제1형 임플란트 형상 특징 및 제2형 임플란트 형상 특징을 획득할 수 있다. 여기서, 상기 제2형 임플란트 형상 특징에 대하여는 도 13을 참조하여 설명하기로 한다.
단계 S300과 관련된 또 다른 몇몇 실시예에서, 상기 제2형 임플란트 형상 특징은, 제1 내부 공간(131)의 형상 식별자 및 제2 내부 공간(132)의 형상 식별자를 포함할 수 있다.
여기서, 제1 내부 공간(131)은 상기 임플란트와 어버트먼트의 체결에 따른 상기 임플란트의 내부 나사산과 상기 어버트먼트 나사산의 접촉 영역과, 상기 어버트먼트의 헤드에 의하여 밀폐되는 상기 임플란트의 어버트먼트 체결 홀의 잔여 공간을 의미할 수 있다.
또한, 제2 내부 공간(132)은 상기 접촉 영역과, 상기 어버트먼트의 치근 방향 말단에 의하여 밀폐되는 상기 임플란트의 어버트먼트 체결 홀의 제1 내부 공간과 다른 잔여 공간일 수 있다.
단계 S300과 관련된 또 다른 몇몇 실시예에서, 임플란트 식별 시스템(100)은 상기 입력한 환자의 구강에 식립된 임플란트 및 어버트먼트의 유형에 대한 정보가 상기 환자의 구강에 존재하는 제1 오브젝트가 임플란트에 나사 분리형 어버트먼트가 체결된 오브젝트임을 가리키는 경우에, 제2 인공 신경망에 상기 환자의 구강에 식립된 임플란트 및 어버트먼트의 유형에 대한 정보를 입력하고, 상기 제2 인공 신경망으로부터 상기 제1형 임플란트 형상 특징, 제2 내부 공간의 형상 식별자 및 상기 임플란트 내 상기 어버트먼트가 오체결되었을 때 잔존하는 공간의 형상 식별자를 획득할 수 있다.
여기서, 상기 제2 내부 공간의 형상 식별자 및 상기 임플란트 내 상기 나사 분리형 어버트먼트가 오체결되었을 때 잔존하는 공간의 형상 식별자는 도 14를 참조하여 설명하기로 한다.
단계 S300과 관련된 또 다른 몇몇 실시예에 따른 임플란트 내 나사 분리형 어버트먼트가 체결되었을 때 제2 내부 공간(142)의 형상 식별자는, 도 14를 참조하면, 상기 제1 오브젝트의 임플란트에 나사 분리형 어버트먼트가 체결된 오브젝트(141)에서, 상기 제1 오브젝트의 임플란트의 내부 나사산과 상기 나사 분리형 어버트먼트 나사산의 접촉 영역과, 상기 어버트먼트의 치근 방향 말단에 의하여 밀폐되는 상기 임플란트의 어버트먼트 체결 홀의 잔여 공간인 제2 내부 공간(142)의 형상 식별자를 의미할 수 있다.
단계 S300과 관련된 또 다른 몇몇 실시예에 따른 임플란트 내 나사 분리형 어버트먼트가 오체결되었을 때 잔존하는 공간(146)의 형상 식별자는, 도 14에 도시된 임플란트 내 나사 분리형 어버트먼트가 정체결된 오브젝트(143)에 잔존하는 공간(145)의 형태와 크기 및 임플란트 내 나사 분리형 어버트먼트가 오체결된 오브젝트(144)에 잔존하는 공간(146)의 형태와 크기의 차이에 기초하여 결정되는 것일 수 있다.
단계 S300과 관련된 몇몇 실시예에서, 임플란트 식별 시스템(100)은 상기 입력한 환자의 구강에 식립된 임플란트 및 어버트먼트의 유형에 대한 정보가 상기 환자의 구강에 존재하는 제1 오브젝트가 익스터널 임플란트임을 가리키는 경우에, 제2 인공 신경망에 상기 환자의 구강에 식립된 임플란트 및 어버트먼트의 유형에 대한 정보를 입력하고, 상기 제2 인공 신경망으로부터 제3형 임플란트 형상 특징을 획득할 수 있다. 여기서, 상기 제3형 임플란트 형상 특징에 대하여는 도 15를 참조하여 설명하기로 한다.
단계 S300과 관련된 몇몇 실시예에 따른 제3형 임플란트 형상 특징은, 상기 환자의 구강에 식립된 익스터널 임플란트(151)의 외부 형태(121), 익스터널 임플란트(151)의 외부 나사산 형태(122), 익스터널 임플란트(151)의 외부 나사산 개수(123), 익스터널 임플란트(151)의 외부 에이펙스 형태(124), 익스터널 임플란트(151)의 치관 방향 정점부터 익스터널 임플란트(151) 내부 나사산까지의 거리(125), 익스터널 임플란트(151) 내부의 나사산 직경(127)을 포함할 수 있다.
단계 S300과 관련된 또 다른 몇몇 실시예에서, 임플란트 식별 시스템(100)은 상기 입력한 환자의 구강에 식립된 임플란트 및 어버트먼트의 유형에 대한 정보가 상기 환자의 구강에 존재하는 제1 오브젝트가 익스터널 임플란트에 힐링 어버트먼트가 체결된 오브젝트임을 가리키는 경우에, 제2 인공 신경망에 상기 환자의 구강에 식립된 임플란트 및 어버트먼트의 유형에 대한 정보를 입력하고, 상기 제2 인공 신경망으로부터 상기 제3형 임플란트 형상 특징 및 제4형 임플란트 형상 특징을 획득할 수 있다. 여기서, 상기 제4형 임플란트 형상 특징에 대하여는 도 16을 참조하여 설명하기로 한다.
단계 S300과 관련된 또 다른 몇몇 실시예에 따른 제4형 임플란트 형상 특징은, 도 15를 참조하여 설명한 익스터널 임플란트(151)와 상기 힐링 어버트먼트의 체결에 따른 상기 힐링 어버트먼트의 헤드에 의하여 밀폐되는 상기 익스터널 임플란트(151)의 어버트먼트 체결 홀의 잔여 공간(161)의 형상 식별자를 포함할 수 있다.
단계 S300과 관련된 또 다른 몇몇 실시예에서, 임플란트 식별 시스템(100)은 상기 입력한 환자의 구강에 식립된 임플란트 및 어버트먼트의 유형에 대한 정보가 상기 환자의 구강에 존재하는 제1 오브젝트가 일체형 임플란트임을 가리키는 경우에, 제2 인공 신경망에 상기 환자의 구강에 식립된 임플란트 및 어버트먼트의 유형에 대한 정보를 입력하고, 상기 제2 인공 신경망으로부터 제5형 임플란트 형상 특징을 획득할 수 있다. 여기서, 상기 제5형 임플란트 형상 특징에 대하여는 도 17을 참조하여 설명하기로 한다.
단계 S300과 관련된 또 다른 몇몇 실시예에 따른 제5형 임플란트 형상 특징은, 일체형 임플란트(171)의 외부 나사산 형태(122), 일체형 임플란트(171)의 외부 나사산 개수(123), 일체형 임플란트(171)의 외부 에이펙스 형태(124)를 포함할 수 있다.
지금까지 단계 S300과 관련된 몇몇 실시예에 관하여 자세히 설명하였다.
이하, 도 6을 참조하여 계속 설명한다.
단계 S400에서, 임플란트 식별 시스템(100)은 상기 단계 S300에서 획득한 임플란트의 형상 특징을 제3 인공 신경망에 입력하고, 환자의 구강에 식립된 임플란트의 제조사, 임플란트 타입 추정 결과 및 추정 결과 신뢰도를 포함하는 임플란트 식별 정보를 획득할 수 있다.
예를 들어, 임플란트 식별 시스템(100)은 제2 인공 신경망으로부터 획득한 임플란트의 형상 특징을 제3 인공 신경망에 입력한 결과, 환자의 구강에 식립된 임플란트의 제조사 정보 및 추정 결과 신뢰도(181)로서, 환자의 구강에 식립된 임플란트가 오스템 임플란트 제조사의 제품일 확률이 99프로라는 정보를 획득할 수 있는 것이다.
단계 S400과 관련된 몇몇 실시예에서, 도 18을 참조하면, 상기 임플란트 식별 정보는 환자의 구강에 식립된 임플란트의 나사산 간격(183)에 대한 정보를 포함할 수 있다.
단계 S500에서, 임플란트 식별 시스템(100)은 상기 획득한 임플란트 식별 정보에 대응되는 치료 계획을 사용자에게 제공할 수 있다.
단계 S500과 관련된 몇몇 실시예에서, 도 18 및 도 19를 참조하면, 임플란트 식별 시스템(100)은 단계 S400에서 획득한 환자의 구강에 식립된 임플란트의 나사산 간격(183)에 대한 정보에 기초하여 검출된 본 레벨로부터 임플란트가 노출된 거리가 기준치 이상이라는 판단에 응답하여, 상기 노출된 임플란트에 대한 정보(191)를 사용자 단말(300)에 표시되는 전자 차트를 통해 제공할 수 있다. 여기서, 노출된 임플란트에 대한 정보(191)는, 임플란트 식별 시스템(100)이 추정한 임플란트가 노출된 이유, 임플란트가 노출된 거리를 포함할 수 있다.
단계 S500과 관련된 다른 몇몇 실시예에서 도 18 및 도 19를 참조하면, 임플란트 식별 시스템(100)은 노출된 임플란트에 처치가 필요하다는 판단 및 단계 S400에서 획득한 환자의 구강에 식립된 임플란트의 제조사 정보 및 추정 결과 신뢰도(181)에 기초하여, 치료 계획(192)으로서 상기 임플란트의 제조사 정보에 대응되는 상기 노출된 임플란트를 처치(?)할 수 있는 키트(kit)에 관한 정보를 사용자에게 제공할 수 있다.
단계 S500과 관련된 또 다른 몇몇 실시예에서 도 18 및 도 19를 참조하면, 임플란트 식별 시스템(100)은 환자의 구강에 식립된 임플란트의 제거가 필요하다는 판단 및 단계 S400에서 획득한 환자의 구강에 식립된 임플란트의 제조사 정보 및 추정 결과 신뢰도(181)에 기초하여, 치료 계획(192)으로서 상기 임플란트의 제조사 정보에 대응되는 상기 임플란트를 제거할 수 있는 툴(tool)에 관한 정보를 사용자에게 제공할 수 있다.
단계 S500과 관련된 또 다른 몇몇 실시예에서 도 18 및 도 19를 참조하면, 임플란트 식별 시스템(100)은 환자의 구강에 식립된 임플란트의 보철물 재 제작이 필요하다는 판단 및 단계 S400에서 획득한 환자의 구강에 식립된 임플란트의 제조사 정보 및 추정 결과 신뢰도(181)에 기초하여, 치료 계획(192)으로서 상기 임플란트의 제조사 정보에 대응되는 어버트먼트에 관한 정보를 사용자에게 제공할 수 있다.
지금까지 본 개시의 다른 실시예에 따른 딥러닝 방식을 이용한 임플란트 식별 방법에 관하여 설명하였다. 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
도 20은 본 개시의 몇몇 실시예들에 따른 임플란트 식별 시스템의 하드웨어 구성도이다. 도 20의 임플란트 식별 시스템(100)은, 예를 들어 도 1을 참조하여 설명한 임플란트 식별 시스템(100)을 가리키는 것일 수 있다. 임플란트 식별 시스템(100)은 하나 이상의 프로세서(1100), 시스템 버스(1600), 통신 인터페이스(1200), 프로세서(1100)에 의하여 수행되는 컴퓨터 프로그램(1500)을 로드(load)하는 메모리(1400)와, 컴퓨터 프로그램(1500)을 저장하는 스토리지(1300)를 포함할 수 있다.
프로세서(1100)는 임플란트 식별 시스템(100)의 각 구성의 전반적인 동작을 제어한다. 프로세서(1100)는 본 개시의 다양한 실시예들에 따른 방법/동작을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 메모리(1400)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(1400)는 본 개시의 다양한 실시예들에 따른 방법/동작들을 실행하기 위하여 스토리지(1300)로부터 하나 이상의 컴퓨터 프로그램(1500)을 로드(load) 할 수 있다. 버스(1600)는 임플란트 식별 시스템(100)의 구성 요소 간 통신 기능을 제공한다. 통신 인터페이스(1200)는 임플란트 식별 시스템(100)의 인터넷 통신을 지원한다. 스토리지(1300)는 하나 이상의 컴퓨터 프로그램(1500)을 비임시적으로 저장할 수 있다. 컴퓨터 프로그램(1500)은 본 개시의 다양한 실시예들에 따른 방법/동작들이 구현된 하나 이상의 인스트럭션들(instructions)을 포함할 수 있다. 컴퓨터 프로그램(1500)이 메모리(1400)에 로드 되면, 프로세서(1100)는 상기 하나 이상의 인스트럭션들을 실행시킴으로써 본 개시의 다양한 실시예들에 따른 방법/동작들을 수행할 수 있다.
몇몇 실시예들에서, 도 20을 참조하여 설명된 임플란트 식별 시스템(100)은 가상 머신 등 클라우드 기술에 기반하여 서버 팜(server farm)에 포함된 하나 이상의 물리 서버(physical server)를 이용하여 구성될 수 있다. 이 경우, 도 20에 도시된 구성 요소 중 프로세서(1100), 메모리(1400) 및 스토리지(1300) 중 적어도 일부는 가상 하드웨어(virtual hardware)일 수 있을 것이며, 통신 인터페이스(1200) 또한 가상 스위치(virtual switch) 등 가상화 된 네트워킹 요소로 구성될 수 있을 것이다.
컴퓨터 프로그램(1500)은 제1 인공 신경망에 관심 영역이 기 설정된 환자의 의료 영상을 입력하고, 상기 제1 인공 신경망으로부터 상기 환자의 구강에 식립된 임플란트(implant) 및 어버트먼트(abutment)의 유형에 대한 정보를 획득하는 동작과, 제2 인공 신경망에 상기 획득한 임플란트 및 어버트먼트의 유형에 대한 정보를 입력하고, 상기 제2 인공 신경망으로부터 상기 임플란트의 형상 특징을 획득하는 동작 및 제3 인공 신경망(Artificial Neural Network)에 환자의 구강에 식립된 임플란트의 형상 특징을 입력하고, 상기 환자의 구강에 식립된 임플란트의 제조사, 임플란트 타입 추정 결과 및 추정 결과 신뢰도를 획득하는 동작을 수행하는, 인스트럭션(instruction)들을 포함할 수 있다.
지금까지 도 1 내지 도 20을 참조하여 본 개시의 다양한 실시예들 및 그 실시예들에 따른 효과들을 언급하였다. 본 개시의 기술적 사상에 따른 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
지금까지 설명된 본 개시의 기술적 사상은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체에 기록된 상기 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 상기 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 다른 컴퓨팅 장치에서 사용될 수 있다.
도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시 된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티태스킹 및 병렬 처리가 유리할 수도 있다. 이상 첨부된 도면을 참조하여 본 개시의 실시예들을 설명하였지만, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자는 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 본 발명이 다른 구체적인 형태로도 실시될 수 있다는 것을 이해할 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시에 의해 정의되는 기술적 사상의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (16)

  1. 컴퓨팅 시스템에 의하여 수행되는 방법에 있어서,
    제3 인공 신경망(Artificial Neural Network)에 환자의 구강에 식립된 임플란트의 형상 특징을 입력하고, 상기 제3 인공 신경망의 출력 값을 획득하는 단계; 및
    상기 제3 인공 신경망에서 출력된 출력 값을 이용하여, 제조사 및 임플란트 타입을 포함하는 임플란트 식별 정보를 생성하는 단계;를 포함하되,
    상기 임플란트의 형상 특징은,
    상기 임플란트와 어버트먼트의 체결에 따라 형성되는 상기 임플란트와 상기 어버트먼트 사이의 내부 공간의 형상 식별자를 포함하는 것인,
    딥러닝 방식을 이용한 임플란트 식별 방법.
  2. 제1 항에 있어서,
    제1 인공 신경망에 관심 영역이 기 설정된 환자의 의료 영상을 입력하고, 상기 제1 인공 신경망으로부터 상기 환자의 구강에 식립된 임플란트(implant) 및 어버트먼트(abutment)의 유형에 대한 정보를 획득하는 단계; 및
    제2 인공 신경망에 상기 획득한 임플란트 및 어버트먼트의 유형에 대한 정보를 입력하고, 상기 제2 인공 신경망으로부터 상기 임플란트의 형상 특징에 대한 정보를 획득하는 단계;를 더 포함하는,
    딥러닝 방식을 이용한 임플란트 식별 방법.
  3. 제1 항에 있어서,
    상기 형상 식별자는,
    제1 내부 공간의 형상 식별자 및 제2 내부 공간의 형상 식별자를 포함하고,
    상기 제1 내부 공간은,
    상기 임플란트와 어버트먼트의 체결에 따른 상기 임플란트의 내부 나사산과 상기 어버트먼트 나사산의 접촉 영역과, 상기 어버트먼트의 헤드에 의하여 밀폐되는 상기 임플란트의 어버트먼트 체결 홀의 잔여 공간이고,
    상기 제2 내부 공간은,
    상기 접촉 영역과, 상기 어버트먼트의 치근 방향 말단에 의하여 밀폐되는 상기 임플란트의 어버트먼트 체결 홀의 다른 잔여 공간인,
    딥러닝 방식을 이용한 임플란트 식별 방법.
  4. 제2 항에 있어서,
    상기 임플란트 및 어버트먼트의 유형에 대한 정보를 획득하는 단계는,
    상기 환자의 의료 영상의 관심 영역 내에 존재하는 HU(Hounsfield Unit) 값이 기준치 이상이고, 가장 큰 부피를 갖는 물체를 제1 오브젝트(object)로 식별하는 단계; 및
    상기 제1 오브젝트를 마스킹(masking) 하는 단계;를 포함하는,
    딥러닝 방식을 이용한 임플란트 식별 방법.
  5. 제4항에 있어서,
    상기 임플란트 및 어버트먼트의 유형에 대한 정보를 획득하는 단계는,
    상기 제1 오브젝트를 치아, 임플란트만 존재하는 오브젝트, 분리형 임플란트에 힐링 어버트먼트를 포함한 오브젝트, 분리형 임플란트에 일체형 어버트먼트를 포함한 오브젝트 및 분리형 임플란트에 분리형 어버트먼트를 포함한 오브젝트 중 어느 하나로 결정하는 단계;를 포함하는,
    딥러닝 방식을 이용한 임플란트 식별 방법.
  6. 제5 항에 있어서,
    상기 제1 오브젝트를 치아, 임플란트만 존재하는 오브젝트, 분리형 임플란트에 힐링 어버트먼트를 포함한 오브젝트, 분리형 임플란트에 일체형 어버트먼트를 포함한 오브젝트, 분리형 임플란트에 분리형 어버트먼트를 포함한 오브젝트 중 어느 하나로 결정하는 단계는,
    상기 제1 오브젝트가 임플란트만 존재하는 오브젝트로 결정된 경우에, 상기 임플란트 내부의 나사산 구조의 존재 여부에 기초하여 상기 제1 오브젝트를 일체형 임플란트 및 분리형 임플란트 중 어느 하나로 결정하는 단계;를 포함하는,
    딥러닝 방식을 이용한 임플란트 식별 방법.
  7. 제6 항에 있어서,
    상기 제1 오브젝트를 일체형 임플란트, 분리형 임플란트 중 어느 하나로 결정하는 단계는,
    상기 제1 오브젝트가 분리형 임플란트 결정된 경우에, 상기 분리형 임플란트의 구조에 기초하여 상기 제1 오브젝트를 인터널(Internal) 임플란트 및 익스터널(External) 임플란트 중 어느 하나로 결정하는 단계;를 포함하는,
    딥러닝 방식을 이용한 임플란트 식별 방법.
  8. 제4 항에 있어서,
    상기 제2 인공 신경망으로부터 상기 임플란트의 형상 특징을 획득하는 단계는,
    상기 제2 인공 신경망에 입력된 임플란트 및 어버트먼트의 유형에 대한 정보가 상기 환자의 구강에 인터널 임플란트만 존재함을 가리키는 경우에, 상기 임플란트의 외부 형태, 상기 임플란트의 외부 나사산 형태, 상기 임플란트 외부 나사산 개수, 상기 임플란트 에이펙스(Apex)의 외부 형태, 상기 임플란트의 치관 방향 정점부터 상기 임플란트 내 나사산까지의 거리, 상기 임플란트의 치관 방향 정점부터 어버트먼트가 체결되는 부위까지의 거리, 상기 임플란트 내 나사산 직경, 상기 임플란트 내부 각도를 포함하는 제1형 임플란트 형상 특징을 획득하는 단계;를 포함하는,
    딥러닝 방식을 이용한 임플란트 식별 방법.
  9. 제8 항에 있어서,
    상기 제2 인공 신경망으로부터 상기 임플란트의 형상 특징을 획득하는 단계는,
    상기 제2 인공 신경망에 입력된 임플란트 및 어버트먼트의 유형에 대한 정보가 상기 환자의 구강에 인터널 임플란트에 힐링 어버트먼트 또는 나사 일체형 어버트먼트가 체결된 오브젝트가 존재함을 가리키는 경우에, 상기 제1형 임플란트 형상 특징, 상기 제1 내부 공간의 형상 식별자 및 상기 제2 내부 공간의 형상 식별자를 포함하는, 제2형 임플란트 형상 특징을 획득하는 단계;를 포함하는,
    딥러닝 방식을 이용한 임플란트 식별 방법.
  10. 제8 항에 있어서,
    상기 제2 인공 신경망으로부터 상기 임플란트의 형상 특징을 획득하는 단계는,
    상기 제2 인공 신경망에 입력된 임플란트 및 어버트먼트의 유형에 대한 정보가 상기 환자의 구강의 임플란트 내 나사 분리형 어버트먼트가 체결되어 있음을 가리키는 경우에, 상기 제1형 임플란트 형상 특징 및 상기 임플란트 내 상기 어버트먼트가 오체결되었을 때 잔존하는 공간의 형상 식별자를 획득하는 단계;를 포함하는,
    딥러닝 방식을 이용한 임플란트 식별 방법.
  11. 제4 항에 있어서,
    상기 제2 인공 신경망으로부터 상기 임플란트의 형상 특징을 획득하는 단계는,
    상기 제2 인공 신경망에 입력된 임플란트 및 어버트먼트의 유형에 대한 정보가 상기 환자의 구강에 익스터널 임플란트만 존재함을 가리키는 경우에, 상기 임플란트의 외부 형태, 상기 임플란트 외부 나사산 형태, 상기 임플란트 외부 나사산 개수, 상기 임플란트 치관 방향 정점부터 상기 임플란트 내 나사산까지의 거리, 상기 임플란트 내 나사산 직경을 포함하는 제3형 임플란트 형상 특징을 획득하는 단계;를 포함하는,
    딥러닝 방식을 이용한 임플란트 식별 방법.
  12. 제11 항에 있어서,
    상기 제2 인공 신경망으로부터 상기 임플란트의 형상 특징을 획득하는 단계는,
    상기 제2 인공 신경망에 입력된 임플란트 및 어버트먼트의 유형에 대한 정보가 상기 환자의 구강에 익스터널 임플란트에 힐링 어버트먼트가 체결된 오브젝트가 존재함을 가리키는 경우에, 상기 제3형 임플란트 형상 특징 및 상기 임플란트와 상기 힐링 어버트먼트의 체결에 따른 상기 어버트먼트의 헤드에 의하여 밀폐되는 상기 임플란트의 어버트먼트 체결 홀의 잔여 공간의 형상 식별자를 포함하는, 제4형 임플란트 형상 특징을 획득하는 단계;를 포함하는,
    딥러닝 방식을 이용한 임플란트 식별 방법.
  13. 제4 항에 있어서,
    상기 제2 인공 신경망으로부터 상기 임플란트의 형상 특징을 획득하는 단계는,
    상기 제2 인공 신경망에 입력된 임플란트 및 어버트먼트의 유형에 대한 정보가 상기 환자의 구강에 일체형 임플란트만 존재함을 가리키는 경우에, 상기 임플란트 외부 나사산 형태, 상기 임플란트 외부 나사산 개수, 상기 임플란트 외부 에이펙스 형태를 포함하는, 제5형 임플란트 형상 특징을 획득하는 단계;를 포함하는,
    딥러닝 방식을 이용한 임플란트 식별 방법.
  14. 제1 항에 있어서,
    상기 임플란트 식별 정보에 기초하여, 상기 임플란트 식별 정보에 대응되는 치료 계획에 관련된 정보를 출력하는 단계;를 더 포함하는,
    딥러닝 방식을 이용한 임플란트 식별 방법.
  15. 하나 이상의 프로세서; 및
    하나 이상의 인스트럭션(instruction)들을 저장하는 메모리를 포함하고,
    상기 하나 이상의 프로세서는,
    상기 저장된 하나 이상의 인스트럭션들을 실행시킴으로써,
    제3 인공 신경망(Artificial Neural Network)에 환자의 구강에 식립된 임플란트의 형상 특징을 입력하고, 상기 제3 인공 신경망의 출력 값을 획득하는 동작; 및
    상기 제3 인공 신경망에서 출력된 출력 값을 이용하여, 제조사 및 임플란트 타입을 포함하는 임플란트 식별 정보를 생성하는 동작;을 수행하되,
    상기 임플란트의 형상 특징은,
    상기 임플란트와 어버트먼트의 체결에 따라 형성되는 상기 임플란트와 상기 어버트먼트 사이의 내부 공간의 형상 식별자를 포함하는 것인,
    임플란트 식별 시스템.
  16. 제15 항에 있어서,
    상기 하나 이상의 프로세서는,
    상기 임플란트 식별 정보에 기초하여, 상기 임플란트 식별 정보에 대응되는 치료 계획에 관련된 정보를 출력하는 동작을 더 수행하는,
    임플란트 식별 시스템.
PCT/KR2023/016468 2022-12-22 2023-10-23 딥러닝 방식을 이용한 임플란트 식별 방법 및 그 방법이 적용된 시스템 WO2024136072A1 (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2022-0181433 2022-12-22

Publications (1)

Publication Number Publication Date
WO2024136072A1 true WO2024136072A1 (ko) 2024-06-27

Family

ID=

Similar Documents

Publication Publication Date Title
WO2019132170A1 (ko) 학습용 데이터 관리방법, 장치 및 프로그램
WO2019132169A1 (ko) 수술영상 재생제어 방법, 장치 및 프로그램
WO2019088462A1 (ko) 혈압 추정 모델 생성 시스템 및 방법과 혈압 추정 시스템 및 방법
WO2020184876A1 (ko) 인공지능을 이용한 임플란트 수술 계획 수립 방법 및 이를 위한 의료영상 처리장치
WO2020226473A1 (ko) 치아 부가정보 제공 방법 및 그 장치
WO2016159726A1 (ko) 의료 영상으로부터 병변의 위치를 자동으로 감지하는 장치 및 그 방법
WO2019132244A1 (ko) 수술 시뮬레이션 정보 생성방법 및 프로그램
WO2024136072A1 (ko) 딥러닝 방식을 이용한 임플란트 식별 방법 및 그 방법이 적용된 시스템
WO2019221586A1 (ko) 의료영상 관리 시스템, 방법 및 컴퓨터 판독 가능한 기록매체
WO2021206518A1 (ko) 수술 후 수술과정 분석 방법 및 시스템
WO2013100319A1 (ko) 기준 좌표를 이용한 의료 영상 데이터 관리 장치 및 그 방법
WO2020209496A1 (ko) 치아 오브젝트 검출 방법 및 치아 오브젝트를 이용한 영상 정합 방법 및 장치
WO2021206517A1 (ko) 수술 중 혈관 네비게이션 방법 및 시스템
WO2019164273A1 (ko) 수술영상을 기초로 수술시간을 예측하는 방법 및 장치
WO2021141424A1 (ko) 이미지 필터링 방법
WO2023282454A1 (ko) Ai 학습을 위한 임플란트 클래스 분류 방법
WO2022014965A1 (ko) 구강 이미지 처리 장치 및 구강 이미지 처리 방법
WO2020141751A1 (ko) 신체 사이즈 측정용 사진 획득 방법 및 이를 이용한 신체 사이즈 측정 방법, 서버 및 프로그램
WO2022231147A1 (ko) 방사선량 측정 자동 평가 방법 및 장치
WO2020209495A1 (ko) 영상 데이터의 전처리 장치
WO2021246643A1 (ko) 구강 영상의 결손 치아 예측 방법 및 장치
WO2022114357A1 (ko) 영상 병변 진단 시스템
WO2022139068A1 (ko) 딥러닝 기반의 폐질환 진단 보조 시스템 및 딥러닝 기반의 폐질환 진단 보조 방법
WO2022039322A1 (ko) 임플란트 검색 및 자동 식별을 수행하는 시스템
WO2021215843A1 (ko) 구강 영상의 마커 검출 방법 및 이를 이용한 구강 영상 정합 장치 및 방법