WO2024071571A1 - Method for segmenting three-dimensional oral model and system therefor - Google Patents

Method for segmenting three-dimensional oral model and system therefor Download PDF

Info

Publication number
WO2024071571A1
WO2024071571A1 PCT/KR2023/008155 KR2023008155W WO2024071571A1 WO 2024071571 A1 WO2024071571 A1 WO 2024071571A1 KR 2023008155 W KR2023008155 W KR 2023008155W WO 2024071571 A1 WO2024071571 A1 WO 2024071571A1
Authority
WO
WIPO (PCT)
Prior art keywords
crown
data
segmentation
region
oral model
Prior art date
Application number
PCT/KR2023/008155
Other languages
French (fr)
Korean (ko)
Inventor
최병선
김완
용태훈
안홍기
Original Assignee
오스템임플란트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오스템임플란트 주식회사 filed Critical 오스템임플란트 주식회사
Publication of WO2024071571A1 publication Critical patent/WO2024071571A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Definitions

  • the present disclosure relates to a segmentation method of a three-dimensional oral model. More specifically, it relates to a segmentation method and device that is applied to a 3D oral model and partitions a 3D area for each tooth.
  • Digital dentistry refers to IT technology that helps treat patients who visit the dentist by digitizing and analyzing the patient's oral information.
  • digital dentistry can also be used in orthodontic treatment.
  • an improved tooth arrangement can be predicted reliably and conveniently compared to the current tooth condition.
  • teeth can be freely moved in all directions in a virtual space implemented as a three-dimensional space, allowing various orthodontic treatment plans to be established.
  • a 3D oral model in which gums or other anatomical structures and teeth are realized in 3D is provided to the surgeon, and the surgeon can select teeth to be treated using the 3D oral model. Additionally, the surgeon can edit the teeth to be treated in the 3D oral model.
  • the 3D area of each crown included in the 3D oral model must be distinguished from the gums or other anatomical structures. In other words, 3D segmentation of the tooth area for the 3D oral model is required.
  • the technical problem that the present disclosure aims to solve is to provide a method for automatically segmenting the crown area of a 3D oral model and a device to which the method is applied.
  • the technical problems of the present disclosure are not limited to the technical problems mentioned above, and other technical problems not mentioned can be clearly understood by those skilled in the art from the description below.
  • a segmentation method of a three-dimensional oral model is performed by a computing system, comprising the steps of acquiring at least one tooth scan data, and the three-dimensional tooth scan data.
  • An artificial neural network outputs center point data indicating the center point of the crown area of each tooth on the occlusal crown image
  • a third artificial neural network receiving the 3D tooth scan data and the center point data outputs the 3D oral cavity. It may include outputting segmentation data representing a 3D segmentation model in which the crown area of each tooth included in the model is segmented for each tooth.
  • the step of outputting the region separation data includes downsampling the 3D tooth scan data, and inputting the downsampled 3D tooth scan data into the first artificial neural network. It may include steps.
  • the step of outputting the region separation data may include masking the gum area of the region separation 3D oral model to have the first attribute, or masking the crown area of the region separation 3D oral model to have the second attribute. It may include performing masking processing to have , adjusting the region separation data so that the region separation data reflects the results of the masking process, and outputting the adjusted region separation data.
  • the step of generating the occlusal crown image includes analyzing the region-separated 3D oral cavity model according to the region separation data to identify the occlusal surface of the region-separated 3D oral cavity model, and the occlusal surface It will include positioning a virtual camera to have a field-of-view (FOV) perpendicular to the You can.
  • the step of outputting the region separation data includes masking the gum region of the region separation 3D oral model to have a first attribute, or masking the crown region of the region separation 3D oral model to have a second attribute. It may include performing masking processing and adjusting the region separation data so that the region separation data reflects the results of the masking process.
  • the step of generating the occlusal crown image using the image of the occlusal surface captured by the virtual camera includes transparently processing the gum area in the image of the occlusal surface using the result of the masking process, It may include generating the occlusal surface crown image.
  • the step of outputting the center point data may include selecting the second artificial neural network from among a plurality of candidate artificial neural networks using the shape of the crown area of the occlusal crown image.
  • the step of outputting the center point data includes selecting the second artificial neural network from among a plurality of candidate artificial neural networks using the shape of the crown area of the pre-designated area of the occlusal crown image. can do.
  • the step of outputting the center point data includes calculating reliability of the center point data using output data of the second artificial neural network, and when the reliability is less than a reference value, the center point on the occlusal crown image It may include outputting a user interface for manual input.
  • the step of outputting the segmentation data includes down-sampling the 3D tooth scan data, and combining the downsampled 3D tooth scan data and the center point data with the third artificial It may include inputting into a neural network.
  • the step of outputting the segmentation data includes masking each crown region so that each crown region of the three-dimensional segmentation model according to the segmentation data is visually distinguished from each other, and the segmentation data is masked. It may include adjusting the segmentation data to reflect a result of processing, and outputting the adjusted segmentation data. At this time, the step of outputting the adjusted segmentation data includes identifying each crown position using the result of the masking process, and based on the identified crown position, a dental formula number for each crown region. It may include labeling and outputting labeling result data for the dental formula number for each crown region along with the adjusted segmentation data.
  • the segmentation method of the 3D oral model may further include generating an output screen for 3D orthodontic simulation using the segmentation data.
  • a segmentation method of a 3D oral model includes acquiring at least one 3D tooth scan data, and a first artificial neural network receiving the 3D tooth scan data 3D
  • a segmentation device for a three-dimensional oral model according to another embodiment for solving the above technical problem includes at least one three-dimensional tooth scan data, a first artificial neural network, a second artificial neural network, a third artificial neural network, and a three-dimensional oral model. It may include a memory into which a segmentation program is loaded, and a processor through which the 3D oral model segmentation program is executed.
  • the first artificial neural network that receives the 3D tooth scan data separates the area where the gum area and the crown area of the 3D oral model are separated and separates the area representing the 3D oral model.
  • Instructions for outputting data analyzing the region-separated 3D oral model to identify the occlusal surface of the 3D oral model, and generating an occlusal crown image representing only the crown area of the occlusal surface; , an instruction for the second artificial neural network receiving the occlusal crown image to output center point data indicating the center point of the crown area of each tooth on the occlusal crown image, and the three-dimensional tooth scan data and the center point data.
  • the received third artificial neural network may include instructions for outputting segmentation data representing a 3D segmentation model in which the crown region of each tooth included in the 3D oral model is segmented for each tooth.
  • the 3D tooth segmentation program may further include instructions for generating an output screen for 3D orthodontic simulation using the output segmentation data.
  • segmentation results for each tooth region of a 3D oral model can be provided in a highly automated manner.
  • the complexity of the hyper parameter aspect of the artificial neural network is prevented from excessively increasing, thereby improving the machine learning requirements of the artificial neural network. costs can be reduced.
  • segmentation errors can be minimized by inputting data that has completed preprocessing required for each step in each step.
  • FIG. 1 illustrates an example environment in which a segmentation system for a three-dimensional oral model can be applied, according to an embodiment of the present disclosure.
  • Figure 2 is a flowchart of a segmentation method of a 3D oral cavity model according to another embodiment of the present disclosure.
  • Figure 3 is a flowchart of a segmentation method of a 3D oral cavity model according to another embodiment of the present disclosure.
  • FIG. 4 is a diagram illustrating down-sampling of 3D scan data performed in some embodiments of the present disclosure.
  • FIG. 5 is a diagram for explaining the operation of a first artificial neural network performed in some embodiments of the present disclosure.
  • 6 to 7 are diagrams for explaining an occlusal crown image generation operation performed in some embodiments of the present disclosure.
  • FIGS. 8 to 9 are diagrams for explaining a center point data generation operation performed in some embodiments of the present disclosure.
  • 10 to 11 are flowcharts for explaining the operation of a third artificial neural network performed in some embodiments.
  • FIG. 12 is a conceptual diagram of the segmentation method of a 3D oral model described with reference to FIG. 2.
  • FIG. 12 is a conceptual diagram of the segmentation method of a 3D oral model described with reference to FIG. 2.
  • Figure 13 is a hardware configuration diagram of an oral model segmentation device according to another embodiment of the present disclosure.
  • a segmentation method of a 3D oral model according to an embodiment of the present disclosure will be described with reference to FIG. 1.
  • the oral model segmentation system 100 can perform segmentation of the oral cavity model through interaction with the user device 220.
  • the oral model segmentation system 100 may acquire 3D tooth scan data stored from the scan data storage device 230, analyze the oral model, and output segmentation data using the analyzed results.
  • the 3D tooth scan data may be scan data captured by a 3D scanner.
  • segmentation function of the 3D oral model may be divided and performed on a plurality of cloud computing nodes for each detailed module.
  • the subject performing some operations is the computing device.
  • the computing device will be referred to as an ‘oral model segmentation device.’
  • Figure 2 is a flowchart of a 3D oral model segmentation method according to an embodiment of the present invention.
  • the oral model segmentation system 100 can acquire 3D tooth scan data (S110).
  • the 3D tooth scan data may be received from a 3D scanner connected to the oral model segmentation system 100.
  • the 3D scanner may be an oral scanner that photographs the patient's oral cavity.
  • the 3D tooth scan data may be understood as data for rendering a 3D oral model.
  • the 3D tooth scan data may be input to a first machine-learned artificial neural network.
  • the first artificial neural network is machine-learned to distinguish between the gum area and the crown area of the 3D oral model.
  • the first artificial neural network may be supervised learning using learning data in which the crown region is masked from a 3D oral model.
  • the data size will be significant. If so, the first artificial neural network that receives the 3D tooth scan data should have a high structural complexity. For example, the first artificial neural network that receives the 3D tooth scan data with a large data size will have a large number of layers and a large number of nodes in each layer.
  • the first artificial neural network will have high complexity in terms of hyperparameters. In that case, in order to machine learn the first artificial neural network to have a level of performance that can be commercialized, a very large amount of learning data will be needed. Considering that it costs a considerable amount of money to prepare learning data with the crown area masked in a 3D oral model, and that machine learning a large number of learning data also results in a significant computing load, the first It is undesirable for artificial neural networks to have a high level of structural complexity in terms of economic efficiency.
  • the 3D tooth scan data may be down-sampled and then input to the first artificial neural network.
  • FIG. 4 shows an exemplary first 3D oral cavity model 310 represented by original 3D scan data and an exemplary second 3D oral cavity model 320 represented by downsampled 3D scan data.
  • the second 3D oral model 320 expresses the tooth scan results relatively simply by changing the curved area to a straight area and the curved area to a flat area. You will understand.
  • the degree of downsampling corresponds to the structural complexity of the first artificial neural network.
  • the degree to which scan results are derived can be determined.
  • the size of the 3D tooth scan data may be reduced.
  • a plurality of first artificial neural networks having different structural complexities are machine learned and stored, and the structural complexity of a first artificial neural network selected from among the plurality of first artificial neural networks is stored.
  • the 3D tooth scan data may be downsampled to a corresponding level.
  • the 3D tooth scan data whose data size has been reduced as a result of the above-described downsampling will reduce the amount of computation related to the first artificial neural network, and as a result, the time required for computation related to the first artificial neural network may also be reduced. This has the effect of reducing the overall time required for 3D oral model segmentation.
  • the oral model segmentation device may input the 3D tooth scan data into the first artificial neural network and obtain region separation data output from the first artificial neural network (S120).
  • the region separation data may be understood as representing a region separation 3D oral model in which the gum region and crown region of the 3D oral model expressed by the 3D tooth scan data are separated.
  • the oral model segmentation device may input downsampled 3D tooth scan data into the first artificial neural network.
  • the first artificial neural network 330 may receive downsampled 3D tooth scan data and output the region separation data.
  • FIG. 5 shows the results of rendering downsampled 3D dental scan data as an exemplary 3D oral cavity model 320 and the results of rendering the region separation data as an exemplary 3D oral cavity model 340.
  • the 3D oral cavity model 340 in which the crown and gums are separated will be referred to as the ‘region-separated 3D oral cavity model’.
  • the region-separated 3D oral model may be one in which the gum region is masked to have the first attribute.
  • the region-separated 3D oral model may be masked so that the gum region has a first color, a first pattern, or a first transparency.
  • the first color, the first pattern, and the first transparency may be colors, patterns, and transparency that are difficult for the original three-dimensional oral model to have.
  • the region-separated 3D oral model may be one in which the crown region is masked to have a second attribute.
  • the region-separated 3D oral model may be masked so that the crown region has a second color, a second pattern, or a second transparency.
  • the second color, the second pattern, and the second transparency may also be colors, patterns, and transparency that are difficult for the original three-dimensional oral model to have.
  • the masking process for the region-separated three-dimensional oral model may be a visual masking process.
  • the second and third artificial neural networks which will be described later, are CNN (Convolutional Neural Network)-based artificial neural networks for processing visual information.
  • the region-separated three-dimensional oral cavity model 340 of FIG. 5 may be understood as masking the crown region in a manner that is colored with a second color.
  • the oral model segmentation device analyzes the region-separated three-dimensional oral model according to the region separation data, uses the results of the analysis to identify the occlusal surface of the region-separated three-dimensional oral model, and expresses only the coronal area of the occlusal surface.
  • An occlusal crown image can be created (S130).
  • the oral model segmentation device can generate an occlusal crown image, which is a two-dimensional image looking at the crown from a perspective parallel to the occlusal surface, by executing logic based on a 3D model viewer.
  • the operation of the oral model segmentation device performing S130 will be described in more detail with reference to FIGS. 6 and 7.
  • the oral model segmentation device analyzes the region-separated three-dimensional oral model 350 viewed from the facial side to the lingual direction, and determines the occlusal line 351 of the maxillary crown and mandibular crown and the crown.
  • the center line 352 can be confirmed.
  • the occlusal line of the crown may be a line extending in the left and right directions from the point where the upper and lower front teeth meet.
  • the center line of the crown may be a line extending upward and downward from the point where the upper and lower front teeth meet.
  • the oral model segmentation device analyzes the region-separated three-dimensional oral model 360 viewed from the right posterior tooth in the lingual direction, and can further confirm the occlusal line 361 of the maxillary crown and mandibular crown and the center line 362 of the crown. .
  • the oral model segmentation device analyzes the region-separated three-dimensional oral model 370 viewed from the left posterior tooth in the lingual direction, and can further confirm the occlusal line 371 of the maxillary crown and mandibular crown and the center line 372 of the crown. .
  • the oral model segmentation device will be able to uniquely specify the occlusal surface of the region-separated three-dimensional oral model (340) using the analysis results of the region-separated three-dimensional oral model (350, 360, 370) viewed from three directions.
  • Figure 6 shows an occlusal crown image 510 representing only the crown area of the occlusal surface specified in this way.
  • the oral model segmentation device matches the visual line of the virtual camera 530 with the vertical axis passing through the center of the occlusal image 520 specified by the above-described method, and also ensures that the virtual camera 530 does not delete part of the occlusal image.
  • the virtual camera 530 can be positioned to accommodate a predefined size.
  • the virtual camera 530 can capture the occlusal crown image 510, which is a snapshot image of the occlusal surface.
  • the captured occlusal crown image 510 is input to the second artificial neural network 540.
  • the oral model segmentation device uses the second artificial neural network to select the center point of the crown image with similar individual characteristics among the previously learned crown images as the center point, thereby creating the center point of each crown region on the occlusal crown image 510. Identify (S140).
  • the second artificial neural network may also be supervised using learning data from occlusal crown images in which the center point of each crown region is labeled, similar to the first artificial neural network.
  • the second artificial neural network can be machine-learned by grouping based on the arrangement and shape of the crown. For example, a first type of second artificial neural network machine-learned using a first group of learning data having a first type of crown arrangement and shape, and a second type of second artificial neural network having a second type of crown arrangement and shape. A second type of second artificial neural network machine-learned using learning data and a third type of second artificial neural network machine-learned using a third group of learning data having a third type of crown arrangement and shape, respectively. It can exist.
  • the oral model segmentation device may be able to select one second artificial neural network among the first to third types of second artificial neural networks using the shape of the crown area of the occlusal crown image.
  • the oral model segmentation device may select a second artificial neural network among the first to third types of second artificial neural networks using the shape of the crown area of the pre-designated area of the occlusal crown image. .
  • the second artificial neural network 540 receives the occlusal crown image 510 and outputs center point data 550 indicating the center point of the crown area of each tooth on the occlusal crown image. can do. 9 shows the result 560 where each crown center point 560a, 560b, 560c, 560d according to the center point data 550 is displayed on the occlusal crown image 550.
  • the oral model segmentation device calculates the reliability of the center point data using the output data of the second artificial neural network, and when the reliability is less than a reference value, manually inputs the center point on the occlusal crown image. You can also print the user interface for this.
  • the reliability may be lower as the central point data deviates from the standard data of the central point data collected by the artificial neural network by more than a certain level.
  • the oral model segmentation device requests the user to manually point the center point, so that the 3D segmentation can be completed accurately through the subsequent operations. make it possible
  • the oral model segmentation device inputs the 3D tooth scan data into a machine-learned third artificial neural network (S160) and inputs the center point data into the machine-learned third artificial neural network, and as a result, the third artificial neural network is Segmentation data can be output (S150).
  • the segmentation data may be understood as representing a 3D segmentation model in which the crown area of each tooth included in the 3D oral model is segmented for each tooth.
  • the third artificial neural network Similar to the first artificial neural network and the second artificial neural network, the third artificial neural network also uses learning data in which the 3D area of each tooth crown is distinguished on the 3D oral model and the center point on the occlusal crown image is labeled. It may be supervised learning.
  • the oral model segmentation device uses a third artificial neural network to select the crown state of a crown image with similar individual characteristics among pre-learned crown images as the crown state of the acquired 3D tooth scan data, and applies a second artificial neural network to the selected crown state. Segmentation data can be generated and output by inputting the output center point data (S150).
  • the third artificial neural network 910 receives downsampled 3D tooth scan data 320 and center point data 560, and the crown region 920a to 920d of each tooth is segmented to create a 3D segmentation model ( It shows outputting segmentation data representing 920).
  • the oral model segmentation device masks each crown region of the three-dimensional segmentation model 920 so that each crown region is visually distinguished from each other, and the segmentation data reflects the result of the masking process. Segmentation data can be adjusted, and the adjusted segmentation data can be output.
  • Figure 9 shows a three-dimensional segmentation model 920 of segmentation data adjusted as described above.
  • the oral model segmentation device uses the results of the masking process to identify each crown location, labels a tooth number for each crown region based on the identified crown location, and labels the adjusted crown location with a tooth number for each crown region. Labeling result data for the dental formula number for each crown region may be output along with the segmentation data.
  • the segmentation method of the 3D oral model according to this embodiment has been described. As described above, it can be seen that no user manipulation is required to obtain a 3D oral model with complete segmentation using 3D scan data. Meanwhile, in the segmentation method of a 3D oral model according to another embodiment of the present disclosure, as shown in FIG. 11, the fourth artificial neural network 930 creates a 3D oral model 340 with the crown and gums separated and a center point. Data 560 may be input, and segmentation data representing a 3D segmentation model 940 in which the crown regions 940a to 940d of each tooth are segmented may be output.
  • the fourth artificial neural network also divides the 3D region of each tooth crown on a 3D oral model in which the crown and gums are separated, and the center point on the occlusal crown image is labeled. It may be supervised learning using trained learning data.
  • the fourth artificial neural network receives region separation data as a result of step S120 (S170). That is, the fourth artificial neural network receives the region separation data and the center point data and outputs the segmentation data.
  • the fourth artificial neural network receives area separation data in which the crown area and gum area have been processed as a kind of preprocessing by the first artificial neural network instead of the 3D tooth scan data, which can be considered original data.
  • the region separation data may be understood to contain more information because information about the distinction between the crown region and the gum region is added compared to the 3D tooth scan data. Therefore, the fourth artificial neural network receives more information than the third artificial neural network, and this may have an advantage in segmentation accuracy.
  • the downsampled 3D tooth scan data 320 is input to the first artificial neural network 330, and the first artificial neural network 330 is region classification data representing a 3D oral model 340 with the crown and gums separated. outputs.
  • an occlusal crown image 520 is created using a 3D oral model 340 in which the crown and gums are separated.
  • the occlusal crown image 520 is input to the second artificial neural network 540, and the second artificial neural network 540 outputs center point data indicating the center point 560 of each crown region.
  • the 3D tooth scan data 320 and the center point data indicating the center point 560 of each tooth crown area are input to the third artificial neural network 910, and the third artificial neural network 910 is the crown area of each tooth. Segmentation data representing this segmented 3D segmentation model 920 is output.
  • the down-sampled 3D tooth scan data 320 is input to the first artificial neural network 330, and the first artificial neural network 330 is region classification data representing a 3D oral model 340 with the crown and gums separated. outputs.
  • an occlusal crown image 520 is created using a 3D oral model 340 in which the crown and gums are separated.
  • the occlusal crown image 520 is input to the second artificial neural network 540, and the second artificial neural network 540 outputs center point data indicating the center point 560 of each crown region.
  • region classification data representing the three-dimensional oral model 340 in which the crown and gums are separated, and center point data indicating the center point 560 of each crown region are input to the fourth artificial neural network 930, and the fourth The artificial neural network 930 outputs segmentation data representing a 3D segmentation model 940 in which the crown region of each tooth is segmented.
  • segmentation data obtained according to the embodiments described so far with reference to FIGS. 1 to 13 can be used to generate an output screen for 3D orthodontic simulation.
  • the segmentation data may be used in the process of displaying the results of each tooth placement movement for a 3D orthodontic simulation.
  • the oral model segmentation system 100 of this embodiment includes one or more processors 1100, a system bus 1600, a communication interface 1200, and a computer program 1500 performed by the processor 1100.
  • the oral model segmentation system 100 of this embodiment may include a memory 1400 for loading a computer program 1500 and a storage 1300 for storing a computer program 1500.
  • the processor 1100 controls the overall operation of each component of the oral model segmentation system 100.
  • the processor 1100 may perform operations on at least one application or program to execute methods/operations according to various embodiments of the present disclosure.
  • the memory 1400 stores various data, commands and/or information.
  • the memory 1400 may load one or more computer programs 1500 from the storage 1300 to execute methods/operations according to various embodiments of the present disclosure.
  • the bus 1600 provides communication between components of the simulation device 200.
  • the communication interface 1200 supports Internet communication of the 3D oral model segmentation system 100. Additionally, the communication interface 1200 may be connected to a 3D scanner device (not shown).
  • Storage 1300 may non-temporarily store one or more computer programs 1500.
  • the computer program 1500 may include one or more instructions implementing methods/operations according to various embodiments of the present disclosure.
  • the processor 1100 can perform methods/operations according to various embodiments of the present disclosure by executing the one or more instructions.
  • the memory 1400 includes the patient's 3D dental scan data, data defining a first artificial neural network, data defining a second artificial neural network, data defining a third artificial neural network, and a computer program that performs 3D oral model segmentation. (1500) can be loaded.
  • the computer program 1500 may include instructions for performing one or more operations in which methods/operations according to various embodiments of the present disclosure are implemented.
  • the computer program 1500 separates the gum area and crown area of the 3D oral model represented by the 3D tooth scan data by the first artificial neural network receiving the 3D tooth scan data.
  • the third artificial neural network that receives the 3D tooth scan data and the center point data outputs segmentation data representing a 3D segmentation model in which the crown area of each tooth included in the 3D oral model is segmented for each tooth.
  • the technical ideas of the present disclosure described so far can be implemented as computer-readable code on a computer-readable medium.
  • the computer program recorded on the computer-readable recording medium can be transmitted to another computing device through a network such as the Internet, installed on the other computing device, and thus used on the other computing device.

Abstract

Provided are a method for segmenting a three-dimensional oral model, and an apparatus to which the method is applied. The method for segmenting a three-dimensional oral model, according to one embodiment, may comprises steps in which: a first artificial neural network having received three-dimensional teeth scan data outputs region segmentation data representing a region segmentation three-dimensional oral model in which a gum region and a crown region of a three-dimensional oral model represented by the three-dimensional teeth scan data are identified; the region segmentation three-dimensional oral model according to the region segmentation data is analyzed to identify an occlusal surface of the region segmentation three-dimensional oral model, and generates an occlusal crown image representing only the crown region of the occlusal surface; a second artificial neural network having received the occlusal crown image outputs center point data indicating the center point of a crown region of each tooth in the occlusal crown image; and a third artificial neural network having received the three-dimensional teeth scan data and the center point data outputs segmentation data representing a three-dimensional segmentation model in which the crown region of each tooth included in the three-dimensional oral model is segmented by tooth.

Description

3차원 구강 모델의 세그멘테이션 방법 및 그 시스템Segmentation method and system for 3D oral model
본 개시는 3차원 구강 모델의 세그멘테이션(segmentation) 방법에 관한 것이다. 보다 자세하게는 3차원 구강 모델에 적용되어, 각 치아 별 3차원 영역을 구획하는 세그멘테이션 방법 및 장치에 관한 것이다. The present disclosure relates to a segmentation method of a three-dimensional oral model. More specifically, it relates to a segmentation method and device that is applied to a 3D oral model and partitions a 3D area for each tooth.
디지털 덴티스트리(digital dentistry)는 환자의 구강 관련 정보를 디지털화 하여 분석함으로써, 치과에 내방한 환자의 치료에 도움을 주는 IT 기술을 의미한다. 예를 들어, 디지털 덴티스트리는 치아 교정 치료에도 활용될 수 있다. 디지털 덴티스트리를 활용하여 치과 치료 계획을 수립할 경우, 현재의 치아 상태보다 개선된 치아 배열을 안정적이고 편리하게 예측할 수 있다. 또한, 디지털 덴티스트리 환경에서 제공되는 치아 모형을 이용하는 경우, 3차원 공간으로 구현된 가상 공간에서 모든 방향으로 치아를 자유롭게 이동할 수 있어, 다양한 교정 치료 계획을 수립할 수 있다.Digital dentistry refers to IT technology that helps treat patients who visit the dentist by digitizing and analyzing the patient's oral information. For example, digital dentistry can also be used in orthodontic treatment. When establishing a dental treatment plan using digital dentistry, an improved tooth arrangement can be predicted reliably and conveniently compared to the current tooth condition. Additionally, when using a tooth model provided in a digital dentistry environment, teeth can be freely moved in all directions in a virtual space implemented as a three-dimensional space, allowing various orthodontic treatment plans to be established.
디지털 덴티스트리 환경에서는, 잇몸 또는 다른 해부학 구조물과 치아가 3차원으로 구현된 3차원 구강 모델이 술자에게 제공되고, 술자는 3차원 구강 모델을 이용하여 치료 대상이 되는 치아를 선정할 수 있다. 또한, 술자는 3차원 구강 모델에서 치료 대상이 되는 치아를 편집할 수 있다. In a digital dentistry environment, a 3D oral model in which gums or other anatomical structures and teeth are realized in 3D is provided to the surgeon, and the surgeon can select teeth to be treated using the 3D oral model. Additionally, the surgeon can edit the teeth to be treated in the 3D oral model.
그런데 술자가 3차원 구강 모델에서 특정 치아를 편집하기 위해서는, 3차원 구강 모델에 포함된 각각의 치관(crown)의 3차원 영역이 잇몸 또는 다른 해부학 구조물과 구분되어야 한다. 즉, 3차원 구강 모델에 대한 치아 영역의 3차원 세그멘테이션이 요구된다.However, in order for the operator to edit a specific tooth in a 3D oral model, the 3D area of each crown included in the 3D oral model must be distinguished from the gums or other anatomical structures. In other words, 3D segmentation of the tooth area for the 3D oral model is required.
기존의 자동화된 치아 세그멘테이션 기술은 CT 단면 영상 등 2차원 영상에서는 세그멘테이션이 적용된 사례가 많으나, 3D 구강 스캔 결과로 생성된 3차원 구강 모델에는 적용되기 어렵다. 즉, 3차원 구강 모델을 자동으로 세그멘테이션하는 기술이 제공되지 못하여, 3차원 모델을 세그멘테이션 하기 위해서는 술자가 3차원 구강 모델 상에서 각 치아의 영역을 가리키는 포인트를 직접 수동으로 입력하는 등, 상당한 시간과 노력을 투입해야 한다.Existing automated tooth segmentation technology has many cases where segmentation is applied to 2D images such as CT cross-sectional images, but it is difficult to apply to 3D oral models created as a result of 3D oral scans. In other words, technology for automatically segmenting a 3D oral model is not available, so segmenting a 3D model requires considerable time and effort, such as having the operator manually input points indicating the area of each tooth on the 3D oral model. must be invested.
본 개시가 해결하고자 하는 기술적 과제는, 3차원 구강 모델의 치관 영역을 자동으로 세그멘테이션 하는 방법 및 그 방법이 적용된 장치를 제공하는 것이다. 본 개시의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시의 기술분야에서의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The technical problem that the present disclosure aims to solve is to provide a method for automatically segmenting the crown area of a 3D oral model and a device to which the method is applied. The technical problems of the present disclosure are not limited to the technical problems mentioned above, and other technical problems not mentioned can be clearly understood by those skilled in the art from the description below.
상기 기술적 과제를 해결하기 위한 일 실시예에 따른 3차원 구강 모델의 세그멘테이션 방법은, 컴퓨팅 시스템에 의하여 수행되는 방법에 있어서, 적어도 하나의 치아 스캔 데이터를 획득하는 단계와, 상기 3차원 치아 스캔 데이터를 입력 받은 제1 인공 신경망이 적어도 하나의 3차원 치아 스캔 데이터를 이용하여 생성한 3차원 구강 모델의 잇몸 영역과 치관 영역이 구분된 영역 분리 3차원 구강 모델을 표현하는 영역 분리 데이터를 출력하는 단계와, 상기 영역 분리 3차원 구강 모델을 분석하여 3차원 구강 모델의 교합면을 식별하며, 상기 교합면의 치관 영역만을 표현하는 교합면 치관 이미지를 생성하는 단계와, 상기 교합면 치관 이미지를 입력 받은 제2 인공 신경망이, 상기 교합면 치관 이미지 상의 각 치아의 치관 영역의 중심점을 가리키는 중심점 데이터를 출력하는 단계와, 상기 3차원 치아 스캔 데이터와 상기 중심점 데이터를 입력 받은 제3 인공 신경망이 상기 3차원 구강 모델에 포함된 각 치아의 치관 영역이 치아 별로 세그멘테이션 된 3차원 세그멘테이션 모델을 표현하는 세그멘테이션 데이터를 출력하는 단계를 포함할 수 있다.A segmentation method of a three-dimensional oral model according to an embodiment for solving the above technical problem is performed by a computing system, comprising the steps of acquiring at least one tooth scan data, and the three-dimensional tooth scan data. A step of outputting region separation data representing the three-dimensional oral model, separating the gum region and crown region of the three-dimensional oral model generated by the input first artificial neural network using at least one three-dimensional tooth scan data; , analyzing the region-separated three-dimensional oral model to identify the occlusal surface of the three-dimensional oral model, generating an occlusal crown image representing only the crown region of the occlusal surface, and receiving the occlusal crown image as input. 2 An artificial neural network outputs center point data indicating the center point of the crown area of each tooth on the occlusal crown image, and a third artificial neural network receiving the 3D tooth scan data and the center point data outputs the 3D oral cavity. It may include outputting segmentation data representing a 3D segmentation model in which the crown area of each tooth included in the model is segmented for each tooth.
일 실시예에서, 상기 영역 분리 데이터를 출력하는 단계는, 상기 3차원 치아 스캔 데이터를 다운샘플링(Down-sampling)하는 단계와, 상기 다운샘플링 된 3차원 치아 스캔 데이터를 상기 제1 인공 신경망에 입력하는 단계를 포함할 수 있다.In one embodiment, the step of outputting the region separation data includes downsampling the 3D tooth scan data, and inputting the downsampled 3D tooth scan data into the first artificial neural network. It may include steps.
일 실시예에서, 상기 영역 분리 데이터를 출력하는 단계는, 상기 영역 분리 3차원 구강 모델의 잇몸 영역이 제1 속성을 가지도록 마스킹 처리하거나, 상기 영역 분리 3차원 구강 모델의 치관 영역이 제2 속성을 가지도록 마스킹 처리하는 단계와, 상기 영역 분리 데이터가 상기 마스킹 처리의 결과를 반영하도록, 상기 영역 분리 데이터를 조정하는 단계와, 상기 조정된 영역 분리 데이터를 출력하는 단계를 포함할 수 있다.In one embodiment, the step of outputting the region separation data may include masking the gum area of the region separation 3D oral model to have the first attribute, or masking the crown area of the region separation 3D oral model to have the second attribute. It may include performing masking processing to have , adjusting the region separation data so that the region separation data reflects the results of the masking process, and outputting the adjusted region separation data.
일 실시예에서, 상기 교합면 치관 이미지를 생성하는 단계는, 상기 영역 분리 데이터에 따른 영역 분리 3차원 구강 모델을 분석하여 상기 영역 분리 3차원 구강 모델의 교합면을 식별하는 단계와, 상기 교합면에 수직인 FOV(Field-Of-View)를 가지도록 가상 카메라를 위치시키는 단계와, 상기 가상 카메라에 의하여 촬영된 상기 교합면의 영상을 이용하여, 상기 교합면 치관 이미지를 생성하는 단계를 포함할 수 있다. 이 때, 상기 영역 분리 데이터를 출력하는 단계는, 상기 영역 분리 3차원 구강 모델의 잇몸 영역이 제1 속성을 가지도록 마스킹 처리하거나, 상기 영역 분리 3차원 구강 모델의 치관 영역이 제2 속성을 가지도록 마스킹 처리하는 단계와, 상기 영역 분리 데이터가 상기 마스킹 처리의 결과를 반영하도록, 상기 영역 분리 데이터를 조정하는 단계를 포함할 수 있다. 또한, 상기 가상 카메라에 의하여 촬영된 상기 교합면의 영상을 이용하여, 상기 교합면 치관 이미지를 생성하는 단계는, 상기 마스킹 처리의 결과를 이용하여 상기 교합면의 영상에서 잇몸 영역을 투명처리 함으로써, 상기 교합면 치관 이미지를 생성하는 단계를 포함할 수 있다.In one embodiment, the step of generating the occlusal crown image includes analyzing the region-separated 3D oral cavity model according to the region separation data to identify the occlusal surface of the region-separated 3D oral cavity model, and the occlusal surface It will include positioning a virtual camera to have a field-of-view (FOV) perpendicular to the You can. At this time, the step of outputting the region separation data includes masking the gum region of the region separation 3D oral model to have a first attribute, or masking the crown region of the region separation 3D oral model to have a second attribute. It may include performing masking processing and adjusting the region separation data so that the region separation data reflects the results of the masking process. In addition, the step of generating the occlusal crown image using the image of the occlusal surface captured by the virtual camera includes transparently processing the gum area in the image of the occlusal surface using the result of the masking process, It may include generating the occlusal surface crown image.
일 실시예에서, 상기 중심점 데이터를 출력하는 단계는, 복수의 후보 인공 신경망들 중에서, 상기 교합면 치관 이미지의 치관 영역의 형상을 이용하여 상기 제2 인공 신경망을 선정하는 단계를 포함할 수 있다.In one embodiment, the step of outputting the center point data may include selecting the second artificial neural network from among a plurality of candidate artificial neural networks using the shape of the crown area of the occlusal crown image.
일 실시예에서, 상기 중심점 데이터를 출력하는 단계는, 복수의 후보 인공 신경망들 중에서, 상기 교합면 치관 이미지의 기 지정된 영역의 치관 영역의 형상을 이용하여 상기 제2 인공 신경망을 선정하는 단계를 포함할 수 있다.In one embodiment, the step of outputting the center point data includes selecting the second artificial neural network from among a plurality of candidate artificial neural networks using the shape of the crown area of the pre-designated area of the occlusal crown image. can do.
일 실시예에서, 상기 중심점 데이터를 출력하는 단계는, 상기 제2 인공 신경망의 출력 데이터를 이용하여 상기 중심점 데이터의 신뢰도를 연산하는 단계와, 상기 신뢰도가 기준치 미만인 경우, 상기 교합면 치관 이미지 상의 중심점 수동 입력을 위한 사용자 인터페이스를 출력하는 단계를 포함할 수 있다.In one embodiment, the step of outputting the center point data includes calculating reliability of the center point data using output data of the second artificial neural network, and when the reliability is less than a reference value, the center point on the occlusal crown image It may include outputting a user interface for manual input.
일 실시예에서, 상기 세그멘테이션 데이터를 출력하는 단계는, 상기 3차원 치아 스캔 데이터를 다운샘플링(Down-sampling)하는 단계와, 상기 다운샘플링 된 3차원 치아 스캔 데이터와 상기 중심점 데이터를 상기 제3 인공 신경망에 입력하는 단계를 포함할 수 있다.In one embodiment, the step of outputting the segmentation data includes down-sampling the 3D tooth scan data, and combining the downsampled 3D tooth scan data and the center point data with the third artificial It may include inputting into a neural network.
일 실시예에서, 상기 세그멘테이션 데이터를 출력하는 단계는, 상기 세그멘테이션 데이터에 따른 3차원 세그멘테이션 모델의 각 치관 영역이 서로 시각적으로 구분되도록, 각 치관 영역을 마스킹 처리하는 단계와, 상기 세그멘테이션 데이터가 상기 마스킹 처리의 결과를 반영하도록, 상기 세그멘테이션 데이터를 조정하는 단계와, 상기 조정된 세그멘테이션 데이터를 출력하는 단계를 포함할 수 있다. 이 때, 상기 조정된 세그멘테이션 데이터를 출력하는 단계는, 상기 마스킹 처리의 결과를 이용하여, 각각의 치관 위치를 식별하는 단계와, 상기 식별된 치관 위치를 기준으로, 각각의 치관 영역에 대한 치식 번호를 라벨링 하는 단계와, 상기 조정된 세그멘테이션 데이터와 함께 상기 각각의 치관 영역에 대한 치식 번호에 대한 라벨링 결과 데이터를 출력하는 단계를 포함할 수 있다.In one embodiment, the step of outputting the segmentation data includes masking each crown region so that each crown region of the three-dimensional segmentation model according to the segmentation data is visually distinguished from each other, and the segmentation data is masked. It may include adjusting the segmentation data to reflect a result of processing, and outputting the adjusted segmentation data. At this time, the step of outputting the adjusted segmentation data includes identifying each crown position using the result of the masking process, and based on the identified crown position, a dental formula number for each crown region. It may include labeling and outputting labeling result data for the dental formula number for each crown region along with the adjusted segmentation data.
일 실시예에서, 상기 3차원 구강 모델의 세그멘테이션 방법은 상기 세그멘테이션 데이터를 이용하여, 3차원 치아 교정 시뮬레이션을 위한 출력 화면을 생성하는 단계를 더 포함할 수 있다.In one embodiment, the segmentation method of the 3D oral model may further include generating an output screen for 3D orthodontic simulation using the segmentation data.
상기 기술적 과제를 해결하기 위한 다른 실시예에 따른 3차원 구강 모델의 세그멘테이션 방법은 적어도 하나의 3차원 치아 스캔 데이터를 획득하는 단계와, 상기 3차원 치아 스캔 데이터를 입력 받은 제1 인공 신경망이 3차원 구강 모델의 잇몸 영역과 치관 영역이 구분된 영역 분리 3차원 구강 모델을 표현하는 영역 분리 데이터를 출력하는 단계와, 상기 영역 분리 3차원 구강 모델을 분석하여 상기 영역 분리 3차원 구강 모델의 교합면을 식별하며, 상기 교합면의 치관 영역만을 표현하는 교합면 치관 이미지를 생성하는 단계와, 상기 교합면 치관 이미지를 입력 받은 제2 인공 신경망이, 상기 교합면 치관 이미지 상의 각 치아의 치관 영역의 중심점을 가리키는 중심점 데이터를 출력하는 단계와, 상기 영역 분리 데이터와 상기 중심점 데이터를 입력 받은 제3 인공 신경망이 상기 3차원 구강 모델에 포함된 각 치아의 치관 영역이 치아 별로 세그멘테이션 된 3차원 세그멘테이션 모델을 표현하는 세그멘테이션 데이터를 출력하는 단계를 포함할 수 있다. 상기 기술적 과제를 해결하기 위한 또 다른 실시예에 따른 3차원 구강 모델의 세그멘테이션 장치는, 적어도 하나의 3차원 치아 스캔 데이터, 제1 인공 신경망, 제2 인공 신경망, 제3 인공 신경망 및 3차원 구강 모델 세그멘테이션 프로그램이 로드되는 메모리와, 상기 3차원 구강 모델 세그멘테이션 프로그램이 실행되는 프로세서를 포함할 수 있다. 이 때, 상기 3차원 치아 세그멘테이션 프로그램은, 상기 3차원 치아 스캔 데이터를 입력 받은 상기 제1 인공 신경망이 3차원 구강 모델의 잇몸 영역과 치관 영역이 구분된 영역 분리 3차원 구강 모델을 표현하는 영역 분리 데이터를 출력하는 인스트럭션(instruction)과, 상기 영역 분리 3차원 구강 모델을 분석하여 상기 3차원 구강 모델의 교합면을 식별하며, 상기 교합면의 치관 영역만을 표현하는 교합면 치관 이미지를 생성하는 인스트럭션과, 상기 교합면 치관 이미지를 입력 받은 상기 제2 인공 신경망이, 상기 교합면 치관 이미지 상의 각 치아의 치관 영역의 중심점을 가리키는 중심점 데이터를 출력하는 인스트럭션과, 상기 3차원 치아 스캔 데이터와 상기 중심점 데이터를 입력 받은 상기 제3 인공 신경망이 상기 3차원 구강 모델에 포함된 각 치아의 치관 영역이 치아 별로 세그멘테이션 된 3차원 세그멘테이션 모델을 표현하는 세그멘테이션 데이터를 출력하는 인스트럭션을 포함할 수 있다.A segmentation method of a 3D oral model according to another embodiment for solving the above technical problem includes acquiring at least one 3D tooth scan data, and a first artificial neural network receiving the 3D tooth scan data 3D A step of outputting region separation data representing a region-separated three-dimensional oral model in which the gum region and crown region of the oral model are separated, analyzing the region-separated three-dimensional oral model to determine the occlusal surface of the region-separated three-dimensional oral model. identifying and generating an occlusal crown image representing only the crown area of the occlusal surface, and a second artificial neural network receiving the occlusal crown image determines the center point of the crown area of each tooth on the occlusal crown image. A step of outputting pointing center point data, and a third artificial neural network receiving the region separation data and the center point data representing a 3D segmentation model in which the crown area of each tooth included in the 3D oral model is segmented for each tooth. It may include the step of outputting segmentation data. A segmentation device for a three-dimensional oral model according to another embodiment for solving the above technical problem includes at least one three-dimensional tooth scan data, a first artificial neural network, a second artificial neural network, a third artificial neural network, and a three-dimensional oral model. It may include a memory into which a segmentation program is loaded, and a processor through which the 3D oral model segmentation program is executed. At this time, in the 3D tooth segmentation program, the first artificial neural network that receives the 3D tooth scan data separates the area where the gum area and the crown area of the 3D oral model are separated and separates the area representing the 3D oral model. Instructions for outputting data, analyzing the region-separated 3D oral model to identify the occlusal surface of the 3D oral model, and generating an occlusal crown image representing only the crown area of the occlusal surface; , an instruction for the second artificial neural network receiving the occlusal crown image to output center point data indicating the center point of the crown area of each tooth on the occlusal crown image, and the three-dimensional tooth scan data and the center point data. The received third artificial neural network may include instructions for outputting segmentation data representing a 3D segmentation model in which the crown region of each tooth included in the 3D oral model is segmented for each tooth.
일 실시예에서, 상기 3차원 치아 세그멘테이션 프로그램은, 상기 출력된 세그멘테이션 데이터를 이용하여, 3차원 치아 교정 시뮬레이션을 위한 출력 화면을 생성하는 인스트럭션을 더 포함할 수 있다.In one embodiment, the 3D tooth segmentation program may further include instructions for generating an output screen for 3D orthodontic simulation using the output segmentation data.
본 개시의 몇몇 실시예들에 따르면, 고도로 자동화된 방식으로 3차원 구강 모델의 각 치아 영역 별 세그멘테이션 결과를 제공할 수 있다.According to some embodiments of the present disclosure, segmentation results for each tooth region of a 3D oral model can be provided in a highly automated manner.
본 개시의 몇몇 실시예들에 따르면, 기계 학습된 복수의 인공 신경망과, 이미지 프로세싱 알고리즘을 결합함으로써, 3차원 구강 모델의 각 치아 영역 별 정확한 세그멘테이션 결과를 제공할 수 있다.According to some embodiments of the present disclosure, by combining a plurality of machine-learned artificial neural networks and an image processing algorithm, accurate segmentation results for each tooth region of a 3D oral model can be provided.
본 개시의 몇몇 실시예들에 따르면, 고해상도를 가지는 3차원 치아 스캔 데이터를 이용하면서도, 인공 신경망의 하이퍼 파라미터(hyper parameter) 측면의 복잡도가 과도하게 증가하는 것을 방지함으로써, 인공 신경망의 기계 학습에 소요되는 비용을 줄일 수 있다.According to some embodiments of the present disclosure, while using high-resolution 3D tooth scan data, the complexity of the hyper parameter aspect of the artificial neural network is prevented from excessively increasing, thereby improving the machine learning requirements of the artificial neural network. costs can be reduced.
본 실시예에 따르면, 단계별로 해당 단계에 필요한 전처리를 완료한 데이터를 입력함으로써, 세그멘테이션 오류를 최소화할 수 있다.According to this embodiment, segmentation errors can be minimized by inputting data that has completed preprocessing required for each step in each step.
도 1은 본 개시의 일 실시예에 따른, 3차원 구강 모델의 세그멘테이션 시스템이 적용될 수 있는 예시적인 환경을 도시한다. 1 illustrates an example environment in which a segmentation system for a three-dimensional oral model can be applied, according to an embodiment of the present disclosure.
도 2는 본 개시의 다른 실시예에 따른, 3차원 구강 모델의 세그멘테이션 방법의 순서도이다.Figure 2 is a flowchart of a segmentation method of a 3D oral cavity model according to another embodiment of the present disclosure.
도 3은 본 개시의 다른 실시예에 따른, 3차원 구강 모델의 세그멘테이션 방법의 순서도이다.Figure 3 is a flowchart of a segmentation method of a 3D oral cavity model according to another embodiment of the present disclosure.
도 4는 본 개시의 몇몇 실시예에서 수행되는, 3차원 스캔 데이터의 다운샘플링(Down-sampling)을 설명하기 위한 도면이다.FIG. 4 is a diagram illustrating down-sampling of 3D scan data performed in some embodiments of the present disclosure.
도 5는 본 개시의 몇몇 실시예에서 수행되는, 제1 인공 신경망의 동작을 설명하기 위한 도면이다.FIG. 5 is a diagram for explaining the operation of a first artificial neural network performed in some embodiments of the present disclosure.
도 6 내지 7은 본 개시의 몇몇 실시예에서 수행되는, 교합면 치관 이미지 생성 동작을 설명하기 위한 도면이다.6 to 7 are diagrams for explaining an occlusal crown image generation operation performed in some embodiments of the present disclosure.
도 8 내지 9는 본 개시의 몇몇 실시예에서 수행되는, 중심점 데이터 생성 동작을 설명하기 위한 도면이다8 to 9 are diagrams for explaining a center point data generation operation performed in some embodiments of the present disclosure.
도 10 내지 11은 몇몇 실시예에서 수행되는, 제3 인공 신경망의 동작을 설명하기 위한 순서도이다.10 to 11 are flowcharts for explaining the operation of a third artificial neural network performed in some embodiments.
도 12는 도 2를 참조하여 설명한 3차원 구강 모델의 세그멘테이션 방법의 개념도이다.FIG. 12 is a conceptual diagram of the segmentation method of a 3D oral model described with reference to FIG. 2.
도 12는 도 2를 참조하여 설명한 3차원 구강 모델의 세그멘테이션 방법의 개념도이다.FIG. 12 is a conceptual diagram of the segmentation method of a 3D oral model described with reference to FIG. 2.
도 13은 본 개시의 또 다른 실시예에 따른 구강 모델 세그멘테이션 장치의 하드웨어 구성도이다.Figure 13 is a hardware configuration diagram of an oral model segmentation device according to another embodiment of the present disclosure.
이하, 첨부된 도면을 참조하여 본 개시의 바람직한 실시예들을 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명의 기술적 사상은 이하의 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 이하의 실시예들은 본 발명의 기술적 사상을 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 기술적 사상은 청구항의 범주에 의해 정의될 뿐이다. 본 개시를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the attached drawings. The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the technical idea of the present invention is not limited to the following embodiments and may be implemented in various different forms. The following examples are merely intended to complete the technical idea of the present invention and to be used in the technical field to which the present invention pertains. It is provided to fully inform those skilled in the art of the scope of the present invention, and the technical idea of the present invention is only defined by the scope of the claims. In describing the present disclosure, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description will be omitted.
본 개시의 일 실시예에 따른 3차원 구강 모델의 세그멘테이션 방법을 도 1을 참조하여 설명한다. 도 1에 도시된 바와 같이 본 실시예에 따른 구강 모델 세그멘테이션 시스템은(100) 사용자 기기(220)와의 상호작용으로 하여금 구강 모델의 세그멘테이션을 수행할 수 있다. A segmentation method of a 3D oral model according to an embodiment of the present disclosure will be described with reference to FIG. 1. As shown in FIG. 1, the oral model segmentation system 100 according to this embodiment can perform segmentation of the oral cavity model through interaction with the user device 220.
구강 모델 세그멘테이션 시스템(100)은 스캔 데이터 저장 장치(230)로부터 저장된 3차원 치아 스캔 데이터를 획득하여 구강 모델을 분석하고 분석된 결과를 이용하여 세그멘테이션 데이터를 출력할 수 있다. 상기 3차원 치아 스캔 데이터는 3차원 스캐너가 촬영한 스캔 데이터일 수 있다.The oral model segmentation system 100 may acquire 3D tooth scan data stored from the scan data storage device 230, analyze the oral model, and output segmentation data using the analyzed results. The 3D tooth scan data may be scan data captured by a 3D scanner.
또한, 3차원 구강 모델의 세그멘테이션 기능이 클라우드 컴퓨팅 노드 상에 구현됨에 따라, 상기 3차원 구강 모델의 세그멘테이션 기능이 세부 모듈 별로 복수의 클라우드 컴퓨팅 노드 상에서 나뉘어 수행될 수도 있을 것이다.Additionally, as the segmentation function of the 3D oral model is implemented on a cloud computing node, the segmentation function of the 3D oral model may be divided and performed on a plurality of cloud computing nodes for each detailed module.
이하, 본 실시예에 따른 방법을 설명함에 있어서, 일부 동작의 수행 주체에 대한 기재가 생략될 수 있다. 이 때, 해당 동작의 수행 주체는 상기 컴퓨팅 장치인 것으로 이해되어야 한다. 이하, 본 명세서에서 상기 컴퓨팅 장치는 ‘구강 모델 세그멘테이션 장치’로 지칭하기로 한다.Hereinafter, in describing the method according to this embodiment, description of the subject performing some operations may be omitted. At this time, it should be understood that the subject performing the corresponding operation is the computing device. Hereinafter, in this specification, the computing device will be referred to as an ‘oral model segmentation device.’
도 2는 본 발명의 일 실시예에 따른 3차원 구강 모델 세그멘테이션 방법의 순서도이다.Figure 2 is a flowchart of a 3D oral model segmentation method according to an embodiment of the present invention.
도2를 참조하면, 구강 모델 세그멘테이션 시스템(100)는 3차원 치아 스캔 데이터를 획득할 수 있다(S110). 상기 3차원 치아 스캔 데이터는 구강 모델 세그멘테이션 시스템(100)에 연결된 3차원 스캐너로부터 수신된 것일 수 있다. 상기 3차원 스캐너는 환자의 구강을 촬영하는 구강 스캐너일 수 있다. 상기 3차원 치아 스캔 데이터는 3차원 구강 모델을 렌더링 하기 위한 데이터로 이해될 수 있을 것이다.Referring to Figure 2, the oral model segmentation system 100 can acquire 3D tooth scan data (S110). The 3D tooth scan data may be received from a 3D scanner connected to the oral model segmentation system 100. The 3D scanner may be an oral scanner that photographs the patient's oral cavity. The 3D tooth scan data may be understood as data for rendering a 3D oral model.
상기 3차원 치아 스캔 데이터는 기계 학습된 제1 인공 신경망에 입력될 수 있다. 상기 제1 인공 신경망은 3차원 구강 모델의 잇몸 영역과 치관 영역을 구분하도록 기계 학습된 것이다. 예를 들어, 상기 제1 인공 신경망은 3차원 구강 모델에서 치관 영역이 마스킹 된 학습 데이터를 이용하여 지도 학습(supervised learning)된 것일 수 있다.The 3D tooth scan data may be input to a first machine-learned artificial neural network. The first artificial neural network is machine-learned to distinguish between the gum area and the crown area of the 3D oral model. For example, the first artificial neural network may be supervised learning using learning data in which the crown region is masked from a 3D oral model.
한편, 상기 3차원 치아 스캔 데이터가 고해상도의 3차원 구강 모델을 렌더링하기 위한 것이라면, 데이터 사이즈가 상당할 것이다. 그렇다면, 상기 3차원 치아 스캔 데이터를 입력받는 상기 제1 인공 신경망은 그 구조적 복잡도가 높아야 할 것이다. 예를 들어, 큰 데이터 사이즈를 가지는 상기 3차원 치아 스캔 데이터를 입력 받는, 상기 제1 인공 신경망은 레이어의 수가 많아야 할 것이고, 각 레이어의 노드 수도 많아야 할 것이다.Meanwhile, if the 3D tooth scan data is for rendering a high-resolution 3D oral model, the data size will be significant. If so, the first artificial neural network that receives the 3D tooth scan data should have a high structural complexity. For example, the first artificial neural network that receives the 3D tooth scan data with a large data size will have a large number of layers and a large number of nodes in each layer.
즉, 상기 제1 인공 신경망은 하이퍼 파라미터 측면에서 높은 복잡도를 가질 것이다. 그렇다면, 상기 제1 인공 신경망이 상용화 가능한 수준의 성능(performance)을 가지도록 기계 학습하려면, 매우 많은 학습 데이터가 필요할 것이다. 3차원 구강 모델에서 치관 영역이 마스킹 된 학습 데이터를 마련하는 것에 상당한 비용이 소요되는 점과, 다수의 학습 데이터를 기계 학습시키는 것 역시 상당한 컴퓨팅 부하(load)를 가져오는 것을 고려하면, 상기 제1 인공 신경망이 높은 수준의 구조적 복잡도를 가지는 것은 그 경제성 측면에서 바람직하지 않다.That is, the first artificial neural network will have high complexity in terms of hyperparameters. In that case, in order to machine learn the first artificial neural network to have a level of performance that can be commercialized, a very large amount of learning data will be needed. Considering that it costs a considerable amount of money to prepare learning data with the crown area masked in a 3D oral model, and that machine learning a large number of learning data also results in a significant computing load, the first It is undesirable for artificial neural networks to have a high level of structural complexity in terms of economic efficiency.
고해상도의 3차원 치아 스캔 데이터로 인한 상술한 문제점을 해결하기 위해, 상기 3차원 치아 스캔 데이터는 다운샘플링(down-sampling)된 후 상기 제1 인공 신경망에 입력될 수 있다. 도 4에는 원본 3차원 스캔 데이터가 표현하는 예시적인 제1 3차원 구강 모델(310)과, 다운샘플링 된 3차원 스캔 데이터가 표현하는 예시적인 제2 3차원 구강 모델(320)이 도시된다. 제2 3차원 구강 모델(320)이 제1 3차원 구강 모델(310) 대비 치아 스캔 결과를 곡선 영역을 직선 영역으로 변경하고, 곡면 영역을 평면 영역으로 변경하여 상대적으로 단순하게 표현하고 있는 점을 이해할 수 있을 것이다.In order to solve the above-mentioned problems caused by high-resolution 3D tooth scan data, the 3D tooth scan data may be down-sampled and then input to the first artificial neural network. FIG. 4 shows an exemplary first 3D oral cavity model 310 represented by original 3D scan data and an exemplary second 3D oral cavity model 320 represented by downsampled 3D scan data. Compared to the first 3D oral model 310, the second 3D oral model 320 expresses the tooth scan results relatively simply by changing the curved area to a straight area and the curved area to a flat area. You will understand.
다운샘플링의 정도는 제1 인공 신경망의 구조적 복잡도에 대응하여, 제1 인공 신경망의 구조가 복잡할수록 곡선 영역과 곡면 영역으로부터 변경된 직선 영역과 평면 영역의 선 수와 면 수를 줄여 보다 단순한 형태의 치아 스캔 결과를 도출하는 정도로 결정될 수 있다.The degree of downsampling corresponds to the structural complexity of the first artificial neural network. The more complex the structure of the first artificial neural network is, the more simple the tooth is by reducing the number of lines and faces in the straight and flat areas changed from the curved area and curved area. The degree to which scan results are derived can be determined.
상기 다운샘플링의 정도에 따라 3차원 치아 스캔 데이터에 포함된 스캔 이미지의 픽셀의 다양성이 줄어들므로, 3차원 치아 스캔 데이터의 사이즈가 줄어들 수 있다.Since the diversity of pixels in the scanned image included in the 3D tooth scan data decreases depending on the degree of downsampling, the size of the 3D tooth scan data may be reduced.
이점을 고려하여, 몇몇 실시예들에서, 서로 상이한 구조적 복잡도를 가지는, 복수의 제1 인공 신경망들이 기계 학습되어 저장되고, 상기 복수의 제1 인공 신경망들 중에서 선정된 제1 인공 신경망의 구조적 복잡도에 대응되는 수준으로 상기 3차원 치아 스캔 데이터가 다운샘플링 될 수 있을 것이다.Considering this, in some embodiments, a plurality of first artificial neural networks having different structural complexities are machine learned and stored, and the structural complexity of a first artificial neural network selected from among the plurality of first artificial neural networks is stored. The 3D tooth scan data may be downsampled to a corresponding level.
상술한 다운샘플링의 결과로 데이터 사이즈가 줄어든 3차원 치아 스캔 데이터는 제1 인공 신경망 관련 연산량을 감소시킬 것이고, 그로 인해 제1 인공 신경망 관련 연산 소요 시간도 감소될 수 있을 것이다. 이는 3차원 구강 모델 세그멘테이션의 전체적인 소요 시간을 감소시키는 효과를 가져온다. 구강 모델 세그멘테이션 장치는 상기 3차원 치아 스캔 데이터를 상기 제1 인공 신경망에 입력하고, 상기 제1 인공 신경망으로부터 출력된 영역 분리 데이터를 획득할 수 있다(S120). 상기 영역 분리 데이터는 상기 3차원 치아 스캔 데이터가 표현하는 3차원 구강 모델의 잇몸 영역과 치관 영역이 구분된 영역 분리 3차원 구강 모델을 표현하는 것으로 이해될 수 있을 것이다.The 3D tooth scan data whose data size has been reduced as a result of the above-described downsampling will reduce the amount of computation related to the first artificial neural network, and as a result, the time required for computation related to the first artificial neural network may also be reduced. This has the effect of reducing the overall time required for 3D oral model segmentation. The oral model segmentation device may input the 3D tooth scan data into the first artificial neural network and obtain region separation data output from the first artificial neural network (S120). The region separation data may be understood as representing a region separation 3D oral model in which the gum region and crown region of the 3D oral model expressed by the 3D tooth scan data are separated.
상술한 바와 같이, 구강 모델 세그멘테이션 장치가 다운샘플링 된 3차원 치아 스캔 데이터를 상기 제1 인공 신경망에 입력할 수도 있음을 다시 언급한다.As mentioned above, it is mentioned again that the oral model segmentation device may input downsampled 3D tooth scan data into the first artificial neural network.
도 5를 참조하여, 상기 제1 인공 신경망에 대한 입출력 데이터를 다시 설명한다. 제1 인공 신경망(330)은 다운샘플링 된 3차원 치아 스캔 데이터를 입력받고 상기 영역 분리 데이터를 출력할 수 있다. 도 5에는 다운샘플링 된 3차원 치아 스캔 데이터가 예시적인 3차원 구강 모델(320)로서 렌더링된 결과 및 상기 영역 분리 데이터가 예시적인 3차원 구강 모델(340)로서 렌더링된 결과가 도시된다.Referring to FIG. 5, the input and output data for the first artificial neural network will be described again. The first artificial neural network 330 may receive downsampled 3D tooth scan data and output the region separation data. FIG. 5 shows the results of rendering downsampled 3D dental scan data as an exemplary 3D oral cavity model 320 and the results of rendering the region separation data as an exemplary 3D oral cavity model 340.
이하, 본 명세서에서, 치관과 잇몸이 구분된 3차원 구강 모델(340)을, ‘영역 분리 3차원 구강 모델’로 지칭하기로 한다.Hereinafter, in this specification, the 3D oral cavity model 340 in which the crown and gums are separated will be referred to as the ‘region-separated 3D oral cavity model’.
몇몇 실시예들에서, 영역 분리 3차원 구강 모델은 잇몸 영역이 제1 속성을 가지도록 마스킹 처리한 것일 수 있다. 예를 들어, 영역 분리 3차원 구강 모델은 잇몸 영역이 제1 색상을 가지거나, 제1 패턴을 가지거나, 제1 투명도를 가지도록 마스킹 처리한 것일 수 있다. 상기 제1 색상, 상기 제1 패턴 및 상기 제1 투명도는 원본 그대로의 3차원 구강 모델이 가지기 어려운 색상, 패턴 및 투명도일 수 있다.In some embodiments, the region-separated 3D oral model may be one in which the gum region is masked to have the first attribute. For example, the region-separated 3D oral model may be masked so that the gum region has a first color, a first pattern, or a first transparency. The first color, the first pattern, and the first transparency may be colors, patterns, and transparency that are difficult for the original three-dimensional oral model to have.
다른 몇몇 실시예들에서, 영역 분리 3차원 구강 모델은 치관 영역이 제2 속성을 가지도록 마스킹 처리한 것일 수도 있다. 예를 들어, 영역 분리 3차원 구강 모델은 치관 영역이 제2 색상을 가지거나, 제2 패턴을 가지거나, 제2 투명도를 가지도록 마스킹 처리한 것일 수 있다. 상기 제2 색상, 상기 제2 패턴 및 상기 제2 투명도 역시 원본 그대로의 3차원 구강 모델이 가지기 어려운 색상, 패턴 및 투명도일 수 있다.In some other embodiments, the region-separated 3D oral model may be one in which the crown region is masked to have a second attribute. For example, the region-separated 3D oral model may be masked so that the crown region has a second color, a second pattern, or a second transparency. The second color, the second pattern, and the second transparency may also be colors, patterns, and transparency that are difficult for the original three-dimensional oral model to have.
상기 영역 분리 3차원 구강 모델에 대한 마스킹 처리는, 시각적인 마스킹 처리일 수 있다. 이는, 후술할 제2 인공 신경망 및 제3 인공 신경망이 시각적 정보를 처리하기 위한 CNN(Convolutional Neural Network) 기반의 인공 신경망이기 때문이다.The masking process for the region-separated three-dimensional oral model may be a visual masking process. This is because the second and third artificial neural networks, which will be described later, are CNN (Convolutional Neural Network)-based artificial neural networks for processing visual information.
도 5의 영역 분리 3차원 구강 모델(340)은 치관 영역이 제2 색상으로 채색되는 형태로 마스킹 처리된 것으로 이해될 수 있을 것이다.The region-separated three-dimensional oral cavity model 340 of FIG. 5 may be understood as masking the crown region in a manner that is colored with a second color.
다시 도 2로 돌아와서 설명한다.Let's return to Figure 2 again for explanation.
구강 모델 세그멘테이션 장치는 상기 영역 분리 데이터에 따른 영역 분리 3차원 구강 모델을 분석하고, 분석의 결과를 이용하여 상기 영역 분리 3차원 구강 모델의 교합면을 식별하며, 상기 교합면의 치관 영역만을 표현하는 교합면 치관 이미지를 생성할 수 있다(S130).The oral model segmentation device analyzes the region-separated three-dimensional oral model according to the region separation data, uses the results of the analysis to identify the occlusal surface of the region-separated three-dimensional oral model, and expresses only the coronal area of the occlusal surface. An occlusal crown image can be created (S130).
구강 모델 세그멘테이션 장치는 3차원 모델 뷰어 기반의 로직을 실행함으로써 교합면과 평행한 시점에서 치관을 바라본 2차원 이미지인 교합면 치관 이미지를 생성할 수 있다. 구강 모델 세그멘테이션 장치가 S130을 수행하는 동작을 도 6 내지 도 7을 참조하여 보다 자세히 설명한다.The oral model segmentation device can generate an occlusal crown image, which is a two-dimensional image looking at the crown from a perspective parallel to the occlusal surface, by executing logic based on a 3D model viewer. The operation of the oral model segmentation device performing S130 will be described in more detail with reference to FIGS. 6 and 7.
도 6을 참조하면, 구강 모델 세그멘테이션 장치는 안면측(facial)에서 설측(lingual) 방향으로 바라본 영역 분리 3차원 구강 모델(350)을 분석하여, 상악 치관 및 하악 치관의 교합선(351)과 치관의 중앙선(352)을 확인할 수 있다.Referring to FIG. 6, the oral model segmentation device analyzes the region-separated three-dimensional oral model 350 viewed from the facial side to the lingual direction, and determines the occlusal line 351 of the maxillary crown and mandibular crown and the crown. The center line 352 can be confirmed.
상기 치관의 교합선은 상악과 하악의 앞니가 교합되는 점이 좌우 방향으로 확장된 선일 수 있다. 상기 치관의 중앙선은 상악과 하악의 앞니가 교합되는 점이 상하 방향으로 확장된 선일 수 있다.The occlusal line of the crown may be a line extending in the left and right directions from the point where the upper and lower front teeth meet. The center line of the crown may be a line extending upward and downward from the point where the upper and lower front teeth meet.
또한, 구강 모델 세그멘테이션 장치는 우측 구치부에서 설측 방향으로 바라본 영역 분리 3차원 구강 모델(360)을 분석하여, 상악 치관 및 하악 치관의 교합선(361)과 치관의 중앙선(362)을 더 확인할 수 있다.In addition, the oral model segmentation device analyzes the region-separated three-dimensional oral model 360 viewed from the right posterior tooth in the lingual direction, and can further confirm the occlusal line 361 of the maxillary crown and mandibular crown and the center line 362 of the crown. .
또한, 구강 모델 세그멘테이션 장치는 좌측 구치부에서 설측 방향으로 바라본 영역 분리 3차원 구강 모델(370)을 분석하여, 상악 치관 및 하악 치관의 교합선(371)과 치관의 중앙선(372)을 더 확인할 수 있다. 구강 모델 세그멘테이션 장치는 3가지 방향에서 바라본 영역 분리 3차원 구강 모델(350, 360, 370)의 분석 결과를 이용하여, 영역 분리 3차원 구강 모델(340)의 교합면을 유일하게 특정할 수 있을 것이다. 도 6에는 이렇게 특정된 교합면의 치관 영역만을 표현하는 교합면 치관 이미지(510)가 도시된다.In addition, the oral model segmentation device analyzes the region-separated three-dimensional oral model 370 viewed from the left posterior tooth in the lingual direction, and can further confirm the occlusal line 371 of the maxillary crown and mandibular crown and the center line 372 of the crown. . The oral model segmentation device will be able to uniquely specify the occlusal surface of the region-separated three-dimensional oral model (340) using the analysis results of the region-separated three-dimensional oral model (350, 360, 370) viewed from three directions. . Figure 6 shows an occlusal crown image 510 representing only the crown area of the occlusal surface specified in this way.
도 7을 참조하여, 교합면 치관 이미지(510)의 생성 방법을 설명한다. Referring to FIG. 7 , a method for generating an occlusal crown image 510 will be described.
구강 모델 세그멘테이션 장치는 상술한 방법으로 특정된 교합면 이미지(520)의 중심을 지나는 수직 축과 가상 카메라(530)의 시선이 일치하고, 또한 가상 카메라(530)가 교합면 이미지가 일부 삭제되지 않는 기 정의된 사이즈로 수용되도록 가상 카메라(530)를 위치시킬 수 있다.The oral model segmentation device matches the visual line of the virtual camera 530 with the vertical axis passing through the center of the occlusal image 520 specified by the above-described method, and also ensures that the virtual camera 530 does not delete part of the occlusal image. The virtual camera 530 can be positioned to accommodate a predefined size.
이로써, 가상 카메라(530)는 교합면에 대한 스냅샷 이미지인 교합면 치관 이미지(510)를 촬영할 수 있게 된다. 촬영된 교합면 치관 이미지(510)는 제2 인공 신경망(540)에 입력된다.As a result, the virtual camera 530 can capture the occlusal crown image 510, which is a snapshot image of the occlusal surface. The captured occlusal crown image 510 is input to the second artificial neural network 540.
다시, 도 2로 돌아와서 설명한다.Again, we will return to FIG. 2 for explanation.
다음 동작으로, 구강 모델 세그멘테이션 장치는 제2 인공 신경망을 이용하여, 기 학습된 치관 이미지 중에서 개별 특징이 유사한 치관 이미지의 중심점을 중심점으로 선택함으로 교합면 치관 이미지(510) 상에 각 치관 영역의 중심점을 식별한다(S140).In the next operation, the oral model segmentation device uses the second artificial neural network to select the center point of the crown image with similar individual characteristics among the previously learned crown images as the center point, thereby creating the center point of each crown region on the occlusal crown image 510. Identify (S140).
상기 제2 인공 신경망 역시, 제1 인공 신경망과 유사하게 각 치관 영역의 중심점이 라벨링된 교합면 치관 이미지의 학습 데이터를 이용하여 지도 학습된 것일 수 있다.The second artificial neural network may also be supervised using learning data from occlusal crown images in which the center point of each crown region is labeled, similar to the first artificial neural network.
한편, 상기 제2 인공 신경망은 치관의 배열 및 형상을 기준으로 그룹핑되어 기계 학습될 수 있다. 예를 들어, 제1 타입의 치관 배열 및 형상을 가지는 제1 그룹의 학습 데이터를 이용하여 기계 학습된 제1 타입의 제2 인공 신경망과, 제2 타입의 치관 배열 및 형상을 가지는 제2 그룹의 학습 데이터를 이용하여 기계 학습된 제2 타입의 제2 인공 신경망과, 제3 타입의 치관 배열 및 형상을 가지는 제3 그룹의 학습 데이터를 이용하여 기계 학습된 제3 타입의 제2 인공 신경망 각각이 존재할 수 있다.Meanwhile, the second artificial neural network can be machine-learned by grouping based on the arrangement and shape of the crown. For example, a first type of second artificial neural network machine-learned using a first group of learning data having a first type of crown arrangement and shape, and a second type of second artificial neural network having a second type of crown arrangement and shape. A second type of second artificial neural network machine-learned using learning data and a third type of second artificial neural network machine-learned using a third group of learning data having a third type of crown arrangement and shape, respectively. It can exist.
상기 치관의 배열 및 형상을 기준으로 그룹핑되는 타입은 복수개일 수 있다. 상기 타입은 치관의 배열 및 형상의 유사도가 기 정의된 기준 미만임에 따라 그룹핑될 수 있다. 구강 모델 세그멘테이션 장치는 상기 제1 내지 제3 타입의 제2 인공 신경망 중, 상기 교합면 치관 이미지의 치관 영역의 형상을 이용하여 하나의 제2 인공 신경망을 선정할 수 있을 것이다.There may be a plurality of types grouped based on the arrangement and shape of the crown. The types can be grouped according to the similarity in arrangement and shape of the crowns being less than a predefined standard. The oral model segmentation device may be able to select one second artificial neural network among the first to third types of second artificial neural networks using the shape of the crown area of the occlusal crown image.
또한, 구강 모델 세그멘테이션 장치는 상기 제1 내지 제3 타입의 제2 인공 신경망 중, 상기 교합면 치관 이미지의 기 지정된 영역의 치관 영역의 형상을 이용하여 하나의 제2 인공 신경망을 선정할 수도 있을 것이다.In addition, the oral model segmentation device may select a second artificial neural network among the first to third types of second artificial neural networks using the shape of the crown area of the pre-designated area of the occlusal crown image. .
도 8에 도시된 바와 같이, 상기 제2 인공 신경망(540)은, 교합면 치관 이미지(510)를 입력 받고, 교합면 치관 이미지 상의 각 치아의 치관 영역의 중심점을 가리키는 중심점 데이터(550)를 출력할 수 있다. 도 9는 중심점 데이터(550)에 따른 각각의 치관 중심점(560a, 560b, 560c, 560d)이 교합면 치관 이미지(550) 위에 표시된 결과(560)를 도시한다.As shown in FIG. 8, the second artificial neural network 540 receives the occlusal crown image 510 and outputs center point data 550 indicating the center point of the crown area of each tooth on the occlusal crown image. can do. 9 shows the result 560 where each crown center point 560a, 560b, 560c, 560d according to the center point data 550 is displayed on the occlusal crown image 550.
한편, 몇몇 실시예에서, 구강 모델 세그멘테이션 장치는, 상기 제2 인공 신경망의 출력 데이터를 이용하여 상기 중심점 데이터의 신뢰도를 연산하고, 상기 신뢰도가 기준치 미만인 경우, 상기 교합면 치관 이미지 상의 중심점 수동 입력을 위한 사용자 인터페이스를 출력할 수도 있다. 상기 신뢰도는 중심점 데이터가 인공 신경망이 수집한 중심점 데이터의 표준 데이터에서 일정 수준 이상 벗어날수록 낮을 수 있다. 즉, 인공 신경망도 각 치관 영역의 중심점을 정확하게 식별하지 못하는 경우라면, 구강 모델 세그멘테이션 장치는, 사용자에게 수동의 중심점 포인팅(pointing)을 요청함으로써, 이후 수행될 동작을 통하여 정확하게 3차원 세그멘테이션이 마무리될 수 있도록 한다.Meanwhile, in some embodiments, the oral model segmentation device calculates the reliability of the center point data using the output data of the second artificial neural network, and when the reliability is less than a reference value, manually inputs the center point on the occlusal crown image. You can also print the user interface for this. The reliability may be lower as the central point data deviates from the standard data of the central point data collected by the artificial neural network by more than a certain level. In other words, in cases where the artificial neural network cannot accurately identify the center point of each crown region, the oral model segmentation device requests the user to manually point the center point, so that the 3D segmentation can be completed accurately through the subsequent operations. make it possible
다시 도 2로 돌아와서 설명한다.Let's return to Figure 2 again for explanation.
구강 모델 세그멘테이션 장치는, 상기 3차원 치아 스캔 데이터를 기계 학습된 제3 인공 신경망에 입력하고(S160), 상기 중심점 데이터를 기계 학습된 제3 인공 신경망에 입력하여, 그 결과 상기 제3 인공 신경망은 세그멘테이션 데이터를 출력할 수 있다(S150). 상기 세그멘테이션 데이터는, 상기 3차원 구강 모델에 포함된 각 치아의 치관 영역이 치아 별로 세그멘테이션 된 3차원 세그멘테이션 모델을 표현하는 것으로 이해될 수 있을 것이다.The oral model segmentation device inputs the 3D tooth scan data into a machine-learned third artificial neural network (S160) and inputs the center point data into the machine-learned third artificial neural network, and as a result, the third artificial neural network is Segmentation data can be output (S150). The segmentation data may be understood as representing a 3D segmentation model in which the crown area of each tooth included in the 3D oral model is segmented for each tooth.
상기 제1 인공 신경망 및 상기 제2 인공 신경망과 유사하게, 상기 제3 인공 신경망 역시, 3차원 구강 모델 상에서 각 치관의 3차원 영역이 구분되고 교합면 치관 이미지 상의 중심점이 라벨링된 학습 데이터를 이용하여 지도 학습된 것일 수 있다.Similar to the first artificial neural network and the second artificial neural network, the third artificial neural network also uses learning data in which the 3D area of each tooth crown is distinguished on the 3D oral model and the center point on the occlusal crown image is labeled. It may be supervised learning.
구강 모델 세그멘테이션 장치는 제3 인공 신경망을 이용하여, 기 학습된 치관 이미지 중에서 개별 특징이 유사한 치관 이미지의 치관 상태를 획득한 3D 치아 스캔 데이터의 치관 상태로 선택하고, 선택한 치관 상태에 제2 인공 신경망이 출력한 중심점 데이터를 입력하여 세그멘테이션 데이터를 생성하고 출력할 수 있다(S150).The oral model segmentation device uses a third artificial neural network to select the crown state of a crown image with similar individual characteristics among pre-learned crown images as the crown state of the acquired 3D tooth scan data, and applies a second artificial neural network to the selected crown state. Segmentation data can be generated and output by inputting the output center point data (S150).
도 10에는 제3 인공 신경망(910)이 다운샘플링 된 3차원 치아 스캔 데이터(320) 및 중심점 데이터(560)를 입력 받고, 각 치아의 치관 영역(920a 내지 920d)이 세그멘테이션 된 3차원 세그멘테이션 모델(920)을 표현하는 세그멘테이션 데이터를 출력하는 것을 도시한다.In Figure 10, the third artificial neural network 910 receives downsampled 3D tooth scan data 320 and center point data 560, and the crown region 920a to 920d of each tooth is segmented to create a 3D segmentation model ( It shows outputting segmentation data representing 920).
몇몇 실시예에서, 구강 모델 세그멘테이션 장치는 3차원 세그멘테이션 모델(920)의 각 치관 영역이 서로 시각적으로 구분되도록, 각 치관 영역을 마스킹 처리하고, 상기 세그멘테이션 데이터가 상기 마스킹 처리의 결과를 반영하도록, 상기 세그멘테이션 데이터를 조정하며, 상기 조정된 세그멘테이션 데이터를 출력할 수 있다. 도 9에는 상술한 바와 같이 조정된 세그멘테이션 데이터의 3차원 세그멘테이션 모델(920)이 도시된다.In some embodiments, the oral model segmentation device masks each crown region of the three-dimensional segmentation model 920 so that each crown region is visually distinguished from each other, and the segmentation data reflects the result of the masking process. Segmentation data can be adjusted, and the adjusted segmentation data can be output. Figure 9 shows a three-dimensional segmentation model 920 of segmentation data adjusted as described above.
몇몇 실시예에서, 구강 모델 세그멘테이션 장치는 마스킹 처리의 결과를 이용하여, 각각의 치관 위치를 식별하고, 상기 식별된 치관 위치를 기준으로, 각각의 치관 영역에 대한 치식 번호를 라벨링 하며, 상기 조정된 세그멘테이션 데이터와 함께 상기 각각의 치관 영역에 대한 치식 번호에 대한 라벨링 결과 데이터를 출력할 수도 있다.In some embodiments, the oral model segmentation device uses the results of the masking process to identify each crown location, labels a tooth number for each crown region based on the identified crown location, and labels the adjusted crown location with a tooth number for each crown region. Labeling result data for the dental formula number for each crown region may be output along with the segmentation data.
지금까지 본 실시예에 따른 3차원 구강 모델의 세그멘테이션 방법을 설명하였다. 상술한 바와 같이, 3차원 스캔 데이터를 이용하여 세그멘테이션이 완료된 3차원 구강 모델을 얻기까지 사용자의 조작이 요구되지 않는 점을 알 수 있다. 한편, 본 개시의 또 다른 실시예에 따른 3차원 구강 모델의 세그멘테이션 방법은, 도 11에 도시된 바와 같이 제4 인공 신경망(930)이 치관과 잇몸이 구분된 3차원 구강 모델(340) 및 중심점 데이터(560)를 입력 받고, 각 치아의 치관 영역(940a 내지 940d)이 세그멘테이션 된 3차원 세그멘테이션 모델(940)을 표현하는 세그멘테이션 데이터를 출력할 수도 있다.So far, the segmentation method of the 3D oral model according to this embodiment has been described. As described above, it can be seen that no user manipulation is required to obtain a 3D oral model with complete segmentation using 3D scan data. Meanwhile, in the segmentation method of a 3D oral model according to another embodiment of the present disclosure, as shown in FIG. 11, the fourth artificial neural network 930 creates a 3D oral model 340 with the crown and gums separated and a center point. Data 560 may be input, and segmentation data representing a 3D segmentation model 940 in which the crown regions 940a to 940d of each tooth are segmented may be output.
상기 제1 인공 신경망 내지 상기 제3 인공 신경망과 유사하게, 상기 제4 인공 신경망 역시, 치관과 잇몸이 구분된 3차원 구강 모델 상에서 각 치관의 3차원 영역이 구분되고 교합면 치관 이미지 상의 중심점이 라벨링 된 학습 데이터를 이용하여 지도 학습된 것일 수 있다.Similar to the first to third artificial neural networks, the fourth artificial neural network also divides the 3D region of each tooth crown on a 3D oral model in which the crown and gums are separated, and the center point on the occlusal crown image is labeled. It may be supervised learning using trained learning data.
본 실시예에 따른 3차원 구강 모델의 순서도는 도 2에 도시된다. 도 1 대비 달라지는 동작을 설명하자면, 상기 제4 인공 신경망은 단계 S120의 수행 결과인 영역 분리 데이터를 입력 받는다(S170). 즉, 상기 제4 인공 신경망은 상기 영역 분리 데이터와 중심점 데이터를 입력 받고, 상기 세그멘테이션 데이터를 출력하게 된다.The flowchart of the three-dimensional oral model according to this embodiment is shown in FIG. 2. To explain the different operation compared to FIG. 1, the fourth artificial neural network receives region separation data as a result of step S120 (S170). That is, the fourth artificial neural network receives the region separation data and the center point data and outputs the segmentation data.
본 실시예에 따른 상기 제4 인공 신경망은 원본 데이터라 할 수 있는 상기 3차원 치아 스캔 데이터 대신 제1 인공 신경망에 의하여 일종의 전처리로서 치관 영역과 잇몸 영역의 구분이 처리된 영역 분리 데이터를 입력 받는다. 상기 영역 분리 데이터에는 상기 3차원 치아 스캔 데이터 대비 치관 영역과 잇몸 영역의 구분이라는 정보가 부가된 것이므로, 더 많은 정보를 담고 있는 것으로 이해될 수 있을 것이다. 따라서, 상기 제4 인공 신경망은 상기 제3 인공 신경망 대비 더 많은 정보를 입력 받는 것이고, 이러한 점은 세그멘테이션 정확도에 유리하게 작용될 수 있을 것이다.The fourth artificial neural network according to this embodiment receives area separation data in which the crown area and gum area have been processed as a kind of preprocessing by the first artificial neural network instead of the 3D tooth scan data, which can be considered original data. The region separation data may be understood to contain more information because information about the distinction between the crown region and the gum region is added compared to the 3D tooth scan data. Therefore, the fourth artificial neural network receives more information than the third artificial neural network, and this may have an advantage in segmentation accuracy.
이하, 도 12를를 참조하여 도 1을 참조하여 설명한 3차원 구강 모델의 세그멘테이션 방법을 다시 한번 정리하여 설명한다.Hereinafter, the segmentation method of the 3D oral model described with reference to FIG. 1 will be summarized and explained with reference to FIG. 12.
다운샘플링 된 3차원 치아 스캔 데이터(320)가 제1 인공 신경망(330)에 입력되고, 제1 인공 신경망(330)은 치관과 잇몸이 구분된 3차원 구강 모델(340)을 표현하는 영역 구분 데이터를 출력한다.The downsampled 3D tooth scan data 320 is input to the first artificial neural network 330, and the first artificial neural network 330 is region classification data representing a 3D oral model 340 with the crown and gums separated. outputs.
다음으로, 치관과 잇몸이 구분된 3차원 구강 모델(340)을 이용하여 교합면 치관 이미지(520)가 생성된다. 교합면 치관 이미지(520)가 제2 인공 신경망(540)에 입력되고, 제2 인공 신경망(540)은 각 치관 영역의 중심점(560)을 가리키는 중심점 데이터를 출력한다.Next, an occlusal crown image 520 is created using a 3D oral model 340 in which the crown and gums are separated. The occlusal crown image 520 is input to the second artificial neural network 540, and the second artificial neural network 540 outputs center point data indicating the center point 560 of each crown region.
다음으로, 3차원 치아 스캔 데이터(320)와, 각 치관 영역의 중심점(560)을 가리키는 중심점 데이터가 제3 인공 신경망(910)에 입력되고, 제3 인공 신경망(910)은 각 치아의 치관 영역이 세그멘테이션 된 3차원 세그멘테이션 모델(920)을 표현하는 세그멘테이션 데이터를 출력한다.Next, the 3D tooth scan data 320 and the center point data indicating the center point 560 of each tooth crown area are input to the third artificial neural network 910, and the third artificial neural network 910 is the crown area of each tooth. Segmentation data representing this segmented 3D segmentation model 920 is output.
이하, 도 13을을 참조하여 도 2를 참조하여 설명한 3차원 구강 모델의 세그멘테이션 방법을 다시 한번 정리하여 설명한다.Hereinafter, the segmentation method of the 3D oral model described with reference to FIG. 2 will be summarized and explained with reference to FIG. 13.
다운 샘플링 된 3차원 치아 스캔 데이터(320)가 제1 인공 신경망(330)에 입력되고, 제1 인공 신경망(330)은 치관과 잇몸이 구분된 3차원 구강 모델(340)을 표현하는 영역 구분 데이터를 출력한다.The down-sampled 3D tooth scan data 320 is input to the first artificial neural network 330, and the first artificial neural network 330 is region classification data representing a 3D oral model 340 with the crown and gums separated. outputs.
다음으로, 치관과 잇몸이 구분된 3차원 구강 모델(340)을 이용하여 교합면 치관 이미지(520)가 생성된다. 교합면 치관 이미지(520)가 제2 인공 신경망(540)에 입력되고, 제2 인공 신경망(540)은 각 치관 영역의 중심점(560)을 가리키는 중심점 데이터를 출력한다.Next, an occlusal crown image 520 is created using a 3D oral model 340 in which the crown and gums are separated. The occlusal crown image 520 is input to the second artificial neural network 540, and the second artificial neural network 540 outputs center point data indicating the center point 560 of each crown region.
다음으로, 치관과 잇몸이 구분된 3차원 구강 모델(340)을 표현하는 영역 구분 데이터와, 각 치관 영역의 중심점(560)을 가리키는 중심점 데이터가 제4 인공 신경망(930)에 입력되고, 제4 인공 신경망(930)은 각 치아의 치관 영역이 세그멘테이션 된 3차원 세그멘테이션 모델(940)을 표현하는 세그멘테이션 데이터를 출력한다.Next, region classification data representing the three-dimensional oral model 340 in which the crown and gums are separated, and center point data indicating the center point 560 of each crown region are input to the fourth artificial neural network 930, and the fourth The artificial neural network 930 outputs segmentation data representing a 3D segmentation model 940 in which the crown region of each tooth is segmented.
한편, 지금까지 도 1 내지 도 13을 참조하여 설명한 실시예들에 따라 얻어지는 세그멘테이션 데이터는, 3차원 치아 교정 시뮬레이션을 위한 출력 화면의 생성에 이용될 수 있다. 예를 들어, 3차원 치아 교정 시뮬레이션을 위한 각 치아 배치 이동 결과를 표시하는 과정에서, 상기 세그멘테이션 데이터가 이용될 수 있을 것이다.Meanwhile, segmentation data obtained according to the embodiments described so far with reference to FIGS. 1 to 13 can be used to generate an output screen for 3D orthodontic simulation. For example, the segmentation data may be used in the process of displaying the results of each tooth placement movement for a 3D orthodontic simulation.
이하, 도 14를 참조하여 본 개시의 또 다른 실시예에 따른 구강 모델 세그멘테이션 시스템(100)를 설명한다. 도 13에 도시된 바와 같이, 본 실시예의 구강 모델 세그멘테이션 시스템(100)는 하나 이상의 프로세서(1100), 시스템 버스(1600), 통신 인터페이스(1200), 프로세서(1100)에 의하여 수행되는 컴퓨터 프로그램(1500)을 로드(load)하는 메모리(1400)와, 컴퓨터 프로그램(1500)을 저장하는 스토리지(1300)를 포함할 수 있다.Hereinafter, an oral model segmentation system 100 according to another embodiment of the present disclosure will be described with reference to FIG. 14 . As shown in FIG. 13, the oral model segmentation system 100 of this embodiment includes one or more processors 1100, a system bus 1600, a communication interface 1200, and a computer program 1500 performed by the processor 1100. ) may include a memory 1400 for loading a computer program 1500 and a storage 1300 for storing a computer program 1500.
프로세서(1100)는 구강 모델 세그멘테이션 시스템(100)의 각 구성의 전반적인 동작을 제어한다. 프로세서(1100)는 본 개시의 다양한 실시예들에 따른 방법/동작을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 메모리(1400)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(1400)는 본 개시의 다양한 실시예들에 따른 방법/동작들을 실행하기 위하여 스토리지(1300)로부터 하나 이상의 컴퓨터 프로그램(1500)을 로드(load) 할 수 있다. 버스(1600)는 시뮬레이션 장치(200)의 구성 요소 간 통신 기능을 제공한다. 통신 인터페이스(1200)는 3차원 구강 모델 세그멘테이션 시스템(100)의 인터넷 통신을 지원한다. 또한, 통신 인터페이스(1200)는 3차원 스캐너 장치(미도시)와 연결될 수 있을 것이다. 스토리지(1300)는 하나 이상의 컴퓨터 프로그램(1500)을 비임시적으로 저장할 수 있다. 컴퓨터 프로그램(1500)은 본 개시의 다양한 실시예들에 따른 방법/동작들이 구현된 하나 이상의 인스트럭션들(instructions)을 포함할 수 있다. 컴퓨터 프로그램(1500)이 메모리(1400)에 로드 되면, 프로세서(1100)는 상기 하나 이상의 인스트럭션들을 실행시킴으로써 본 개시의 다양한 실시예들에 따른 방법/동작들을 수행할 수 있다.The processor 1100 controls the overall operation of each component of the oral model segmentation system 100. The processor 1100 may perform operations on at least one application or program to execute methods/operations according to various embodiments of the present disclosure. The memory 1400 stores various data, commands and/or information. The memory 1400 may load one or more computer programs 1500 from the storage 1300 to execute methods/operations according to various embodiments of the present disclosure. The bus 1600 provides communication between components of the simulation device 200. The communication interface 1200 supports Internet communication of the 3D oral model segmentation system 100. Additionally, the communication interface 1200 may be connected to a 3D scanner device (not shown). Storage 1300 may non-temporarily store one or more computer programs 1500. The computer program 1500 may include one or more instructions implementing methods/operations according to various embodiments of the present disclosure. When the computer program 1500 is loaded into the memory 1400, the processor 1100 can perform methods/operations according to various embodiments of the present disclosure by executing the one or more instructions.
메모리(1400)는 환자의 3차원 치아 스캔 데이터, 제1 인공 신경망을 정의하는 데이터, 제2 인공 신경망을 정의하는 데이터, 제3 인공 신경망을 정의하는 데이터 및 3차원 구강 모델 세그멘테이션을 수행하는 컴퓨터 프로그램(1500)을 로드 할 수 있다.The memory 1400 includes the patient's 3D dental scan data, data defining a first artificial neural network, data defining a second artificial neural network, data defining a third artificial neural network, and a computer program that performs 3D oral model segmentation. (1500) can be loaded.
컴퓨터 프로그램(1500)은 본 개시의 다양한 실시예들에 따른 방법/동작들이 구현된 하나 이상의 동작을 수행하기 위한 인스트럭션들(instructions)을 포함할 수 있다.The computer program 1500 may include instructions for performing one or more operations in which methods/operations according to various embodiments of the present disclosure are implemented.
예를 들어, 컴퓨터 프로그램(1500)은 상기 3차원 치아 스캔 데이터를 입력 받은 상기 제1 인공 신경망이 상기 3차원 치아 스캔 데이터가 표현하는 3차원 구강 모델의 잇몸 영역과 치관 영역이 구분된 영역 분리 3차원 구강 모델을 표현하는 영역 분리 데이터를 출력하는 인스트럭션과, 상기 영역 분리 데이터에 따른 영역 분리 3차원 구강 모델을 분석하여 상기 영역 분리 3차원 구강 모델의 교합면을 식별하며, 상기 교합면의 치관 영역만을 표현하는 교합면 치관 이미지를 생성하는 인스트럭션과, 상기 교합면 치관 이미지를 입력 받은 상기 제2 인공 신경망이, 상기 교합면 치관 이미지 상의 각 치아의 치관 영역의 중심점을 가리키는 중심점 데이터를 출력하는 인스트럭션과, 상기 3차원 치아 스캔 데이터와 상기 중심점 데이터를 입력 받은 상기 제3 인공신경망이 상기 3차원 구강 모델에 포함된 각 치아의 치관 영역이 치아 별로 세그멘테이션 된 3차원 세그멘테이션 모델을 표현하는 세그멘테이션 데이터를 출력하는 인스트럭션을 포함할 수 있다.For example, the computer program 1500 separates the gum area and crown area of the 3D oral model represented by the 3D tooth scan data by the first artificial neural network receiving the 3D tooth scan data. 3 An instruction for outputting region separation data representing a dimensional oral model, analyzing the region separation 3D oral model according to the region separation data to identify the occlusal surface of the region separation 3D oral model, and the crown area of the occlusal surface. an instruction for generating an occlusal crown image representing only an occlusal crown image, and an instruction for the second artificial neural network receiving the occlusal crown image to output center point data indicating the center point of the crown area of each tooth on the occlusal crown image; , the third artificial neural network that receives the 3D tooth scan data and the center point data outputs segmentation data representing a 3D segmentation model in which the crown area of each tooth included in the 3D oral model is segmented for each tooth. May contain instructions.
지금까지 도 1 내지 도 14를 참조하여 본 개시의 다양한 실시예들 및 그 실시예들에 따른 효과들을 언급하였다. 본 개시의 기술적 사상에 따른 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.So far, various embodiments of the present disclosure and effects according to the embodiments have been mentioned with reference to FIGS. 1 to 14 . The effects according to the technical idea of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below.
지금까지 설명된 본 개시의 기술적 사상은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체에 기록된 상기 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 상기 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 다른 컴퓨팅 장치에서 사용될 수 있다.The technical ideas of the present disclosure described so far can be implemented as computer-readable code on a computer-readable medium. The computer program recorded on the computer-readable recording medium can be transmitted to another computing device through a network such as the Internet, installed on the other computing device, and thus used on the other computing device.
도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시 된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티태스킹 및 병렬 처리가 유리할 수도 있다. 이상 첨부된 도면을 참조하여 본 개시의 실시예들을 설명하였지만, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자는 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 본 발명이 다른 구체적인 형태로도 실시될 수 있다는 것을 이해할 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시에 의해 정의되는 기술적 사상의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although operations are shown in the drawings in a specific order, it should not be understood that the operations must be performed in the specific order shown or sequential order or that all illustrated operations must be performed to obtain the desired results. In certain situations, multitasking and parallel processing may be advantageous. Although embodiments of the present disclosure have been described above with reference to the attached drawings, those skilled in the art will understand that the present invention can be implemented in other specific forms without changing the technical idea or essential features. I can understand that there is. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. The scope of protection of the present invention should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be construed as being included in the scope of rights of the technical ideas defined by this disclosure.

Claims (15)

  1. 컴퓨팅 시스템에 의하여 수행되는 방법에 있어서,In a method performed by a computing system,
    적어도 하나의 3차원 치아 스캔 데이터를 획득하는 단계;Acquiring at least one 3D tooth scan data;
    상기 3차원 치아 스캔 데이터를 입력 받은 제1 인공 신경망이 적어도 하나의 3차원 치아 스캔 데이터를 이용하여 생성한 3차원 구강 모델의 잇몸 영역과 치관 영역이 구분된 영역 분리 3차원 구강 모델을 표현하는 영역 분리 데이터를 출력하는 단계;An area representing a separated 3D oral model in which the gum area and the crown area of the 3D oral model generated by the first artificial neural network that received the 3D tooth scan data using at least one 3D tooth scan data are separated. outputting separated data;
    상기 영역 분리 3차원 구강 모델을 분석하여 3차원 구강 모델의 교합면을 식별하며, 상기 교합면의 치관 영역만을 표현하는 교합면 치관 이미지를 생성하는 단계;Analyzing the region-separated three-dimensional oral model to identify an occlusal surface of the three-dimensional oral model, and generating an occlusal crown image representing only the crown region of the occlusal surface;
    상기 교합면 치관 이미지를 입력 받은 제2 인공 신경망이, 상기 교합면 치관 이미지 상의 각 치아의 치관 영역의 중심점을 가리키는 중심점 데이터를 출력하는 단계; 및A second artificial neural network receiving the occlusal crown image outputs center point data indicating the center point of the crown area of each tooth on the occlusal crown image; and
    상기 3차원 치아 스캔 데이터와 상기 중심점 데이터를 입력 받은 제3 인공 신경망이 상기 3차원 구강 모델에 포함된 각 치아의 치관 영역이 치아 별로 세그멘테이션 된 3차원 세그멘테이션 모델을 표현하는 세그멘테이션 데이터를 출력하는 단계를 포함하는,A third artificial neural network receiving the 3D tooth scan data and the center point data outputs segmentation data representing a 3D segmentation model in which the crown area of each tooth included in the 3D oral model is segmented for each tooth. containing,
    3차원 구강 모델의 세그멘테이션 방법.Segmentation method for 3D oral model.
  2. 제1 항에 있어서,According to claim 1,
    상기 영역 분리 데이터를 출력하는 단계는, The step of outputting the region separation data is,
    상기 3차원 치아 스캔 데이터를 다운샘플링(Down-sampling)하는 단계; 및 Down-sampling the 3D tooth scan data; and
    상기 다운샘플링 된 3차원 치아 스캔 데이터를 상기 제1 인공 신경망에 입력하는 단계를 포함하는,Comprising the step of inputting the downsampled 3D tooth scan data into the first artificial neural network,
    3차원 구강 모델의 세그멘테이션 방법.Segmentation method for 3D oral model.
  3. 제1 항에 있어서,According to claim 1,
    상기 영역 분리 데이터를 출력하는 단계는,The step of outputting the region separation data is,
    상기 영역 분리 3차원 구강 모델의 잇몸 영역이 제1 속성을 가지도록 마스킹 처리하거나, 상기 영역 분리 3차원 구강 모델의 치관 영역이 제2 속성을 가지도록 마스킹 처리하는 단계; masking the gum area of the region-separated 3D oral model to have a first attribute, or masking the crown region of the region-separated 3D oral model to have a second attribute;
    상기 영역 분리 데이터가 상기 마스킹 처리의 결과를 반영하도록, 상기 영역 분리 데이터를 조정하는 단계; 및 adjusting the region separation data so that the region separation data reflects a result of the masking process; and
    상기 조정된 영역 분리 데이터를 출력하는 단계를 포함하는,Including outputting the adjusted region separation data,
    3차원 구강 모델의 세그멘테이션 방법.Segmentation method for 3D oral model.
  4. 제1 항에 있어서,According to claim 1,
    상기 교합면 치관 이미지를 생성하는 단계는, The step of generating the occlusal crown image is,
    상기 영역 분리 3차원 구강 모델을 분석하여 상기 영역 분리 3차원 구강 모델의 교합면을 식별하는 단계; Analyzing the region-separated 3D oral cavity model to identify an occlusal surface of the region-separated 3D oral cavity model;
    상기 교합면에 수직인 FOV(Field-Of-View)를 가지도록 가상 카메라를 위치시키는 단계; 및 Positioning a virtual camera to have a field-of-view (FOV) perpendicular to the occlusal surface; and
    상기 가상 카메라에 의하여 촬영된 상기 교합면의 영상을 이용하여, 상기 교합면 치관 이미지를 생성하는 단계를 포함하는, Comprising the step of generating the occlusal surface crown image using the image of the occlusal surface captured by the virtual camera,
    3차원 구강 모델의 세그멘테이션 방법.Segmentation method for 3D oral model.
  5. 제4 항에 있어서,According to clause 4,
    상기 영역 분리 데이터를 출력하는 단계는,The step of outputting the region separation data is,
    상기 영역 분리 3차원 구강 모델의 잇몸 영역이 제1 속성을 가지도록 마스킹 처리하거나, 상기 영역 분리 3차원 구강 모델의 치관 영역이 제2 속성을 가지도록 마스킹 처리하는 단계; 및 masking the gum area of the region-separated 3D oral model to have a first attribute, or masking the crown region of the region-separated 3D oral model to have a second attribute; and
    상기 영역 분리 데이터가 상기 마스킹 처리의 결과를 반영하도록, 상기 영역 분리 데이터를 조정하는 단계를 포함하고, A step of adjusting the region separation data so that the region separation data reflects the result of the masking process,
    상기 가상 카메라에 의하여 촬영된 상기 영역 분리 3차원 구강 모델의 영상을 이용하여, 상기 교합면 치관 이미지를 생성하는 단계는, The step of generating the occlusal crown image using the image of the region-separated three-dimensional oral model captured by the virtual camera,
    상기 마스킹 처리의 결과를 이용하여 상기 교합면의 영상에서 잇몸 영역을 투명처리 함으로써, 상기 교합면 치관 이미지를 생성하는 단계를 포함하는,Comprising the step of generating the occlusal crown image by transparently processing the gum area in the image of the occlusal surface using the result of the masking process,
    3차원 구강 모델의 세그멘테이션 방법.Segmentation method for 3D oral model.
  6. 제1 항에 있어서,According to claim 1,
    상기 중심점 데이터를 출력하는 단계는, The step of outputting the center point data is,
    복수의 후보 인공 신경망들 중에서, 상기 교합면 치관 이미지의 치관 영역의 형상을 이용하여 상기 제2 인공 신경망을 선정하는 단계를 포함하는, Comprising the step of selecting the second artificial neural network from among a plurality of candidate artificial neural networks using the shape of the crown area of the occlusal crown image,
    3차원 구강 모델의 세그멘테이션 방법.Segmentation method for 3D oral model.
  7. 제1 항에 있어서,According to claim 1,
    상기 중심점 데이터를 출력하는 단계는, The step of outputting the center point data is,
    복수의 후보 인공 신경망들 중에서, 상기 교합면 치관 이미지의 기 지정된 영역의 치관 영역의 형상을 이용하여 상기 제2 인공 신경망을 선정하는 단계를 포함하는, Comprising the step of selecting the second artificial neural network from among a plurality of candidate artificial neural networks using the shape of the crown area of the pre-designated area of the occlusal crown image,
    3차원 구강 모델의 세그멘테이션 방법.Segmentation method for 3D oral model.
  8. 제1 항에 있어서,According to claim 1,
    상기 중심점 데이터를 출력하는 단계는, The step of outputting the center point data is,
    상기 제2 인공 신경망의 출력 데이터를 이용하여 상기 중심점 데이터의 신뢰도를 연산하는 단계; 및calculating reliability of the central point data using output data of the second artificial neural network; and
    상기 신뢰도가 기준치 미만인 경우, 상기 교합면 치관 이미지 상의 중심점 수동 입력을 위한 사용자 인터페이스를 출력하는 단계를 포함하는, If the reliability is less than the reference value, outputting a user interface for manual input of the center point on the occlusal crown image,
    3차원 구강 모델의 세그멘테이션 방법.Segmentation method for 3D oral model.
  9. 제1 항에 있어서,According to claim 1,
    상기 세그멘테이션 데이터를 출력하는 단계는,The step of outputting the segmentation data is,
    상기 3차원 치아 스캔 데이터를 다운샘플링(Down-sampling)하는 단계; 및 Down-sampling the 3D tooth scan data; and
    상기 다운샘플링 된 3차원 치아 스캔 데이터와 상기 중심점 데이터를 상기 제3 인공 신경망에 입력하는 단계를 포함하는,Including the step of inputting the downsampled 3D tooth scan data and the center point data into the third artificial neural network,
    3차원 구강 모델의 세그멘테이션 방법.Segmentation method for 3D oral model.
  10. 제1 항에 있어서,According to claim 1,
    상기 세그멘테이션 데이터를 출력하는 단계는,The step of outputting the segmentation data is,
    상기 세그멘테이션 데이터에 따른 3차원 세그멘테이션 모델의 각 치관 영역이 서로 시각적으로 구분되도록, 각 치관 영역을 마스킹 처리하는 단계; 및 masking each crown region of the three-dimensional segmentation model according to the segmentation data so that each crown region is visually distinguished from each other; and
    상기 세그멘테이션 데이터가 상기 마스킹 처리의 결과를 반영하도록, 상기 세그멘테이션 데이터를 조정하는 단계; 및 adjusting the segmentation data so that the segmentation data reflects the results of the masking process; and
    상기 조정된 세그멘테이션 데이터를 출력하는 단계를 포함하는,Including outputting the adjusted segmentation data,
    3차원 구강 모델의 세그멘테이션 방법.Segmentation method for 3D oral model.
  11. 제10 항에 있어서,According to claim 10,
    상기 조정된 세그멘테이션 데이터를 출력하는 단계는, The step of outputting the adjusted segmentation data includes:
    상기 마스킹 처리의 결과를 이용하여, 각각의 치관 위치를 식별하는 단계; Using the result of the masking process, identifying each crown position;
    상기 식별된 치관 위치를 기준으로, 각각의 치관 영역에 대한 치식 번호를 라벨링 하는 단계; 및Labeling a dental formula number for each crown region based on the identified crown position; and
    상기 조정된 세그멘테이션 데이터와 함께 상기 각각의 치관 영역에 대한 치식 번호에 대한 라벨링 결과 데이터를 출력하는 단계를 포함하는,Comprising the step of outputting labeling result data for the dental formula number for each crown region together with the adjusted segmentation data,
    3차원 구강 모델의 세그멘테이션 방법.Segmentation method for 3D oral model.
  12. 제1 항에 있어서,According to claim 1,
    상기 세그멘테이션 데이터를 이용하여, 3차원 치아 교정 시뮬레이션을 위한 출력 화면을 생성하는 단계를 더 포함하는, Further comprising generating an output screen for 3D orthodontic simulation using the segmentation data,
    3차원 구강 모델의 세그멘테이션 방법.Segmentation method for 3D oral model.
  13. 컴퓨팅 시스템에 의하여 수행되는 방법에 있어서,In a method performed by a computing system,
    적어도 하나의 3차원 치아 스캔 데이터를 획득하는 단계;Acquiring at least one 3D tooth scan data;
    상기 3차원 치아 스캔 데이터를 입력 받은 제1 인공 신경망이 3차원 구강 모델의 잇몸 영역과 치관 영역이 구분된 영역 분리 3차원 구강 모델을 표현하는 영역 분리 데이터를 출력하는 단계;A first artificial neural network receiving the 3D tooth scan data outputs area separation data representing a 3D oral model in which the gum area and the crown area of the 3D oral model are separated;
    상기 영역 분리 3차원 구강 모델을 분석하여 상기 3차원 구강 모델의 교합면을 식별하며, 상기 교합면의 치관 영역만을 표현하는 교합면 치관 이미지를 생성하는 단계;Analyzing the region-separated three-dimensional oral model to identify an occlusal surface of the three-dimensional oral model, and generating an occlusal crown image representing only the crown region of the occlusal surface;
    상기 교합면 치관 이미지를 입력 받은 제2 인공 신경망이, 상기 교합면 치관 이미지 상의 각 치아의 치관 영역의 중심점을 가리키는 중심점 데이터를 출력하는 단계; 및A second artificial neural network receiving the occlusal crown image outputs center point data indicating the center point of the crown area of each tooth on the occlusal crown image; and
    상기 영역 분리 데이터와 상기 중심점 데이터를 입력 받은 제3 인공 신경망이 상기 3차원 구강 모델에 포함된 각 치아의 치관 영역이 치아 별로 세그멘테이션 된 3차원 세그멘테이션 모델을 표현하는 세그멘테이션 데이터를 출력하는 단계를 포함하는,A third artificial neural network receiving the region separation data and the center point data outputs segmentation data representing a 3D segmentation model in which the crown region of each tooth included in the 3D oral model is segmented for each tooth. ,
    3차원 구강 모델의 세그멘테이션 방법.Segmentation method for 3D oral model.
  14. 적어도 하나의 3차원 치아 스캔 데이터, 제1 인공 신경망, 제2 인공 신경망, 제3 인공 신경망 및 3차원 구강 모델 세그멘테이션 프로그램이 로드되는 메모리; 및a memory into which at least one three-dimensional tooth scan data, a first artificial neural network, a second artificial neural network, a third artificial neural network, and a three-dimensional oral model segmentation program are loaded; and
    상기 3차원 구강 모델 세그멘테이션 프로그램이 실행되는 프로세서를 포함하되,Includes a processor that executes the 3D oral model segmentation program,
    상기 3차원 치아 세그멘테이션 프로그램은,The 3D tooth segmentation program,
    상기 3차원 치아 스캔 데이터를 입력 받은 상기 제1 인공 신경망이 3차원 구강 모델의 잇몸 영역과 치관 영역이 구분된 영역 분리 3차원 구강 모델을 표현하는 영역 분리 데이터를 출력하는 인스트럭션(instruction);Instructions for the first artificial neural network receiving the 3D tooth scan data to output region separation data representing a region separation 3D oral model in which the gum region and the crown region of the 3D oral model are separated;
    상기 영역 분리 3차원 구강 모델을 분석하여 상기 3차원 구강 모델의 교합면을 식별하며, 상기 교합면의 치관 영역만을 표현하는 교합면 치관 이미지를 생성하는 인스트럭션;Instructions for analyzing the region-separated three-dimensional oral model to identify an occlusal surface of the three-dimensional oral model and generating an occlusal crown image representing only the crown region of the occlusal surface;
    상기 교합면 치관 이미지를 입력 받은 상기 제2 인공 신경망이, 상기 교합면 치관 이미지 상의 각 치아의 치관 영역의 중심점을 가리키는 중심점 데이터를 출력하는 인스트럭션; 및Instructions for the second artificial neural network receiving the occlusal crown image to output center point data indicating the center point of the crown area of each tooth on the occlusal crown image; and
    상기 3차원 치아 스캔 데이터와 상기 중심점 데이터를 입력 받은 상기 제3 인공 신경망이 상기 3차원 구강 모델에 포함된 각 치아의 치관 영역이 치아 별로 세그멘테이션 된 3차원 세그멘테이션 모델을 표현하는 세그멘테이션 데이터를 출력하는 인스트럭션을 포함하는,An instruction in which the third artificial neural network, which has received the 3D tooth scan data and the center point data, outputs segmentation data representing a 3D segmentation model in which the crown area of each tooth included in the 3D oral cavity model is segmented for each tooth. Including,
    3차원 구강 모델의 세그멘테이션 장치.Segmentation device for 3D oral model.
  15. 제14 항에 있어서,According to claim 14,
    상기 3차원 치아 세그멘테이션 프로그램은,The 3D tooth segmentation program,
    상기 출력된 세그멘테이션 데이터를 이용하여, 3차원 치아 교정 시뮬레이션을 위한 출력 화면을 생성하는 인스트럭션을 더 포함하는, Further comprising instructions for generating an output screen for 3D orthodontic simulation using the output segmentation data,
    3차원 구강 모델의 세그멘테이션 장치.Segmentation device for 3D oral model.
PCT/KR2023/008155 2022-09-27 2023-06-14 Method for segmenting three-dimensional oral model and system therefor WO2024071571A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220122544A KR20240043443A (en) 2022-09-27 2022-09-27 Method and system for segmentation of a 3d oral model
KR10-2022-0122544 2022-09-27

Publications (1)

Publication Number Publication Date
WO2024071571A1 true WO2024071571A1 (en) 2024-04-04

Family

ID=90478169

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/008155 WO2024071571A1 (en) 2022-09-27 2023-06-14 Method for segmenting three-dimensional oral model and system therefor

Country Status (2)

Country Link
KR (1) KR20240043443A (en)
WO (1) WO2024071571A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160140326A (en) * 2015-05-27 2016-12-07 주식회사 디오코 Method for automatically adjusting tooth in orthodontic simulation device, orthodontic simulation device applying the method, and computer readable record medium storing the same
KR20190020756A (en) * 2016-06-21 2019-03-04 노벨 바이오케어 서비시스 아게 Method for estimating at least one of shape, position and orientation of a dental restoration
KR20220069655A (en) * 2020-11-20 2022-05-27 주식회사 쓰리디산업영상 Tooth segmentation system and method
US20220215531A1 (en) * 2021-01-04 2022-07-07 James R. Glidewell Dental Ceramics, Inc. Teeth segmentation using neural networks

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102380166B1 (en) 2020-04-21 2022-03-29 서울대학교산학협력단 Periodontitis automatic diagnosis method, and program implementing the same method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160140326A (en) * 2015-05-27 2016-12-07 주식회사 디오코 Method for automatically adjusting tooth in orthodontic simulation device, orthodontic simulation device applying the method, and computer readable record medium storing the same
KR20190020756A (en) * 2016-06-21 2019-03-04 노벨 바이오케어 서비시스 아게 Method for estimating at least one of shape, position and orientation of a dental restoration
KR20220069655A (en) * 2020-11-20 2022-05-27 주식회사 쓰리디산업영상 Tooth segmentation system and method
US20220215531A1 (en) * 2021-01-04 2022-07-07 James R. Glidewell Dental Ceramics, Inc. Teeth segmentation using neural networks

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YU-BING CHANG ; J J XIA ; J GATENO ; ZIXIANG XIONG ; XIAOBO ZHOU ; S T C WONG: "An Automatic and Robust Algorithm of Reestablishment of Digital Dental Occlusion", IEEE TRANSACTIONS ON MEDICAL IMAGING, IEEE, USA, vol. 29, no. 9, 1 September 2010 (2010-09-01), USA, pages 1652 - 1663, XP011311066, ISSN: 0278-0062 *

Also Published As

Publication number Publication date
KR20240043443A (en) 2024-04-03

Similar Documents

Publication Publication Date Title
US20220218449A1 (en) Dental cad automation using deep learning
WO2022164126A1 (en) Device and method for automatically matching oral scan data and computed tomography image by means of crown segmentation of oral scan data
WO2021157966A1 (en) Method for providing information about orthodontics using deep learning artificial intelligence algorithm, and device using same
WO2020184875A1 (en) Tooth number selection method using panoramic image, and medical image processing device therefor
WO2021210723A1 (en) Method and apparatus for automatically detecting feature points of three-dimensional medical image data by using deep learning
WO2021006472A1 (en) Multiple bone density displaying method for establishing implant procedure plan, and image processing device therefor
WO2022131419A1 (en) Method for determining registration accuracy of three-dimensional dental ct image and three-dimensional digital impression model, and computer-readable recording medium in which program for executing same in computer is recorded
WO2017039220A1 (en) Image processing method for orthodontic plan, device and recording medium therefor
WO2020226473A1 (en) Additional tooth information providing method and apparatus therefor
WO2021025296A1 (en) Method for automatically recommending crown model and prosthesis cad apparatus for performing same
WO2024046400A1 (en) Tooth model generation method and apparatus, and electronic device and storage medium
WO2022124462A1 (en) Method for automatically detecting landmark in three-dimensional dental scan data, and computer-readable recording medium with program for executing same in computer recorded thereon
WO2021006471A1 (en) Implant surgery planning method using automatic placement of implant structure, user interface providing method therefor, and teeth image processing device therefor
WO2023018206A1 (en) Method and apparatus for recommending orthodontic treatment plan by separating tooth object from three-dimensional oral scan data and automatically determining positional abnormality of tooth, and computer-readable recording medium
WO2020189917A1 (en) Method for establishing implant placement plan using implant centerline, and dental image processing apparatus therefor
WO2022154523A1 (en) Method and device for matching three-dimensional oral scan data via deep-learning based 3d feature detection
WO2022177095A1 (en) Artificial intelligence-based method and application for manufacturing 3d prosthesis for tooth restoration
WO2022108082A1 (en) System and method for segmenting teeth in ct image
WO2020218734A1 (en) Method for displaying undercut area when designing prosthesis and prosthesis cad device for performing same
WO2024071571A1 (en) Method for segmenting three-dimensional oral model and system therefor
WO2021054700A1 (en) Method for providing tooth lesion information, and device using same
WO2020209496A1 (en) Dental object detection method, and image matching method and device using dental object
WO2021141424A1 (en) Image filtering method
WO2023182702A1 (en) Artificial intelligence diagnosis data processing device and method for digital pathology images
WO2023008849A1 (en) Three-dimensional tooth image display apparatus and method, and method for training three-dimensional tooth image display apparatus