WO2022149915A1 - 데이터 처리 방법 - Google Patents

데이터 처리 방법 Download PDF

Info

Publication number
WO2022149915A1
WO2022149915A1 PCT/KR2022/000321 KR2022000321W WO2022149915A1 WO 2022149915 A1 WO2022149915 A1 WO 2022149915A1 KR 2022000321 W KR2022000321 W KR 2022000321W WO 2022149915 A1 WO2022149915 A1 WO 2022149915A1
Authority
WO
WIPO (PCT)
Prior art keywords
scan
data
sample data
marker
training model
Prior art date
Application number
PCT/KR2022/000321
Other languages
English (en)
French (fr)
Inventor
이동훈
조예린
Original Assignee
주식회사 메디트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메디트 filed Critical 주식회사 메디트
Priority to EP22736892.5A priority Critical patent/EP4258245A1/en
Priority claimed from KR1020220002560A external-priority patent/KR102593160B1/ko
Publication of WO2022149915A1 publication Critical patent/WO2022149915A1/ko
Priority to US18/219,490 priority patent/US20230346524A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/002Orthodontic computer assisted systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/24Use of tools
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine

Definitions

  • the present invention relates to a data processing method.
  • 3D scanning and modeling technology is frequently used in the CAD/CAM field and reverse engineering field in the recent dental industry, and the use of a handheld type scanner is increasing to obtain a 3D model representing the patient's oral cavity. .
  • an object for example, a gypsum model made by imitating a patient's mouth
  • a tray of a table-type scanner When using a tabular scanner, users were able to acquire 3D data without any special difficulties.
  • a user's scanning skill is directly related to the precision of 3D data, and the user needs to train a process of scanning an object in order to acquire precise data.
  • the user may improve his or her scan skill by scanning the inside of the patient's actual oral cavity, but there is a problem that the scan skill cannot be evaluated in reality.
  • the present invention provides sample data of a training model so that a user of a scanner can improve scanning proficiency, and compares the scan data obtained by scanning the training model with the sample data.
  • a data processing method for evaluating scan data is provided.
  • the data processing method includes the steps of loading at least a portion of sample data corresponding to a training model into a user interface, and converting the scan data obtained by scanning the training model to the sample data. and matching the scan data with the sample data, and evaluating the scan data based on a matching result of the scan data and the sample data.
  • the data processing method according to the present invention may further include various additional components in addition to the above-described components.
  • the user can qualitatively and quantitatively evaluate the scan data obtained by scanning the training model, and improve the scanning skill There are advantages to doing it.
  • the data processing method according to the present invention it is possible to easily display whether the user is properly conducting scan training through the marker units displayed together, and by performing the scan training along the direction indicated by the marker units, the user has the advantage of naturally improving scanning proficiency.
  • the user since different criteria are given to evaluation factors for evaluating scan data for each difficulty determined according to the user's selection, the user improves the scan skill step by step even when using one training model There are advantages to doing it.
  • FIG. 1 is a flowchart of a data processing method according to the present invention.
  • 3 is a user interface screen on which a data processing method according to the present invention is displayed.
  • FIG. 4 is for explaining a process of loading sample data representing a training model in order to enter a training mode on the user interface screen of FIG. 3 .
  • 5 is for explaining a process of detecting an identification formed in a training model.
  • FIG. 8 is for explaining a state in which sample data representing a training model is loaded together with marker data representing a preset scan path.
  • FIG. 10 is a diagram for describing a process in which scan data is matched by performing a scan process.
  • 11 to 13 are for explaining that a scanning process is performed along a direction indicated by the marking units.
  • FIG. 14 is a diagram for describing a state in which scan data and sample data are matched after a scan process is completed.
  • step S130 is an exemplary detailed flowchart of step S130.
  • step S130 is for explaining a process in which a matching ratio is calculated in step S130.
  • 17 is a diagram for describing a user interface screen indicating reliability of scan data.
  • FIG. 19 is a schematic configuration diagram of a data processing system in which a data processing method according to the present invention is performed.
  • 20 is a schematic configuration diagram of an evaluation element measurement unit in the data processing system according to the present invention.
  • initial marking unit 230 scan training menu
  • center of bounding box 400 reliability data
  • control unit 920 control unit
  • FIG. 1 is a flowchart of a data processing method according to the present invention.
  • the data processing method includes loading at least a portion of sample data corresponding to a training model into a user interface (S110), setting the scan difficulty of the sample data (S120), and training It includes the step of matching the scan data obtained by scanning the model to the sample data (S130), calculating the scan progress rate of the training model based on the scan data (S140), and the step of evaluating the scan data (S150). .
  • a training model 10 for use in a data processing method according to the present invention is shown.
  • the training model 10 may be a type of model that can be repeatedly practiced in order to improve a user's scanning proficiency.
  • the training model 10 may be a gypsum model modeled after the shape of an actual oral cavity.
  • the training model 10 is not necessarily made to imitate the shape of the actual oral cavity, and may be a gypsum model representing the virtual oral shape manufactured by simulating the shape of the oral cavity.
  • the training model 10 may have sample data corresponding to the training model 10 .
  • the sample data may be generated by precisely three-dimensionally scanning the training model 10 on a tray of a table scanner. That is, the sample data may be complete three-dimensional data of the training model 10 . Accordingly, the sample data may be matched with scan data obtained during a scan process, and may be used as reference data for evaluating the scan data.
  • the sample data may be original data of the training model 10 .
  • the training model 10 may be obtained by three-dimensionally printing sample data generated through CAD work, and the training model 10 may have the same shape as the sample data.
  • the training model 10 may represent at least one tooth and a gingiva.
  • the training model 10 may have a predetermined identification body 11 in a portion other than the portion representing the teeth and the gingiva (eg, the hard palate or sublingual portion).
  • the identification body 11 may have unique information of the training model 10 such as a barcode, a QR code, and a serial number.
  • the identification body 11 may be engraved or embossed on a portion of the outer surface of the training model 10 , or may be printed and attached.
  • FIG. 3 is a screen of the user interface 100 on which a data processing method according to the present invention is displayed.
  • FIG. 4 is for explaining a process of loading sample data representing the training model 10 in order to enter the training mode on the screen of the user interface 100 of FIG. 3 .
  • FIG. 5 is for explaining a process of detecting the identification body 11 formed in the training model 10 .
  • the screen of the user interface 100 may visually represent a scanning process.
  • the user interface 100 screen includes a workspace 110 in which at least one of sample data, scan data, and reliability data indicating reliability of the scan data is displayed.
  • sample data may be displayed, scan data may be displayed, and scan data and sample data may be displayed together to indicate a state in which the scan data matches the sample data.
  • reliability data indicating the reliability of the scan data may be displayed in the workspace 110 , and scan data indicating the texture of the scanned training model and the reliability data may be displayed together.
  • the workspace 110 may display additional information related to the above-described data.
  • a toolbox 120 may be formed on one side of the workspace 110 .
  • various buttons for editing and analyzing data are arranged, and user activities such as trimming by selecting a polygon of a predetermined portion of scan data, setting a margin line, or performing scanner calibration. .
  • a training mode entry button 130 for entering the scan training mode may be disposed on one side of the workspace 110 .
  • the user may select the training mode entry button 130 to perform a training process for practicing the scan process.
  • the sample data selection window 140 may include a sample data search unit 141 and an identifier scan unit 142 .
  • the user may select the sample data search unit 141 and select sample data corresponding to the training model 10 from the local database by the user's input.
  • the user selects the identification object scanning unit 142, detects the identification object 11 formed in the training model 10 through the scanner, and retrieves sample data corresponding to the information stored in the identification object 11 from the local database. You can load it or download it online.
  • the sample data search unit 141 or the identifier scan unit 142 may be selected, and the proceed button 143 may be selected to proceed to the next step.
  • the cancel button 144 is selected, the user may cancel the entry into the training mode and return to the previous screen of the user interface 100 .
  • the identification object scan window 150 entered by selecting the identification object scanning unit 142 is shown.
  • the identification object scan window 150 includes an identification object scan screen 151 that displays an image input to a camera built in the scanner in real time, and uses the scanner to capture the identification object 11 of the training model 10.
  • the identification body 11 is detected by the camera, and sample data corresponding to the training model 10 in which the identification body 11 is formed based on the information of the identification body 11 is loaded.
  • the sample data corresponding to the training model 10 may be loaded by directly inputting the serial number into the serial number input box.
  • FIG. 6 is for explaining a process of setting scan difficulty
  • FIG. 7 is for explaining evaluation elements having different criteria according to scan difficulty.
  • the step of setting the scan difficulty of the sample data ( S120 ) may be performed.
  • any one of at least one scan difficulty level may be input from the user.
  • the beginner difficulty selection button 161a , the expert difficulty selection button 161b , and the expert difficulty selection button 161c may appear in the scan difficulty selection unit 161 .
  • a user who will perform scan training may select an appropriate difficulty level according to his/her scan skill.
  • evaluation factors for evaluating scan data, and evaluation threshold values are shown.
  • evaluation threshold values of evaluation factors may be set differently for each scan difficulty level. Illustratively, in beginner difficulty, if the scan is completed within 160 seconds, it may be determined that the training is excellently completed. In contrast, in the expert difficulty, the scan must be completed within 140 seconds to be judged to be excellently slashed (/) to the threshold training, and in the expert difficulty, the scan must be completed within 120 seconds to complete the training excellently. can be judged. In this way, as the scan difficulty is set to be high, the evaluation criteria of the evaluation factors may be set to increase as well.
  • the evaluation grade for the scan time may be decreased.
  • the scan time is within 60 seconds, 5 points, if the scan time exceeds 60 seconds and within 70 seconds, 4 points, if the scan time exceeds 70 seconds and within 80 seconds, 3 points, and the scan time exceeds 80 seconds
  • the scan time exceeds 90 seconds, 2 points may be awarded, and if the scan time exceeds 90 seconds, 1 point may be awarded. That is, the evaluation grade may be differentially assigned according to the scan time.
  • the evaluation factors are selected from among the aforementioned scan time, scan progress according to the marker unit, the ratio of voxel data that satisfies the threshold reliability, the number of blank areas, the matching ratio between the scan data and the sample data, the number of scan shots, FPS, and the like. It may include at least one.
  • the evaluation grade for each evaluation element may be comprehensively considered in order to evaluate the user's scanning proficiency.
  • FIG. 8 is for explaining a state in which sample data 220 representing the training model 10 is loaded together with marker data representing a preset scan path.
  • the sample data 220 representing the training model 10 is displayed on the user interface 200 screen. Since the screen of the user interface 200 appears after entering the training mode, it may be different from the screen of the user interface 100 described above.
  • the user interface 200 screen may display the serial number of the training model 10 and the difficulty information selected by the user on one side. The user can check whether the scanned training model 10 and the loaded sample data 220 match, and can also easily check the selected difficulty level.
  • various additional information may be displayed on the screen of the user interface 200 .
  • the scan training menu 230 may include a training start/stop button 231 and a scan data evaluation button 232 .
  • the user may select the training start/stop button 231 to start or stop the scanning process.
  • information for evaluating scan data for each evaluation element may be collected.
  • the scan process may be terminated, and the scan data may be evaluated based on the acquired scan data. The evaluation result of the scan data can be confirmed by selecting the scan data evaluation button 232 .
  • the status display unit 240 may be displayed on one side of the user interface 200 screen.
  • the status display unit 240 may display the scanning progress status according to the scanning process in real time.
  • the status display unit 240 may include an evaluation element display unit 241 and a scan progress display unit 242 .
  • the evaluation element display unit 241 may display measurement results for each evaluation element. For example, the evaluation element display unit 241 may display a scan time according to a scan process, the number of scan shots, and frames per second (fps) in real time. In addition, the evaluation threshold value of each evaluation element may be displayed by dividing it with a slash (/) symbol. However, the present invention is not limited to the drawings illustrating the present invention by way of example. That is, the evaluation threshold value is not necessarily displayed on the evaluation element display unit 241, and even if the lyrics evaluation threshold value is displayed, it may not be displayed as separated by a slash (/) symbol.
  • the scan progress display unit 242 may display the calculated scan progress.
  • the scan progress rate may increase based on the distance between the scan shot constituting the scan data and the marker data. Meanwhile, the process of calculating the scan progress rate will be described later.
  • sample data 220 will be described in more detail.
  • the sample data 220 may include oral sample data 221 and marker data.
  • the oral sample data 221 may refer to digital three-dimensional data of the training model 10 corresponding to the training model 10 . At least a portion of the oral sample data 221 may be formed as voxel data including shape information of at least a portion of the training model 10 .
  • the oral sample data 221 of the sample data 220 includes an alignable area 2211 that is aligned with the scan data in a scan process to be described later, and an alignable area 2212 that is not aligned with the scan data. ) may be included.
  • the alignable region 2211 is formed of voxel data including shape information of the training model 10 , when scan data is input, the scan data can be easily aligned with the sample data 220 .
  • the non-alignable region 2212 may not have shape information of a portion of the corresponding training model 10 .
  • the present invention is not limited thereto, and the non-alignable region 2212 is formed of shell data having shape information of the training model 10 , but may not be aligned with the scan data.
  • the training model 10 has an initial scan position corresponding to the alignable region 2211 .
  • the initial scan position of the training model 10 may be a position including at least a portion of the second molar.
  • the user may acquire scan data by first scanning the initial scan position, and the scan data corresponding to the initial scan position is sample data ( 220) can be aligned.
  • the marker data may be loaded together on the sample data 220 .
  • the landmark data may indicate a preset scan path for acquiring scan data.
  • the indicia data may include at least one indicia unit 222 .
  • the marker data may include a plurality of marker units 222 , and the marker units 222 are displayed in a two-dimensional or three-dimensional shape having a direction.
  • the marking units 222 may be displayed in a three-dimensional arrow shape, and at least one closed-loop scan by pointing the end of one marking unit 222 to the proximal end of the other marking unit 222 . path can be formed.
  • the number of the marking units 222 may be determined differently according to a scan difficulty determined according to a user's selection.
  • the marking unit 222 of the marking data may have a constant volume.
  • a bounding box 2221 forming the outline of the marking unit 222 may be formed.
  • the bounding box 2221 may have a rectangular parallelepiped shape, but is not limited thereto.
  • the center 2222 of the bounding box may be set as the center of the mark data (more specifically, the mark unit), and the center 2222 of the bounding box is based on the distance between the scan shot constituting the scan data and the mark data. It can be used to calculate the scan progress.
  • the marking units 222 may be formed to be spaced apart from the sample data 220 by a predetermined distance.
  • the marking unit 222 may be formed to be spaced apart from the tooth part of the sample data 220 by a predetermined distance.
  • the marking unit 222 may be formed along the outer surface of the tooth portion of the sample data 220, and the marking unit 222 may guide a dental scan strategy in more detail to a user performing scan training. have.
  • the marker data may include an initial marker unit 222a. Accordingly, the initial marker unit 222a may be loaded together on the sample data 220 together with other marker units 222 .
  • the initial marking unit 222a may be displayed differently from other marking units 222 .
  • the initial marking unit 222a may be displayed in green color, and other marking units 222 may be displayed in blue color.
  • the initial marking unit 222a may be displayed in a shape having a first pattern, and other marking units 222 may be displayed in a shape having a second pattern.
  • the initial marking unit 222a may indicate a point at which scan data should be acquired first in a scan training process.
  • the initial marking unit 222a may be displayed on a portion of the sample data 220 corresponding to the alignable region 2211 .
  • FIG. 10 is for explaining a process in which scan data 300 is matched by performing a scan process.
  • the data processing method includes a step (S130) of matching the scan data 300 obtained by scanning the training model 10 to the sample data.
  • the matching step ( S130 ) is a process in which scan data 300 is aligned with sample data in an alignable region 2211 , which will be described later, and/or a plurality of scan shots included in the scan data 300 are mutually aligned. process can be performed.
  • the matching step ( S130 ) may collect evaluation element measurement values including a matching rate between the scan data 300 and the sample data, which are acquired together as the scan data 300 is acquired. .
  • scan data may be acquired in units of scan shots through the scanner.
  • the scan shot may be a three-dimensional data fragment that scans the training model 10 and configures scan data representing the shape and/or color of the training model 10 .
  • the scan data may include a plurality of scan shots, and the scan shots may be aligned with the sample data, or the scan shots may be aligned with each other.
  • information for evaluating the scan data 300 for each evaluation element that is, an evaluation element measurement value may be collected.
  • the evaluation element display unit 241 may display the collected scan time, the number of scan shots, fps, and the like in real time.
  • the letter indicating the evaluation element measurement value may change according to the size of the evaluation element measurement values displayed on the evaluation element display unit 241 in real time. For example, for an evaluation factor measurement value exceeding 70% of the evaluation threshold value, the letter indicating the evaluation factor measurement value may change from green to orange. In addition, for the evaluation element measured value exceeding 100% of the evaluation threshold value, the letter indicating the evaluation element measured value may change from orange to red. Additionally, the text indicating the evaluation factor measurement value may change to another color according to the extent to which the evaluation threshold is exceeded (ie, as the evaluation grade decreases).
  • the user since feedback can be provided to the user during the scanning process through the color of the text of the evaluation element measurement value, the user has the advantage of compensating for insufficient evaluation elements.
  • the text indicating the evaluation element measurement value may have a single color regardless of whether the evaluation threshold value is exceeded.
  • a real-time screen 260 may be additionally displayed on one side of the screen of the user interface 200 .
  • the real-time screen 260 may display a 2D image acquired through a camera of a scanner in real time.
  • the user may scan a portion of the training model 10 corresponding to the portion where the initial marking unit 222a is displayed.
  • a portion of the training model 10 corresponding to the portion indicated by the initial mark unit 222a may be an alignable region 2211 of the sample data 220 .
  • the alignable region 2211 is formed of voxel data, scan shots of the scan data 300 corresponding to the alignable region 2211 may be aligned with the sample data 220 .
  • the user performs a scan process along the marking units 222 , and the part of the training model 10 scanned by the user may be a part corresponding to the non-alignable region 2212 of the sample data 220 .
  • the scan shots obtained by scanning the corresponding portion of the training model 10 may not be aligned with the sample data 220 , but may be aligned with the scan shots obtained immediately before. That is, the alignable area 2211 may serve as a reference area in which the scan data 300 is aligned with the sample data 220 , and the non-alignable area 2212 may serve as an area for measuring scan proficiency. .
  • 11 to 13 are for explaining that the scanning process is performed along the direction indicated by the marking units 222 .
  • the data processing method according to the present invention further includes calculating the scan progress rate of the training model 10 based on the acquired scan data 300 ( S140 ). .
  • the data processing method further includes calculating the scan progress rate of the training model 10 based on the acquired scan data 300 ( S140 ).
  • S140 the acquired scan data 300
  • a portion currently being scanned is displayed in the form of a scan frame 250 .
  • the user may perform a scan so that the mark unit 222 is included in the scan frame 250 . If the scan is performed so that the mark unit 222 is included in the scan frame 250 , it may be determined that the user is performing the scan by correctly oriented the training model 10 .
  • the scan progress rate may increase.
  • the scan progress may be performed using an axis aligned bounding box (AABB) method. That is, the scan progress rate may increase when the distance between the scan shot constituting the scan data 300 and the mark data (more precisely, the mark unit) is within a predetermined threshold.
  • the acquired scan shot may have a bounding box that forms an outline of the scan shot, and for example, the bounding box of the scan shot may have a rectangular parallelepiped shape.
  • the center of the scan shot may be set as the center of the bounding box of the scan shot, and the straight line distance between the center of the bounding box of the scan shot and the center 2222 of the bounding box of the mark data (more precisely, the mark unit) is can be measured.
  • the straight-line distance is within a predetermined threshold, it may be determined that the user has acquired scan data to match the scan path.
  • the straight line distance between the center of the bounding box of the scan shot and the center 2222 of the bounding box of the mark data is within 1 cm, it is determined that the scan process is proceeding normally in the portion where the mark unit 222 is located.
  • each marking unit 222 may have a threshold number of scan shots.
  • each marker unit 222 may have a threshold number of scan shots of 20 shots in beginner difficulty. Accordingly, based on the number of critical scan shots each of the plurality of marking units 222 have, the scan progress rate corresponding to the corresponding marking unit 222 may increase in units of the marking unit 222 .
  • the marker unit ( 222) per scan progress can be increased by 4%.
  • Calculating the scan progress rate (S140) may be performed after the matching step (S130), but in reality, the scan data 300 is acquired and matched with the sample data 220 in real time. have.
  • the mark data may be displayed to indicate a preset scan path.
  • three to five mark units 222 may be continuously displayed, and the number of simultaneously displayed mark units 222 may be different according to scan difficulty.
  • the shape of the marker unit 222 representing the marker data may be deformed when scan shots are accumulated by the number of critical scan shots. For example, as scan shots are acquired at a portion corresponding to an arbitrary marking unit 222 , the color of the corresponding marking unit 222 may change. For example, the color of the marking unit 222 may sequentially change to translucent blue, opaque blue, opaque green, and translucent green as scan shots are acquired.
  • the first marker unit, the second marker unit, the third marker unit, the fourth marker unit, and the fifth marker unit may be sequentially displayed along a preset scan path.
  • the first marking unit may function as an initial marking unit. The user may acquire scan data from a portion of the training model 10 corresponding to the first marker unit.
  • a sixth marking unit which is a subsequent marking unit, may be displayed along a preset scan path in the direction indicated by the arrow of .
  • the second marking unit may function as an initial marking unit. In this way, since the marking unit 222 corresponding to the sufficiently scanned portion disappears and the subsequent marking unit 222 is displayed, the user can perform the scanning process within a predictable range.
  • the subsequent marking unit 222 may not be displayed.
  • the first marker unit, the second marker unit, the third marker unit, the fourth marker unit, and the fifth marker unit may be displayed on the sample data 220 along a preset scan path.
  • the first first marking unit among the displayed marking units 222 may function as an initial marking unit.
  • a scan shot obtained from a portion corresponding to the initial marker unit in the training model 10 may be used to generate scan data, and corresponds to the initial marker unit in the training model 10 .
  • the scan shot acquired in the non-disabled portion may not be used when generating the scan data 300 . 13 , the scan frame 250 is located in a portion of the sample data 220 corresponding to the fifth marker unit. In this case, it may be determined that the user has not acquired a sufficient amount of scan shots for the portion of the training model 10 corresponding to the first marker unit. Accordingly, it may be determined that the user has performed the scan process without observing the preset scan path.
  • a sufficient amount of scan shots for a portion of the training model 10 corresponding to the first marker unit, which is the initial marker unit, is acquired, and then the second marker unit is Acquire a sufficient amount of scan shots for a portion of the corresponding training model 10, and sequentially obtain a portion of the training model 10 corresponding to the third marker unit, the fourth marker unit, and the fifth marker unit.
  • the scan shot obtained from the portion corresponding to the initial mark unit may be used to generate the scan data 300 to be aligned with other scan shots, and may be evaluated by matching with the sample data 220 .
  • the scan shot obtained from a portion that does not correspond to the initial mark unit is not used when generating the scan data 300 , and the user returns to the position where the initial mark unit is displayed to perform the scanning process. may be encouraged to proceed.
  • FIG. 14 is a diagram for describing a state in which scan data and sample data are matched after a scan process is completed.
  • the scan data 300 is obtained and matched with the sample data 220 .
  • the evaluation element display unit 241 of the status display unit 240 may display a scan time, the number of acquired total scan shots, and the like, and the scan progress display unit 242 may indicate that scanning is completed.
  • the scan progress may be displayed numerically or through a change in the shape of a ring-shaped loading bar.
  • a ratio of a matching area in which the scan data 300 matches the sample data 220 may be calculated.
  • that the scan data 300 matches the sample data 220 may mean that a deviation between the sample data 220 and the scan data 300 is less than or equal to a predetermined threshold.
  • the matching area may be an area in which a distance deviation between the sample data 220 and the scan data 300 is equal to or less than a predetermined threshold.
  • a matching rate which is a ratio occupied by the matching area with respect to the entire predetermined area of the scan data 300 , may be obtained.
  • the matching ratio may be included in the evaluation factor, and the higher the matching ratio, the higher the user's scanning proficiency may be evaluated.
  • the matching ratio may be obtained for an area representing a tooth in the scan data 300 .
  • the user may be evaluated whether the area representing the tooth has been scanned to precisely match the sample data 220 , and accordingly, there is an advantage in improving the scanning skill.
  • FIG. 15 is an exemplary detailed flowchart of step S130, and FIG. 16 is for explaining a process in which a matching ratio is calculated in step S130.
  • Fig. 16 (a) shows a process in which light rays are generated at a plurality of points included in the oral sample data 221 to obtain an intersection distance
  • Fig. 16 (b) is a diagram according to the obtained intersection distance The oral sample data 221' classified into at least two matching levels is shown.
  • the matching step ( S130 ) at least some of the plurality of evaluation factor measurement values may be collected.
  • a matching rate between scan data and sample data among evaluation factor measurement values may be considered as an important evaluation factor. Therefore, the matching step ( S130 ) may include a process of obtaining a matching ratio among the evaluation element measurement values.
  • the matching step ( S130 ) may include a step ( S131 ) of generating light rays at points included in at least a portion of the trimmed oral sample data 221 .
  • the user can improve the scanning skill to precisely scan the patient's actual oral cavity including the patient's teeth.
  • a matching ratio may be obtained for a tooth area representing a tooth in the sample data 220 and a partial gingival area extending a predetermined distance from the tooth area. Accordingly, in the oral sample data 221 , a tooth area and a partial gingival area extending a predetermined distance from the tooth area may be trimmed to function as an area for obtaining a matching ratio.
  • the trimmed oral sample data 221 may include a plurality of points p1, p2, and p3.
  • a plurality of points (p1, p2, p3) of the oral sample data 221 may constitute at least a part of the oral sample data 221 formed in the form of a point cloud.
  • the plurality of points p1 , p2 , and p3 of the oral sample data 221 may be disposed on the surface of the oral sample data 221 .
  • a plurality of points p1 , p2 , and p3 included in the oral sample data 221 are arranged, respectively, and a ray r is generated in the normal direction of the surface.
  • the light ray r includes a first ray r1 traveling in a first direction among normal directions and a second ray r2 traveling in a second direction opposite to the first direction among normal directions. may include
  • the light rays generated from the oral sample data 221 may reach the scan data 300 .
  • the ray r generated from the first point p1 of the oral sample data 221 may reach the fourth point p4 of the scan data 300
  • the ray r generated from the second point p2 may reach the fifth point p5 of the scan data 300
  • the ray r generated from the third point p3 of the oral sample data 221 ( r) may reach the sixth point p6 of the scan data 300 .
  • the ray r reaches predetermined points p4, p5, and p6 of the scan data 300, the points p1, p2, p3 where the ray r is generated and the ray r arrive.
  • a distance deviation from one of the points p4, p5, and p6 may be obtained (S132).
  • the distance deviation is the linear distance between the first point p1 and the fourth point p4, the linear distance between the second point p2 and the fifth point p5, and the third point p3 and It may mean a straight-line distance between the sixth points p6.
  • the distance deviation may be defined as a length (absolute value) from the oral sample data 221 to the scan data 300 .
  • the oral sample data 221 has three points p1 , p2 , and p3 , and the ray r generated in the normal direction from each point is scanned, respectively. Although it has been described as arriving at data p4, p5, p6, the number of points at which rays are generated is not limited to that shown in Fig. 16(a).
  • each of the oral sample data 221 Matching levels of the points p1, p2, and p3 may be classified (S133).
  • the step of classifying the matching level ( S133 ) when the distance deviation is within (or less than) a predetermined first threshold distance deviation value, the corresponding point of the sample data 221 may be classified as the first matching level.
  • the point classified as the first matching level may correspond to the matching area 2213' on the classified oral sample data 221'. For example, points classified as the first matching level may be displayed in a first color (eg, green).
  • the corresponding point of the sample data 221 may be classified as a second matching level, and Points classified as 2 matching levels may correspond to a non-matching area 2214' on the classified oral sample data 221'.
  • points classified as the second matching level may be displayed in a second color (eg, red).
  • the corresponding point of the sample data 221 may be classified as the third matching level, and the point classified as the third matching level is the classified oral sample data. (221') may correspond to the phase noise region 2215'.
  • points classified as the third matching level may be displayed in a third color (eg, gray).
  • a matching ratio may be obtained based on the classified matching level ( S134 ).
  • the matching ratio may be a ratio of points classified as the first matching level with respect to points included in the trimmed oral sample data 221 .
  • the matching ratio may be a ratio of the points classified as the first matching level to the sum of the points classified as the first matching level and the points classified as the second matching level.
  • the matching ratio obtained in this way may function as a factor for evaluating scan data, and the user can easily check whether his or her scan skill has improved through the matching ratio.
  • the aforementioned first threshold distance deviation value may be set differently. 7 , the first threshold distance deviation value in beginner difficulty may be d1, and the first threshold distance deviation value in expert difficulty may be d2, and the first critical distance deviation value in expert difficulty may be d3. Also, d1 may be greater than d2, and d2 may be greater than d3.
  • 17 is a diagram for describing a user interface screen indicating reliability of scan data.
  • reliability data 400 indicating the reliability of the scan data 300 may be additionally displayed.
  • the reliability data 400 allows a user to check how high-precision scan data is obtained by performing a scan process through a predetermined pattern or color, or a combination thereof.
  • a red portion of the reliability data 400 may be expressed as a low reliability portion, a yellow portion as a medium reliability portion, and a green portion as a high reliability portion.
  • the high-reliability portion may mean a portion that satisfies a predetermined threshold reliability, and the reliability may be calculated based on the accumulated number of scan shots.
  • the reliability data may not be visually provided to the user, unlike shown in FIG. 15 , and numerically through the above-described evaluation factors (eg, the ratio of voxel data satisfying the threshold reliability, the number of blank regions). may be provided indirectly in the form of
  • the reliability data 400 may indicate a blank area.
  • the blank area may mean a closed-loop area in which the scan data 300 is not obtained because the scan process is not precisely performed when the scan data is obtained.
  • the size of the blank region and the number of blank regions may be used as one of evaluation factors.
  • the data processing method may include evaluating the scan data based on the matching result between the scan data 300 and the sample data 220 ( S150 ).
  • the evaluating ( S150 ) may mean evaluating the scan data 300 through at least one evaluation element related to the scan data 300 .
  • the evaluation factor may include at least one of the aforementioned scan time, a ratio of voxel data satisfying a threshold reliability, a size or number of blank areas, and a matching ratio between the scan data 300 and the sample data 220 .
  • the step of evaluating (S150) may be performed in real time together with the step of matching (S130), and after the user selects the training start/stop button 231 and the scan process ends, the acquired scan data 300 is It can also be done on a basis.
  • the evaluating step S150 compares the evaluation element measurement values obtained in the above-described steps S130 and S140 with corresponding evaluation threshold values, scores each evaluation element measurement value, and displays it to the user can do. Meanwhile, for example, the matching ratio among the plurality of evaluation factors may be evaluated by being given a weight compared to other evaluation factors.
  • the result window 500 may appear when the user selects the scan data evaluation button 232 .
  • the result window 500 may visually display the user's scan training result through the evaluation graph 510 and the evaluation table 520 .
  • each evaluation element 511 constitutes a vertex of a radial axis, and an evaluation grade for each evaluation element 511 is displayed on the radial axis, so that a radial graph may appear.
  • the user can visually check his or her scan proficiency through the evaluation graph 510 and can make up for deficiencies.
  • the evaluation table 520 may display the evaluation element measurement value 522 for each evaluation element 521 .
  • the user can quantitatively confirm which evaluation element 521 is insufficient in his or her scan process through the evaluation table 520 , and can compensate for deficiencies.
  • the user can repeatedly perform the scan process, Results according to the scanning process can be evaluated. Accordingly, the user can precisely evaluate his or her scan skill according to the data processing method according to the present invention, and the user also has a technical advantage of improving the scan skill in a short period of time.
  • the user can select the scan difficulty level to gradually challenge the higher scan difficulty level, and there is an advantage in that the user's scanning skill level is naturally improved.
  • FIG. 19 is a schematic configuration diagram of a data processing system in which a data processing method according to the present invention is performed
  • FIG. 20 is a schematic configuration diagram of an evaluation element measurement unit in the data processing system according to the present invention.
  • the data processing system 900 in which the data processing method according to the present invention is performed may include a scan unit 910 , a control unit 920 , and a display unit 930 .
  • the scan unit 910 may have a built-in camera capable of detecting the above-described training model, and may acquire scan data including a plurality of scan shots by scanning the training model. If necessary (910), the scan unit 910 may further include a light projector for illuminating the training model. For example, the scan unit 910 may be a handheld 3D scanner. The scan unit 910 may obtain image data representing the training model, and the scan unit 910 may transmit the obtained image data to the controller 920 .
  • the controller 920 may perform a predetermined arithmetic process using the image data input from the scan unit 910 .
  • the controller 920 may include a microprocessor capable of arithmetic processing.
  • the controller 920 may communicate with the scan unit 910 and the display unit 930 .
  • the scan unit 910 may be connected to the control unit 920 by wire or wirelessly to perform data communication.
  • the control unit 920 may include a database unit 921 .
  • the database unit 921 may store sample data of the training model, alignment logic of scan shots, 3D model generation logic, evaluation threshold data, mark data generation logic, evaluation element measurement logic, scan data, and the like.
  • the database unit 921 may provide data required to configure each unit of the control unit 920 . Meanwhile, the sample data may be pre-stored in the database unit 921 or may be downloaded.
  • the control unit 920 may include an alignment unit 922 .
  • the alignment unit 922 may perform alignment between scan shots in scan data input in the form of a plurality of scan shots. Also, the aligner 922 may align the scan data and the sample data in the above-described alignable region of the sample data.
  • the controller 920 may include a 3D model generator 923 .
  • the 3D model part 923 may merge the acquired scan data into a 3D model.
  • control unit 920 may include an evaluation element measurement unit 924 .
  • the evaluation element measurement unit 924 may collect evaluation element measurement values related to the acquired scan data. As described above, the evaluation factors may include a scan time, a scan progress, a ratio of voxel data satisfying a threshold reliability, the number of blank regions, and a matching ratio. The evaluation element measurement value may be collected according to the logic for collecting each evaluation element measurement value.
  • the evaluation factor measurement unit 924 includes a scan time measurement unit 9241 , a scan progress measurement unit 9242 , a reliability measurement unit 9243 , a blank area measurement unit 9244 , and a matching ratio measurement unit 9245 . ) may be included.
  • the scan time measuring unit 9241 may acquire an elapsed time between a scan start time and a scan end time for scan training.
  • the scan progress measurement unit 9242 may be obtained based on the distance between the scan shot and the marker data, and the process of obtaining the scan progress rate is the same as described above.
  • the reliability measuring unit 9243 may collect the reliability of the scan data.
  • the reliability of the scan data may indicate whether the user has obtained scan data having sufficient reliability.
  • the blank area measuring unit 9244 may collect the number of blank data areas or the size of the blank area that are not acquired during the user's scanning process. The blank area may appear in the form of a closed loop area in the scan data.
  • the matching ratio measuring unit 9245 may collect a matching ratio indicating whether the scan data and the sample data are similarly matched. Since the process of obtaining the matching ratio is the same as that described above, a detailed description thereof will be omitted.
  • control unit 920 may include an evaluation unit 925 .
  • the evaluation unit 925 may compare the evaluation element measurement value collected by the evaluation element measurement unit 924 with an evaluation threshold value stored in the database unit 921 .
  • the evaluation unit 925 may set different evaluation thresholds according to the scan difficulty selected by the user.
  • the evaluation unit 925 may evaluate the user's ability by synthesizing the evaluation element measurement values collected for the plurality of evaluation elements.
  • the evaluation result may be displayed as a radial graph, a numerical value, or the like.
  • the display unit 930 may display at least a part of the operation performing processes of the control unit 920 through the display unit 930 .
  • a known visual display device may be used.
  • the display unit 930 may use at least one of a monitor, a tablet, and a touch screen, but is not limited to the listed examples. The user can easily check the scan training process and the scan training result through the display unit 930 , and there is an advantage in effectively improving the scan skill of the user.
  • the data processing system according to the present invention as described above performs the data processing method according to the present invention, and thus shares the characteristics and advantages of the data processing method.
  • the present invention provides a data processing method for improving a user's scanning proficiency by evaluating the scan data by matching sample data loaded and provided in a user interface with scan data obtained by a user scanning a training model.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Epidemiology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Medical Informatics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Medicinal Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명에 따른 데이터 처리 방법은, 트레이닝 모델에 대응되는 샘플 데이터의 적어도 일부를 유저 인터페이스에 로드하는 단계, 상기 트레이닝 모델을 스캔하여 획득한 스캔 데이터를 상기 샘플 데이터에 매칭시키는 단계, 및 상기 스캔 데이터와 상기 샘플 데이터의 매칭 결과에 기초하여, 상기 스캔 데이터를 평가하는 단계를 포함한다.

Description

데이터 처리 방법
본 발명은 데이터 처리 방법(Data processing method)에 관한 것이다.
3차원 스캐닝 및 모델링 기술은 최근의 치과 산업에서 CAD/CAM 분야, 역설계 분야에서 빈번하게 사용되고 있으며, 환자의 구강을 나타내는 3차원 모델을 획득하기 위해 핸드헬드 형식의 스캐너의 사용이 증가하는 추세이다.
종래에는, 대상체(일 예시로, 환자의 구강을 본떠 만들어진 석고 모델)을 테이블 형식 스캐너의 트레이에 안착시키고, 상기 트레이가 회전 또는 틸팅되어 상기 석고 모델의 3차원 데이터를 획득하였다. 테이블 형식의 스캐너를 사용할 때, 사용자는 특별한 어려움 없이 3차원 데이터를 획득할 수 있었다. 그러나, 핸드헬드 형식의 스캐너를 사용하는 경우, 사용자의 스캔 숙련도가 3차원 데이터의 정밀도와 직결되며, 사용자는 정밀한 데이터를 획득하기 위해 대상체를 스캔하는 과정을 트레이닝할 필요가 있다.
한편, 사용자는 환자의 실제 구강 내부를 스캔함으로써 자신의 스캔 숙련도를 향상시킬 수도 있으나, 실질적으로 스캔 숙련도를 평가할 수 없는 문제점이 존재한다.
따라서, 사용자의 스캔 숙련도를 향상시키면서, 스캔 숙련도를 소정 평가기준에 따라 평가할 수 있는 방법이 필요하다.
본 발명은 전술된 문제점을 해결하기 위하여, 본 발명은 스캐너의 사용자가 스캔 숙련도를 향상시킬 수 있도록 트레이닝 모델의 샘플 데이터를 제공하고, 상기 트레이닝 모델을 스캔하여 획득하는 스캔 데이터와 샘플 데이터를 비교함으로써 스캔 데이터를 평가하는 데이터 처리 방법을 제공한다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.
전술한 바와 같은 목적을 달성하기 위해서, 본 발명에 따른 데이터 처리 방법은 트레이닝 모델에 대응되는 샘플 데이터의 적어도 일부를 유저 인터페이스에 로드하는 단계, 상기 트레이닝 모델을 스캔하여 획득한 스캔 데이터를 상기 샘플 데이터에 매칭시키는 단계, 및 상기 스캔 데이터와 상기 샘플 데이터의 매칭 결과에 기초하여, 상기 스캔 데이터를 평가하는 단계를 포함한다.
본 발명에 따른 데이터 처리 방법은, 전술한 구성을 포함하여 다양한 추가 구성을 더 포함할 수 있다.
전술한 과제 해결 수단과 후술할 구체적인 내용에 따르면, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 사용자는 트레이닝 모델을 스캔하여 획득한 스캔 데이터를 정성적, 정량적으로 평가받을 수 있고, 스캔 숙련도를 향상시킬 수 있는 이점이 있다.
또한, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 함께 표시되는 표식 유닛들 통해 사용자가 올바르게 스캔 트레이닝을 진행하고 있는지 용이하게 표시할 수 있으며, 표식 유닛들이 지시하는 방향을 따라 스캔 트레이닝을 수행함으로써 사용자는 자연스럽게 스캔 숙련도를 향상시킬 수 있는 이점이 있다.
또한, 본 발명에 따른 데이터 처리 방법은, 사용자의 선택에 따라 결정된 난이도별로 스캔 데이터를 평가하기 위한 평가요소들에 상이한 기준이 부여되므로, 사용자는 하나의 트레이닝 모델을 사용하더라도 단계적으로 스캔 숙련도를 향상시킬 수 있는 이점이 있다.
도 1은 본 발명에 따른 데이터 처리 방법의 순서도이다.
도 2는 트레이닝 모델을 설명하기 위한 것이다.
도 3은 본 발명에 따른 데이터 처리 방법이 표시되는 유저 인터페이스 화면이다.
도 4는 도 3의 유저 인터페이스 화면에서 트레이닝 모드로 진입하기 위해, 트레이닝 모델을 나타내는 샘플 데이터를 로드하는 과정을 설명하기 위한 것이다.
도 5는 트레이닝 모델에 형성된 식별체를 감지하는 과정을 설명하기 위한 것이다.
도 6은 스캔 난이도를 설정하는 과정을 설명하기 위한 것이다.
도 7은 스캔 난이도에 따라 상이한 기준을 가지는 평가요소들을 설명하기 위한 것이다.
도 8은 트레이닝 모델을 나타내는 샘플 데이터가 기설정된 스캔 경로를 나타내는 표식 데이터와 함께 로드된 상태를 설명하기 위한 것이다.
도 9는 표식 데이터를 설명하기 위한 것이다.
도 10은 스캔 과정을 수행하여 스캔 데이터가 매칭되는 과정을 설명하기 위한 것이다.
도 11 내지 도 13은 표식 유닛들이 지시하는 방향을 따라 스캔 과정을 수행하는 것을 설명하기 위한 것이다.
도 14는 스캔 과정이 완료되어 스캔 데이터와 샘플 데이터가 매칭된 상태를 설명하기 위한 것이다.
도 15는 S130 단계의 예시적인 세부 순서도이다.
도 16은 S130 단계에서 매칭 비율이 계산되는 과정을 설명하기 위한 것이다.
도 17은 스캔 데이터의 신뢰도를 나타내는 유저 인터페이스 화면을 설명하기 위한 것이다.
도 18은 스캔 트레이닝 결과를 설명하기 위한 것이다.
도 19는 본 발명에 따른 데이터 처리 방법이 수행되는 데이터 처리 시스템의 개략적인 구성도이다.
도 20은 본 발명에 따른 데이터 처리 시스템 중 평가요소 측정부의 개략적인 구성도이다.
[부호의 설명]
S110: 로드하는 단계
S120: 스캔 난이도를 설정하는 단계
S130: 매칭시키는 단계
S140: 스캔 진행률을 계산하는 단계
S150: 평가하는 단계
10: 트레이닝 모델 11: 식별체
100, 200: 유저 인터페이스 130: 트레이닝 모드 진입 버튼
161: 난이도 선택부 220: 샘플 데이터
221: 구강 샘플 데이터 222: 표식 유닛
222a: 초기 표식 유닛 230: 스캔 트레이닝 메뉴
240: 상태표시부 2221: 바운딩 박스
2222: 바운딩 박스의 중심 400: 신뢰도 데이터
500: 결과 창
900: 데이터 처리 시스템
910: 스캔부
920: 제어부
930: 디스플레이부
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.
본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
도 1은 본 발명에 따른 데이터 처리 방법의 순서도이다.
도 1을 참조하면, 본 발명에 따른 데이터 처리 방법은, 트레이닝 모델에 대응되는 샘플 데이터의 적어도 일부를 유저 인터페이스에 로드하는 단계(S110), 샘플 데이터의 스캔 난이도를 설정하는 단계(S120), 트레이닝 모델을 스캔하여 획득한 스캔 데이터를 샘플 데이터에 매칭시키는 단계(S130), 스캔 데이터를 기초로 트레이닝 모델의 스캔 진행률을 계산하는 단계(S140), 및 스캔 데이터를 평가하는 단계(S150)를 포함한다.
이하에서는, 본 발명에 따른 데이터 처리 방법의 각 단계를 상세히 설명한다.
도 2는 트레이닝 모델(10)을 설명하기 위한 것이다.
도 1 및 도 2를 참조하면, S110 단계에 의해 트레이닝 모델(10)에 대응되는 샘플 데이터의 적어도 일부가 유저 인터페이스에 로드된다. 도 2에서, 본 발명에 따른 데이터 처리 방법에 사용하기 위한 트레이닝 모델(10)이 도시된다. 트레이닝 모델(10)은 사용자의 스캔 숙련도를 향상시키기 위해, 반복 연습이 가능한 모형의 일종일 수 있다. 예시적으로, 트레이닝 모델(10)은 실제 구강의 형상을 본떠 만든 석고 모델일 수 있다. 다만, 트레이닝 모델(10)은 반드시 실제 구강의 형상을 본떠 만든 것일 필요는 없으며, 구강의 형태를 모사하여 제작된, 가상의 구강 형상을 나타내는 석고 모델일 수도 있다.
트레이닝 모델(10)은 트레이닝 모델(10)에 대응되는 샘플 데이터를 가질 수 있다. 예시적으로, 샘플 데이터는 트레이닝 모델(10)을 테이블 스캐너의 트레이에 거치하여 정밀하게 3차원 스캔하여 생성된 것일 수 있다. 즉, 샘플 데이터는 트레이닝 모델(10)의 완전한 3차원 데이터일 수 있다. 따라서, 샘플 데이터는 스캔 과정에서 획득되는 스캔 데이터와 매칭되어, 스캔 데이터를 평가하는 기준 데이터로 사용될 수 있다.
한편, 샘플 데이터는 트레이닝 모델(10)의 원본 데이터일 수도 있다. 예시적으로, 트레이닝 모델(10)은 CAD 작업을 통해 생성된 샘플 데이터를 3차원 입체 프린팅하여 획득한 것일 수 있으며, 트레이닝 모델(10)은 샘플 데이터와 동일한 형상을 가질 수 있다.
트레이닝 모델(10)은 적어도 하나의 치아와 치은을 나타낼 수 있다. 또한, 트레이닝 모델(10)은 치아와 치은을 나타내는 부분 이외의 부분(예를 들면, 경구개 부분 또는 설하 부분)에 소정 식별체(11)를 가질 수 있다. 예시적으로, 상기 식별체(11)은 바코드, QR코드, 시리얼 번호(serial number)와 같이 트레이닝 모델(10)의 고유한 정보를 가지는 것일 수 있다. 식별체(11)는 트레이닝 모델(10)의 외면 일부에 음각 또는 양각으로 형성될 수도 있고, 인쇄되어 부착 형성될 수도 있다.
도 3은 본 발명에 따른 데이터 처리 방법이 표시되는 유저 인터페이스(100) 화면이고. 도 4는 도 3의 유저 인터페이스(100) 화면에서 트레이닝 모드로 진입하기 위해, 트레이닝 모델(10)을 나타내는 샘플 데이터를 로드하는 과정을 설명하기 위한 것이다. 또한, 도 5는 트레이닝 모델(10)에 형성된 식별체(11)를 감지하는 과정을 설명하기 위한 것이다.
도 3을 참조하면, 유저 인터페이스(100) 화면이 제공된다. 유저 인터페이스(100) 화면은 스캔 과정을 시각적으로 나타낼 수 있다. 유저 인터페이스(100) 화면은 샘플 데이터, 스캔 데이터, 스캔 데이터의 신뢰도를 나타내는 신뢰도 데이터 중 적어도 하나가 표시되는 워크스페이스(110)를 포함한다. 예시적으로, 워크스페이스(110)에는 샘플 데이터가 표시될 수도 있고, 스캔 데이터가 표시될 수도 있으며, 스캔 데이터가 샘플 데이터에 매칭된 상태를 나타내기 위해 스캔 데이터와 샘플 데이터가 함께 표시될 수도 있다. 또한, 워크스페이스(110)에는 스캔 데이터의 신뢰도를 나타내는 신뢰도 데이터가 표시될 수도 있으며, 스캔한 트레이닝 모델의 질감을 나타내는 스캔 데이터와 신뢰도 데이터가 함께 표시될 수도 있다. 또한, 워크스페이스(110)는 전술한 데이터와 관련한 추가 정보들을 표시할 수도 있다. 워크스페이스(110)의 일측에는 툴박스(120)가 형성될 수 있다. 툴박스(120)는 데이터들을 편집, 분석하기 위한 다양한 버튼들이 배치되며, 스캔 데이터의 소정 부분을 다각형 선택하여 트리밍하거나, 마진라인을 설정하거나, 스캐너의 캘리브레이션을 수행하는 등의 사용자 활동을 가능하게 한다.
한편, 워크스페이스(110)의 일측에는 스캔 트레이닝 모드로 진입하기 위한 트레이닝 모드 진입 버튼(130)이 배치될 수 있다. 사용자는 트레이닝 모드 진입 버튼(130)을 선택하여 스캔 과정을 연습할 수 있는 트레이닝 과정을 수행할 수 있다.
도 4를 참조하면, 사용자가 트레이닝 모드 진입 버튼(130)을 선택하여 샘플 데이터 선택창(140)이 생성될 수 있다. 샘플 데이터 선택창(140)은 샘플 데이터 검색부(141)와 식별체 스캔부(142)를 포함할 수 있다. 사용자는 샘플 데이터 검색부(141)를 선택하여, 로컬 데이터베이스에서 사용자의 입력에 의해 트레이닝 모델(10)에 대응되는 샘플 데이터를 선택할 수 있다. 반면, 사용자는 식별체 스캔부(142)를 선택하여, 스캐너를 통해 트레이닝 모델(10)에 형성된 식별체(11)를 감지하여 식별체(11)에 저장된 정보에 대응되는 샘플 데이터를 로컬 데이터베이스에서 로드하거나 온라인으로 다운로드할 수 있다. 샘플 데이터 검색부(141) 또는 식별체 스캔부(142)를 선택하고, 진행 버튼(143)을 선택하여 다음 단계로 진행할 수 있다. 또한, 취소 버튼(144)을 선택하는 경우, 사용자는 트레이닝 모드로의 진입을 취소하고 이전의 유저 인터페이스(100) 화면으로 복귀할 수 있다.
도 5를 참조하면, 식별체 스캔부(142)를 선택하여 진입한 식별체 스캔창(150)이 도시된다. 식별체 스캔창(150)은 스캐너에 내장된 카메라에 실시간으로 입력되는 화상을 표시하는 식별체 스캔 화면(151)을 포함하며, 스캐너를 사용하여 트레이닝 모델(10)의 식별체(11)를 촬영할 수 있다. 식별체(11)는 카메라에 의해 감지되고, 식별체(11)가 가지는 정보를 기초로 상기 식별체(11)가 형성된 트레이닝 모델(10)에 대응되는 샘플 데이터가 로드된다. 한편, 식별체(11)가 원활하게 감지되지 않는 경우, 시리얼 번호 입력칸에 직접 시리얼 번호를 입력하여 트레이닝 모델(10)에 대응되는 샘플 데이터를 로드할 수도 있다.
도 6은 스캔 난이도를 설정하는 과정을 설명하기 위한 것이고, 도 7은 스캔 난이도에 따라 상이한 기준을 가지는 평가요소들을 설명하기 위한 것이다.
도 6을 참조하면, 트레이닝 모델(10)에 대응되는 샘플 데이터가 로드되면, 샘플 데이터의 스캔 난이도를 설정하는 단계(S120)가 수행될 수 있다. 샘플 데이터의 스캔 난이도를 설정하는 단계(S120)는 사용자로부터 적어도 하나의 스캔 난이도 중 어느 하나를 입력받을 수 있다. 예시적으로, 스캔 난이도 선택창(160)에서, 스캔 난이도 선택부(161)에 초급자 난이도 선택 버튼(161a), 숙련자 난이도 선택 버튼(161b), 및 전문가 난이도 선택 버튼(161c)이 나타날 수 있다. 스캔 트레이닝을 수행할 사용자는 자신의 스캔 숙련도에 따라 적절한 난이도를 선택할 수 있다.
도 7을 참조하면, 스캔 데이터를 평가하기 위한 평가요소들, 및 평가 임계값들이 나타난다. 이 때, 스캔 난이도별로 평가요소들의 평가 임계값이 상이하게 설정될 수 있다. 예시적으로, 초보자 난이도에서는 160초 이내에 스캔을 완료하면 우수하게 트레이닝을 완료한 것으로 판단될 수 있다. 이와 비교하여, 숙련자 난이도에서는 140초 이내에 스캔을 완료하여야 우수하게 임계값을 슬래시(/) 트레이닝을 완료한 것으로 판단될 수 있으며, 전문가 난이도에서는 120초 이내에 스캔을 완료하여야 우수하게 트레이닝을 완료한 것으로 판단될 수 있다. 이와 같이, 스캔 난이도가 높게 설정됨에 따라 평가요소들의 평가 기준도 높아지도록 설정될 수 있다.
한편, 사용자가 스캔 트레이닝 과정에서 평가요소들의 평가 임계값을 초과한 경우, 스캔 시간에 대한 평가 등급이 하락할 수 있다. 예시적으로, 초보자 난이도에서, 스캔 시간이 60초 이내이면 5점, 스캔 시간이 60초 초과 70초 이내이면 4점, 스캔 시간이 70초 초과 80초 이내이면 3점, 스캔 시간이 80초 초과 90초 이내이면 2점, 그리고 스캔 시간이 90초를 초과하면 1점이 부여될 수 있다. 즉, 스캔 시간에 따라 차등적으로 평가 등급이 부여될 수 있다.
한편, 평가요소는 전술한 스캔 시간과, 표식 유닛에 따른 스캔 진행률, 임계 신뢰도를 만족하는 복셀 데이터의 비율, 공백 영역의 수, 스캔 데이터와 샘플 데이터 간의 매칭 비율, 스캔 샷의 수, FPS 등 중 적어도 하나를 포함할 수 있다. 상기 평가요소별 평가등급은 사용자의 스캔 숙련도를 평가하기 위해 종합적으로 고려될 수 있다.
이하에서는, 샘플 데이터(220)가 표식 데이터와 함께 로드되는 과정에 대해 설명한다.
도 8은 트레이닝 모델(10)을 나타내는 샘플 데이터(220)가 기설정된 스캔 경로를 나타내는 표식 데이터와 함께 로드된 상태를 설명하기 위한 것이다.
로드하는 단계(S110)와 스캔 난이도를 설정하는 단계(S120)가 이후에, 트레이닝 모델(10)을 나타내는 샘플 데이터(220)가 유저 인터페이스(200) 화면 상에 표시된다. 유저 인터페이스(200) 화면은 트레이닝 모드에 진입한 후에 나타나는 것이므로, 전술한 유저 인터페이스(100) 화면과 상이할 수 있다. 유저 인터페이스(200) 화면은, 트레이닝 모델(10)의 시리얼 번호와, 사용자가 선택한 난이도 정보을 일측에 표시할 수 있다. 사용자는 스캔하는 트레이닝 모델(10)과 로드된 샘플 데이터(220)가 일치하는지 확인할 수 있고, 선택된 난이도 또한 용이하게 확인할 수 있다.
또한, 유저 인터페이스(200) 화면 상에는 추가적인 다양한 정보들이 표시될 수 있다. 예시적으로, 유저 인터페이스(200) 화면에는 적어도 하나의 스캔 트레이닝 메뉴(230)가 배치된다. 스캔 트레이닝 메뉴(230)는 트레이닝 시작/중단 버튼(231)과 스캔 데이터 평가 버튼(232)을 포함할 수 있다. 사용자는 트레이닝 시작/중단 버튼(231)을 선택하여 스캔 과정을 시작하거나 중단할 수 있다. 트레이닝 시작/중단 버튼(231)을 선택하여 스캔 과정을 시작하면, 평가요소별로 스캔 데이터를 평가하기 위한 정보가 수집될 수 있다. 한편, 트레이닝 시작/중단 버튼(231)을 선택하여 스캔 과정을 중단하면 스캔 과정이 종료되고, 획득된 스캔 데이터를 기초로 스캔 데이터가 평가될 수 있다. 스캔 데이터의 평가 결과는 스캔 데이터 평가 버튼(232)을 선택하여 확인할 수 있다.
또한, 스캔 트레이닝 과정이 수행될 때, 상태표시부(240)가 유저 인터페이스(200) 화면의 일측에 표시될 수 있다. 상태표시부(240)는 실시간으로 스캔 과정에 따른 스캔 진행 상황을 표시할 수 있다. 상태표시부(240)는 평가요소 표시부(241)와 스캔 진행률 표시부(242)를 포함할 수 있다.
평가요소 표시부(241)는 평가요소별 측정 결과를 표시할 수 있다. 예시적으로, 평가요소 표시부(241)는 스캔 과정에 따른 스캔 시간, 스캔 샷의 수, fps(frame per second)를 실시간으로 표시할 수 있다. 또한, 각 평가요소의 평가 임계값을 슬래시(/) 기호로 구분하여 표시할 수 있다. 다만, 본 발명은 본 발명을 예시적으로 설명하는 도면에 한정되지 않는다. 즉, 평가요소 표시부(241)에 반드시 평가 임계값이 표시되어야 하는 것은 아니며, 가사 평가 임계값이 표시되더라도 슬래시(/) 기호로 구분되어 표시되지 않을 수도 있다.
스캔 진행률 표시부(242)는 계산된 스캔 진행률을 표시할 수 있다. 스캔 진행률은 스캔 데이터를 구성하는 스캔 샷과 표식 데이터 간의 거리를 기초로 증가할 수 있다. 한편, 스캔 진행률을 계산하는 과정에 대해서는 후술한다.
이하에서는 샘플 데이터(220)에 대해 보다 상세하게 설명한다.
샘플 데이터(220)는 구강 샘플 데이터(221)와 표식 데이터를 포함할 수 있다. 구강 샘플 데이터(221)란, 트레이닝 모델(10)에 대응되는 상기 트레이닝 모델(10)의 디지털 3차원 데이터를 의미할 수 있다. 구강 샘플 데이터(221)의 적어도 일부는 트레이닝 모델(10)의 적어도 일 부분의 형상 정보를 포함하는 복셀 데이터로 형성될 수 있다. 예시적으로, 샘플 데이터(220) 중 구강 샘플 데이터(221)는 후술하는 스캔 과정에서 스캔 데이터와 얼라인되는 얼라인 가능 영역(2211)과, 스캔 데이터와 얼라인되지 않는 얼라인 불가 영역(2212)을 포함할 수 있다. 이 때, 얼라인 가능 영역(2211)은 트레이닝 모델(10)의 형상 정보를 포함하는 복셀 데이터로 형성되므로, 스캔 데이터가 입력되면 상기 스캔 데이터는 샘플 데이터(220)에 용이하게 얼라인될 수 있다. 한편, 얼라인 불가 영역(2212)은 대응되는 트레이닝 모델(10)의 부분의 형상 정보를 가지지 않을 수 있다. 다만, 반드시 이에 한정되는 것은 아니며, 얼라인 불가 영역(2212)은 트레이닝 모델(10)의 형상 정보를 가지는 쉘 데이터로 형성되지만, 스캔 데이터와 얼라인되지 않을 수 있다.
한편, 트레이닝 모델(10)은 얼라인 가능 영역(2211)에 대응되는 초기 스캔 위치를 가진다. 예시적으로, 트레이닝 모델(10)의 초기 스캔 위치는 제2 대구치의 적어도 일부를 포함하는 위치일 수 있다. 사용자는 초기 스캔 위치를 먼저 스캔함으로써 스캔 데이터를 획득할 수 있고, 초기 스캔 위치에 대응되는 스캔 데이터는 얼라인 가능 영역(2211)을 형성하는 복셀 데이터에 포함된 굴곡 정보 등을 기초로 샘플 데이터(220)에 얼라인될 수 있다.
도 9는 표식 데이터를 설명하기 위한 것이다.
도 8 및 도 9를 참조하면, 로드하는 단계(S110)는 표식 데이터를 샘플 데이터(220) 상에 함께 로드할 수 있다. 보다 상세하게는, 표식 데이터는 스캔 데이터를 획득하기 위한 기설정된 스캔 경로를 나타낼 수 있다. 표식 데이터는 적어도 하나의 표식 유닛(222)을 포함할 수 있다. 예시적으로, 표식 데이터는 복수의 표식 유닛(222)들을 포함할 수 있으며, 표식 유닛(222)들은 방향성을 가지는 2차원 또는 3차원 도형 형상으로 표시된다. 예시적으로, 표식 유닛(222)들은 3차원 화살표 형상으로 표시될 수 있고, 어느 하나의 표식 유닛(222)의 말단은 다른 하나의 표식 유닛(222)의 기단을 지시함으로써 적어도 하나의 폐루프 스캔 경로를 형성할 수 있다. 표식 유닛(222)들의 수는 사용자의 선택에 따라 결정된 스캔 난이도에 따라 상이하게 결정될 수 있다.
도 9에 도시된 바와 같이, 표식 데이터 중 표식 유닛(222)은 일정한 부피를 가질 수 있다. 이 때, 표식 유닛(222)의 윤곽을 형성하는 바운딩 박스(2221)가 형성될 수 있다. 바운딩 박스(2221)는 직육면체 형상을 가질 수 있으나, 반드시 이에 한정되는 것은 아니다. 바운딩 박스의 중심(2222)은 표식 데이터(보다 상세하게는, 표식 유닛)의 중심으로 설정될 수 있으며, 바운딩 박스의 중심(2222)은 스캔 데이터를 구성하는 스캔 샷과 표식 데이터 간의 거리를 기초로 스캔 진행률을 계산하기 위해 사용될 수 있다.
한편, 표식 유닛(222)들 중 적어도 일부는 샘플 데이터(220)로부터 소정 거리 이격 형성될 수 있다. 예시적으로, 표식 유닛(222)은 샘플 데이터(220)의 치아 부분을 중심으로 소정 거리 이격 형성될 수 있다. 이에 따라, 표식 유닛(222)은 샘플 데이터(220) 중 치아 부분의 외면을 따라 형성될 수 있으며, 표식 유닛(222)은 스캔 트레이닝을 수행하는 사용자에게 치아 스캔 전략을 더욱 상세하게 가이딩할 수 있다.
또한, 표식 데이터는 초기 표식 유닛(222a)을 포함할 수 있다. 따라서, 초기 표식 유닛(222a)은 다른 표식 유닛(222)들과 함께 샘플 데이터(220) 상에 함께 로드될 수 있다. 초기 표식 유닛(222a)은 다른 표식 유닛(222)과는 상이하게 표시될 수 있다. 예시적으로, 초기 표식 유닛(222a)은 녹색으로 표시될 수 있고, 다른 표식 유닛(222)들은 청색으로 표시될 수 있다. 다른 예시로, 초기 표식 유닛(222a)은 제1 패턴을 가지는 형상으로 표시될 수 있고, 다른 표식 유닛(222)들은 제2 패턴을 가지는 형상으로 표시될 수 있다. 초기 표식 유닛(222a)은 스캔 트레이닝 과정에서 최초로 스캔 데이터가 획득되어야 하는 지점을 나타낼 수 있다. 예시적으로, 초기 표식 유닛(222a)은 얼라인 가능 영역(2211)에 대응되는 샘플 데이터(220)의 일부분 상에 표시될 수 있다.
이하에서는 매칭시키는 단계(S130)에 대해 상세히 설명한다.
도 10은 스캔 과정을 수행하여 스캔 데이터(300)가 매칭되는 과정을 설명하기 위한 것이다.
도 1, 도 8, 및 도 10을 참조하면, 본 발명에 따른 데이터 처리 방법은 트레이닝 모델(10)을 스캔하여 획득한 스캔 데이터(300)를 샘플 데이터에 매칭시키는 단계(S130)를 포함한다. 상기 매칭시키는 단계(S130)는 후술하는 얼라인 가능 영역(2211)에서 스캔 데이터(300)가 샘플 데이터에 얼라인되는 과정 및/또는 스캔 데이터(300)가 포함하는 복수의 스캔 샷들이 상호 얼라인되는 과정을 수행할 수 있다. 또한, 상기 매칭시키는 단계(S130)는 스캔 데이터(300)가 획득됨에 따라 함께 획득되는, 스캔 데이터(300)와 샘플 데이터 간의 매칭 비율(matching rate)을 포함하는 평가요소 측정값을 수집할 수 있다.
트레이닝 시작/중단 버튼(231)을 선택하여 스캔 과정을 시작하면, 스캐너를 통해 스캔 데이터가 스캔 샷 단위로 획득될 수 있다. 이 때, 스캔 샷이란 트레이닝 모델(10)을 스캔하여 트레이닝 모델(10)의 형상 및/또는 색상을 나타내는 스캔 데이터를 구성하는 3차원 데이터 조각일 수 있다. 스캔 데이터는 복수의 스캔 샷들을 포함할 수 있고, 스캔 샷들은 샘플 데이터와 얼라인되거나, 스캔 샷들은 상호 얼라인될 수 있다. 한편, 스캔 데이터(300)가 획득되면서, 평가요소별로 스캔 데이터(300)를 평가하기 위한 정보, 즉 평가요소 측정값이 수집될 수 있다.
예시적으로, 평가요소 표시부(241)는 수집되는 스캔 시간, 스캔 샷의 수, fps 등을 실시간으로 표시할 수 있다. 또한 예시적으로, 평가요소 표시부(241)에 실시간으로 표시되는 평가요소 측정값들의 크기에 따라, 평가요소 측정값을 나타내는 글자가 변화할 수 있다. 예를 들면, 평가 임계값의 70%를 초과하는 평가요소 측정값에 대해서, 평가요소 측정값을 나타내는 글자는 녹색에서 주황색으로 변화할 수 있다. 또한, 평가 임계값의 100%를 초과하는 평가요소 측정값에 대해서, 평가요소 측정값을 나타내는 글자는 주황색에서 적색으로 변화할 수 있다. 부가적으로, 평가요소 측정값을 나타내는 글자는 평가 임계값을 초과하는 정도에 따라(즉, 평가 등급이 하락함에 따라) 또다른 색상으로 변화할 수도 있다. 이와 같이, 평가요소 측정값의 글자 색상을 통해 사용자에게 스캔 과정 중에도 사용자에게 피드백을 제공할 수 있으므로, 사용자는 미흡한 평가요소를 보완할 수 있는 이점이 있다. 다만, 전술한 예시적인 내용과 달리, 평가요소 측정값을 나타내는 글자는 평가 임계값의 초과 여부와 관계없이 단일의 색상을 가질 수도 있다.
또한, 유저 인터페이스(200) 화면의 일측에는 실시간 화면(260)이 추가적으로 표시될 수 있다. 실시간 화면(260)은 스캐너의 카메라를 통해 획득되는 2차원 영상을 실시간으로 표시할 수 있다.
한편, 사용자는 초기 표식 유닛(222a)이 표시된 부분에 대응되는 트레이닝 모델(10)의 부분을 스캔할 수 있다. 초기 표식 유닛(222a)이 표시된 부분에 대응되는 트레이닝 모델(10)의 부분은, 샘플 데이터(220) 중 얼라인 가능 영역(2211)일 수 있다. 이 때, 얼라인 가능 영역(2211)은 복셀 데이터로 형성되므로, 얼라인 가능 영역(2211)에 대응되는 스캔 데이터(300)의 스캔 샷들은 샘플 데이터(220)에 얼라인될 수 있다.
이후, 사용자는 표식 유닛(222)들을 따라 스캔 과정을 수행하고, 사용자가 스캔하는 트레이닝 모델(10)의 부분은 샘플 데이터(220)의 얼라인 불가 영역(2212)에 대응되는 부분일 수 있다. 이 때, 트레이닝 모델(10)의 해당 부분을 스캔하여 획득한 스캔 샷들은 샘플 데이터(220)에 얼라인되는 것이 아니라, 직전에 획득된 스캔 샷들과 얼라인될 수 있다. 즉, 얼라인 가능 영역(2211)은 스캔 데이터(300)가 샘플 데이터(220)에 얼라인되는 기준 영역으로 작용하며, 얼라인 불가 영역(2212)은 스캔 숙련도를 측정하기 위한 영역으로 작용할 수 있다.
이하에서는, 스캔 과정이 진행됨에 따라 스캔 진행률이 변화하는 과정과 표식 유닛(222)이 표시되는 과정에 대해 설명한다.
도 11 내지 도 13은 표식 유닛(222)들이 지시하는 방향을 따라 스캔 과정을 수행하는 것을 설명하기 위한 것이다.
도 1, 도 11, 및 도 12를 참조하면, 본 발명에 따른 데이터 처리 방법은 획득한 스캔 데이터(300)를 기초로 트레이닝 모델(10)의 스캔 진행률을 계산하는 단계(S140)를 더 포함한다. 예시적으로, 유저 인터페이스(200) 화면 상에서 현재 스캔이 수행되고 있는 부분이 스캔 프레임(250)의 형태로 표시된다. 한편, 사용자는 상기 스캔 프레임(250) 내부에 표식 유닛(222)이 포함되도록 스캔을 수행할 수 있다. 스캔 프레임(250) 내부에 표식 유닛(222)이 포함되도록 스캔을 수행하면, 사용자가 트레이닝 모델(10)을 올바르게 지향하여 스캔을 수행하고 있는 것으로 판단될 수 있다. 사용자가 원활하게 스캔을 수행하여 스캔 데이터(300)가 안정적으로 획득하면, 스캔 진행률이 증가할 수 있다.
예시적으로, 스캔 진행률은 AABB(axis aligned bounding box) 방법을 이용하여 수행될 수 있다. 즉, 스캔 진행률은 스캔 데이터(300)를 구성하는 스캔 샷과 표식 데이터(보다 정확하게는, 표식 유닛) 간의 거리가 소정 임계값 이내인 경우 증가할 수 있다. 보다 상세하게는, 획득된 스캔 샷은 상기 스캔 샷의 윤곽을 형성하는 바운딩 박스를 가질 수 있고, 예시적으로 스캔 샷의 바운딩 박스는 직육면체 형상을 가질 수 있다. 또한, 스캔 샷의 중심은 스캔 샷의 바운딩 박스의 중심으로 설정될 수 있고, 스캔 샷의 바운딩 박스의 중심과 표식 데이터(보다 정확하게는, 표식 유닛)의 바운딩 박스의 중심(2222) 간의 직선 거리가 측정될 수 있다. 상기 직선 거리가 소정 임계값 이내인 경우, 사용자가 스캔 경로에 부합하도록 스캔 데이터를 획득한 것으로 판단될 수 있다. 예시적으로, 스캔 샷의 바운딩 박스의 중심과 표식 데이터의 바운딩 박스의 중심(2222) 간의 직선 거리가 1cm 이내인 경우, 표식 유닛(222)이 위치한 부분에서 정상적으로 스캔 과정이 진행되고 있는 것으로 판단될 수 있다.
한편, 각각의 표식 유닛(222)은 임계 스캔 샷의 수를 가질 수 있다. 예시적으로, 각각의 표식 유닛(222)은 초보자 난이도에서 20 샷의 임계 스캔 샷의 수를 가질 수 있다. 따라서, 복수의 표식 유닛(222) 각각이 가지는 임계 스캔 샷의 수를 기초로, 해당 표식 유닛(222)에 대응되는 스캔 진행률이 표식 유닛(222) 단위로 증가할 수 있다. 예시적으로, 샘플 데이터(220)의 스캔 경로를 표시하기 위해 25개의 표식 유닛(222)이 생성된 경우, 각각의 표식 유닛(222)에 임계 스캔 샷 수만큼의 스캔 샷이 획득되면 표식 유닛(222) 당 스캔 진행률이 4% 증가할 수 있다.
스캔 진행률을 계산하는 단계(S140)는 매칭시키는 단계(S130) 이후에 수행될 수도 있으나, 실질적으로는 스캔 데이터(300)가 획득되어 샘플 데이터(220)와 실시간으로 매칭되는 과정과 동시에 수행될 수 있다.
한편, 표식 데이터는 기설정된 스캔 경로를 나타내기 위해 적어도 일부가 표시될 수 있다. 예시적으로, 표식 유닛(222)은 연속하여 3개 내지 5개가 표시될 수 있으며, 동시에 표시되는 표식 유닛(222)의 수는 스캔 난이도에 따라 상이할 수 있다. 또한, 표식 데이터를 나타내는 표식 유닛(222)은 임계 스캔 샷의 수만큼 스캔 샷이 축적되면 형상이 변형될 수 있다. 예시적으로, 임의의 표식 유닛(222)에 대응되는 부분에 스캔 샷들이 획득됨에 따라, 해당 표식 유닛(222)의 색상은 변화할 수 있다. 예시적으로, 표식 유닛(222)의 색상은 스캔 샷들이 획득됨에 따라 반투명 청색, 불투명 청색, 불투명 녹색, 반투명 녹색으로 순차적으로 변화할 수 있다.
한편, 해당 표식 유닛(222)에 대응되는 부분에 임계 스캔 샷 수(예를 들면, 20 샷)만큼의 스캔 샷들이 획득되었다면, 해당 표식 유닛(222)은 사라지고, 후속 표식 유닛(222)이 표시될 수 있다. 예시적으로, 제1 표식 유닛, 제2 표식 유닛, 제3 표식 유닛, 제4 표식 유닛, 및 제5 표식 유닛이 기설정된 스캔 경로를 따라 순서대로 표시될 수 있다. 이 때, 제1 표식 유닛은 초기 표식 유닛으로 기능할 수 있다. 사용자는 제1 표식 유닛에 대응되는 트레이닝 모델(10)의 일 부분부터 스캔 데이터를 획득할 수 있다. 사용자가 제1 표식 유닛에 대응되는 트레이닝 모델(10)의 일 부분을 충분히 스캔하여 제1 표식 유닛에 임계 스캔 샷의 수만큼 스캔 샷이 획득된 경우, 제1 표식 유닛은 사라지고, 제5 표식 유닛의 화살표가 지시하는 방향에 후속 표식 유닛인 제6 표식 유닛이 기설정된 스캔 경로를 따라 표시될 수 있다. 제1 표식 유닛이 사라지면, 제2 표식 유닛이 초기 표식 유닛으로 기능할 수 있다. 이와 같이, 충분히 스캔된 부분에 대응되는 표식 유닛(222)이 사라지고 후속 표식 유닛(222)이 표시됨으로써, 사용자는 예측가능한 범위 내에서 스캔 과정을 수행할 수 있다.
도 13을 참조하면, 순서대로 표시된 표식 유닛(222)들 중 이전의 표식 유닛(222)에 대응되는 부분을 충분하게 스캔하지 않으면, 후속 표식 유닛(222)이 표시되지 않을 수 있다. 예시적으로, 제1 표식 유닛, 제2 표식 유닛, 제3 표식 유닛, 제4 표식 유닛, 및 제5 표식 유닛이 샘플 데이터(220) 상에 기설정된 스캔 경로를 따라 표시될 수 있다. 표시된 표식 유닛(222)들 중 가장 앞선 제1 표식 유닛이 초기 표식 유닛으로 기능할 수 있다. 한편, 초기 표식 유닛이 표시될 때, 트레이닝 모델(10) 중 초기 표식 유닛에 대응되는 부분에서 획득된 스캔 샷은 스캔 데이터를 생성할 때 사용될 수 있고, 트레이닝 모델(10) 중 초기 표식 유닛에 대응되지 않는 부분에서 획득된 스캔 샷은 스캔 데이터(300)를 생성할 때 사용되지 않을 수 있다. 도 13에 도시된 바와 같이, 스캔 프레임(250)이 제5 표식 유닛에 대응되는 샘플 데이터(220)의 일 부분에 위치하고 있다. 이러한 경우, 사용자는 제1 표식 유닛에 대응되는 트레이닝 모델(10)의 부분에 충분한 양의 스캔 샷을 획득하지 못한 것으로 판단될 수 있다. 따라서, 사용자는 기설정된 스캔 경로를 준수하지 않고 스캔 과정을 수행한 것으로 판단될 수 있다.
사용자의 스캔 숙련도를 향상시키기 위한 본 발명의 목적상, 초기 표식 유닛인 제1 표식 유닛에 대응되는 트레이닝 모델(10)의 일 부분에 대한 충분한 양의 스캔 샷을 획득하고, 이후 제2 표식 유닛에 대응되는 트레이닝 모델(10)의 일 부분에 대한 충분한 양의 스캔 샷을 획득하고, 순차적으로 제3 표식 유닛, 제4 표식 유닛, 및 제5 표식 유닛에 대응되는 트레이닝 모델(10)의 일 부분에 대한 충분한 양의 스캔 샷을 획득하는 것이 중요하다. 따라서, 초기 표식 유닛에 대응되는 부분에서 획득된 스캔 샷은 스캔 데이터(300)를 생성할 때 사용되어 다른 스캔 샷들과 얼라인될 수 있고, 샘플 데이터(220)와의 매칭되어 평가될 수 있다. 반면, 초기 표식 유닛이 표시될 때 초기 표식 유닛에 대응되지 않는 부분에서 획득된 스캔 샷은 스캔 데이터(300)를 생성할 때 사용되지 않고, 사용자가 초기 표식 유닛이 표시된 위치로 복귀하여 스캔 과정을 진행할 수 있도록 유도할 수 있다.
도 14는 스캔 과정이 완료되어 스캔 데이터와 샘플 데이터가 매칭된 상태를 설명하기 위한 것이다.
도 14를 참조하면, 스캔 데이터(300)가 획득되어 샘플 데이터(220)와 매칭된 것을 확인할 수 있다. 또한, 상태표시부(240)의 평가요소 표시부(241)는 스캔 시간, 획득된 총 스캔 샷의 수 등을 표시하고, 스캔 진행률 표시부(242)는 스캔 진행이 완료되었음을 표시할 수 있다. 스캔 진행률은 수치, 또는 링 형상의 로딩 바의 형태 변화를 통해 나타날 수 있다.
한편, 스캔 데이터(300)가 샘플 데이터(220)에 매칭된 매칭 영역의 비율(이하, 매칭 비율)이 계산될 수 있다. 이 때, 스캔 데이터(300)가 샘플 데이터(220)에 매칭되었다는 것은, 샘플 데이터(220)와 스캔 데이터(300)의 거리 편차(deviation)가 소정 임계값 이하에 해당하는 것을 의미할 수 있다. 즉, 매칭 영역은, 샘플 데이터(220)와 스캔 데이터(300)의 거리 편차가 소정 임계값 이하인 영역일 수 있다. 따라서, 스캔 데이터(300)의 소정 영역 전체에 대하여 매칭 영역이 점유하는 비율인 매칭 비율(matching rate)이 획득될 수 있다. 상기 매칭 비율은 평가요소에 포함될 수 있으며, 매칭 비율이 높을수록 사용자의 스캔 숙련도가 고도한 것으로 평가될 수 있다. 예시적으로, 매칭 비율은, 스캔 데이터(300) 중 치아를 나타내는 영역에 대해 획득될 수 있다. 사용자는 치아를 나타내는 영역에 대하여 샘플 데이터(220)와 정밀하게 매칭되도록 스캔하였는지 평가받을 수 있으며, 이에 따라 스캔 숙련도를 향상시킬 수 있는 이점이 있다.
이하에서는, 본 발명에 따른 데이터 처리 방법에서, 평가요소 측정값 중 하나인 매칭 비율을 획득하는 과정에 대해 보다 상세히 설명한다.
도 15는 S130 단계의 예시적인 세부 순서도이고, 도 16은 S130 단계에서 매칭 비율이 계산되는 과정을 설명하기 위한 것이다. 보다 상세하게는, 도 16(a)는 구강 샘플 데이터(221)에 포함된 복수의 지점에서 광선이 생성되어 교차 거리를 획득하는 과정을 도시하고, 도 16(b)는 획득한 교차 거리에 따라 적어도 2개의 매칭 레벨로 분류된 구강 샘플 데이터(221’)를 도시한 것이다.
도 15를 참조하면, 매칭시키는 단계(S130)에서 복수의 평가요소 측정값들 중 적어도 일부가 수집될 수 있다. 사용자의 스캔 숙련도를 향상시키기 위한 본 발명의 목적 상, 평가요소 측정값 중 스캔 데이터와 샘플 데이터 간의 매칭 비율(matching rate)은 중요한 평가요소로 고려될 수 있다. 따라서, 매칭시키는 단계(S130)는 평가요소 측정값들 중 매칭 비율을 획득하는 과정을 포함할 수 있다.
도 15 및 도 16(a)를 참조하면, 매칭시키는 단계(S130)는 트리밍된 구강 샘플 데이터(221)의 적어도 일부에 포함된 지점들에서 광선을 생성하는 단계(S131)를 포함할 수 있다. 본 발명에서, 사용자가 트레이닝 모델(10)을 스캔하도록 트레이닝함으로써, 사용자는 환자의 치아를 포함하는 환자의 실제 구강을 정밀하게 스캔할 수 있는 스캔 숙련도를 향상시킬 수 있다. 또한, 치과 치료시에는 치아를 정밀하게 스캔하는 것이 중요하므로, 매칭 비율은 샘플 데이터(220) 중 치아를 나타내는 치아 영역, 및 치아 영역으로부터 소정 거리 확장된 일부 치은 영역에 대해 획득될 수 있다. 따라서, 구강 샘플 데이터(221)에서 치아 영역 및 치아 영역으로부터 소정 거리 확장된 일부 치은 영역이 트리밍(trimming)되어, 매칭 비율을 획득하기 위한 영역으로 기능할 수 있다.
트리밍된 구강 샘플 데이터(221)는 복수의 지점들(p1, p2, p3)을 포함할 수 있다. 구강 샘플 데이터(221)의 복수의 지점들(p1, p2, p3)은 포인트 클라우드 형태로 형성되는 구강 샘플 데이터(221)의 적어도 일부를 구성할 수 있다. 구강 샘플 데이터(221)의 복수의 지점들(p1, p2, p3)은 구강 샘플 데이터(221)의 표면에 배치될 수 있다. 광선을 생성하는 단계(S131)는 구강 샘플 데이터(221)에 포함된 복수의 지점들(p1, p2, p3)이 각각 배치된 위치에서, 표면의 법선 방향(normal direction)으로 광선(r)을 생성할 수 있다. 이 때, 상기 광선(r)은 법선 방향 중 제1 방향으로 진행하는 제1 방향 광선(r1)과, 법선 방향 중 제1 방향과 대향되는 제2 방향으로 진행하는 제2 방향 광선(r2)을 포함할 수 있다.
또한, 구강 샘플 데이터(221)로부터 생성된 광선은 스캔 데이터(300)에 도달할 수 있다. 예시적으로, 구강 샘플 데이터(221)의 제1 지점(p1)으로부터 생성된 광선(r)은 스캔 데이터(300)의 제4 지점(p4)에 도달할 수 있고, 구강 샘플 데이터(221)의 제2 지점(p2)으로부터 생성된 광선(r)은 스캔 데이터(300)의 제5 지점(p5)에 도달할 수 있으며, 구강 샘플 데이터(221)의 제3 지점(p3)으로부터 생성된 광선(r)은 스캔 데이터(300)의 제6 지점(p6)에 도달할 수 있다. 한편, 광선(r)이 스캔 데이터(300)의 소정 지점들(p4, p5, p6)에 도달하면, 광선(r)이 생성된 지점(p1, p2, p3)들과 광선(r)이 도달한 지점(p4, p5, p6)들과의 거리 편차(deviation)이 획득(S132)될 수 있다. 이 때, 거리 편차는 제1 지점(p1)과 제4 지점(p4) 사이의 직선 거리, 제2 지점(p2)과 제5 지점(p5) 사이의 직선 거리, 및 제3 지점(p3)과 제6 지점(p6) 사이의 직선 거리를 의미할 수 있다. 거리 편차는 구강 샘플 데이터(221)로부터 스캔 데이터(300) 까지의 길이(절대값)으로 정의될 수 있다.
도 16(a)에 예시적으로 도시된 바에 따르면, 구강 샘플 데이터(221)는 3개의 지점(p1, p2, p3)을 가지고, 각각의 지점으로부터 법선 양방향으로 생성된 광선(r)은 각각 스캔 데이터(p4, p5, p6)에 도달하는 것으로 설명되었으나, 광선이 생성되는 지점의 수는 도 16(a)에 도시된 바에 한정되지 않는다.
도 7, 도 15, 도 16(a), 및 도 16(b)를 참조하면, 전술한 거리 편차를 획득하는 단계(S132)에서 획득한 거리 편차에 따라, 구강 샘플 데이터(221)의 각각의 지점(p1, p2, p3)의 매칭 레벨(matching level)이 분류(S133)될 수 있다. 예시적으로, 매칭 레벨을 분류하는 단계(S133)에서, 거리 편차가 소정 제1 임계 거리 편차값 이내(이하)인 경우, 대응되는 샘플 데이터(221)의 지점은 제1 매칭 레벨로 분류될 수 있고, 제1 매칭 레벨로 분류된 지점은 분류된 구강 샘플 데이터(221’) 상 매칭 영역(2213’)에 해당할 수 있다. 예시적으로, 제1 매칭 레벨로 분류된 지점은 제1 색상(예를 들면, 녹색)으로 표시될 수 있다.
한편, 거리 편차가 소정 제1 임계거리 편차값을 초과하며 소정 제2 임계거리 편차값 이내(이하)인 경우, 대응되는 샘플 데이터(221)의 지점은 제2 매칭 레벨로 분류될 수 있고, 제2 매칭 레벨로 분류된 지점은 분류된 구강 샘플 데이터(221’) 상 비매칭 영역(2214’)에 해당할 수 있다. 예시적으로, 제2 매칭 레벨로 분류된 지점은 제2 색상(예를 들면, 적색)으로 표시될 수 있다.
또한, 거리 편차가 제2 임계거리 편차값을 초과하는 경우, 대응되는 샘플 데이터(221)의 지점은 제3 매칭 레벨로 분류될 수 있고, 제3 매칭 레벨로 분류된 지점은 분류된 구강 샘플 데이터(221’) 상 노이즈 영역(2215’)에 해당할 수 있다. 예시적으로, 제3 매칭 레벨로 분류된 지점은 제3 색상(예를 들면, 회색)으로 표시될 수 있다.
매칭 레벨을 분류하는 단계(S133)에 따라 지점들의 매칭 레벨이 분류되면, 분류된 매칭 레벨을 기초로 매칭 비율이 획득(S134)될 수 있다. 예시적으로, 매칭 비율은 트리밍된 구강 샘플 데이터(221)에 포함된 지점들에 대한 제1 매칭 레벨로 분류된 지점의 비율일 수 있다. 다른 예시로, 매칭 비율은 제1 매칭 레벨로 분류된 지점들 및 제2 매칭 레벨로 분류된 지점들의 합에 대한 제1 매칭 레벨로 분류된 지점들의 비율일 수도 있다. 이와 같이 획득된 매칭 비율은 스캔 데이터를 평가하기 위한 일 요소로 기능할 수 있으며, 사용자는 상기 매칭 비율을 통해 자신의 스캔 숙련도의 향상 여부를 용이하게 확인할 수 있다.
한편, 사용자가 선택한 스캔 난이도에 따라, 전술한 제1 임계거리 편차값은 상이하게 설정될 수 있다. 도 7에 도시된 바에 따르면, 초보자 난이도에서 상기 제1 임계거리 편차값은 d1일 수 있고, 숙련자 난이도에서 상기 제1 임계거리 편차값은 d2일 수 있으며, 전문가 난이도에서 상기 제1 임계거리 편차값은 d3일 수 있다. 또한, d1은 d2보다 크고, d2는 d3보다 클 수 있다. 스캔 난이도에 따라 상이한 제1 임계거리 편차값이 설정됨으로써, 사용자는 스캔 난이도에 따른 스캔 숙련도를 향상시킬 수 있는 이점이 있다.
도 17은 스캔 데이터의 신뢰도를 나타내는 유저 인터페이스 화면을 설명하기 위한 것이다.
도 17을 참조하면, 스캔 데이터(300)의 신뢰도를 나타내는 신뢰도 데이터(400)가 추가적으로 표시될 수 있다. 신뢰도 데이터(400)는 소정 패턴 또는 색상, 또는 이들의 조합을 통해 사용자가 스캔 과정을 수행하여 얼마나 정밀도 높은 스캔 데이터를 획득했는지 확인할 수 있도록 한다. 예시적으로, 신뢰도 데이터(400) 중 적색 부분은 신뢰도가 낮은 부분, 황색 부분은 신뢰도가 중간인 부분, 녹색 부분은 신뢰도가 높은 부분인 것으로 표현될 수 있다. 이 때, 신뢰도가 높은 부분은 기설정된 임계 신뢰도를 만족하는 부분을 의미할 수 있으며, 신뢰도는 축적된 스캔 샷의 수를 기초로 산정될 수 있다. 다만, 신뢰도 데이터는 도 15에 도시된 바와 달리 사용자에게 시각적으로 제공되지 않을 수 있으며, 전술한 평가요소(예를 들면, 임계 신뢰도를 만족하는 복셀 데이터의 비율, 공백 영역의 수)를 통해 수치적인 형태로 간접적으로 제공될 수 있다.
또한, 신뢰도 데이터(400)는 공백 영역을 표시할 수 있다. 공백 영역이란, 스캔 데이터를 획득할 때 정밀하게 스캔 과정을 수행하지 않아 스캔 데이터(300)가 획득되지 않은 폐루프 영역을 의미할 수 있다. 이와 같은 공백 영역의 크기, 공백 영역의 수도 평가요소 중 하나로 사용될 수 있다.
도 18은 스캔 트레이닝 결과를 설명하기 위한 것이다.
도 18을 참조하면, 본 발명에 따른 데이터 처리 방법은 스캔 데이터(300)와 샘플 데이터(220)의 매칭 결과에 기초하여 스캔 데이터를 평가하는 단계(S150)를 포함할 수 있다. 상기 평가하는 단계(S150)는 스캔 데이터(300)와 관련된 적어도 하나의 평가요소를 통해 스캔 데이터(300)를 평가하는 것을 의미할 수 있다. 평가요소는 전술한 스캔 시간, 임계 신뢰도를 만족하는 복셀 데이터의 비율, 공백 영역의 규모 또는 개수, 스캔 데이터(300)와 샘플 데이터(220) 간의 매칭 비율 중 적어도 하나를 포함할 수 있다. 평가하는 단계(S150)는 매칭시키는 단계(S130)와 함께 실시간으로 수행될 수도 있고, 트레이닝 시작/중단 버튼(231)을 선택하여 사용자가 스캔 과정이 종료한 후, 획득된 스캔 데이터(300)를 기초로 수행될 수도 있다. 예시적으로, 평가하는 단계(S150)는 전술한 단계들(S130, S140)에서 획득한 평가요소 측정값들을 대응되는 평가 임계값들과 비교하고, 각각의 평가요소 측정값을 점수화하여 사용자에게 표시할 수 있다. 한편, 예시적으로, 복수의 평가요소들 중 매칭 비율에는 다른 평가요소들 대비 가중치가 부여되어 평가될 수 있다.
도 17 및 도 18에 도시된 바와 같이, 사용자가 스캔 데이터 평가 버튼(232)을 선택함으로써 결과 창(500)이 나타날 수 있다. 결과 창(500)은 평가그래프(510)와 평가표(520)를 통해 사용자의 스캔 트레이닝 결과를 시각적으로 표시할 수 있다. 평가그래프(510)는 각각의 평가요소(511)들이 방사형 축의 꼭지점을 구성하고, 방사형 축에 각각의 평가요소(511)별 평가 등급이 표시되어 방사형 그래프가 나타날 수 있다. 사용자는 평가그래프(510)를 통해 자신의 스캔 숙련도를 시각적으로 확인할 수 있고, 미비점을 보완할 수 있다.
또한, 평가표(520)는 평가요소(521)별 평가요소 측정값(522)을 표시할 수 있다. 사용자는, 평가표(520)를 통해 자신의 스캔 과정에서 어떤 평가요소(521)가 미흡한지 정량적으로 확인할 수 있고, 미비점을 보완할 수 있다.
이상의 설명과 같이, 본 발명에 따른 데이터 처리 방법은, 제공된 트레이닝 모델(10)과 트레이닝 모델(10)의 디지털 데이터인 샘플 데이터(220)를 통해, 사용자는 스캔 과정을 반복적으로 수행할 수 있고, 스캔 과정에 따른 결과를 평가받을 수 있다. 이에 따라, 사용자는 본 발명에 따른 데이터 처리 방법에 따라 자신의 스캔 숙련도를 정밀하게 평가받을 수 있고, 사용자는 스캔 숙련도를 단기간에 향상시킬 수 있는 기술적 이점 또한 가진다. 또한, 사용자는 스캔 난이도를 선택하여 점차적으로 높은 스캔 난이도에 도전할 수 있으며, 자연스럽게 사용자의 스캔 숙련도가 향상되는 이점이 있다.
이하에서는, 본 발명에 따른 데이터 처리 방법이 수행되는 데이터 처리 시스템에 대해 설명한다. 한편, 본 발명에 따른 데이터 처리 시스템을 설명함에 있어, 전술한 본 발명에 따른 데이터 처리 방법에서 이미 설명된 내용은 간략하게 언급하거나, 그 기재를 생략할 수 있다.
도 19는 본 발명에 따른 데이터 처리 방법이 수행되는 데이터 처리 시스템의 개략적인 구성도이고, 도 20은 본 발명에 따른 데이터 처리 시스템 중 평가요소 측정부의 개략적인 구성도이다.
도 19 및 도 20을 참조하면, 본 발명에 따른 데이터 처리 방법이 수행되는 데이터 처리 시스템(900)은 스캔부(910), 제어부(920), 및 디스플레이부(930)를 포함할 수 있다.
스캔부(910)는 전술한 트레이닝 모델을 감지할 수 있는 카메라를 내장할 수 있고, 트레이닝 모델을 스캔하여 복수의 스캔 샷을 포함하는 스캔 데이터를 획득할 수 있다. 필요에 따라(910), 스캔부(910)는 트레이닝 모델을 조명하기 위한 광 프로젝터를 추가로 구비할 수도 있다. 예시적으로, 스캔부(910)는 핸드헬드 형태의 3차원 스캐너일 수 있다. 스캔부(910)는 트레이닝 모델을 나타내는 이미지 데이터를 획득할 수 있고, 스캔부(910)는 획득한 이미지 데이터를 제어부(920)로 전송할 수 있다.
제어부(920)는 스캔부(910)로부터 입력된 이미지 데이터를 이용하여 소정 연산 처리를 수행할 수 있다. 예시적으로, 제어부(920)는 연산 처리가 가능한 마이크로프로세서(microprocessor)를 포함할 수 있다. 또한, 제어부(920)는 스캔부(910) 및 디스플레이부(930)와 통신할 수 있다. 스캔부(910)는 제어부(920)와 유선 또는 무선 연결되어 데이터 통신할 수 있다.
제어부(920)는 데이터베이스부(921)를 포함할 수 있다. 데이터베이스부(921)는 트레이닝 모델의 샘플 데이터, 스캔 샷의 얼라인 로직, 3차원 모델 생성 로직, 평가 임계값 데이터, 표식 데이터 생성 로직, 평가요소 측정 로직, 스캔 데이터 등을 저장할 수 있다. 데이터베이스부(921)는 제어부(920)의 각 부 구성이 필요한 데이터를 제공할 수 있다. 한편, 샘플 데이터는 데이터베이스부(921)에 기저장될 수도 있고, 다운로드될 수도 있다.
제어부(920)는 얼라인부(922)를 포함할 수 있다. 얼라인부(922)는 복수의 스캔샷 형태로 입력되는 스캔 데이터에서, 스캔샷 간의 얼라인을 수행할 수 있다. 또한, 얼라인부(922)는 전술한 샘플 데이터의 얼라인 가능 영역에서 스캔 데이터와 샘플 데이터의 얼라인을 수행할 수 있다.
또한, 제어부(920)는 3차원 모델 생성부(923)를 포함할 수 있다. 3차원 모델 성부(923)는 획득된 스캔 데이터를 3차원 모델로 머징할 수 있다.
또한, 제어부(920)는 평가요소 측정부(924)를 포함할 수 있다. 평가요소 측정부(924)는 획득된 스캔 데이터와 관련한 평가요소 측정값을 수집할 수 있다. 전술한 바와 같이, 평가요소는 스캔 시간, 스캔 진행도, 임계 신뢰도를 만족하는 복셀 데이터의 비율, 공백 영역의 수, 매칭 비율을 포함할 수 있다. 평가요소 측정값은 각각의 평가요소 측정값을 수집하는 로직에 따라 수집될 수 있다.
예시적으로, 평가요소 측정부(924)는 스캔 시간 측정부(9241), 스캔 진행률 측정부(9242), 신뢰도 측정부(9243), 공백 영역 측정부(9244), 및 매칭 비율 측정부(9245)를 포함할 수 있다. 스캔 시간 측정부(9241)는 스캔 트레이닝을 위한 스캔 시작 시간과 스캔 종료 시간 사이의 경과 시간을 획득할 수 있다. 스캔 진행률 측정부(9242)는 스캔 샷과 표식 데이터 간의 거리를 기초로 획득될 수 있으며, 스캔 진행률이 획득되는 과정에 대해서는 전술한 바와 동일하다.
또한, 신뢰도 측정부(9243)는 스캔 데이터의 신뢰도를 수집할 수 있다. 스캔 데이터의 신뢰도는 사용자가 충분한 신뢰도를 가지는 스캔 데이터를 획득하였는지 여부를 나타낼 수 있다. 공백 영역 측정부(9244)는 사용자의 스캔 과정에서 획득되지 않은 데이터 공백 영역의 수, 또는 공백 영역의 크기를 수집할 수 있다. 공백 영역은 스캔 데이터에서 폐루프 영역의 형태로 나타날 수 있다.
또한, 매칭 비율 측정부(9245)는 스캔 데이터와 샘플 데이터가 유사하게 매칭되었는지 나타내는 매칭 비율을 수집할 수 있다. 매칭 비율을 획득하는 과정은 전술한 내용과 동일한 바, 상세한 설명은 생략하기로 한다.
한편, 제어부(920)는 평가부(925)를 포함할 수 있다. 평가부(925)는 평가요소 측정부(924)에서 수집된 평가요소 측정값을 데이터베이스부(921)에 저장된 평가 임계값과 비교할 수 있다. 이 때, 평가부(925)는 사용자가 선택한 스캔 난이도에 따라 상이한 평가 임계값을 설정할 수 있다. 평가부(925)는 복수의 평가요소에 대해 수집된 평가요소 측정값을 종합하여 사용자의 실력을 평가할 수 있다. 예시적으로, 평가 결과는 방사형 그래프, 수치 등으로 표시될 수 있다.
한편, 제어부(920)의 동작 수행 과정들 중 적어도 일부는 디스플레이부(930)를 통해 표시될 수 있다. 디스플레이부(930)는 알려진 시각적 표시 장치가 사용될 수 있다. 예시적으로, 디스플레이부(930)는 모니터, 태블릿, 터치 스크린 중 적어도 하나가 사용될 수 있으나, 나열된 예시에 한정되지 않는다. 사용자는 디스플레이부(930)를 통해 스캔 트레이닝 과정, 및 스캔 트레이닝 결과를 용이하게 확인할 수 있으며, 사용자의 스캔 숙련도를 효율적으로 향상시키는 이점이 있다.
전술한 바와 같은 본 발명에 따른 데이터 처리 시스템은, 본 발명에 따른 데이터 처리 방법을 수행하므로, 데이터 처리 방법이 가지는 특징 및 이점을 공유한다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
본 발명은, 유저 인터페이스에 로드되어 제공되는 샘플 데이터와, 사용자가 트레이닝 모델을 스캔하여 획득하는 스캔 데이터를 매칭하여 스캔 데이터를 평가함으로써 사용자의 스캔 숙련도를 향상시키는 데이터 처리 방법을 제공한다.

Claims (22)

  1. 트레이닝 모델에 대응되는 샘플 데이터의 적어도 일부를 유저 인터페이스에 로드하는 단계;
    상기 트레이닝 모델을 스캔하여 획득한 스캔 데이터를 상기 샘플 데이터에 매칭시키는 단계; 및
    상기 스캔 데이터와 상기 샘플 데이터의 매칭 결과에 기초하여, 상기 스캔 데이터를 평가하는 단계; 를 포함하는 것을 특징으로 하는 데이터 처리 방법.
  2. 청구항 1에 있어서,
    상기 샘플 데이터는 상기 스캔 데이터와 얼라인되는 얼라인 가능 영역과 상기 스캔 데이터와 얼라인되지 않는 얼라인 불가 영역을 포함하는 것을 특징으로 하는 데이터 처리 방법.
  3. 청구항 2에 있어서,
    상기 얼라인 가능 영역은 상기 트레이닝 모델의 적어도 일 부분의 형상 정보를 포함하는 복셀 데이터로 형성되는 것을 특징으로 하는 데이터 처리 방법.
  4. 청구항 2에 있어서,
    상기 트레이닝 모델은 상기 얼라인 가능 영역에 대응되는 초기 스캔 위치를 가지고,
    상기 초기 스캔 위치를 스캔하여 획득한 상기 스캔 데이터는 상기 샘플 데이터에 얼라인되는 것을 특징으로 하는 데이터 처리 방법.
  5. 청구항 2에 있어서,
    상기 스캔 데이터는 복수의 스캔 샷들을 포함하며,
    상기 트레이닝 모델 중 상기 얼라인 가능 영역에 대응되는 부분에서 획득된 스캔 샷들은 상기 샘플 데이터에 얼라인되고,
    상기 트레이닝 모델 중 상기 얼라인 불가 영역에 대응되는 부분에서 획득된 스캔 샷들은 상호 얼라인되는 것을 특징으로 하는 데이터 처리 방법.
  6. 청구항 1에 있어서,
    상기 로드하는 단계는,
    초기 표식 유닛을 포함하는 표식 데이터를 상기 샘플 데이터 상에 함께 로드하는 것을 특징으로 하는 데이터 처리 방법.
  7. 청구항 6에 있어서,
    상기 표식 데이터는 상기 스캔 데이터를 획득하기 위한 기설정된 스캔 경로를 나타내는 것을 특징으로 하는 데이터 처리 방법.
  8. 청구항 6에 있어서,
    상기 초기 표식 유닛이 표시될 때, 상기 트레이닝 모델 중 상기 초기 표식 유닛에 대응되는 부분에서 획득된 스캔 샷은 상기 스캔 데이터를 생성할 때 사용되고,
    상기 트레이닝 모델 중 상기 초기 표식 유닛에 대응되지 않는 부분에서 획득된 스캔 샷은 상기 스캔 데이터를 생성할 때 사용되지 않는 것을 특징으로 하는 데이터 처리 방법.
  9. 청구항 6에 있어서,
    상기 표식 데이터는 복수의 표식 유닛들을 포함하며,
    상기 표식 유닛들 중 적어도 일부는 상기 샘플 데이터로부터 소정 거리 이격 형성되는 것을 특징으로 하는 데이터 처리 방법.
  10. 청구항 6에 있어서,
    획득된 상기 스캔 데이터를 기초로 상기 트레이닝 모델의 스캔 진행률을 계산하는 단계; 를 더 포함하는 것을 특징으로 하는 데이터 처리 방법.
  11. 청구항 10에 있어서,
    상기 스캔 진행률은 상기 스캔 데이터를 구성하는 스캔 샷과 상기 표식 데이터 간의 거리가 소정 임계값 이내인 경우 증가하는 것을 특징으로 하는 데이터 처리 방법.
  12. 청구항 11에 있어서,
    상기 스캔 진행률은 상기 표식 데이터가 포함하는 복수의 표식 유닛들 각각이 가지는 임계 스캔 샷의 수를 기초로, 표식 유닛 단위로 증가하는 것을 특징으로 하는 데이터 처리 방법.
  13. 청구항 11에 있어서,
    상기 스캔 샷과 상기 표식 데이터 간의 거리는, 상기 스캔 샷의 윤곽을 형성하는 바운딩 박스의 중심과 상기 표식 데이터의 윤곽을 형성하는 바운딩 박스의 중심 사이의 거리인 것을 특징으로 하는 데이터 처리 방법.
  14. 청구항 10에 있어서,
    상기 표식 데이터는 기설정된 스캔 경로를 나타내기 위해 적어도 일부가 표시되고,
    상기 스캔 진행률은 상기 표식 데이터가 표시된 부분에 대응되는 스캔 샷을 획득한 경우 증가하는 것을 특징으로 하는 데이터 처리 방법.
  15. 청구항 9에 있어서,
    표시된 표식 유닛에 대응되는 상기 스캔 데이터가 임계 스캔 샷 이상 획득되면 후속 표식 유닛이 표시되는 것을 특징으로 하는 데이터 처리 방법.
  16. 청구항 1에 있어서,
    상기 평가하는 단계는,
    상기 스캔 데이터와 관련한 적어도 하나의 평가요소를 통해 상기 스캔 데이터를 평가하는 것을 특징으로 하는 데이터 처리 방법.
  17. 청구항 16에 있어서,
    상기 평가요소는 사용자로부터 입력받은 난이도 정보에 따라 기설정된 평가 임계값을 할당받는 것을 특징으로 하는 데이터 처리 방법.
  18. 청구항 16에 있어서,
    상기 평가요소는 스캔 시간, 임계 신뢰도를 만족하는 복셀 데이터의 비율, 공백 영역의 수, 및 상기 스캔 데이터와 상기 샘플 데이터 간의 매칭 비율 중 적어도 하나를 포함하는 것을 특징으로 하는 데이터 처리 방법.
  19. 청구항 18에 있어서,
    상기 매칭 비율은 상기 스캔 데이터의 소정 영역에 대한 상기 스캔 데이터와 상기 샘플 데이터의 매칭 영역의 비율이며,
    상기 매칭 영역은 상기 샘플 데이터와 상기 스캔 데이터의 편차가 소정 임계값 이하인 상기 스캔 데이터의 영역인 것을 특징으로 하는 데이터 처리 방법.
  20. 청구항 18에 있어서,
    상기 매칭 비율은 상기 스캔 데이터 중 치아를 나타내는 영역에 대해 획득되는 것을 특징으로 하는 데이터 처리 방법.
  21. 청구항 1에 있어서,
    상기 매칭시키는 단계는,
    상기 샘플 데이터에 포함된 복수의 지점들로부터 광선을 생성하는 단계;
    상기 광선이 도달한 상기 스캔 데이터의 지점들과의 거리 편차를 획득하는 단계;
    상기 거리 편차에 따라 상기 스캔 데이터와 상기 샘플 데이터 간의 매칭 레벨을 분류하는 단계; 및
    상기 매칭 레벨을 기초로 매칭 비율을 획득하는 단계;를 포함하는 것을 특징으로 하는 데이터 처리 방법.
  22. 청구항 21에 있어서,
    상기 복수의 지점들은 상기 샘플 데이터 중 치아를 나타내는 치아 영역, 및 상기 치아 영역으로부터 소정 거리 확장된 일부 치은 영역을 포함하는 트리밍된 구강 샘플 데이터에 포함되는 것을 특징으로 하는 데이터 처리 방법.
PCT/KR2022/000321 2021-01-08 2022-01-07 데이터 처리 방법 WO2022149915A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP22736892.5A EP4258245A1 (en) 2021-01-08 2022-01-07 Data processing method
US18/219,490 US20230346524A1 (en) 2021-01-08 2023-07-07 Data processing method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20210002772 2021-01-08
KR10-2021-0002772 2021-01-08
KR1020220002560A KR102593160B1 (ko) 2021-01-08 2022-01-07 데이터 처리 방법
KR10-2022-0002560 2022-01-07

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/219,490 Continuation US20230346524A1 (en) 2021-01-08 2023-07-07 Data processing method

Publications (1)

Publication Number Publication Date
WO2022149915A1 true WO2022149915A1 (ko) 2022-07-14

Family

ID=82358224

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/000321 WO2022149915A1 (ko) 2021-01-08 2022-01-07 데이터 처리 방법

Country Status (2)

Country Link
US (1) US20230346524A1 (ko)
WO (1) WO2022149915A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140039468A (ko) * 2012-09-24 2014-04-02 플랜트에셋 주식회사 레이저 스캐너를 이용한 플랜트 구조물의 품질 및 시공성 검사방법
KR20200042068A (ko) * 2018-10-12 2020-04-23 주식회사 화승알앤에이 측정 대상의 3d 모델과 측정 대상에 대한 3d 스캔 데이터 간의 오차를 추출하는 방법
US20200193871A1 (en) * 2015-01-27 2020-06-18 Align Technology, Inc. Training method and system for oral-cavity-imaging-and-modeling equipment
KR20200099997A (ko) * 2019-02-15 2020-08-25 주식회사 메디트 신뢰도를 포함하는 스캔 데이터 표시 방법
US20200352686A1 (en) * 2019-05-07 2020-11-12 SmileDirectClub LLC Scanning device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140039468A (ko) * 2012-09-24 2014-04-02 플랜트에셋 주식회사 레이저 스캐너를 이용한 플랜트 구조물의 품질 및 시공성 검사방법
US20200193871A1 (en) * 2015-01-27 2020-06-18 Align Technology, Inc. Training method and system for oral-cavity-imaging-and-modeling equipment
KR20200042068A (ko) * 2018-10-12 2020-04-23 주식회사 화승알앤에이 측정 대상의 3d 모델과 측정 대상에 대한 3d 스캔 데이터 간의 오차를 추출하는 방법
KR20200099997A (ko) * 2019-02-15 2020-08-25 주식회사 메디트 신뢰도를 포함하는 스캔 데이터 표시 방법
US20200352686A1 (en) * 2019-05-07 2020-11-12 SmileDirectClub LLC Scanning device

Also Published As

Publication number Publication date
US20230346524A1 (en) 2023-11-02

Similar Documents

Publication Publication Date Title
US7065243B2 (en) Method and system for creating dental models from imagery
WO2018066764A1 (ko) 임플란트 진단용 영상 생성 시스템 및 그 생성방법
WO2018066765A1 (ko) 모바일 연동 임플란트 진단 시스템
WO2021242050A1 (ko) 구강 이미지의 처리 방법, 그에 따른 동작을 수행하는 구강 진단 장치, 및 그 방법을 수행하는 프로그램이 저장된 컴퓨터 판독 가능 저장 매체
CN109793482B (zh) 口腔扫描装置及其控制方法
WO2022075624A1 (ko) 인공치아 구조물을 디스플레이하는 디바이스, 방법 및 이를 실행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체
WO2022085966A1 (ko) 구강 이미지 처리 장치 및 구강 이미지 처리 방법
WO2022149915A1 (ko) 데이터 처리 방법
WO2014189315A1 (ko) 골프 스윙에 대한 정보제공을 위한 골프 연습 시스템, 서버 및 이를 이용한 골프 스윙에 대한 정보 처리방법
WO2016105102A1 (ko) 근골격계 질환의 발생가능성의 판단 장치 및 방법
WO2022092627A1 (ko) 3차원 모델로부터 대상체 영역을 결정하는 방법 및 3차원 모델 처리 장치
CN113518579A (zh) 口腔和印模的复合扫描系统及方法
WO2020209496A1 (ko) 치아 오브젝트 검출 방법 및 치아 오브젝트를 이용한 영상 정합 방법 및 장치
WO2020185019A1 (ko) 디지털 스캔바디 정렬 방법 및 이를 이용하는 장치
WO2021215843A1 (ko) 구강 영상의 마커 검출 방법 및 이를 이용한 구강 영상 정합 장치 및 방법
WO2022098039A1 (ko) 데이터 처리 방법
WO2019088343A1 (ko) 아크라인에 기초한 보철물 디자인 방법 및 시스템
JPH0910232A (ja) 歯冠補綴物の製作方式
WO2021215816A1 (ko) 얼라인 상태 표현 장치 및 방법
WO2020185015A1 (ko) 치아 보철 제조를 위한 3차원 스캔 데이터 처리 방법
WO2020235784A1 (ko) 신경 검출 방법 및 장치
JP7170892B2 (ja) 口腔および印象の複合スキャンシステムおよび方法
JP3855254B2 (ja) 変位センサ
WO2022197016A1 (ko) 데이터 처리 방법
KR20220100534A (ko) 데이터 처리 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22736892

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022736892

Country of ref document: EP

Effective date: 20230706

NENP Non-entry into the national phase

Ref country code: DE