WO2021133099A2 - 그룹 데이터에 의한 정렬 방법 - Google Patents

그룹 데이터에 의한 정렬 방법 Download PDF

Info

Publication number
WO2021133099A2
WO2021133099A2 PCT/KR2020/019090 KR2020019090W WO2021133099A2 WO 2021133099 A2 WO2021133099 A2 WO 2021133099A2 KR 2020019090 W KR2020019090 W KR 2020019090W WO 2021133099 A2 WO2021133099 A2 WO 2021133099A2
Authority
WO
WIPO (PCT)
Prior art keywords
data
image data
group data
group
alignment
Prior art date
Application number
PCT/KR2020/019090
Other languages
English (en)
French (fr)
Other versions
WO2021133099A3 (ko
Inventor
이동훈
Original Assignee
주식회사 메디트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메디트 filed Critical 주식회사 메디트
Priority to CN202080090581.6A priority Critical patent/CN114901204A/zh
Priority to EP20906611.7A priority patent/EP4062865A2/en
Publication of WO2021133099A2 publication Critical patent/WO2021133099A2/ko
Publication of WO2021133099A3 publication Critical patent/WO2021133099A3/ko
Priority to US17/848,421 priority patent/US20220335628A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/0003Making bridge-work, inlays, implants or the like
    • A61C13/0004Computer-assisted sizing or machining of dental prostheses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/34Making or working of models, e.g. preliminary castings, trial dentures; Dowel pins [4]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C19/00Dental auxiliary appliances
    • A61C19/04Measuring instruments specially adapted for dentistry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/32Image data format
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Definitions

  • the present invention is an alignment method by group data (ALIGNING METHOD BY GROUPED DATA), and more specifically, when 3D volume data is not connected in the alignment process while scanning the inside of the oral cavity, a new group is created to continuously scan It relates to the sorting method to perform.
  • alginate alginate
  • the obtained mold was poured with plaster, etc. to produce a model of the patient's teeth.
  • the accuracy of the model may be a problem, and if a precise model cannot be produced, there is a disadvantage in that it becomes difficult to customize treatment for the patient in the production of a prosthetic treatment to be applied to the patient.
  • the inside of the patient's mouth is scanned using a 3D scanner, and the scanned portion is obtained as 3D data, so accurate dimensions and shape of the inside of the mouth can be obtained, and the user can accurately diagnose the patient. and able to provide appropriate prosthetic treatment to patients.
  • an intraoral scanner is held by a user (a therapist, usually used by a dentist), and a part of the scanner is drawn in or out of the oral cavity to examine the patient's affected part (teeth, gums, etc. inside the oral cavity). may be included).
  • the oral scanner acquires the patient's affected area as image data, converts it into 3D volume data using the brightness information of each data, and aligns the overlapping parts to finally create one 3 Create a dimensional model.
  • one 3D model may mean the entire oral model data of the patient obtained by photographing the maxilla, the mandible, and the occlusal state of the patient.
  • the alignment process if the user does not closely scan, the alignment may be interrupted. When the alignment is broken, the coupling between the three-dimensional volume data becomes incomplete, and there is a problem in that the precision of the patient's entire oral model data is lowered.
  • the present invention converts an image acquired from an imaging unit into 3D volume data and performs alignment, by newly creating and separating a group in which data is stored when alignment is not performed for a predetermined time or more, thereby at least one or more data This is to provide a sorting method by group data in which data is classified into groups and data gaps occurring between data group data are supplemented with an additional alignment step.
  • the method for sorting by group data includes the steps of: generating first group data including at least one first image data; determining whether second image data is aligned with the first group data; When second image data is aligned with the first group data, including the second image data in the first group data; if the second image data is not aligned with the first group data, the second image It may include generating second group data to include data, and merging the first group data and the second group data.
  • first image data and the second image data may be converted into 3D volume data.
  • the step of attempting the alignment includes checking whether the second image data is aligned with the first group data for a predetermined time, and checking whether the second image data is aligned.
  • the method may include updating the number of alignment attempts when data is not aligned with the first group data.
  • the operation may return to the step of determining whether the alignment is performed.
  • the second group data may be generated to include the second image data.
  • the combining of the first group data and the second group data may include at least a partial region of the first image data included in the first group data and the second image included in the second group data. At least some areas of data may be aligned.
  • first image data and the second image data may be aligned through third image data overlapping at least a partial area of the first image data and at least a partial area of the second image data, respectively.
  • the alignment method by group data includes an image generating step of acquiring image data according to a scan path, and an alignment in which the image data continuously acquired according to the scan path are arranged to be connected to each other.
  • group data storage step of grouping and categorizing and storing the image data based on a point where the image data is not connected to each other, and aligning two or more data of the group data to be connected to each other
  • the reduction may include a reconnection determination step.
  • a point at which the image data is not connected to each other in the storing of the group data may be determined according to the overlapping range of the continuous image data.
  • the scan path may include a plurality of paths, the plurality of paths may have different start and end points, and the plurality of paths may have overlapping scan areas in at least some sections.
  • the number of group data stored according to the group data storage step may have a number corresponding to the plurality of scan paths.
  • a point at which the image data is not connected to each other in the aligning step may be an end point of each of the scan paths.
  • the method may further include displaying, on a display, a point where the image data is not connected to each other between the group data.
  • FIG. 1 is a flowchart of a method for sorting by group data according to the present invention.
  • FIG. 2 is a flowchart of a method for sorting by group data according to the present invention.
  • FIG. 3 is a flowchart of a method for sorting by group data according to the present invention.
  • FIG. 4 is a diagram conceptually illustrating an embodiment of a method for sorting by group data according to the present invention.
  • FIG. 5 is a diagram conceptually illustrating an embodiment of a method for sorting by group data according to the present invention.
  • FIG. 6 is a diagram conceptually illustrating an embodiment of a method for sorting by group data according to the present invention.
  • FIG. 7 is a flowchart of a method for sorting by group data according to another embodiment of the present invention.
  • FIG. 8 is a flowchart of a method for sorting by group data according to another embodiment of the present invention.
  • 1 to 3 are flowcharts of a method for sorting by group data according to the present invention.
  • the method for sorting by group data includes an initial group data generation step S1 in which initial group data is generated.
  • a user usually a person who treats the disease, can be a dentist
  • uses a scanner to view the patient's affected part in the present invention, it usually means the inside of the patient's mouth, and must be photographed for treatment such as implants, crowns, orthodontics
  • the first group data is created.
  • the point at which the initial group data is generated may be performed by a processor embedded in the scanner, or may be performed by a processor embedded in a personal computer connected to the scanner.
  • the initial group data is generated in a processor formed inside the scanner.
  • the first group data since the first group data has the meaning of the first group data, in the following description, it may be used interchangeably with the first group data for convenience.
  • the imaging unit may include a single camera configured with one camera, or may include a multi-camera including two or more cameras.
  • the imaging unit includes two or more multi-cameras, since two or more images can be acquired for one viewpoint, there is an advantage in that more precise image data can be acquired.
  • the light incident to the camera may be generated as image data by an imaging sensor electrically connected to the camera (S2).
  • the image data may be in the form of a two-dimensional image or may be voxel data that is three-dimensional volume data.
  • the image data generated by the imaging sensor may be categorized and stored as initial group data (S3). That is, when image data is generated by photographing, the generated image data is categorized and stored as initial group data (or first group data).
  • the path where the image data is stored may be a storage device of a personal computer separated from the scanner, or a storage unit built into the scanner itself.
  • the first group data storage step S3 may include a 3D data conversion step S31 of converting the image data obtained in the image generating step S2 into 3D volume data.
  • the 3D data conversion step S31 may be voxel data including brightness information in a pixel having a volume by utilizing brightness information of a corresponding part from the 2D image data obtained from the imaging unit.
  • the 3D volume data formed in the 3D data conversion step S31 may be aligned so that overlapping portions are connected to form a larger data mass (S32). In this case, the alignment may mean that two or more 3D volume data are merged into one 3D volume data having a larger volume by a connection between the 3D volume data.
  • a three-dimensional volume data set for one entire mandible, a three-dimensional volume data set for one entire maxilla, and a three-dimensional volume data set for occlusion can be formed, and these data sets are combined to form One complete data set of the patient's oral model can be achieved.
  • the 3D data conversion may be performed by an external processor that is formed outside the scanner, is electrically connected to the scanner, and receives image data captured and generated by the scanner.
  • a continuous alignment process may not be performed in order to discriminate the scan immature or intentional of the user.
  • an alignment result according to a user's scan may be displayed on the display unit as a screen having a red border.
  • additional data is not obtained unless 3D volume data is generated by scanning a portion overlapping with an existing scan area that can be aligned.
  • the method for sorting by group data determines disconnection by determining whether the state in which the alignment is not performed continues for more than a predetermined time while the 3D volume data are connected to each other in the alignment step. It may further include a step (S4).
  • the fact that the state in which the alignment is not performed continues for more than a certain time means that the existing 3D volume data is formed and the alignment is performed by the overlapping data portion, but the overlapping data portion does not appear, so that the data overlap and alignment are not performed. It means that it is not being performed.
  • the predetermined time may mean a specific time preset in the program, but preferably, it may be set as an interval at which it is determined that the alignment process is not reasonably performed while the user performs a scan.
  • the expression "disconnect” used in this specification does not mean a state in which the scanner equipment is not electrically connected to a personal computer, server, or power source, and there is no overlapping part between the three-dimensional volume data. It should be interpreted as meaning a state in which the connection between the two does not occur. Meanwhile, since the connection between 3D volume data is performed on an external processor, whether to determine disconnection may also be performed on the external processor.
  • the disconnect determination step (S4) if it is determined that the state in which the three-dimensional volume data is not connected to each other because there is no overlapping portion with each other continues for a certain period of time or more, the data collection of the first group data (the first group data) is terminated, and the last It can be set as the last data for 3D volume data connected by
  • 4 to 6 are diagrams conceptually illustrating an embodiment of a method for sorting by group data according to the present invention.
  • new (new) group data may be generated ( S5 ).
  • new group data generated immediately after the first group data may be named as second group data.
  • the second group data may form a data set formed to be spaced apart from the first group data.
  • the image data generated by the imaging unit of the scanner is now categorized and stored as the new group data (S6). That is, the image data generated after the second group data is generated may be categorized and stored as the second group data. In this way, if the image data is categorized and stored as the second group data in a chain, and it is determined that the 3D volume data does not overlap with each other and the state in which it is not connected continues for a certain period of time or more (disconnect determination step), the first The storage of the image data as the second group data is finished, the third group data is generated, and the image data generated thereafter is categorized as the third group data and stored.
  • These group data may be stored in a storage device of a personal computer separated from the scanner, or may be stored in a storage unit built into the scanner itself.
  • first group data and new group data are continuously generated, data is intermittently collected even if the alignment process is not continuously performed. do.
  • intermittent means that data is not overlapped between each group data, and since the alignment step is performed between 3D volume data in each group data, continuity is obtained.
  • the user since the user must ultimately acquire the patient's full oral model data, it is necessary to fill the data gap (B) between each group data through subsequent scans.
  • the method for sorting by group data may further include a reconnection determination step (S7) of checking whether the data of the original group data and the new group data overlap.
  • S7 a reconnection determination step of checking whether the data of the original group data and the new group data overlap.
  • the user performs measurement from right to left based on FIG. 4 .
  • the image data of the first first group data 11 is converted into volume data and aligned, and thereafter, new second group data 21 is generated through a disconnect determination step, and a second group data storage step is performed. is started, and image data generated after the second group data storage step is started is categorized and stored as the second group data 21 .
  • a portion of the first group data 11 and the second group data 21 in which data is not generated because it is not photographed remains as a data blank (B).
  • a data blank B is left between the second group data 21 and the third group data 31 .
  • the user performs a scan again from left to right to compensate for this data gap (B).
  • the fourth group data 41 , the fifth group data 51 , and the sixth group data 61 are generated, the data gap B existing between the respective group data 11 , 21 , 31 , 41 , 51 , 61 is generated. ), as a result, it is possible to acquire the patient's entire oral model data.
  • first group first data 12I data initially generated from the first group data 12
  • first group first data 12I data initially generated from the first group data 12
  • the first first group data 22 is finally generated before the second group data 22 is generated.
  • the 3D volume data generated and stored in the group data 12 becomes the first group final data 12F.
  • the first generated data of the second group data 22 is the second group first data 22I
  • the third group data 32 is generated and stored in the last second group data 22 when the third group data 32 is generated.
  • the volume data becomes the second group final data 22F.
  • the third group initial data 32I overlaps with the first group data 12 generated as three-dimensional volume data previously photographed.
  • the first group data 12 and the three-dimensional volume data can be connected to each other (additional alignment step S8), and the previously existing first group data 12 and the first group data 12
  • the data gap B between the two groups of data 22 may be supplemented.
  • the new group data overlaps the 3D volume data of previously generated group data ( S7 ).
  • the first data 32I of the third group data 32 overlaps the three-dimensional volume data of the first group data 12
  • ) is overlapped with the 3D volume data of the second group data 22 and additional alignment is performed to compensate the data blank (B) portion (S8).
  • the data gap (B) is supplemented and minimized to improve the reliability of the data acquired through the scanner. have.
  • the new group data storage step (S6) or the additional alignment step (S8) is being performed, the step of continuously converting and aligning the image data acquired by the scanner into 3D volume data may be performed again (S10) ). Meanwhile, determination of reconnection, performing additional alignment, etc. may be performed together on an external processor that determines disconnect and performs alignment.
  • the first group data 13 , the second group data 23 , and the third group data 33 are generated and the scan is performed, but data between each classification 13 , 23 , and 33 is generated.
  • a blank (B) occurred. Accordingly, the user had to scan a large area again after the conventional alignment error occurrence part, but between the first group data and the second group data (B) in which a data gap (B) occurred due to the group data alignment method according to the present invention. 13 and 23), and between the second group data and the third group data (between 23 and 33) have the advantage of minimizing the range to be scanned.
  • an image generating step ( S110 ) of acquiring image data according to a scan path, and image data continuously acquired according to a scan path are It may include an alignment step (S120) in which they are aligned to be connected to each other.
  • image data for the scan target part meaning the parts inside the oral cavity
  • the image data may be image data in which the light reflected from the scan target portion is incident into the intraoral scanner, and digitalized through the imaging unit formed inside the oral scanner.
  • the generated image data may be stored in a storage unit that may be formed inside the scanner or an external storage device.
  • the group data storage step of classifying and storing the image data into different groups based on the point where the image data is not connected to each other may be further included.
  • the connection and alignment between the image data cannot be performed because sufficient scanning is not performed to form an overlapping portion between the image data. That is, in the sorting method by group data according to another embodiment of the present invention, regardless of whether the connection state of the image data continues for a certain period of time, the overlapping range of the image data is not sufficiently formed so that a data gap (B) occurs.
  • a case can be defined as a disconnect.
  • the generated group data may be stored in a storage unit that may be formed inside the scanner or an external storage device.
  • the intraoral scanner categorizes and stores the image data connected before the disconnected state as nth group data, and stores the image data after the disconnected state as (n+1)th group data It can be categorized and saved as .
  • n may be any natural number, meaning that a plurality of group data may be included from the first group data until the final scan is performed.
  • group data is divided before and after the point in time when the disconnected state is determined, and the image data acquired just before the disconnected state is determined becomes the final data of the corresponding group data, and immediately after the disconnected state is determined.
  • the image data acquired in becomes the first data of the corresponding group data. If this is interpreted in terms of a scan path, the point scanned just before the disconnect state determination is recognized as the end point of the corresponding scan path, and the point scanned immediately after the disconnect state determination is recognized as the start point of the corresponding scan path. . Also, if the disconnected state is determined and divided into different group data, it means that the two classifications have different starting points and ending points. This means that the disconnected point becomes the end point of each scan path.
  • categorizing into a plurality of group data separates scan paths between each group data, so the number of group data stored in the group data storage step will soon correspond to the number of scan paths.
  • a disconnect occurs at the end point 12F of the scan path corresponding to the first group 12 to create the first group 12
  • the end of the scan path corresponding to the second group 22 Disconnect occurs at point 22F to create a second group
  • disconnect occurs at end point 32F of the scan path corresponding to third group 32 to create third group 32 it has become
  • the group data may have a total of three.
  • image data corresponding to subsequent group data may have a portion overlapping with image data corresponding to previous group data. That is, this means that the plurality of scan paths may have scan areas overlapping each other in at least some sections, and in this case, the data blank B may be filled.
  • scan paths are intentionally divided according to user convenience (ie, scan corresponding to the first group data 12 ).
  • the second scan is performed with the scan path corresponding to the second group data 22, and finally, the third scan may be performed with the scan path corresponding to the third group data 32)
  • at least two or more scan paths may have overlapping scan areas, and thereby the data blank B may be filled.
  • the data gap (B) As described above, if the data gap (B) is filled, it means that image data can be linked between different group data, and the data of these two or more group data are again checked for the possibility of linking and aligning with each other and aligning them so that they are linked with each other. It may include a reconnection determination step (S140). Depending on the reconnection determination step, data can be supplemented for the part where the data gap (B) occurred, and by performing such continuous scans, the data gap (B) is minimized and, as a result, the complete intraoral model data of the patient is completed. can do.
  • S140 reconnection determination step
  • alignment, disconnection determination, reconnection determination, and data supplementation between the above-described image data or 3D volume data may be performed by an external processor formed outside the scanner.
  • the method of sorting by group data according to another embodiment of the present invention may further include displaying on the display a data gap (B) occurrence point where image data is not connected to each other between group data.
  • a data gap (B) occurrence point where image data is not connected to each other between group data.
  • FIG. 6 it can be seen that the data blank (B) occurrence point is displayed in an arrow shape.
  • the display may mean a display device electrically connected to a scanner or an external processor, and may be a display device having a screen for notifying a user of whether a data blank B has occurred.
  • FIG. 8 is a flowchart of a method for sorting by group data according to another embodiment of the present invention.
  • generating first group data including at least one first image data ( S210 ), the second image data is It includes a step (S220) of determining whether the data is aligned with one group.
  • the scanning process starts, at least one image data is acquired by the scanner, and the image data may form one or more group data.
  • a category of the first group data is generated, and the image data is included in the first group data as the first image data.
  • the image data (the first image data and the second image data) may be two-dimensional or three-dimensional.
  • At least one first image data may be aligned to form one 3D volume data.
  • the last acquired image data may be aligned together with the 3D volume data formed by aligning the previously acquired image data.
  • 3D volume data can be expanded. That is, one group data may be generated as one 3D volume data by aligning at least one image data. That is, sequentially acquired image data may be aligned to generate one 3D volume data.
  • the first image data is included in the first group data, and the second image data obtained in the scanning process is selected from among the first image data. Alignment with at least one may be determined. For example, it may be determined whether the second image data overlaps at least a portion of the first image data to be connected and aligned.
  • the step of attempting alignment includes checking whether the second image data is aligned with the first group data for a predetermined time ( S231 ).
  • the second image data may be included in the first group data ( S232 ). That is, the second image data may be aligned with at least a portion of the first image data included in the first group data to expand the 3D volume data of the first group data.
  • a data gap may occur because the scan areas do not overlap.
  • Data gaps can occur when the user has not carefully scanned the patient's mouth, or has intentionally not performed consecutive scans.
  • image data acquired before the occurrence of the data gap may be included in any one group data, and image data acquired after the occurrence of the data gap may be included in the new group data.
  • the number of alignment attempts may be updated ( S233 ). For example, the number of initial alignment attempts may be set to 1. At this time, when the second image data is not aligned with the first group data for a predetermined time in the step of checking whether the alignment is performed ( S231 ), the number of alignment attempts may be added by one.
  • the step of checking whether the updated number of align attempts is less than a threshold number may be performed.
  • the threshold number may be 10, and if the updated number of alignment attempts is less than 10, the process returns to the step S231 of checking whether alignment is re-aligned to align the second image data with the first group data. can check whether
  • the attempt to align the second image data with the first group data may be stopped any longer, and new group data may be generated. That is, if the second image data is not aligned with the first group data for a predetermined number of times or for a predetermined time, second group data different from the first group data may be generated to include the second image data ( S235 ). Since the second image data is included in the second group data, the user can continue to scan without necessarily finding a position aligned with the first group data and performing the scan.
  • the limitation condition of the alignment attempt has been described as the number of times, the limitation is not limited thereto, and it is also possible to set the alignment attempt time as a critical condition.
  • the order of updating the number of alignment attempts and checking whether the updated number of alignment attempts is less than the threshold number may be changed.
  • the second image data is not aligned with the first group data in the step of checking whether alignment is performed ( S231 )
  • the step of checking whether alignment is performed S231 ) may be performed again.
  • a user wants to create group data according to his/her intention.
  • the scanning environment illumination, foreign matter, etc.
  • the scanner is moved quickly, data gap may occur momentarily.
  • Generating new group data whenever there is an instantaneous data gap not only goes against the user's will, but also increases the amount of computation for acquiring, aligning, and generating the image data.
  • the scanning speed of the scanner may decrease, and thus the scanning efficiency may decrease.
  • new group data is not immediately generated, and the user's intention can be confirmed through a predetermined number or time of alignment attempts. have. That is, even if an instantaneous alignment failure that a user does not want occurs, if image data aligned with the first group data is input within a predetermined number of alignment attempts or time, it is possible to prevent unnecessary new group data from being generated. .
  • new group data may be generated. For example, when the user scans the right molar part and moves to the left molar part to perform the scan, a data gap may occur between the right molar part and the left molar part. In this case, the image data representing the right molar part and the image data representing the left molar part are not aligned, and this state exceeds the predetermined number or time of alignment attempts. Accordingly, an appropriate number of group data may be generated according to a user's intention by using a predetermined number of times or a predetermined time. A user can perform a scan in any way he or she wants without worrying about alignment, and finally obtain a sophisticated 3D model.
  • the step of combining the second group data and the first group data may be performed.
  • the first image data included in the first group data and the second image data included in the second group data may each form three-dimensional volume data, and the three-dimensional volume data may each form at least a portion of the overall three-dimensional model. configurable. Accordingly, all group data may be aligned to complete one 3D model.
  • first image data included in the first group data and the second image data included in the second group data do not overlap, alignment may not be performed. That is, a data gap may exist between the first group data and the second group data.
  • alignment may be performed through the third image data overlapping at least a partial area of the first image data and at least a partial area of the second image data, respectively.
  • third group data may be generated between the first group data and the second group data, and the third group data may include third image data.
  • the third image data may be aligned with both the first group data and the second group data. Accordingly, the first group data and the second group data may be aligned through the third group data.
  • this is only an example, and a plurality of group data may be generated between the first group data and the second group data to eliminate the data gap.
  • S1 First group category creation step
  • S2 Image creation step
  • the alignment method by group data according to the present invention categorizes the aligned image data into group data even if the image data acquired according to the scanning process are not continuously aligned, A method for obtaining a 3D model is provided.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Epidemiology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 발명에 따른 그룹 데이터에 의한 정렬 방법은 최초 그룹 데이터를 생성하여 3차원 이미지 데이터 생성 및 얼라인 과정을 수행하다가, 일정 시간 이상 3차원 볼륨 데이터가 서로 연결되지 않는 상태가 지속되면 신규 그룹 데이터를 생성함으로써 적어도 하나 이상의 단속적인 그룹 데이터를 생성할 수 있다. 신규 그룹 데이터에 저장되는 3차원 볼륨 데이터가 이전에 생성된 그룹 데이터의 3차원 볼륨 데이터와 중첩되는 부분이 확인되면, 중첩되는 부분을 서로 연결하도록 추가 얼라인 단계가 수행됨으로써 결과적으로 데이터 공백을 보완하고 환자의 전체 구강 모델 데이터를 용이하게 획득할 수 있는 이점이 있다.

Description

그룹 데이터에 의한 정렬 방법
본 발명은 그룹 데이터에 의한 정렬 방법(ALIGNING METHOD BY GROUPED DATA)으로, 보다 상세하게는 구강 내부를 스캔하는 동안 얼라인 과정에서 3차원 볼륨 데이터들이 연결되지 않는 경우 새로운 그룹을 생성하여 계속적으로 스캔을 수행하는 정렬 방법에 관한 것이다.
종래에 알지네이트(alginate)를 이용하여 환자의 구강에 대한 인상채득을 실시하고, 획득한 틀에 석고 등을 부어 환자의 치아 모형을 제작하였다. 다만, 환자의 치아 모형을 제작할 때, 모형의 정확도가 문제될 수 있으며, 정밀한 모형을 제작하지 못할 경우 환자에게 적용할 보철 치료물 제작 등에 있어 환자 맞춤형 치료가 어려워지는 단점이 있다.
최근에는, 환자의 구강 내부를 3차원 스캐너를 이용하여 스캔을 수행하고, 스캔된 부분이 3차원 데이터로 획득되므로 정확한 치수 및 구강 내부의 형상을 얻을 수 있고, 사용자는 환자를 정밀하게 진단할 수 있고 환자에게 적합한 보철 치료를 제공할 수 있게 되었다.
3차원 스캐너 중 구강스캐너(intraoral scanner)는 사용자(치료자, 통상적으로 치과의사가 사용하게 된다)가 파지하고 스캐너의 일부를 구강 내부에 인입 또는 인출하여 환자의 환부(구강 내부의 치아, 잇몸 등을 포함할 수 있다)를 촬영한다. 구강스캐너는 촬영한 환자의 환부를 이미지 데이터로 획득하고, 각 데이터의 밝기 정보 등을 활용하여 3차원 볼륨 데이터로 변환 및 중첩되는 부분들에 대한 얼라인(align)을 수행하여 최종적으로 하나의 3차원 모델을 생성한다. 이 때, 하나의 3차원 모델은 환자의 상악, 하악, 및 교합 상태를 촬영함으로써 획득한 환자의 전체 구강 모형 데이터를 의미할 수 있다. 다만, 얼라인 과정을 수행할 때, 사용자가 면밀히 스캔을 수행하지 않으면 얼라인이 끊기는 경우가 발생할 수 있다. 얼라인이 끊기게 되면 3차원 볼륨 데이터들 간의 결합이 불완전하게 되어 환자의 전체 구강 모형 데이터의 정밀도가 저하되는 문제가 있다.
본 발명은 촬상부로부터 획득한 이미지를 3차원 볼륨 데이터로 변환 및 얼라인을 수행함에 있어서, 일정 시간 이상 얼라인이 수행되지 않는 경우 데이터가 저장되는 그룹을 새로 생성 및 분리함으로써, 적어도 하나 이상의 데이터 그룹으로 데이터가 분류되고 데이터 그룹 데이터 사이에 발생하는 데이터 공백을 추가 얼라인 단계로 보완하는 그룹 데이터에 의한 정렬 방법을 제공하기 위한 것이다.
본 발명에 따른 그룹 데이터에 의한 정렬 방법은, 적어도 하나의 제1 이미지 데이터를 포함하는 제1 그룹 데이터를 생성하는 단계, 제2 이미지 데이터가 상기 제1 그룹 데이터에 얼라인되는지 판단하는 단계, 상기 제2 이미지 데이터가 상기 제1 그룹 데이터에 얼라인되면 상기 제2 이미지 데이터를 상기 제1 그룹 데이터에 포함하는 단계, 상기 제2 이미지 데이터가 상기 제1 그룹 데이터에 얼라인되지 않으면 상기 제2 이미지 데이터를 포함하도록 제2 그룹 데이터를 생성하는 단계, 및 상기 제1 그룹 데이터 및 상기 제2 그룹 데이터를 병합하는 단계를 포함할 수 있다.
또한, 상기 제1 이미지 데이터 및 상기 제2 이미지 데이터는 3차원 볼륨 데이터로 변환될 수 있다.
또한, 상기 얼라인을 시도하는 단계는 소정 시간 동안 상기 제2 이미지 데이터를 상기 제1 그룹 데이터에 얼라인되는지 여부를 확인하는 단계, 및 상기 얼라인되는지 여부를 확인하는 단계에서, 상기 제2 이미지 데이터가 상기 제1 그룹 데이터에 얼라인되지 않는 경우, 얼라인 시도 횟수를 갱신하는 단계를 포함할 수 있다.
또한, 상기 얼라인 시도 횟수가 상기 임계 횟수 미만인 경우, 상기 얼라인되는지 여부를 확인하는 단계로 복귀할 수 있다.
또한, 상기 얼라인 시도 횟수가 상기 임계 횟수 이상인 경우, 상기 제2 이미지 데이터를 포함하도록 상기 제2 그룹 데이터를 생성할 수 있다.
또한, 상기 제1 그룹 데이터 및 상기 제2 그룹 데이터를 결합하는 단계는, 상기 제1 그룹 데이터에 포함된 상기 제1 이미지 데이터의 적어도 일부 영역과, 상기 제2 그룹 데이터에 포함된 상기 제2 이미지 데이터의 적어도 일부 영역이 얼라인될 수 있다.
또한, 상기 제1 이미지 데이터와 상기 제2 이미지 데이터는, 상기 제1 이미지 데이터의 적어도 일부 영역 및 상기 제2 이미지 데이터의 적어도 일부 영역과 각각 중첩되는 제3 이미지 데이터를 통해 얼라인될 수 있다.
한편, 본 발명의 다른 실시예에 따른 그룹 데이터에 의한 정렬 방법은, 스캔 경로에 따라 이미지 데이터를 획득하는 이미지 생성 단계, 상기 스캔 경로에 따라 연속적으로 획득하는 상기 이미지 데이터가 서로 연결되도록 정렬되는 얼라인 단계, 상기 얼라인 단계에서, 상기 이미지 데이터가 서로 연결되지 않는 지점을 기준으로 상기 이미지 데이터를 그룹 데이터화하고 카테고리화 저장하는 그룹 데이터 저장 단계, 및 2 이상의 상기 그룹 데이터의 데이터가 서로 연결되도록 얼라인하는 재연결 판단 단계를 포함할 수 있다.
또한, 상기 그룹 데이터 저장 단계에서 상기 이미지 데이터가 서로 연결되지 않는 지점은 연속하는 상기 이미지 데이터의 중첩 범위에 따라 결정될 수 있다.
또한, 상기 스캔 경로는 복수개의 경로를 포함하고, 상기 복수개의 경로는 서로 다른 시작 지점과 종료 지점을 가지며, 복수개의 경로는 적어도 일부 구간에서 중복되는 스캔 영역을 가질 수 있다.
또한, 상기 그룹 데이터 저장 단계에 따라 저장되는 상기 그룹 데이터의 수는, 상기 복수개의 스캔 경로에 대응하는 수를 가질 수 있다.
또한, 상기 얼라인 단계에서 상기 이미지 데이터가 서로 연결되지 않는 지점은, 각각의 상기 스캔 경로의 종료 지점일 수 있다.
또한, 상기 그룹 데이터 사이에 상기 이미지 데이터가 서로 연결되지 않는 지점을 디스플레이 상에 표시하는 단계를 더 포함할 수 있다.
본 발명에 따른 그룹 데이터에 의한 정렬 방법을 사용함으로써, 모든 데이터가 연속적으로 얼라인 되지 않아도 되고 이후에 추가 얼라인 프로세스가 시행됨으로써 결과적으로 전체 구강 모델 데이터를 도출할 수 있으며, 사용자가 반드시 연속적으로 구강 내부를 스캔해야 하는 부담을 경감시키는 이점이 있다.
또한, 신규 그룹 데이터에 저장되는 이미지 데이터를 이전에 생성된 그룹 데이터들의 이미지 데이터와 비교하여 중첩시킴으로써, 데이터 공백을 보완 및 최소화하여 스캐너를 통해 획득한 데이터의 신뢰성을 향상시키는 이점이 있다.
또한, 데이터 공백이 발생한 그룹 데이터 사이만을 스캔함으로써 사용자가 추가적으로 스캔해야 할 범위를 최소화하는 이점이 있다.
도 1은 본 발명에 따른 그룹 데이터에 의한 정렬 방법에 대한 순서도이다.
도 2는 본 발명에 따른 그룹 데이터에 의한 정렬 방법에 대한 순서도이다.
도 3은 본 발명에 따른 그룹 데이터에 의한 정렬 방법에 대한 순서도이다.
도 4는 본 발명에 따른 그룹 데이터에 의한 정렬 방법에 대한 실시예를 개념적으로 도시한 도이다.
도 5는 본 발명에 따른 그룹 데이터에 의한 정렬 방법에 대한 실시예를 개념적으로 도시한 도이다.
도 6은 본 발명에 따른 그룹 데이터에 의한 정렬 방법에 대한 실시예를 개념적으로 도시한 도이다.
도 7은 본 발명의 다른 실시예에 따른 그룹 데이터에 의한 정렬 방법의 순서도이다.
도 8은 본 발명의 또다른 실시예에 따른 그룹 데이터에 의한 정렬 방법의 순서도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세히 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하에서는 도면을 참조하여 본 발명의 실시예에 대해서 구체적으로 설명하기로 한다.
도 1 내지 도 3은 본 발명에 따른 그룹 데이터에 의한 정렬 방법에 대한 순서도이다.
도 1을 참조하면, 본 발명에 따른 그룹 데이터에 의한 정렬 방법은 최초 그룹 데이터가 생성되는 최초 그룹 데이터 생성 단계(S1)를 포함한다. 사용자(통상적으로 환를 치료하는 자. 치과 의사가 될 수 있다)가 스캐너를 통해 환자의 환부(본 발명에서는 통상적으로 환자의 구강 내부를 의미하며, 임플란트, 크라운, 교정과 같은 치료를 위하여 촬영되어야 하는 치아, 잇몸 등이 될 수 있다)의 스캔을 시작하면 최초 그룹 데이터가 생성된다. 최초 그룹 데이터가 생성되는 지점은 스캐너에 내장된 프로세서에서 수행될 수도 있고, 또는 스캐너와 연결된 개인용 컴퓨터 등에 내장된 프로세서에서 수행될 수도 있다. 바람직하게는, 스캐너 내부에 형성된 프로세서에서 최초 그룹 데이터가 생성됨이 바람직하다. 한편, 최초 그룹 데이터는 첫 번째 그룹 데이터의 의미를 가지는 바, 이하의 설명에서는 편의상 제1 그룹 데이터와 혼용될 수 있다.
또한, 사용자가 스캐너를 통하여 환자의 구강 내부를 스캔하면, 구강 내부의 치아 또는 잇몸에서 반사된 광이 스캐너의 일단에 형성된 개구부를 통해 스캐너 내부로 입사된다. 스캐너 내부로 입사된 광은 스캐너 내부에 형성된 적어도 하나의 촬상부에 수용된다. 이 때, 촬상부는 하나의 카메라로 구성되는 싱글 카메라를 포함할 수 있고, 또는 2 이상의 카메라인 멀티 카메라를 포함할 수 있다. 촬상부가 2 이상의 멀티 카메라를 포함하는 경우, 하나의 시점에 대하여 2 이상의 이미지를 획득할 수 있으므로, 더욱 정밀한 이미지 데이터를 획득할 수 있는 이점이 있다.
카메라로 입사된 광은 카메라와 전기적으로 연결된 이미징 센서에 의해 이미지 데이터로 생성될 수 있다(S2). 이 때, 이미지 데이터는 2차원 이미지의 형태일 수 있거나, 또는 3차원 볼륨 데이터인 복셀(voxel) 데이터일 수도 있다. 이미징 센서에 의해 생성된 이미지 데이터는 최초 그룹 데이터로 카테고리화 되어 저장될 수 있다(S3). 즉, 촬영되어 이미지 데이터가 생성되면, 생성된 이미지 데이터는 최초 그룹 데이터(또는 제1 그룹 데이터)로서 카테고리화되어 저장된다. 이미지 데이터가 저장되는 경로는 스캐너와 이격된 개인용 컴퓨터의 저장장치일 수도 있고, 또는 스캐너 자체에 내장된 저장부일 수도 있다.
한편, 최초 그룹 데이터 저장 단계(S3)는 이미지 생성 단계(S2)에서 획득한 이미지 데이터를 3차원 볼륨 데이터로 변환하는 3차원 데이터 변환 단계(S31)를 포함할 수 있다. 3차원 데이터 변환 단계(S31)는 촬상부로부터 획득한 2차원 이미지 데이터로부터 해당 부분의 밝기 정보 등을 활용하여 부피를 가지는 픽셀에 밝기 정보를 포함하고 있는 복셀(voxel) 데이터일 수 있다. 또한, 3차원 데이터 변환 단계(S31)로부터 형성된 3차원 볼륨 데이터들은 서로 중첩되는 부분이 연결되어 더욱 큰 덩어리의 데이터를 형성할 수 있도록 얼라인(align) 될 수 있다(S32). 이 때, 얼라인은 작게는 3차원 볼륨 데이터들 간의 연결에 의하여 2 이상의 3차원 볼륨 데이터가 더욱 큰 볼륨을 가지는 하나의 3차원 볼륨 데이터로 병합되는 것을 의미할 수 있다. 이러한 얼라인 과정에 따라서 하나의 하악 전체에 대한 3차원 볼륨 데이터 세트, 하나의 상악 전체에 대한 3차원 볼륨 데이터 세트, 및 교합에 대한 3차원 볼륨 데이터 세트가 형성될 수 있으며, 이러한 데이터 세트들이 합쳐서 환자의 구강 모형에 대한 하나의 완전한 데이터 세트를 이룰 수 있다. 이 때, 3차원 데이터 변환은 스캐너 외부에 형성되되, 스캐너와 전기적으로 연결되어 스캐너에서 촬영되어 생성되는 이미지 데이터들을 전송받는 외부 프로세서에 의해 수행될 수 있다.
전술한 얼라인 단계(S32)를 수행할 때, 사용자의 스캔 미숙 또는 고의적인 구분을 위하여 연속적인 얼라인 과정이 수행되지 않을 수 있다. 종래에는 얼라인 과정이 수행되지 않는 경우 사용자의 스캔에 따른 얼라인 결과가 디스플레이부에 적색의 테두리를 가지는 화면으로 표시될 수 있었다. 이와 같이 표시되는 경우, 얼라인이 가능한 기존 스캔 영역과 중첩되는 부분에 대해 스캔하여 3차원 볼륨 데이터가 생성되지 않으면 추가적으로 데이터가 획득되지 않는다.
상기와 같은 문제점을 해결하기 위해, 본 발명에 따른 그룹 데이터에 의한 정렬 방법은 얼라인 단계에서 3차원 볼륨 데이터가 서로 연결되면서 얼라인이 수행되지 않는 상태가 일정 시간 이상 지속되는지 판단하는 디스커넥트 판단 단계(S4)를 더 포함할 수 있다. 이 때, 얼라인이 수행되지 않는 상태가 일정 시간 이상 지속된다는 것은 기존에 3차원 볼륨 데이터가 형성되어 중첩되는 데이터 부분에 의하여 얼라인이 수행되다가 중첩되는 데이터 부분이 나타나지 않아 데이터 중첩 및 얼라인이 수행되지 않는 상태를 의미한다. 일정 시간은 프로그램에 기설정된 특정 시간을 의미할 수 있으나, 바람직하게는 사용자가 스캔을 수행하면서 합리적으로 얼라인 과정이 수행되지 않는다고 판단되는 간격의 시간으로 설정될 수 있다.
한편, 본 명세서에서 사용되는 디스커넥트(disconnect)라는 표현은, 스캐너 장비가 개인용 컴퓨터 또는 서버, 전원과 전기적으로 연결되지 않은 상태를 의미하는 것이 아니며, 3차원 볼륨 데이터들 간에 중첩되는 부분이 없어 데이터 간 연결이 일어나지 않는 상태를 의미하는 것으로 해석되어야 한다. 한편, 3차원 볼륨 데이터들 간에 연결은 외부 프로세서 상에서 수행되므로, 디스커넥트 판단 여부 또한 외부 프로세서에서 수행될 수 있다.
디스커넥트 판단 단계(S4)에 따라 3차원 볼륨 데이터가 서로 중첩되는 부분이 없어 연결되지 않는 상태가 일정 시간 이상 지속된다고 판단되면, 최초 그룹 데이터(제1 그룹 데이터)의 데이터 수집을 종료하고, 마지막으로 연결된 3차원 볼륨 데이터에 대하여 최후 데이터로 설정할 수 있다.
도 4 내지 도 6은 본 발명에 따른 그룹 데이터에 의한 정렬 방법에 대한 실시예를 개념적으로 도시한 도이다.
전술한 바와 같이 디스커넥트 판단 단계에서 3차원 볼륨 데이터가 서로 중첩되는 부분 없이 연결되지 않아 기존 그룹 데이터의 데이터 수집이 종료되면, 새로운(신규) 그룹 데이터가 생성될 수 있다(S5). 이 때, 최초 그룹 데이터 직후에 생성되는 신규 그룹 데이터를 제2 그룹 데이터로 명명할 수 있다. 제2 그룹 데이터는 제1 그룹 데이터와 이격되어 형성된 데이터 세트를 형성할 수 있다.
신규 그룹 데이터가 생성되면 스캐너의 촬상부에 의해 생성된 이미지 데이터는 이제 신규 그룹 데이터로 카테고리화 되고 저장된다(S6). 즉, 제2 그룹 데이터가 생성된 이후에 생성되는 이미지 데이터는 제2 그룹 데이터로 카테고리화 되어 저장될 수 있다. 이와 같이 연쇄적으로 이미지 데이터가 제2 그룹 데이터로 카테고리화 되어 저장되다가 다시 3차원 볼륨 데이터가 서로 중첩되는 부분이 없어 연결되지 않는 상태가 일정 시간 이상 지속된다고 판단되면(디스커넥트 판단 단계), 제2 그룹 데이터로 이미지 데이터가 저장되는 것을 종료하고, 제3 그룹 데이터를 생성, 그 이후에 생성되는 이미지 데이터는 제3 그룹 데이터로 카테고리화 되어 저장된다. 이러한 그룹 데이터들은 스캐너와 이격된 개인용 컴퓨터의 저장장치에 저장될 수도 있고, 또는 스캐너 자체에 내장된 저장부에 저장될 수도 있다.
한편, 전술한 바와 같이, 최초 그룹 데이터(제1 그룹 데이터)와 신규 그룹 데이터(제2 그룹 데이터, 제3 그룹 데이터 등)이 계속 생성되면서 얼라인 과정이 연속적으로 수행되지 않더라도 단속적으로 데이터가 수집된다. 이 때, 단속적은 각 그룹 데이터 간에 데이터가 중첩되지 않는다는 것을 의미하며, 각각의 그룹 데이터 내의 3차원 볼륨 데이터 간에는 얼라인 단계가 수행된 것이므로 연속성을 가진다. 그러나 사용자는 종국적으로 환자의 전체 구강 모형 데이터를 획득하여야 하므로, 이후의 스캔을 통해 각 그룹 데이터 사이의 데이터 공백(B)을 보완할 필요가 있다.
따라서, 본 발명에 따른 그룹 데이터에 의한 정렬 방법은 최초 그룹 데이터 및 신규 그룹 데이터의 데이터 중첩 여부를 검사하는 재연결 판단 단계(S7)를 더 포함할 수 있다. 도 4를 참조하면, 사용자는 도 4 기준으로 우측에서부터 좌측으로 측정을 수행한다. 이 때, 최초 제1 그룹 데이터(11)의 이미지 데이터가 볼륨 데이터로 변환 및 얼라인이 수행되며, 이후 디스커넥트 판단 단계를 거쳐 새로운 제2 그룹 데이터(21)가 생성되어 제2 그룹 데이터 저장 단계가 시작되고, 제2 그룹 데이터 저장 단계가 시작된 이후 생성되는 이미지 데이터는 제2 그룹 데이터(21)로 카테고리화 되어 저장된다. 제1 그룹 데이터(11)와 제2 그룹 데이터(21) 사이에 촬영되지 않아 데이터가 생성되지 않은 부분은 데이터 공백(B)으로 남게 된다.
동일한 방식으로 제2 그룹 데이터(21)와 제3 그룹 데이터(31) 사이에 데이터 공백(B)이 남는다. 사용자는 이러한 데이터 공백(B)을 보완하기 위해 좌측에서 우측으로 재차 스캔을 수행한다. 제4 그룹 데이터(41), 제5 그룹 데이터(51), 제6 그룹 데이터(61)가 생성되면서 각 그룹 데이터(11, 21, 31, 41, 51, 61) 사이에 존재했던 데이터 공백(B)을 보완하여 결과적으로 환자의 전체 구강 모형 데이터를 획득할 수 있게 된다.
도 5를 참조하면, 제1 그룹 데이터(12)가 생성되어 스캔이 시작되면, 제1 그룹 데이터(12)에서 최초에 생성된 데이터를 제1 그룹 최초 데이터(12I)라 한다. 한편, 디스커넥트 판단 단계에 따라 3차원 볼륨 데이터가 서로 연결되지 않는 상태가 일정 시간 이상 지속되어 제2 그룹 데이터(22)가 생성되면, 제2 그룹 데이터(22)가 생성되기 전에 마지막으로 제1 그룹 데이터(12)에 생성되어 저장된 3차원 볼륨 데이터가 제1 그룹 최종 데이터(12F)가 된다. 동일한 취지로, 제2 그룹 데이터(22)의 최초 생성 데이터는 제2 그룹 최초 데이터(22I), 제3 그룹 데이터(32)의 생성시 마지막으로 제2 그룹 데이터(22)에 생성되어 저장된 3차원 볼륨 데이터는 제2 그룹 최종 데이터(22F)가 된다.
한편, 제3 그룹 데이터(32)가 생성되어 신규데이터 저장 단계가 수행되면, 제3 그룹 최초 데이터(32I)는 기존에 촬영되어 3차원 볼륨 데이터로 생성된 제1 그룹 데이터(12)와 중첩된다. 따라서 제3 그룹 데이터(32)는 제1 그룹 데이터(12)와 그 3차원 볼륨 데이터가 서로 연결될 수 있고(추가 얼라인 단계(S8)), 기존에 존재했던 제1 그룹 데이터(12)와 제2 그룹 데이터(22) 간의 데이터 공백(B)을 보완할 수 있다.
전술한 바와 같은 데이터 공백(B)을 보완하기 위해, 신규 그룹 데이터는 이전에 생성된 그룹 데이터들의 3차원 볼륨 데이터와 중첩되는지 판단될 수 있다(S7). 바람직하게는, 신규 그룹 데이터의 최초 데이터 또는 최종 데이터는 이전에 생성된 그룹 데이터들의 3차원 볼륨 데이터와 중첩되는지 판단될 수 있다. 도 5에 도시된 바와 같이, 제3 그룹 데이터(32)의 최초 데이터(32I)는 제1 그룹 데이터(12)의 3차원 볼륨 데이터와 중첩되고, 제3 그룹 데이터(32)의 최종 데이터(32F)는 제2 그룹 데이터(22)의 3차원 볼륨 데이터와 중첩, 추가 얼라인이 수행되어 결과적으로 데이터 공백(B) 부분을 보완하게 된다(S8). 이와 같이 신규 그룹 데이터에 저장되는 데이터를 이전에 생성된 그룹 데이터들의 3차원 볼륨 데이터와 비교하여 중첩시킴으로써, 데이터 공백(B)을 보완 및 최소화하여 스캐너를 통해 획득한 데이터의 신뢰성을 향상시키는 이점이 있다. 한편, 신규 그룹 데이터 저장 단계(S6) 또는 추가 얼라인 단계(S8)가 수행되는 중에도 스캐너에 의해 획득되는 이미지 데이터를 계속적으로 3차원 볼륨 데이터로 변환하고 얼라인하는 단계를 재수행할 수 있다(S10). 한편, 재연결 판단, 추가 얼라인 수행 등은 디스커넥트를 판단하고 얼라인을 수행하는 외부 프로세서 상에서 함께 수행될 수 있다.
도 6을 참조하면, 제1 그룹 데이터(13), 제2 그룹 데이터(23), 및 제3 그룹 데이터(33)가 생성되어 스캔이 진행되었으나, 각 분류(13, 23, 33) 사이에 데이터 공백(B)이 발생하였다. 이에 사용자는 종래의 얼라인 에러 발생 부분 이후로 다시 넓은 영역을 스캔해야 했으나, 본 발명에 따른 그룹 데이터에 의한 정렬 방법으로 인하여 데이터 공백(B)이 발생한 제1 그룹 데이터와 제2 그룹 데이터 사이(13과 23 사이), 및 제2 그룹 데이터와 제3 그룹 데이터 사이(23과 33 사이)만을 스캔함으로써 스캔해야 할 범위를 최소화하는 이점이 있다.
도 7은 본 발명의 다른 실시예에 따른 그룹 데이터에 의한 정렬 방법의 순서도이다. 도 7을 참조하면, 본 발명의 다른 실시예에 따른 그룹 데이터에 의한 정렬 방법은, 스캔 경로에 따라 이미지 데이터를 획득하는 이미지 생성 단계(S110)와, 스캔 경로에 따라 연속적으로 획득하는 이미지 데이터가 서로 연결되도록 정렬되는 얼라인 단계(S120)를 포함할 수 있다. 전술한 바와 같이, 구강스캐너를 통하여 환자의 구강 내부에 대하여 스캔을 진행하면 스캔 대상 부분(구강 내부의 일부분들을 의미한다)에 대한 이미지 데이터를 생성한다. 이미지 데이터는 스캔 대상 부분에서 반사되는 광이 구강스캐너 내부로 입사되어, 구강스캐너 내부에 형성된 촬상부를 통해 디지털 데이터화된 이미지 데이터일 수 있다. 또한, 스캔 경로에 따라 연속적으로 이미지 데이터가 획득되면, 연속되는 이미지 데이터 간에 중첩되는 영역이 발생하게 되고, 이러한 중첩 영역은 서로 연결 및 정렬되어 다시 하나의 연결된 이미지 데이터로 나타날 수 있다. 결과적으로 얼라인 단계가 정상적으로 수행되면 전체적으로 하나의 하악 데이터, 하나의 상악 데이터, 그리고 하악 데이터와 상악 데이터를 결합시키는 교합 데이터가 통합되어 환자의 전체 구강 모형 데이터를 생성할 수 있는 것이다. 한편, 생성된 이미지 데이터는 스캐너 내부에 형성될 수 있는 저장부 또는 외부 저장장치에 저장될 수 있다.
한편, 본 발명의 다른 실시예에 따른 그룹 데이터에 의한 정렬 방법은 얼라인 단계에서, 이미지 데이터가 서로 연결되지 않는 지점을 기준으로 이미지 데이터를 서로 다른 그룹으로 분류하고 카테고리화 저장하는 그룹 데이터 저장 단계(S130)를 더 포함할 수 있다. 전술한 얼라인 단계를 수행하는 중에 이미지 데이터 간의 중첩 부분을 형성할 만큼 충분한 스캐닝이 수행되지 않아 이미지 데이터 간의 연결 및 정렬을 수행할 수 없는 경우가 있다. 즉, 본 발명의 다른 실시예에 따른 그룹 데이터에 의한 정렬 방법에서는 이미지 데이터의 연결 상태가 일정 시간 지속되는지와 상관없이, 이미지 데이터의 중첩 범위가 충분하게 형성되지 않아 데이터 공백(B)이 발생하는 경우를 디스커넥트로 정의할 수 있다. 한편, 생성된 그룹 데이터는 스캐너 내부에 형성될 수 있는 저장부 또는 외부 저장장치에 저장될 수 있다.
전술한 바와 같이 디스커넥트 상태가 발생한 경우, 구강스캐너는 디스커넥트 상태 이전에 연결된 이미지 데이터들을 제n 그룹 데이터로 카테고리화하여 저장하고, 디스커넥트 상태 이후의 이미지 데이터들을 제(n+1) 그룹 데이터로 카테고리화하여 저장할 수 있다. 이 때, n는 임의의 자연수가 될 수 있으며, 제1 그룹 데이터부터 최종 스캔이 수행될 때까지 복수개의 그룹 데이터를 가질 수 있다는 의미이다.
예를 들면, 도 4에 도시된 바와 같이, 제1 그룹 데이터(11), 제2 그룹 데이터(21), 및 제3 그룹 데이터(31)를 잇는 하나의 스캔 경로가 있고, 스캔 중에 2번의 디스커넥트, 즉 데이터 공백(B)이 발생하면 3개의 그룹 데이터(11, 21, 31)가 생성된다. 마찬가지로, 제4 그룹 데이터(41), 제5 그룹 데이터(51) 및 제6 그룹 데이터(61)를 잇는 하나의 스캔 경로에 대하여 스캔을 수행하는 중에 2번의 디스커넥트(데이터 공백이 발생하는 상태)가 발생하게 되면 3개의 그룹 데이터(41, 51, 61)가 발생한다. 결과적으로, 도 4의 예시로 설명하자면 총 2번의 스캔 경로에 대하여 스캔을 수행하는 중에, 각 스캔 경로 당 2회의 디스커넥트가 발생하여 총 6개의 그룹 데이터가 생성될 수 있는 것이다.
한편, 그룹 데이터 저장 단계에 따라, 디스커넥트 상태로 판단되는 시점 전후로 그룹 데이터가 나눠지게 되며, 디스커넥트 상태 판단 직전에 획득한 이미지 데이터는 해당되는 그룹 데이터의 최종 데이터가 되고, 디스커넥트 상태 판단 직후에 획득한 이미지 데이터는 해당되는 그룹 데이터의 최초 데이터가 된다. 이를 스캔 경로의 관점으로 해석하면, 디스커넥트 상태 판단 직전에 스캔된 지점이 해당 스캔 경로의 종료 지점으로 인식되며, 디스커넥트 상태 판단 직후에 스캔된 지점은 해당 스캔 경로의 시작 지점으로 인식될 수 있다. 또한, 이와 같이 디스커넥트 상태로 판단되어 서로 다른 그룹 데이터로 나눠지게 되었다면, 두 분류는 서로 다른 시작 지점과 종료지점을 가진다는 의미이다. 이는 곧, 디스커넥트 되는 지점은 각 스캔 경로의 종료 지점이 된다는 의미이다.
도 5에 도시된 바와 같이, 복수개의 그룹 데이터로 카테고리화 되는 것은, 각 그룹 데이터 간 스캔 경로를 구분하는 것이며, 따라서 그룹 데이터 저장 단계에서 저장되는 그룹 데이터의 수는 곧 스캔 경로의 수에 대응될 수 있다. 예를 들면, 제1 그룹(12)에 대응하는 스캔 경로의 종료 지점(12F)에서 디스커넥트가 발생하여 제1 그룹(12)이 생성되고, 제2 그룹(22)에 대응하는 스캔 경로의 종료 지점(22F)에서 디스커넥트가 발생하여 제2 그룹이 생성되며, 마지막으로 제3 그룹(32)에 대응하는 스캔 경로의 종료 지점(32F)에서 디스커넥트가 발생하여 제3 그룹(32)이 생성된 것이다. 이와 같이, 환자의 구강 내부를 스캔할 때 3개의 스캔 경로를 가지고 스캔을 수행하였다면, 그룹 데이터는 총 3개를 가질 수 있다.
사용자는 데이터 공백(B)을 최소화하여 환자의 완전한 구강 내부 모형 데이터를 획득하기 위해 계속적으로 스캔을 수행한다. 계속적인 스캔을 수행하게 되면 이후의 그룹 데이터에 해당하는 이미지 데이터가 이전의 그룹 데이터에 해당하는 이미지 데이터와 중첩되는 부분을 가질 수 있다. 즉, 이는 복수개의 스캔 경로가 적어도 일부 구간에서 서로 중복되는 스캔 영역을 가질 수 있다는 의미이며, 이 때 데이터 공백(B)이 채워질 수 있다.
도 5를 참조하면, 스캔 경로의 개수에 대응하는 그룹 데이터가 발생하는 경우는, 일반적으로 사용자의 편의에 따라 의도적으로 스캔 경로를 나누는 경우이므로(즉, 제1 그룹 데이터(12)에 대응하는 스캔 경로로 첫 번째 스캔 후 제2 그룹 데이터(22)에 대응하는 스캔 경로로 두 번째 스캔을 수행하며, 마지막으로 제3 그룹 데이터(32)에 대응하는 스캔 경로로 세 번째 스캔을 수행할 수 있다), 통상적으로 이 경우에는 적어도 2 이상의 스캔 경로 간에 서로 중복되는 스캔 영역을 가질 수 있으며, 이에 의해 데이터 공백(B)이 채워질 수 있다.
전술한 바와 같이 데이터 공백(B)이 채워지게 되면 서로 다른 그룹 데이터 간에 이미지 데이터가 연결될 수 있다는 의미이며, 이러한 2 이상의 그룹 데이터의 데이터가 다시 서로 연결 및 정렬의 가능성을 확인하고 서로 연결되도록 얼라인하는 재연결 판단 단계(S140)를 포함할 수 있다. 재연결 판단 단계에 따라 데이터 공백(B)이 발생한 부분에 대하여 데이터를 보완할 수 있으며, 이와 같이 계속적인 스캔을 수행함으로써 데이터 공백(B)을 최소화하고 결과적으로 환자의 완전한 구강 내부 모형 데이터를 완성할 수 있다.
한편, 전술한 이미지 데이터 또는 3차원 볼륨 데이터 간의 얼라인, 디스커넥트 판단, 재연결 판단 및 데이터 보완은 스캐너 외부에 형성된 외부 프로세서에 의해 수행될 수 있다.
한편, 본 발명의 다른 실시예에 따른 그룹 데이터에 의한 정렬 방법은 그룹 데이터 사이에 이미지 데이터가 서로 연결되지 않는 데이터 공백(B) 발생 지점에 대하여 디스플레이 상에 표시하는 단계를 더 포함할 수 있다. 도 6을 참조하면, 데이터 공백(B) 발생 지점에 대하여 화살표 모양으로 표시된 것을 확인할 수 있다. 본 발명의 다른 실시예에 따른 그룹 데이터에 의한 정렬 방법에서는 이러한 디스플레이 상에 화살표 등으로 데이터 공백(B) 지점을 사용자가 명확하게 확인할 수 있도록 표시함으로써, 사용자는 데이터 공백(B) 발생 부분에 대하여만 다시 스캔을 수행하여 데이터 공백(B)을 최소화하고 그룹 데이터 간에 서로 데이터가 연결되도록 할 수 있다. 디스플레이는 스캐너 또는 외부 프로세서와 전기적으로 연결된 디스플레이 장치를 의미할 수 있으며, 사용자에게 데이터 공백(B) 발생 여부를 알릴 수 있는 화면을 가지는 표시 장치일 수 있다.
이하에서는 본 발명의 또다른 실시예에 따른 그룹 데이터에 의한 정렬 방법을 설명하기로 한다.
도 8은 본 발명의 또다른 실시예에 따른 그룹 데이터에 의한 정렬 방법의 순서도이다.
도 8을 참조하면, 본 발명의 다른 실시예에 따른 그룹 데이터에 의한 정렬 방법은, 적어도 하나의 제1 이미지 데이터를 포함하는 제1 그룹 데이터를 생성하는 단계(S210), 제2 이미지 데이터가 제1 그룹 데이터에 얼라인되는지 판단하는 단계(S220)를 포함한다. 스캔 과정을 시작하면, 스캐너에 의해 적어도 하나의 이미지 데이터가 획득되고, 상기 이미지 데이터는 하나 이상의 그룹 데이터를 형성할 수 있다. 예시적으로, 제1 그룹 데이터의 카테고리가 생성되고, 상기 이미지 데이터는 제1 이미지 데이터로 제1 그룹 데이터에 포함된다. 이 때, 이미지 데이터(제1 이미지 데이터 및 제2 이미지 데이터)는 2차원 또는 3차원일 수 있다.
제1 그룹 데이터를 생성하는 단계(S210)에서, 적어도 하나의 제1 이미지 데이터들은 얼라인되어 하나의 3차원 볼륨 데이터를 형성할 수 있다. 2 이상의 이미지 데이터가 순차적으로 획득되면, 마지막에 획득된 이미지 데이터는 그 전에 획득된 이미지 데이터들이 얼라인 되어 형성된 3차원 볼륨 데이터에 함께 얼라인될 수 있다. 이러한 과정에 따라, 3차원 볼륨 데이터는 확장될 수 있다. 즉, 하나의 그룹 데이터는 적어도 하나의 이미지 데이터가 얼라인되어 하나의 3차원 볼륨 데이터로 생성될 수 있다. 즉, 순차적으로 획득되는 이미지 데이터들이 얼라인되어 하나의 3차원 볼륨 데이터로 생성될 수 있다.
한편, 제2 이미지 데이터가 제1 그룹 데이터에 얼라인되는지 판단하는 단계(S220)는 제1 이미지 데이터가 제1 그룹 데이터에 포함되고, 스캔 과정에서 획득된 제2 이미지 데이터는 제1 이미지 데이터 중 적어도 어느 하나와 얼라인되는지 판단될 수 있다. 예시적으로, 제2 이미지 데이터는 제1 이미지 데이터의 적어도 일부와 중첩되어 연결 및 정렬될 수 있는지 판단될 수 있다.
상기 판단을 위해, 제2 이미지 데이터는 제1 그룹 데이터에 포함된 제1 이미지 데이터의 적어도 일부 영역과 소정 횟수 또는 소정 시간 동안 얼라인을 시도할 수 있다(S230). 예시적으로, 얼라인을 시도하는 단계(S230)는 소정 시간 동안 제2 이미지 데이터를 제1 그룹 데이터에 얼라인 되는지 여부를 확인하는 단계(S231)를 포함한다. 기설정된 시간 이내에 제2 이미지 데이터가 제1 그룹 데이터에 얼라인되는 경우, 제2 이미지 데이터는 제1 그룹 데이터에 포함될 수 있다(S232). 즉, 제2 이미지 데이터는 제1 그룹 데이터에 포함된 제1 이미지 데이터의 적어도 일부와 얼라인되어, 제1 그룹 데이터의 3차원 볼륨 데이터를 확장시킬 수 있다.
한편, 스캔을 수행할 때, 스캔 영역이 중첩되지 않아 데이터 공백이 발생할 수 있다. 데이터 공백은 사용자가 면밀하게 환자의 구강을 스캔하지 않았거나, 의도적으로 스캔을 연속적으로 수행하지 않았을 때 발생할 수 있다. 이러한 경우, 데이터 공백 발생 이전에 획득된 이미지 데이터들을 어느 하나의 그룹 데이터에 포함되도록 하고, 데이터 공백 발생 이후에 획득된 이미지 데이터들은 새로운 그룹 데이터에 포함되도록 할 수 있다.
그룹 데이터가 나눠지는 과정에 대하여 보다 상세하게 설명한다. 제2 이미지 데이터가 제1 그룹 데이터에 소정 시간 동안 얼라인되지 않는 경우, 얼라인 시도 횟수를 갱신할 수 있다(S233). 예시적으로, 초기 얼라인 시도 횟수가 1로 설정될 수 있다. 이 때, 얼라인되는지 여부를 확인하는 단계(S231)에서 제2 이미지 데이터가 소정 시간 동안 제1 그룹 데이터에 얼라인되지 않는 경우, 얼라인 시도 횟수는 1 가산될 수 있다.
얼라인 시도 횟수가 갱신된 이후, 갱신된 얼라인 시도 횟수가 임계 횟수 미만인지 확인하는 단계(S234)가 수행될 수 있다. 예시적으로, 임계 횟수는 10회일 수 있으며, 갱신된 얼라인 시도 횟수가 10회 미만이면 다시 얼라인되는지 여부를 확인하는 단계(S231)로 복귀하여 제2 이미지 데이터가 제1 그룹 데이터에 얼라인되는지 확인할 수 있다.
한편, 갱신된 얼라인 시도 횟수가 10회 이상인 경우, 제1 그룹 데이터와 얼라인될 수 없고 데이터 공백이 발생한 것으로 판단될 수 있다. 이러한 경우, 더 이상 제2 이미지 데이터를 제1 그룹 데이터에 얼라인하는 시도를 중지하고, 새로운 그룹 데이터를 생성할 수 있다. 즉, 소정 횟수 또는 소정 시간 동안 제2 이미지 데이터가 제1 그룹 데이터에 얼라인되지 않으면, 제2 이미지 데이터를 포함하도록 제1 그룹 데이터와 상이한 제2 그룹 데이터를 생성할 수 있다(S235). 제2 이미지 데이터가 제2 그룹 데이터에 포함되므로써, 사용자는 반드시 제1 그룹 데이터와 얼라인되는 위치를 찾아 스캔을 수행하지 않아도 계속적으로 스캔을 진행할 수 있다.
전술한 바에 따르면, 얼라인 시도의 제한 조건은 횟수로 설명되었으나, 이에 한정하는 것은 아니며, 얼라인 시도 시간을 임계 조건으로 설정하는 것도 가능하다. 또한, 얼라인 시도 횟수를 갱신하는 단계와 갱신된 얼라인 시도 횟수가 임계 횟수 미만인지 확인하는 단계의 순서는 변경될 수 있다. 예시적으로, 얼라인되는지 여부를 확인하는 단계(S231)에서 제2 이미지 데이터가 제1 그룹 데이터에 얼라인되지 않는 경우, 얼라인 시도 횟수가 임계 횟수 미만인지 판단하고, 얼라인 시도 횟수가 임계 횟수 미만이면 얼라인 시도 횟수를 갱신할 수 있다. 얼라인 시도 횟수를 갱신한 이후에는 얼라인되는지 여부를 확인하는 단계(S231)가 다시 수행될 수 있다.
통상적으로, 사용자는 본인의 의사에 따라 그룹 데이터를 생성할 것을 원한다. 그러나 스캔 환경(조도, 이물 등), 또는 스캐너를 빠르게 움직이는 경우 순간적으로 데이터 공백이 발생하는 경우가 발생한다. 순간적으로 데이터 공백이 발생할 때마다 새로운 그룹 데이터를 생성하는 것은 사용자의 의사에 반할 뿐만 아니라 이미지 데이터를 획득, 얼라인, 및 그룹 데이터를 생성하기 위한 연산량이 증가하게 된다. 연산량의 증가에 따라, 스캐너의 스캔 속도가 저하될 수 있고, 따라서 스캔 효율이 저하될 수 있다.
따라서, 본 발명의 또다른 실시예는 제2 이미지 데이터가 제1 그룹 데이터에 얼라인되지 않을 경우 바로 새로운 그룹 데이터를 생성하지 않고, 소정의 얼라인 시도 횟수 또는 시간을 통해 사용자의 의사를 확인할 수 있다. 즉, 사용자가 원하지 않는 순간적인 얼라인 실패가 발생하더라도, 소정의 얼라인 시도 횟수 또는 시간 내에 제1 그룹 데이터와 얼라인되는 이미지 데이터가 입력되면 불필요하게 새로운 그룹 데이터가 생성되는 것을 방지할 수 있다.
만약, 사용자의 의사에 따라 제2 이미지 데이터가 제1 그룹 데이터에 얼라인되지 않을 경우에는 새로운 그룹 데이터가 생성될 수 있다. 예시적으로, 사용자가 오른쪽 어금니 부분을 스캔하다가 왼쪽 어금니 부분으로 이동하여 스캔을 수행하는 경우, 오른쪽 어금니 부분과 왼쪽 어금니 부분 사이에 데이터 공백이 발생할 수 있다. 이러한 경우, 오른쪽 어금니 부분을 나타내는 이미지 데이터와 왼쪽 어금니 부분을 나타내는 이미지 데이터가 얼라인되지 않으며, 이러한 상태가 소정의 얼라인 시도 횟수 또는 시간을 초과하게 된다. 따라서, 소정 횟수 또는 소정 시간을 이용하여 사용자의 의사에 따라 적정한 수의 그룹 데이터가 생성될 수 있다. 사용자는 얼라인 여부를 신경쓰지 않고 원하는 방식으로 스캔을 수행할 수 있으며, 최종적으로 정교한 3차원 모델을 획득할 수 있다.
또한, 제2 그룹 데이터가 생성되면, 제2 그룹 데이터와 제1 그룹 데이터를 결합(combine)하는 단계(S240)가 수행될 수 있다. 제1 그룹 데이터에 포함된 제1 이미지 데이터와 제2 그룹 데이터에 포함된 제2 이미지 데이터는 각각 3차원 볼륨 데이터를 형성할 수 있으며, 상기 3차원 볼륨 데이터들은 각각 전체적인 3차원 모델의 적어도 일부를 구성할 수 있다. 따라서, 모든 그룹 데이터들이 얼라인되어 하나의 3차원 모델을 완성할 수 있다.
한편, 제1 그룹 데이터에 포함된 제1 이미지 데이터와 제2 그룹 데이터에 포함된 제2 이미지 데이터는 중첩되지 않아 얼라인이 수행되지 않을 수 있다. 즉, 제1 그룹 데이터와 제2 그룹 데이터 사이에 데이터 공백이 존재할 수 있다. 이러한 경우, 제1 이미지 데이터의 적어도 일부 영역 및 제2 이미지 데이터의 적어도 일부 영역과 각각 중첩되는 제3 이미지 데이터를 통해 얼라인이 수행될 수 있다. 예시적으로, 제1 그룹 데이터와 제2 그룹 데이터 사이에 제3 그룹 데이터가 생성될 수 있고, 제3 그룹 데이터는 제3 이미지 데이터를 포함할 수 있다. 제3 이미지 데이터는 제1 그룹 데이터 및 제2 그룹 데이터와 모두 얼라인될 수 있다. 따라서, 제1 그룹 데이터와 제2 그룹 데이터는 제3 그룹 데이터를 매개로 얼라인될 수 있다. 다만, 이는 예시적인 것이며, 제1 그룹 데이터와 제2 그룹 데이터 사이에 복수개의 그룹 데이터가 생성되어 데이터 공백을 해소할 수도 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
[부호의 설명]
S1: 최초 그룹 카테고리 생성 단계 S2: 이미지 생성 단계
S3: 최초 그룹 데이터 저장 단계 S31: 3차원 데이터 변환 단계
S32: 얼라인 단계 S4: 디스커넥트 판단 단계
S5: 신규 그룹 카테고리 생성 단계 S6: 신규 그룹 데이터 저장 단계
S7: 재연결 판단 단계 S8: 추가 얼라인 단계
S10: 재수행 단계
11, 12, 13: 제1 그룹 데이터 12I: 제1 그룹 최초 데이터
12F: 제1 그룹 최종 데이터 21, 22, 23: 제2 그룹 데이터
22I: 제2 그룹 최초 데이터 22F: 제2 그룹 최종 데이터
31, 32, 33: 제3 그룹 데이터 32I: 제3 그룹 최초 데이터
32F: 제3 그룹 최종 데이터 41, 43: 제4 그룹 데이터
51, 53: 제5 그룹 데이터 B: 데이터 공백
S110: 이미지 데이터 획득 단계 S120: 이미지 데이터 얼라인 단계
S130: 그룹 데이터 저장 단계 S140: 재연결 판단 단계
S210: 제1 그룹 데이터를 생성하는 단계
S220: 제2 이미지 데이터가 제1 그룹 데이터에 얼라인되는지 판단하는 단계
S230: 얼라인을 시도하는 단계
S231: 얼라인되는지 여부를 확인하는 단계
S232: 제2 이미지 데이터를 제1 그룹 데이터에 포함하는 단계
S233: 얼라인 시도 횟수를 갱신하는 단계
S234: 얼라인 시도 횟수가 임계 횟수 미만인지 확인하는 단계
S235: 제2 그룹 데이터를 생성하는 단계
S240: 제1 그룹 데이터와 제2 그룹 데이터를 결합하는 단계
본 발명에 따른 그룹 데이터에 의한 정렬 방법은, 스캔 과정에 따라 획득된 이미지 데이터가 연속적으로 얼라인되지 않더라도, 얼라인된 이미지 데이터들을 그룹 데이터로 카테고리화 하여, 그룹 데이터들 간의 얼라인을 통해 전체적인 3차원 모델을 획득할 수 있는 방법을 제공한다.

Claims (13)

  1. 적어도 하나의 제1 이미지 데이터를 포함하는 제1 그룹 데이터를 생성하는 단계;
    제2 이미지 데이터가 상기 제1 그룹 데이터에 얼라인되는지 판단하는 단계;
    상기 제2 이미지 데이터가 상기 제1 그룹 데이터에 얼라인되면 상기 제2 이미지 데이터를 상기 제1 그룹 데이터에 포함하는 단계:
    상기 제2 이미지 데이터가 상기 제1 그룹 데이터에 얼라인되지 않으면 소정 횟수 또는 소정 시간 동안 얼라인을 시도하는 단계;
    상기 소정 횟수 또는 소정 시간 동안 상기 제2 이미지 데이터가 상기 제1 그룹 데이터에 얼라인되지 않으면, 상기 제2 이미지 데이터를 포함하도록 제2 그룹 데이터를 생성하는 단계; 및
    상기 제1 그룹 데이터 및 상기 제2 그룹 데이터를 결합(combine)하는 단계;를 포함하는 그룹 데이터에 의한 정렬 방법.
  2. 제1 항에 있어서,
    상기 제1 이미지 데이터 및 상기 제2 이미지 데이터는 3차원 볼륨 데이터로 변환되는 것을 특징으로 하는 그룹 데이터에 의한 정렬 방법.
  3. 제1 항에 있어서,
    상기 얼라인을 시도하는 단계는 소정 시간 동안 상기 제2 이미지 데이터를 상기 제1 그룹 데이터에 얼라인되는지 여부를 확인하는 단계; 및
    상기 얼라인되는지 여부를 확인하는 단계에서, 상기 제2 이미지 데이터가 상기 제1 그룹 데이터에 얼라인되지 않는 경우, 얼라인 시도 횟수를 갱신하는 단계;를 포함하는 것을 특징으로 하는 그룹 데이터에 의한 정렬 방법.
  4. 제3 항에 있어서,
    갱신된 상기 얼라인 시도 횟수가 임계 횟수 미만인지 확인하는 단계;를 더 포함하고,
    상기 얼라인 시도 횟수가 상기 임계 횟수 미만인 경우, 상기 얼라인되는지 여부를 확인하는 단계로 복귀하는 것을 특징으로 하는 그룹 데이터에 의한 정렬 방법.
  5. 제4 항에 있어서,
    상기 얼라인 시도 횟수가 상기 임계 횟수 이상인 경우, 상기 제2 이미지 데이터를 포함하도록 상기 제2 그룹 데이터를 생성하는 것을 특징으로 하는 그룹 데이터에 의한 정렬 방법.
  6. 제1 항에 있어서,
    상기 제1 그룹 데이터 및 상기 제2 그룹 데이터를 결합하는 단계는,
    상기 제1 그룹 데이터에 포함된 상기 제1 이미지 데이터의 적어도 일부 영역과, 상기 제2 그룹 데이터에 포함된 상기 제2 이미지 데이터의 적어도 일부 영역이 얼라인되는 것을 특징으로 하는 그룹 데이터에 의한 정렬 방법.
  7. 제6 항에 있어서,
    상기 제1 이미지 데이터와 상기 제2 이미지 데이터는,
    상기 제1 이미지 데이터의 적어도 일부 영역 및 상기 제2 이미지 데이터의 적어도 일부 영역과 각각 중첩되는 제3 이미지 데이터를 통해 얼라인되는 것을 특징으로 하는 그룹 데이터에 의한 정렬 방법.
  8. 스캔 경로에 따라 이미지 데이터를 획득하는 이미지 생성 단계;
    상기 스캔 경로에 따라 연속적으로 획득하는 상기 이미지 데이터가 서로 연결되도록 정렬되는 얼라인 단계;
    상기 얼라인 단계에서, 상기 이미지 데이터가 서로 연결되지 않는 지점을 기준으로 상기 이미지 데이터를 그룹 데이터하고 카테고리화 저장하는 그룹 데이터 저장 단계; 및
    2 이상의 상기 그룹 데이터의 데이터가 서로 연결되도록 얼라인하는 재연결 판단 단계;를 포함하는 것을 특징으로 하는 그룹 데이터에 의한 정렬 방법.
  9. 제8 항에 있어서,
    상기 그룹 데이터 저장 단계에서 상기 이미지 데이터가 서로 연결되지 않는 지점은 연속하는 상기 이미지 데이터의 중첩 범위에 따라 결정되는 것을 특징으로 하는 그룹 데이터에 의한 정렬 방법.
  10. 제8 항에 있어서,
    상기 스캔 경로는 복수개의 경로를 포함하고, 상기 복수개의 경로는 서로 다른 시작 지점과 종료 지점을 가지며, 복수개의 경로는 적어도 일부 구간에서 중복되는 스캔 영역을 가지는 것을 특징으로 하는 그룹 데이터에 의한 정렬 방법.
  11. 제10 항에 있어서,
    상기 그룹 데이터 저장 단계에 따라 저장되는 상기 그룹 데이터의 수는, 상기 복수개의 스캔 경로에 대응하는 수를 가지는 것을 특징으로 하는 그룹 데이터에 의한 정렬 방법.
  12. 제10 항에 있어서,
    상기 얼라인 단계에서 상기 이미지 데이터가 서로 연결되지 않는 지점은, 각각의 상기 스캔 경로의 종료 지점인 것을 특징으로 하는 그룹 데이터에 의한 정렬 방법.
  13. 제8 항에 있어서,
    상기 그룹 데이터 사이에 상기 이미지 데이터가 서로 연결되지 않는 지점을 디스플레이 상에 표시하는 단계;를 더 포함하는 것을 특징으로 하는 그룹 데이터에 의한 정렬 방법.
PCT/KR2020/019090 2019-12-26 2020-12-24 그룹 데이터에 의한 정렬 방법 WO2021133099A2 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202080090581.6A CN114901204A (zh) 2019-12-26 2020-12-24 基于组数据的排列方法
EP20906611.7A EP4062865A2 (en) 2019-12-26 2020-12-24 Aligning method by grouped data
US17/848,421 US20220335628A1 (en) 2019-12-26 2022-06-24 Aligning method by grouped data

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0175292 2019-12-26
KR20190175292 2019-12-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/848,421 Continuation-In-Part US20220335628A1 (en) 2019-12-26 2022-06-24 Aligning method by grouped data

Publications (2)

Publication Number Publication Date
WO2021133099A2 true WO2021133099A2 (ko) 2021-07-01
WO2021133099A3 WO2021133099A3 (ko) 2021-08-19

Family

ID=76573328

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/019090 WO2021133099A2 (ko) 2019-12-26 2020-12-24 그룹 데이터에 의한 정렬 방법

Country Status (5)

Country Link
US (1) US20220335628A1 (ko)
EP (1) EP4062865A2 (ko)
KR (1) KR102530012B1 (ko)
CN (1) CN114901204A (ko)
WO (1) WO2021133099A2 (ko)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9492245B2 (en) 2004-02-27 2016-11-15 Align Technology, Inc. Method and system for providing dynamic orthodontic assessment and treatment profiles
US20120062557A1 (en) * 2010-09-10 2012-03-15 Dimensional Photonics International, Inc. Systems and methods for processing and displaying intra-oral measurement data
ES2884700T3 (es) 2010-12-21 2021-12-10 3Shape As Compensación de desenfoque de movimiento
US8948482B2 (en) * 2012-11-01 2015-02-03 Align Technology, Inc. Motion compensation in a three dimensional scan
KR101840444B1 (ko) * 2016-05-04 2018-03-20 주식회사 메디트 치과용 3차원 데이터 처리장치 및 그 방법
EP3583381B1 (en) * 2017-02-15 2024-01-03 3Shape A/S Monitoring the scan volume of a 3d scanner
KR101953622B1 (ko) * 2017-08-31 2019-05-23 주식회사 디오 이종의 구강 이미지 정합방법
KR101930062B1 (ko) * 2017-12-27 2019-03-14 클리어라인 주식회사 인공지능기술을 이용한 단계별 자동 교정 시스템
KR102054901B1 (ko) * 2018-12-28 2019-12-12 주식회사 디오 치아 수복물 설계를 위한 이미지 데이터 처리방법

Also Published As

Publication number Publication date
KR102530012B1 (ko) 2023-05-08
WO2021133099A3 (ko) 2021-08-19
EP4062865A2 (en) 2022-09-28
KR20210083204A (ko) 2021-07-06
CN114901204A (zh) 2022-08-12
US20220335628A1 (en) 2022-10-20

Similar Documents

Publication Publication Date Title
WO2017192020A1 (ko) 치과용 3차원 데이터 처리장치 및 그 방법
WO2017222089A1 (ko) 치아모델 교합용 장치 및 이를 이용한 교합방법
WO2021133120A2 (ko) 구조물 데이터 매칭 방법 및 이를 이용한 구조물 데이터 매칭 시스템
WO2017113689A1 (zh) 虚拟现实系统中的空间定位方法、装置及系统
WO2021133090A2 (ko) 구강스캐너에 내장된 광학요소 검사 방법 및 이를 이용한 시스템
WO2020130598A1 (ko) 3차원 구강 스캐너 및 이를 이용한 구강 스캔 방법
WO2017191878A1 (ko) 치아 움직임 추적 장치 및 그 방법
WO2022085966A1 (ko) 구강 이미지 처리 장치 및 구강 이미지 처리 방법
WO2021025296A1 (ko) 크라운 모델 자동 추천방법 및 이를 수행하는 보철 캐드 장치
WO2018066763A1 (ko) 임플란트 진단용 영상 생성 시스템 및 그 생성방법
WO2021133099A2 (ko) 그룹 데이터에 의한 정렬 방법
WO2021261724A1 (ko) 인공치아 제조정보 생성방법 및 인공치아 제조 시스템
WO2020209495A1 (ko) 영상 데이터의 전처리 장치
WO2020171589A1 (ko) 구강 및 인상의 복합 스캔 시스템 및 방법
WO2015194914A1 (ko) 치아 구조 모형 3d 스캐닝용 테이블
WO2020197109A1 (ko) 치아 영상 정합 장치 및 방법
WO2022065756A1 (ko) 구강 이미지 처리 장치, 및 구강 이미지 처리 방법
WO2021215843A1 (ko) 구강 영상의 마커 검출 방법 및 이를 이용한 구강 영상 정합 장치 및 방법
WO2021215816A1 (ko) 얼라인 상태 표현 장치 및 방법
WO2022260442A1 (ko) 구강 이미지를 처리하는 데이터 처리 장치 및 구강 이미지 처리 방법
WO2024122875A1 (ko) 딥러닝을 이용한 크라운 교합면 3d 메쉬 생성 방법 및 이를 이용하는 장치
WO2021172952A1 (ko) 스캔 데이터의 후처리 시스템 및 스캔 데이터의 후처리 방법
WO2022045650A1 (ko) 3차원 스캐너 디바이스, 동작 방법, 및 그 동작 방법을 실행하기 위한 프로그램이 저장된 컴퓨터 판독 가능 저장 매체
WO2021133086A2 (ko) 3차원 스캐너의 데이터 통합 방법 및 이를 이용한 시스템
WO2023003192A1 (ko) 이미지 처리 장치, 및 이미지 처리 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20906611

Country of ref document: EP

Kind code of ref document: A2

ENP Entry into the national phase

Ref document number: 2020906611

Country of ref document: EP

Effective date: 20220624

NENP Non-entry into the national phase

Ref country code: DE