WO2021172952A1 - System for post-processing scan data and method for post-processing scan data - Google Patents

System for post-processing scan data and method for post-processing scan data Download PDF

Info

Publication number
WO2021172952A1
WO2021172952A1 PCT/KR2021/002489 KR2021002489W WO2021172952A1 WO 2021172952 A1 WO2021172952 A1 WO 2021172952A1 KR 2021002489 W KR2021002489 W KR 2021002489W WO 2021172952 A1 WO2021172952 A1 WO 2021172952A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
processing unit
scanner
unit
main processing
Prior art date
Application number
PCT/KR2021/002489
Other languages
French (fr)
Korean (ko)
Inventor
이동훈
Original Assignee
주식회사 메디트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메디트 filed Critical 주식회사 메디트
Priority claimed from KR1020210026602A external-priority patent/KR102575216B1/en
Publication of WO2021172952A1 publication Critical patent/WO2021172952A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder

Definitions

  • the present invention relates to a post-processing system of scan data and a post-processing method of scanned data, and more particularly, to raw data of an object obtained through a photographing unit of a scanner.
  • the present invention relates to a post-processing system for scan data that is generated as 3D data through a processing unit built into a scanner, and a post-processing method for scan data.
  • 3D scanning technology is used in various industrial fields such as reverse engineering, measurement, inspection, content creation, CAD/CAM, and the like.
  • the 3D scanning technology is used to obtain accurate dimensional information and shape information about the patient's affected part (including the internal components of the oral cavity, such as teeth and gums) for manufacturing a dental prosthesis.
  • the use of an oral scanner that captures the inside of the patient's mouth by holding it in the hand of a therapist is increasing. .
  • the oral scanner is generally powered through a wire and transmits the captured information to a PC connected to the oral scanner by wire.
  • the PC that received the information photographed by the oral scanner generated three-dimensional data using the processing device of the PC and displayed it on the screen.
  • the present invention acquires raw data from a scanner, stores the raw data first in a storage unit formed inside the scanner, and then transmits the raw data to the main processing unit when the scanner is connected to a main processing unit physically separated from the scanner
  • An object of the present invention is to provide a post-processing system for scan data and a post-processing method for scan data that perform an alignment process between raw data and a process of generating final 3D data.
  • the present invention obtains raw data from a scanner, performs pre-processing in a sub-processing unit built into the scanner, and transmits at least one of raw data and pre-processing data to a main processing unit to generate final 3D data
  • An object of the present invention is to provide a post-processing system for scan data and a post-processing method for scan data.
  • the post-processing system for scan data comprises at least one of an alignment process and a final three-dimensional data generation process based on a scanner for scanning an object, and a scanner that is physically spaced apart from the scanner and obtained from the scanner. and a main processing unit that performs a connection unit, and a communication unit for transmitting the stored two-dimensional image to the main processing unit when the scanner is connected to the main processing unit, wherein the main processing unit receives three-dimensional data based on the transmitted two-dimensional image and aligning at least two or more of the three-dimensional data.
  • the scanner may further include a sub-processing unit that transmits a control signal to the photographing unit.
  • the photographing unit includes a projector for irradiating light toward the object, and a camera for receiving light reflected from the object, wherein the sub-processing unit transmits a light output signal to the projector, and the camera transmits the light
  • the two-dimensional image may be acquired according to the output signal.
  • the scanner further includes an identification unit for dividing the plurality of obtained two-dimensional images into a first two-dimensional image and a second two-dimensional image, the main processing unit, based on the first two-dimensional image
  • the first 3D data may be generated
  • the second 3D data may be generated based on the second 2D image.
  • the main processing unit may generate group data when the alignment fails and align at least two or more of the group data.
  • a system for post-processing scan data includes a scanner for scanning an object, and an alignment process and a final three-dimensional data generation process based on data acquired from the scanner and physically spaced apart from the scanner and a main processing unit that performs at least one of the scanner, wherein the scanner is generated by a photographing unit that acquires a plurality of two-dimensional images, a sub-processing unit that performs processing based on the two-dimensional image, and the sub-processing unit
  • a storage unit for storing the pre-processing data, a connection unit for determining whether the main processing unit is connected, and a transmission unit for transmitting the pre-processing data to the main processing unit when the scanner is connected to the main processing unit,
  • the main processing unit generates final 3D data based on the received preprocessing data.
  • the sub-processing unit may perform alignment based on the pre-processing data.
  • the scanner may further include a feedback unit for generating feedback when the alignment fails.
  • the scanner By using the scan data post-processing system and scan data post-processing method according to the present invention, the scanner generates raw data and/or pre-processing data and stores it in a storage unit, aligning process, and final 3D data generation
  • the process and the like are performed in the main processing unit formed spaced apart from the outside of the scanner, so that scanning is possible even when not connected to the main processing unit in real time, thereby providing a free scanning environment to the user.
  • the scanner since the scanner includes the identification unit and forms the raw data (two-dimensional images) divided by the identification unit into one 3D data, there is an advantage in that the reliability of the 3D data is improved.
  • the scanner acquires raw data and performs a simple processing process, and the main processing unit performs alignment between 3D data, there is an advantage in improving the scanning speed.
  • the part that has failed to be aligned is visually displayed to the user through the alignment error display unit, the user can accurately identify the part that requires additional scanning, and has the advantage of rapidly improving data reliability through additional scanning of the part. have.
  • FIG. 1 is a schematic perspective view of a scanner, which is a configuration of a system for post-processing scan data according to the present invention.
  • FIG. 2 is a conceptual diagram of a scanner, which is a configuration of a system for post-processing scan data according to the present invention.
  • FIG. 3 is a communication conceptual diagram of a system for post-processing scan data according to the present invention.
  • FIG. 4 is a schematic flowchart of a method for post-processing scan data according to the present invention.
  • FIG. 5 is a schematic flowchart of a method for post-processing scan data according to the present invention.
  • FIG. 6 is a schematic flowchart of a method for post-processing scan data according to the present invention.
  • FIG. 1 is a schematic perspective view of a scanner that is a component of a system for post-processing scan data according to the present invention
  • FIG. 2 is a conceptual diagram of a scanner that is a component of a system for post-processing scan data according to the present invention.
  • an opening is formed at one end so that it is possible to enter or withdraw the inside of the oral cavity and the appearance of the interior of the oral cavity (object) is incident in the form of light.
  • It may include a scanner 1 including a case 10 .
  • the case 10 of the scanner 1 may include a tip case 14 and a body case 11, wherein the tip case 14 is in direct contact with the inside of the oral cavity in order to scan the inside of the patient's oral cavity. part, and the main body case 11 is a photographing unit 20, a storage unit 30, a sub-processing unit 40, an identification unit 50, a connection unit 60, a communication unit 70, a power supply unit ( 80), and the feedback unit 90 may be built-in.
  • Each part that may be formed inside the body case 11 will be described later.
  • Every object exhibits its shape, shape, and color by refracting or reflecting the light it shines on.
  • the light refracted or reflected by the object is received by the eye, and the received light is focused on the retina, so that the object can be visually recognized.
  • the photographing unit 20 serves as a human eye.
  • the photographing unit 20 is formed to be disposed inside the main body case 11 of the scanner 1 . More specifically, the light incident through the opening of the tip case 14 is received by at least one camera (21).
  • the camera 21 may be one single camera, or two or more multi-cameras. In order to obtain reliable three-dimensional three-dimensional data, the camera 21 of the photographing unit 20 may be composed of two or more multi-cameras and disposed inside the body case 11 .
  • the scanner 1 sends the light received through the camera 21 to the imaging sensor 23 formed on the imaging board electrically connected to the camera 21 to generate raw data.
  • the raw data may be a two-dimensional image. That is, the imaging sensor 23 converts the light received by the camera 21 into digital image data.
  • the imaging sensor 23 may be a known CCD sensor, a CMOD sensor, or the like, but is not necessarily limited thereto, and any sensor that converts light into digital image data may be used.
  • the photographing unit 20 may include a projector 22 .
  • the projector 22 irradiates light toward the inside of the oral cavity when the user uses the scanner 1 to photograph the inside of the oral cavity.
  • the projector 22 may irradiate the light generated by the projector 22 into the oral cavity through the opening formed in the tip case 14 .
  • the light generated by the projector 22 may have various forms.
  • the light generated by the projector 22 may be light having a wavelength in the visible ray region.
  • the light irradiated into the oral cavity from the projector 22 may be structured light.
  • the photographing unit 20 has been described as including a camera 21 , a projector 22 , and an imaging sensor 23 .
  • the photographing unit 20 is not limited to including only the described components.
  • the photographing unit 20 includes an optical device (eg, a lens) for acquiring three-dimensional data using a triangulation method or a confocal method, a motor for driving the optical device, It may include a projector 22 for irradiating light to the inside of the oral cavity (object), and an imaging sensor 23 for generating a two-dimensional image from the light reflected from the inside of the oral cavity.
  • FIG. 3 is a communication conceptual diagram of a system for post-processing scan data according to the present invention.
  • the raw data (eg, a two-dimensional image) acquired by the photographing unit 20 may be stored in the storage unit 30 formed inside the scanner 1 . Since the scanner 1 has its own storage unit 30 , raw data and/or preprocessing data may be stored in the storage unit 30 .
  • the stored data may be connected to the main processing unit 2 in a wired/wireless manner and then transmitted. A process in which data is transmitted to the main processing unit 2 will be described later.
  • the raw data obtained by the photographing unit 20 is transmitted to the sub-processing unit 40 .
  • the sub-processing unit 40 may perform various tasks.
  • the sub-processing unit 40 may serve to generate pre-processing data from raw data that is a two-dimensional image.
  • the preprocessing data may include raw data divided according to a predetermined criterion, 3D data generated based on a plurality of raw data, or a first alignment (local alignment) of the generated 3D data. performed data, and the like.
  • the sub-processing unit 40 may control the storage unit 30 to store the raw data obtained by the photographing unit 20 .
  • the sub-processing unit 40 may control the projector 22 of the photographing unit 20 to irradiate a specific type of light to the object. Also, the sub-processing unit 40 may control the identification unit 50 to be described later to identify the obtained raw data according to a predetermined criterion based on the operation of the photographing unit 20 . In addition, the sub-processing unit 40 transmits to the storage unit 30 through the communication unit 70 based on the result of determining whether the connection unit 60 to be described later is connected to the scanner 1 and the main processing unit 2 . The stored raw data and/or pre-processing data may be controlled to be transmitted to the main processing unit 2 .
  • the sub-processing unit 40 may control the photographing unit 20 .
  • the sub-processing unit 40 may control the projector 22 of the photographing unit 20 to irradiate a specific type of light to the object, and the light may be structured light.
  • the sub-processing unit 40 may transmit a light output signal to the projector 22 to control the plurality of patterns to be continuously irradiated.
  • the sub-processing unit 40 may include the projector 22 using the first pattern P1 , the second pattern P2 , the third pattern P3 , the fourth pattern P4 , and the fifth pattern P5 .
  • the sixth pattern P6 , the seventh pattern P7 , the eighth pattern P8 , the ninth pattern P9 , and the tenth pattern P10 may be sequentially and continuously output.
  • the first to tenth patterns P1, P2, P3, P4, P5, P6, P7, P8, P9, and P10 may have different patterns.
  • the imaging sensor 23 is a row of the object on which the first to tenth patterns (P1, P2, P3, P4, P5, P6, P7, P8, P9, P10) are projected in accordance with the pattern irradiated according to the light output signal. Data (two-dimensional images) can be acquired.
  • the sub-processing unit 40 may control the storage unit 30 to store the raw data obtained by the photographing unit 20 .
  • the photographing unit 20 stores the raw data of the object in the storage unit 30 , and thereafter, when the scanner 1 is electrically connected to the main processing unit 2 , the raw data stored in the storage unit 30 is may be transmitted to the main processing unit 2 .
  • the storage unit 30 may be formed in the form of a chip, but is not limited thereto. Also, if necessary, the storage unit 30 may be formed to allow capacity expansion by inserting an external memory device. As such, the storage unit 30 is formed inside the scanner 1 , so that the raw data acquired through the photographing unit 20 is stored even if the scanner 1 is not always connected to a device such as the main processing unit 2 . It can be stored, and there is an advantage that the scanner 1 can be used even when the main processing unit 2 does not exist or is physically separated from each other.
  • the scanner 1 may further include an identification unit 50 for dividing the plurality of 2D images acquired by the photographing unit 20 into a first 2D image and a second 2D image, and sub-processing
  • the unit 40 may control the identification unit 50 to classify the plurality of 2D images into a first 2D image and a second 2D image.
  • the plurality of two-dimensional images acquired by the photographing unit 20 may be divided into at least two or more groups of two-dimensional images, for example, a third two-dimensional image, a fourth two-dimensional image, and the like are additionally divided.
  • the first 2D image may mean a set of 2D images for generating the first 3D data when the main processing unit 2 generates 3D data.
  • the second 2D image may mean a set of 2D images for generating the second 3D data when the main processing unit 2 generates 3D data. That is, one 3D data is generated based on a plurality of consecutively acquired 2D images.
  • the plurality of two-dimensional images may be P1 pattern images to P10 pattern images obtained by irradiating different patterns (eg, first to tenth patterns).
  • the identification unit 50 identifies and classifies a total of 10 pattern images from the P1 pattern image to the P10 pattern image projected at a specific point in time as the first two-dimensional image, and is projected at the next point in time at the specific point in time.
  • a total of 10 pattern images from the P1 pattern image to the P10 pattern image may be identified and distinguished as the second two-dimensional image.
  • the main processing unit 2 may be connected to the scanner 1 and then generate 3D data based on a large amount of 2D images transmitted from the scanner 1 . If the two-dimensional image is not identified and distinguished, a problem arises in that three-dimensional data is generated based on an incorrect set of two-dimensional images. Illustratively, if the two-dimensional image is not identified, nine pattern images from the P2 pattern image to the P10 pattern image projected at a specific point in time and one pattern image of the P1 pattern image projected at the next point in time at a specific point in time are one of 3D data can be created. In this case, the generated three-dimensional data may have an inaccurate shape, and there is a risk of lowering the reliability of the three-dimensional data. Accordingly, the process of classifying the two-dimensional image so that the different pattern images form one set by the identification unit 50 has an advantage of improving the reliability of the three-dimensional data.
  • the identification unit 50 may perform the identification process by assigning an index to all the two-dimensional images acquired by the photographing unit 20, but may also perform the identification process using other methods.
  • the two-dimensional image identification process by the identification unit 50 is at least one of the first obtained two-dimensional image and the last obtained two-dimensional image (eg, a P1 pattern image, or a P10 pattern image, or The P1 pattern image and the P10 pattern image) may be assigned an index, and it may be performed by checking whether a total of 10 two-dimensional images are acquired between them. That is, 'identification' may mean to distinguish a two-dimensional image used to generate each three-dimensional data, and in addition to the above-described methods, any one of various known methods is used to distinguish a two-dimensional image. may be used.
  • the sub-processing unit 40 determines whether the connection unit 60 is connected to the scanner 1 and the main processing unit 2, based on the result of determining whether the row stored in the storage unit 30 through the communication unit 70 is Data and/or preprocessing data may be controlled to be transmitted to the main processing unit 2 .
  • the connection unit 60 determines whether the scanner 1 and the main processing unit 2 are connected after the scan by the photographing unit 20 is finished. For example, whether the scanner 1 and the main processing unit 2 are connected may be determined based on whether they can interact electrically and communicatively.
  • the communication unit 70 may transmit the raw data and/or preprocessing data stored in the storage unit 30 to the outside according to the control signal of the subprocessing unit 40 .
  • the wireless communication method used by the communication unit 70 various communication technologies such as Wi-fi, ZigBee, Bluetooth, LoRa, etc. which are typically used in the wireless communication field may be used. However, it is not necessarily limited to the communication technology mentioned in the present invention, and data stored in the storage unit 30 is transmitted to the main processing unit 2 by a wired connection between the scanner 1 and the main processing unit 2 . may be
  • the main processing unit 2 may complete a process that has not been completed in the sub-processing unit 40 of the scanner 1 .
  • the uncompleted process is a process of generating 3D data from a set of raw data (2D images) in the subprocessing unit 40, or performing a first alignment (local alignment) between these 3D data. It may be a process of performing the first alignment (local alignment), or it may be an operation of performing an overall additional alignment (global alignment or second alignment) between data on which the first alignment (local alignment) has been previously performed.
  • the alignment process may be described as a concept including at least one of a first alignment and a second alignment.
  • the alignment process may use an Iterative Closest Point (ICP) algorithm. For example, a common region of the first 3D data and the second 3D data may be derived and combined.
  • ICP Iterative Closest Point
  • the main processing unit 2 performs an aligning process (first aligning step and second aligning step) on the 3D image data already generated through the scanner 1 , so as to set a group of data as a whole. ) can be created. That is, the aligned 3D data may constitute a data set constituting an upper jaw, a data set constituting a mandible, and a data set constituting an occlusion, respectively.
  • the main processing unit 2 when the main processing unit 2 receives only raw data, which is two-dimensional image data, through the communication unit 70 of the scanner 1, the main processing unit 2 receives the received two-dimensional image data. is converted into 3D data, a first alignment (local alignment) between 3D image data, and a group of data sets of 3D data generated through the first alignment (for example, the maxilla).
  • the second alignment (global alignment) of the data set forming the mandible, the data set forming the mandible, and the data set forming the occlusion) may be sequentially performed.
  • a plurality of 2D images are combined with each other to form one 3D data shot.
  • Alignment is performed between these 3D data shots (that is, the newly acquired 3D data shot is aligned with the previous 3D data shot). ) is called first alignment (local alignment). Also, the overall alignment of all 3D data shots on which the first alignment has been performed is referred to as a second alignment (global alignment).
  • the main processing unit 2 may be a cloud-type processor. Since the sub-processing unit 40 must select an appropriate processor according to the size and standard of the scanner 1 , the amount and speed of data that can be processed by the sub-processing unit 40 may be limited. Accordingly, for example, the sub-processing unit 40 controls the identification unit 50 to classify raw data according to a predetermined criterion, and generates 3D data, a first alignment operation, and an additional alignment operation. Data merging through (second alignment) may be performed in the cloud-type main processing unit 2 .
  • the main processing unit 2 may be formed to be physically spaced apart from the scanner 1 , and receive data through the communication unit 70 of the scanner 1 to receive the final three-dimensional data (the entire interior of the merged oral cavity). 3D model) can be created. Since the main processing unit 2 is formed in a cloud form, there is an advantage that high-speed operation of data from a device (scanner) with relatively low performance is possible through cloud computing.
  • the scanner 1 may be operated wirelessly.
  • the restrictions placed on the user (or the therapist) when using the scanner 1 are minimized.
  • the scanner 1 may be independently powered. Therefore, the scanner 1 used in the post-processing system of scan data according to the present invention includes a photographing unit 20 , a storage unit 30 , a sub-processing unit 40 , an identification unit 50 , a connection unit 60 , and a communication unit. 70 , and a power supply unit 80 for supplying power to drive the feedback unit 90 may be further included.
  • the power supply unit 80 may be used as the power supply unit 80 , but a battery for supplying DC power may be used to stably supply power to each part constituting the scanner 1 .
  • the battery may be in the form of a standardized AA, AAA, 9V battery, etc., or a lithium-ion type rechargeable battery designed in consideration of the standard of the scanner 1 .
  • the sub-processing unit 40 may control to store the raw data obtained by the photographing unit 20 in the storage unit 30 .
  • the sub-processing unit 40 divides the obtained raw data according to a predetermined criterion, 3D data generated based on the raw data, and preprocessing data including a first alignment of the generated 3D data. It can also be controlled to be stored in the storage unit 30 . Thereafter, the preprocessing data stored in the storage unit 30 may be transmitted to the main processing unit 2 when the scanner 1 is electrically connected to the main processing unit 2 .
  • the sub-processing unit 40 may generate preprocessing data. For example, the sub-processing unit 40 may classify the plurality of raw data according to the operation of the identification unit 50 . As another example, the sub-processing unit 40 may generate 3D data from a plurality of raw data (2D images). As another example, the sub-processing unit 40 may first align (locally align) the 3D data generated from the raw data to generate concatenated and aligned data. At this time, in the first alignment process, a common area of the first 3D data and the second 3D data is derived and combined, and a common area of the second 3D data and the third 3D data is derived and combined. It may mean a sequential connection and alignment process. The first alignment process may use an Interactive Closest Point (ICP) algorithm.
  • ICP Interactive Closest Point
  • the main processing unit 2 may complete a process that has not been completed in the sub-processing unit 40 of the scanner 1 .
  • the uncompleted process may be an alignment process, wherein the alignment process is an overall additional alignment (global alignment, second alignment) between preprocessing data for which the first alignment (local alignment) has already been performed. ) may be a task to be performed.
  • the alignment process may use an ICP (Interactive Closest Point) algorithm.
  • the main processing unit 2 When the main processing unit 2 receives the raw data and the preprocessing data, which are two-dimensional images, through the communication unit 70 of the scanner 1, the main processing unit 2 performs the sub-processing unit ( 40), it is possible to generate the final 3D data by performing the process that was not completed.
  • the process that is not completed in the sub-processing unit 40 may be a second alignment (global alignment) process for connecting the preprocessing data as a whole.
  • the alignment process (eg, the first alignment process) aligns between the first 3D data and the second 3D data, and then aligns between the second 3D data and the third 3D data. proceeds sequentially.
  • the scan is not performed until the alignment process is successful.
  • the sub-processing unit 40 according to the first embodiment does not perform an alignment process, and the scanner 1 is connected to the main processing unit 2 before being connected to the main processing unit 2 .
  • the alignment process may not be performed, and in this case, the alignment failure cannot be confirmed. Therefore, in the stage in which the scan is performed by the photographing unit 20, raw data is continuously acquired regardless of whether the alignment fails, and then group data is generated when the main processing unit 2 determines the alignment failure.
  • one 3D data group (first 3D data group) combined by the alignment of the first 3D data and the second 3D data group data), and a new 3D data group (second group data) may be generated again from the third 3D data.
  • first 3D data group combined by the alignment of the first 3D data and the second 3D data group data
  • second group data a new 3D data group
  • an additional alignment process between the group data is performed based on the common area to generate one 3D model.
  • the sub-processing unit 40 may transmit an error signal.
  • the sub-processing unit 40 determines that alignment failure between the three-dimensional data is aligned, the sub-processing unit 40 transmits an error signal to the feedback unit 90 .
  • the feedback unit 90 may be an actuator that notifies the user of the alignment failure tactilely.
  • the feedback unit 90 receiving the error signal may notify the user of the alignment failure by using at least one of various vibration patterns such as one-time vibration, vibration of a certain period, or continuous vibration. Even if the scanner 1 is not connected to the main processing unit 2 , the user can detect whether or not the alignment has failed at the site performing the scan, and can perform the scanning process more closely.
  • the sub-processing unit 40 sends an error signal to the main processing unit 2 so that the user can display the alignment error display unit 3 . It allows you to visually check the point of occurrence of the alignment error. Accordingly, the user can detect the alignment failure through the feedback unit 90 when the scanner 1 is not connected with the main processing unit 2 , and the scanner 1 is connected with the main processing unit 2 . In this case, an alignment failure may be detected through the feedback unit 90 and the alignment error display unit 3 .
  • 4 to 6 are schematic flowcharts of a method for post-processing scan data according to the present invention.
  • the method for post-processing scan data using the post-processing system for scan data according to the present invention light incident from the opening of the scanner is received by the camera 21 of the photographing unit 20 .
  • the step S2 and the received light may include a raw data (two-dimensional image) acquisition step S3 of acquiring raw data by the imaging sensor 23 of the photographing unit 20 .
  • the scanning step (S2) the patient's affected part (meaning teeth, gums, etc.) is photographed by inserting (retracting) the scanner 1 into the oral cavity so that the opening of the scanner 1 faces the interior of the oral cavity.
  • raw data corresponding to an image shot required for forming at least one 3D data may be stored in a storage medium (storing step). Meanwhile, the storage medium may be interpreted as having the same meaning as the storage unit 30 as described above.
  • the scan ends, and the raw data stored in the storage medium may be transmitted to the main processing unit 2 formed outside the scanner (transmission step) ).
  • the data transmitted to the main processing unit 2 may be raw data and data obtained by dividing the raw data according to a predetermined criterion.
  • the data transmitted to the main processing unit 2 may be 3D data generated based on the raw data.
  • the data transmitted to the main processing unit 2 may be data that has been first aligned (locally aligned) by the sub-processing unit 40 .
  • the main processing unit 2 performs both the first alignment and the second alignment, only raw data stored in the storage medium may be transmitted to the main processing unit 2 .
  • the light from the projector 22 formed inside the scanner 1 so as to be disposed on one side of the photographing unit 20 A light irradiation step (S1) for generating may be further included.
  • the light generated in the light irradiation step S1 may preferably be light having a wavelength in the visible ray region.
  • the light generated from the projector 22 may have a form of structured light for converting a 2D image into 3D data.
  • raw data two-dimensional image
  • three-dimensional data may be generated from depth information of the obtained raw data.
  • the sub-processing unit 40 may generate 3D data, and a first alignment between 3D data (local alignment) It may include a preprocessing step (S4) to perform.
  • the 3D data may be a shot of the 3D data before being generated in the form of one whole 3D volume data set. That is, it may mean shots of three-dimensional data before forming a data set as one mandibular data, one maxillary data, or one occlusal data.
  • the raw data and the 3D data obtained according to the above-described process, and the first alignment performance data between shots of the 3D data may be stored in the storage unit 30 formed inside the scanner 1 .
  • the three-dimensional image data generated in the pre-processing step S4 may then be transmitted to the main processing unit 2 through the communication unit 70 formed in the scanner 1 to be second aligned (global alignment) ( S5).
  • the transmitted data may be at least one of raw data, 3D data generated by the subprocessing unit 40 , or data on which first alignment is performed on shots of 3D data.
  • Raw data, 3D data, or data on which the first alignment is performed are stored in the storage unit 30 formed inside the scanner 1 , and loaded by the sub-processing unit 40 to communicate with the communication unit 70 . through the main processing unit 2 .
  • wireless communication methods such as Wifi, ZigBee, Bluetooth, and LoRa, which are known as wireless communication methods, may be used.
  • Wifi Wifi
  • ZigBee ZigBee
  • Bluetooth Bluetooth
  • LoRa LoRa
  • the main processing unit 2 may be a hardware computer server, but may be a cloud-type processor.
  • cloud computing high-speed operation using the cloud system is possible even in a device with relatively low performance, which is efficient, and there is an economic advantage because it is not necessary to equip the scanner 1 with an expensive processor.
  • each 3D data transmitted to the main processing unit 2 is fully aligned with respect to the overlapping parts, a main processing step is performed (S6).
  • each 3D data may be performed up to the second alignment. More specifically, the 3D data on which the first alignment process is performed may be formed as a set of maxillary volume data, mandibular volume data, and occlusal volume data, respectively, and the data on which the second alignment process is performed is the patient's It can be the final three-dimensional data representing the entire oral cavity.
  • the main processing step ( S6) may form 3D data from a plurality of raw data, and first align and second align the 3D data to generate final 3D data.
  • the main processing unit 2 transmits an error signal indicating the alignment failure to the alignment error display unit 3 (S71).
  • the alignment failure means a state in which alignment is impossible due to a low data density in the process of aligning 3D data to be connected to each other.
  • the first alignment or the second alignment becomes impossible, the entire dental data in the oral cavity desired by the user cannot be obtained. Therefore, it is necessary to provide feedback to the user of the fact that an alignment failure has occurred during the first alignment step or the second alignment step.
  • the alignment error display unit 3 that receives an error signal from the main processing unit 2 and is electrically connected to the main processing unit 2 is provided to the main processing unit 2 .
  • An error signal notifying the alignment failure may be transmitted by the user interface, and a point where the alignment failure occurred may be displayed on the user interface of the display screen. The user may then improve the reliability of data by performing additional scans only on the point where the alignment failure occurred on the display screen.
  • the main processing unit 2 may determine that sufficient data necessary for the alignment process has been collected, and may continuously perform the alignment process (S8).
  • the scanner 1 itself may notify the user of the alignment failure. Referring to FIG. 6 , it is determined whether an alignment failure occurs in the preprocessing step S4 (S41). If an alignment failure occurs in the preprocessing step S4, the sub-processing unit 40 transmits an error signal indicating the alignment failure to the above-described feedback unit 90 (S42).
  • the feedback unit 90 receiving the error signal from the sub-processing unit 40 may generate vibrations at the point in time when the alignment failure occurs.
  • the user can easily check the fact that an alignment failure has occurred at the point in time when the vibration is sensed, and the reliability of data can be improved by performing additional scans on the part scanned at the time point.
  • the sub-processing unit 40 may determine that sufficient data necessary for the alignment process has been collected, and may continuously perform the alignment process (S43).
  • data before the alignment failure occurs may be grouped to form group data
  • data after the alignment failure may be grouped to form new group data.
  • the process of generating group data when the alignment fails is the same as described above.
  • the present invention relates to a scan including a scanner for scanning an object, and a main processing unit that is physically spaced apart from the scanner and performs at least one of an alignment process and a final 3D data generation process based on data obtained from the scanner
  • a data post-processing system is provided.

Abstract

A system for post-processing scan data according to the present invention comprises: a scanner for scanning an object; and a main processing unit that is formed to be physically spaced apart from the scanner and that performs at least one of an alignment process and a final three-dimensional data generation process on the basis of data acquired from the scanner, wherein the scanner comprises: a photographing unit that acquires a plurality of two-dimensional images; a storage unit that stores the two-dimensional images acquired from the photographing unit; a connection unit that determines whether the main processing unit is connected; and a communication unit that transmits the stored two-dimensional images to the main processing unit when the scanner is connected to the main processing unit, and wherein the main processing unit generates three-dimensional data on the basis of the transmitted two-dimensional images, and aligns at least two pieces of the three-dimensional data.

Description

스캔 데이터의 후처리 시스템 및 스캔 데이터의 후처리 방법Scan data post-processing system and scan data post-processing method
본 발명은 스캔 데이터의 후처리 시스템 및 스캔 데이터의 후처리 방법(After-processing system and after-processing method of scanned data)에 관한 것으로, 보다 상세하게는 스캐너의 촬영부를 통해 획득한 대상체의 로우 데이터를 스캐너에 내장된 프로세싱부를 통하여 3차원 데이터로 생성하는 스캔 데이터의 후처리 시스템 및 스캔 데이터의 후처리 방법에 관한 것이다.The present invention relates to a post-processing system of scan data and a post-processing method of scanned data, and more particularly, to raw data of an object obtained through a photographing unit of a scanner. The present invention relates to a post-processing system for scan data that is generated as 3D data through a processing unit built into a scanner, and a post-processing method for scan data.
3차원 스캐닝 기술은 역설계, 측정, 검사, 컨텐츠 생성, CAD/CAM 등 다양한 산업 분야에서 사용되고 있으며, 컴퓨팅 기술의 발전으로 인하여 스캐닝 성능이 높아지고 점점 다양한 분야에 사용되고 있다.3D scanning technology is used in various industrial fields such as reverse engineering, measurement, inspection, content creation, CAD/CAM, and the like.
3차원 스캐닝 기술은 치과 치료용 보철물 제작을 위하여 환자의 환부(치아, 잇몸 등 구강 내부의 구성을 포함한다)에 대한 정확한 치수 정보 및 형상 정보를 획득하기 위해 사용된다. 최근의 치과 치료 산업 분야에서, 치료자(통상적으로 환자의 상태를 진단, 치료, 의학적 처방을 내리는 의료인이 될 수 있다)가 손에 파지하여 환자의 구강 내부를 촬영하는 구강 스캐너의 이용이 증가하고 있다.The 3D scanning technology is used to obtain accurate dimensional information and shape information about the patient's affected part (including the internal components of the oral cavity, such as teeth and gums) for manufacturing a dental prosthesis. In the recent dental treatment industry, the use of an oral scanner that captures the inside of the patient's mouth by holding it in the hand of a therapist (usually a medical person who diagnoses, treats, and prescribes a medical prescription for a patient's condition) is increasing. .
구강 스캐너는 일반적으로 유선을 통해 전원을 공급받고, 구강 스캐너와 유선상 연결된 PC에 촬영된 정보를 전송한다. 구강 스캐너에 의해 촬영된 정보를 전송받은 PC는, PC의 처리장치를 이용하여 3차원 데이터를 생성하여 화면 상에 표시하였다.The oral scanner is generally powered through a wire and transmits the captured information to a PC connected to the oral scanner by wire. The PC that received the information photographed by the oral scanner generated three-dimensional data using the processing device of the PC and displayed it on the screen.
그러나, 유선으로 PC와 연결된 구강 스캐너는 치료자가 사용할 시에 3차원 스캐닝을 수행하는 동작에 대한 행동상 제약이 따르게 된다. 즉, PC와 연결되어 있지 않은 환경에서는 전원 또는 구강 내부를 스캔한 데이터의 처리가 제한될 가능성이 있다.However, when the oral scanner connected to the PC by wire is used by the therapist, there are behavioral restrictions on the operation of performing 3D scanning. That is, in an environment that is not connected to a PC, there is a possibility that the processing of data scanned by power or the inside of the oral cavity may be limited.
본 발명은 스캐너에서 로우 데이터를 획득하여 상기 로우 데이터를 스캐너 내부에 형성된 저장부에 먼저 저장하고, 이후 스캐너가 상기 스캐너와 물리적으로 이격된 메인 프로세싱 유닛에 연결되면 상기 로우 데이터를 메인 프로세싱 유닛으로 전송하여 로우 데이터들 간의 얼라인하는 과정 및 최종 3차원 데이터를 생성하는 과정을 수행하는 스캔 데이터의 후처리 시스템 및 스캔 데이터의 후처리 방법을 제공하기 위한 것이다.The present invention acquires raw data from a scanner, stores the raw data first in a storage unit formed inside the scanner, and then transmits the raw data to the main processing unit when the scanner is connected to a main processing unit physically separated from the scanner An object of the present invention is to provide a post-processing system for scan data and a post-processing method for scan data that perform an alignment process between raw data and a process of generating final 3D data.
또한, 본 발명은 스캐너에서 로우 데이터를 획득하여 스캐너에 내장된 서브 프로세싱부에서 프리프로세싱을 수행하고, 로우 데이터 및 프리프로세싱 데이터 중 적어도 하나를 메인 프로세싱 유닛으로 전송하여 최종 3차원 데이터를 생성하는 과정을 수행하는 스캔 데이터의 후처리 시스템 및 스캔 데이터의 후처리 방법을 제공하기 위한 것이다.In addition, the present invention obtains raw data from a scanner, performs pre-processing in a sub-processing unit built into the scanner, and transmits at least one of raw data and pre-processing data to a main processing unit to generate final 3D data An object of the present invention is to provide a post-processing system for scan data and a post-processing method for scan data.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.
본 발명에 따른 스캔 데이터의 후처리 시스템은, 대상체를 스캔하는 스캐너, 및 상기 스캐너와 물리적으로 이격 형성되고 상기 스캐너로부터 획득된 데이터를 기초로 얼라인 과정 및 최종 3차원 데이터 생성 과정 중 적어도 하나를 수행하는 메인 프로세싱 유닛을 포함하고, 상기 스캐너는, 복수의 2차원 이미지를 획득하는 촬영부, 상기 촬영부로부터 획득된 상기 2차원 이미지를 저장하는 저장부, 상기 메인 프로세싱 유닛의 연결 여부를 판단하는 연결부, 및 상기 스캐너가 상기 메인 프로세싱 유닛과 연결되면 저장된 상기 2차원 이미지를 상기 메인 프로세싱 유닛으로 전송하는 통신부를 포함하고, 상기 메인 프로세싱 유닛은, 전송된 상기 2차원 이미지를 기초로 3차원 데이터를 생성하고, 적어도 2 이상의 상기 3차원 데이터를 얼라인한다.The post-processing system for scan data according to the present invention comprises at least one of an alignment process and a final three-dimensional data generation process based on a scanner for scanning an object, and a scanner that is physically spaced apart from the scanner and obtained from the scanner. and a main processing unit that performs a connection unit, and a communication unit for transmitting the stored two-dimensional image to the main processing unit when the scanner is connected to the main processing unit, wherein the main processing unit receives three-dimensional data based on the transmitted two-dimensional image and aligning at least two or more of the three-dimensional data.
또한, 상기 스캐너는, 상기 촬영부로 제어신호를 전송하는 서브 프로세싱부를 더 포함할 수 있다.In addition, the scanner may further include a sub-processing unit that transmits a control signal to the photographing unit.
또한, 상기 촬영부는, 상기 대상체를 향해 광을 조사하는 프로젝터, 및 상기 대상체로부터 반사된 광을 수용하는 카메라를 포함하고, 상기 서브 프로세싱부는 상기 프로젝터에 광출력 신호를 전송하고, 상기 카메라는 상기 광출력 신호에 따라 상기 2차원 이미지를 획득할 수 있다.In addition, the photographing unit includes a projector for irradiating light toward the object, and a camera for receiving light reflected from the object, wherein the sub-processing unit transmits a light output signal to the projector, and the camera transmits the light The two-dimensional image may be acquired according to the output signal.
또한, 상기 스캐너는, 획득된 상기 복수의 2차원 이미지를 제1 2차원 이미지와 제2 2차원 이미지로 구분하는 식별부를 더 포함하고, 상기 메인 프로세싱 유닛은, 상기 제1 2차원 이미지를 기초로 제1 3차원 데이터를 생성하고, 상기 제2 2차원 이미지를 기초로 제2 3차원 데이터를 생성할 수 있다.In addition, the scanner further includes an identification unit for dividing the plurality of obtained two-dimensional images into a first two-dimensional image and a second two-dimensional image, the main processing unit, based on the first two-dimensional image The first 3D data may be generated, and the second 3D data may be generated based on the second 2D image.
또한, 상기 메인 프로세싱 유닛은, 얼라인 실패 시 그룹데이터를 생성하고, 적어도 2이상의 상기 그룹데이터를 얼라인할 수 있다.Also, the main processing unit may generate group data when the alignment fails and align at least two or more of the group data.
본 발명의 다른 실시예에 따른 스캔 데이터의 후처리 시스템은, 대상체를 스캔하는 스캐너, 및 상기 스캐너와 물리적으로 이격 형성되고 상기 스캐너로부터 획득된 데이터를 기초로 얼라인 과정 및 최종 3차원 데이터 생성 과정 중 적어도 하나를 수행하는 메인 프로세싱 유닛을 포함하고, 상기 스캐너는, 복수의 2차원 이미지를 획득하는 촬영부, 상기 2차원 이미지를 기초로 프로세싱을 수행하는 서브 프로세싱부, 상기 서브 프로세싱부에 의해 생성된 프리프로세싱 데이터를 저장하는 저장부, 상기 메인 프로세싱 유닛의 연결 여부를 판단하는 연결부, 및 상기 스캐너가 상기 메인 프로세싱 유닛과 연결되면 상기 프리프로세싱 데이터를 상기 메인 프로세싱 유닛으로 전송하는 전송부를 포함하고, 상기 메인 프로세싱 유닛은 전송받은 상기 프리프로세싱 데이터를 기초로 최종 3차원 데이터를 생성한다.A system for post-processing scan data according to another embodiment of the present invention includes a scanner for scanning an object, and an alignment process and a final three-dimensional data generation process based on data acquired from the scanner and physically spaced apart from the scanner and a main processing unit that performs at least one of the scanner, wherein the scanner is generated by a photographing unit that acquires a plurality of two-dimensional images, a sub-processing unit that performs processing based on the two-dimensional image, and the sub-processing unit A storage unit for storing the pre-processing data, a connection unit for determining whether the main processing unit is connected, and a transmission unit for transmitting the pre-processing data to the main processing unit when the scanner is connected to the main processing unit, The main processing unit generates final 3D data based on the received preprocessing data.
또한, 상기 서브 프로세싱부는, 상기 프리프로세싱 데이터를 기초로 얼라인을 수행할 수 있다.Also, the sub-processing unit may perform alignment based on the pre-processing data.
또한, 상기 스캐너는, 상기 얼라인 실패시 피드백을 발생시키는 피드백부를 더 포함할 수 있다.In addition, the scanner may further include a feedback unit for generating feedback when the alignment fails.
본 발명에 따른 스캔 데이터의 후처리 시스템 및 스캔 데이터의 후처리 방법을 사용함으로써, 스캐너에서는 로우 데이터 및/또는 프리프로세싱 데이터를 생성하여 저장부에 저장하고, 얼라인 과정, 및 최종 3차원 데이터 생성 과정 등은 스캐너 외부에 이격되어 형성된 메인 프로세싱 유닛에서 수행함으로써, 실시간으로 메인 프로세싱 유닛과 연결되어 있지 않더라도 스캔이 가능하여 사용자에게 자유로운 스캔 환경을 제공하는 이점이 있다.By using the scan data post-processing system and scan data post-processing method according to the present invention, the scanner generates raw data and/or pre-processing data and stores it in a storage unit, aligning process, and final 3D data generation The process and the like are performed in the main processing unit formed spaced apart from the outside of the scanner, so that scanning is possible even when not connected to the main processing unit in real time, thereby providing a free scanning environment to the user.
또한, 스캐너는 식별부를 포함하여, 식별부에 의해 구분된 로우 데이터(2차원 이미지)들을 하나의 3차원 데이터로 형성하므로, 3차원 데이터의 신뢰성이 향상되는 이점이 있다.In addition, since the scanner includes the identification unit and forms the raw data (two-dimensional images) divided by the identification unit into one 3D data, there is an advantage in that the reliability of the 3D data is improved.
또한, 스캐너에서는 로우 데이터를 획득하고 간단한 프로세싱 과정을 수행하며, 메인 프로세싱 유닛에서 3차원 데이터 간의 얼라인을 수행하므로, 스캔 속도를 향상시키는 이점이 있다.In addition, since the scanner acquires raw data and performs a simple processing process, and the main processing unit performs alignment between 3D data, there is an advantage in improving the scanning speed.
또한, 얼라인 실패된 부분은 얼라인 에러 표시부를 통해 사용자에게 시각적으로 표시되므로, 사용자는 추가적으로 스캔이 필요한 부분을 정확하게 파악할 수 있고, 해당 부분의 추가적인 스캔을 통해 신속하게 데이터 신뢰성을 향상시키는 이점이 있다.In addition, since the part that has failed to be aligned is visually displayed to the user through the alignment error display unit, the user can accurately identify the part that requires additional scanning, and has the advantage of rapidly improving data reliability through additional scanning of the part. have.
도 1은 본 발명에 따른 스캔 데이터의 후처리 시스템의 일 구성인 스캐너의 개략적인 사시도이다.1 is a schematic perspective view of a scanner, which is a configuration of a system for post-processing scan data according to the present invention.
도 2는 본 발명에 따른 스캔 데이터의 후처리 시스템의 일 구성인 스캐너의 구성 개념도이다.2 is a conceptual diagram of a scanner, which is a configuration of a system for post-processing scan data according to the present invention.
도 3은 본 발명에 따른 스캔 데이터의 후처리 시스템의 통신 개념도이다.3 is a communication conceptual diagram of a system for post-processing scan data according to the present invention.
도 4는 본 발명에 따른 스캔 데이터의 후처리 방법의 개략적인 순서도이다.4 is a schematic flowchart of a method for post-processing scan data according to the present invention.
도 5는 본 발명에 따른 스캔 데이터의 후처리 방법의 개략적인 순서도이다.5 is a schematic flowchart of a method for post-processing scan data according to the present invention.
도 6은 본 발명에 따른 스캔 데이터의 후처리 방법의 개략적인 순서도이다.6 is a schematic flowchart of a method for post-processing scan data according to the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세히 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and methods for achieving them, will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.
이하에서는 도면을 참조하여 본 발명의 실시예에 대해서 구체적으로 설명하기로 한다.Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
도 1은 본 발명에 따른 스캔 데이터의 후처리 시스템의 일 구성인 스캐너의 개략적인 사시도이고, 도 2는 본 발명에 따른 스캔 데이터의 후처리 시스템의 일 구성인 스캐너의 구성 개념도이다.FIG. 1 is a schematic perspective view of a scanner that is a component of a system for post-processing scan data according to the present invention, and FIG. 2 is a conceptual diagram of a scanner that is a component of a system for post-processing scan data according to the present invention.
도 1 및 도 2를 참조하면, 본 발명에 따른 스캔 데이터의 후처리 시스템은, 구강 내부에 인입 또는 인출이 가능하고 구강 내부(대상체)의 모습이 광의 형태로 입사되도록 개구된 개구부가 일단에 형성된 케이스(10)를 포함하는 스캐너(1)를 포함할 수 있다. 스캐너(1)의 케이스(10)는 팁 케이스(14)와 본체 케이스(11)를 포함할 수 있는데, 팁 케이스(14)는 환자의 구강 내부를 스캔하기 위하여 구강 내부에 그 외면이 직접 접촉하는 부분이고, 본체 케이스(11)는 그 내부에 촬영부(20), 저장부(30), 서브 프로세싱부(40), 식별부(50), 연결부(60), 통신부(70), 전원공급부(80), 및 피드백부(90) 등이 내장되도록 형성될 수 있다. 본체 케이스(11) 내부에 형성될 수 있는 각 부에 대해서는 후술하기로 한다.1 and 2, in the post-processing system of scan data according to the present invention, an opening is formed at one end so that it is possible to enter or withdraw the inside of the oral cavity and the appearance of the interior of the oral cavity (object) is incident in the form of light. It may include a scanner 1 including a case 10 . The case 10 of the scanner 1 may include a tip case 14 and a body case 11, wherein the tip case 14 is in direct contact with the inside of the oral cavity in order to scan the inside of the patient's oral cavity. part, and the main body case 11 is a photographing unit 20, a storage unit 30, a sub-processing unit 40, an identification unit 50, a connection unit 60, a communication unit 70, a power supply unit ( 80), and the feedback unit 90 may be built-in. Each part that may be formed inside the body case 11 will be described later.
스캐너(1)가 로우 데이터를 획득하는 과정을 스캐너(1)의 각 부 설명을 부가하여 함께 설명하기로 한다. 모든 물체는 비추어진 광을 굴절 또는 반사함으로써 그 형상, 모양 및 색채를 나타낸다. 사람의 경우 물체가 굴절 또는 반사한 광을 눈으로 수용하고, 수용된 광이 망막에 상으로 맺히게 되어, 물체를 시각적으로 인식할 수 있게 되는 것이다.A process in which the scanner 1 acquires raw data will be described together with explanations of each part of the scanner 1 . Every object exhibits its shape, shape, and color by refracting or reflecting the light it shines on. In the case of a human, the light refracted or reflected by the object is received by the eye, and the received light is focused on the retina, so that the object can be visually recognized.
한편, 광학 기기에서는 촬영부(20)가 사람의 눈의 역할을 담당한다. 촬영부(20)는 스캐너(1)의 본체 케이스(11) 내부에 배치되도록 형성된다. 보다 상세하게는, 팁 케이스(14)의 개구부를 통해 입사한 광은 적어도 하나의 카메라(21)에 수용된다. 상기 카메라(21)는 1개의 싱글 카메라일 수 있고, 2 이상의 멀티 카메라일 수 있다. 신뢰도 있는 입체적인 3차원 데이터를 획득하기 위하여, 촬영부(20)의 카메라(21)는 2 이상의 멀티 카메라로 구성되어 본체 케이스(11) 내부에 배치될 수 있다.On the other hand, in the optical device, the photographing unit 20 serves as a human eye. The photographing unit 20 is formed to be disposed inside the main body case 11 of the scanner 1 . More specifically, the light incident through the opening of the tip case 14 is received by at least one camera (21). The camera 21 may be one single camera, or two or more multi-cameras. In order to obtain reliable three-dimensional three-dimensional data, the camera 21 of the photographing unit 20 may be composed of two or more multi-cameras and disposed inside the body case 11 .
스캐너(1)는 카메라(21)를 통하여 수용된 광을 카메라(21)와 전기적으로 연결된 이미징 보드 상에 형성된 이미징 센서(23)에 보내 로우 데이터(raw data)를 생성한다. 예시적으로, 로우 데이터는 2차원 이미지일 수 있다. 즉, 이미징 센서(23)는 카메라(21)에 의해 수용된 광을 디지털 이미지 데이터로 변환한다. 이미징 센서(23)는 알려진 CCD 센서, CMOD 센서 등일 수 있으나, 반드시 이에 한정되는 것은 아니며, 광을 디지털 이미지 데이터로 변환하는 어떠한 센서라도 가능하다.The scanner 1 sends the light received through the camera 21 to the imaging sensor 23 formed on the imaging board electrically connected to the camera 21 to generate raw data. For example, the raw data may be a two-dimensional image. That is, the imaging sensor 23 converts the light received by the camera 21 into digital image data. The imaging sensor 23 may be a known CCD sensor, a CMOD sensor, or the like, but is not necessarily limited thereto, and any sensor that converts light into digital image data may be used.
한편, 촬영부(20)는 프로젝터(22)를 포함할 수 있다. 프로젝터(22)는 사용자가 스캐너(1)를 사용하여 구강 내부를 촬영할 때, 상기 구강 내부를 향하여 광을 조사한다. 예시적으로, 프로젝터(22)는 팁 케이스(14)에 형성된 개구부를 통하여 상기 프로젝터(22)에서 생성된 광을 구강 내부에 조사할 수 있다. 프로젝터(22)에서 생성된 광은 다양한 형태일 수 있다. 예시적으로, 프로젝터(22)에서 생성된 광은 가시광선 영역의 파장을 가지는 광일 수 있다. 또한, 촬영된 로우 데이터(2차원 이미지)를 3차원 데이터로 변환하기 위하여, 프로젝터(22)로부터 구강 내부에 조사되는 광은 구조광일 수 있다.Meanwhile, the photographing unit 20 may include a projector 22 . The projector 22 irradiates light toward the inside of the oral cavity when the user uses the scanner 1 to photograph the inside of the oral cavity. Illustratively, the projector 22 may irradiate the light generated by the projector 22 into the oral cavity through the opening formed in the tip case 14 . The light generated by the projector 22 may have various forms. For example, the light generated by the projector 22 may be light having a wavelength in the visible ray region. In addition, in order to convert the photographed raw data (two-dimensional image) into three-dimensional data, the light irradiated into the oral cavity from the projector 22 may be structured light.
전술한 내용에 따르면, 촬영부(20)는 카메라(21)와 프로젝터(22), 및 이미징 센서(23)를 포함하는 것으로 설명되었다. 그러나, 촬영부(20)는 설명된 구성요소만을 포함하는 것으로 한정되지 않는다. 예시적으로, 촬영부(20)는 삼각법(triangulation) 방식 또는 공초점(confocal) 방식을 사용하여 3차원 데이터를 획득하기 위한 광학 기구(예를 들면, 렌즈), 상기 광학 기구를 구동하는 모터, 구강 내부(대상체)에 광을 조사하는 프로젝터(22), 및 구강 내부에서 반사된 광으로부터 2차원 이미지를 생성하는 이미징 센서(23) 등을 포함할 수 있다.According to the above description, the photographing unit 20 has been described as including a camera 21 , a projector 22 , and an imaging sensor 23 . However, the photographing unit 20 is not limited to including only the described components. Illustratively, the photographing unit 20 includes an optical device (eg, a lens) for acquiring three-dimensional data using a triangulation method or a confocal method, a motor for driving the optical device, It may include a projector 22 for irradiating light to the inside of the oral cavity (object), and an imaging sensor 23 for generating a two-dimensional image from the light reflected from the inside of the oral cavity.
도 3은 본 발명에 따른 스캔 데이터의 후처리 시스템의 통신 개념도이다.3 is a communication conceptual diagram of a system for post-processing scan data according to the present invention.
도 1 내지 도 3을 참조하여 스캐너(1)의 세부 구성요소들에 대하여 보다 상세하게 설명한다. 촬영부(20)에서 획득한 로우 데이터(예시적으로, 2차원 이미지)는 스캐너(1) 내부에 형성된 저장부(30)에 저장될 수 있다. 스캐너(1)는 자체적인 저장부(30)를 가짐으로써, 로우 데이터 및/또는 프리프로세싱 데이터를 저장부(30)에 보관할 수 있다. 저장된 데이터는 추후 메인 프로세싱 유닛(2)에 유/무선으로 연결되어 전송될 수 있다. 메인 프로세싱 유닛(2)으로 데이터가 전송되는 과정에 대하여는 후술한다.Detailed components of the scanner 1 will be described in more detail with reference to FIGS. 1 to 3 . The raw data (eg, a two-dimensional image) acquired by the photographing unit 20 may be stored in the storage unit 30 formed inside the scanner 1 . Since the scanner 1 has its own storage unit 30 , raw data and/or preprocessing data may be stored in the storage unit 30 . The stored data may be connected to the main processing unit 2 in a wired/wireless manner and then transmitted. A process in which data is transmitted to the main processing unit 2 will be described later.
촬영부(20)에서 획득된 로우 데이터는 서브 프로세싱부(40)로 전달된다. 이 때, 서브 프로세싱부(40)는 다양한 작업을 수행할 수 있다. 서브 프로세싱부(40)는 2차원 이미지인 로우 데이터로부터 프리프로세싱 데이터를 생성하는 역할을 할 수 있다. 이 때, 프리프로세싱 데이터는, 로우 데이터를 소정 기준에 따라 구분한 것이거나, 복수의 로우 데이터를 기초로 생성된 3차원 데이터이거나, 생성된 3차원 데이터의 제1 얼라인(로컬 얼라인)이 수행된 데이터 등일 수 있다. 또한, 서브 프로세싱부(40)는 촬영부(20)에서 획득한 로우 데이터를 저장부(30)에 저장하도록 제어할 수 있다. 또한, 서브 프로세싱부(40)는 촬영부(20)의 프로젝터(22)가 특정 유형의 광을 대상체에 조사하도록 제어할 수 있다. 또한, 서브 프로세싱부(40)는 후술하는 식별부(50)가 촬영부(20)의 동작에 기초하여, 획득된 로우 데이터를 소정 기준에 따라 식별하도록 제어할 수 있다. 또한, 서브 프로세싱부(40)는 후술하는 연결부(60)가 스캐너(1)와 메인 프로세싱 유닛(2)과 연결되었는지 여부를 판단한 결과에 기초하여, 통신부(70)를 통해 저장부(30)에 저장된 로우 데이터 및/또는 프리프로세싱 데이터를 메인 프로세싱 유닛(2)에 전송하도록 제어할 수 있다.The raw data obtained by the photographing unit 20 is transmitted to the sub-processing unit 40 . In this case, the sub-processing unit 40 may perform various tasks. The sub-processing unit 40 may serve to generate pre-processing data from raw data that is a two-dimensional image. In this case, the preprocessing data may include raw data divided according to a predetermined criterion, 3D data generated based on a plurality of raw data, or a first alignment (local alignment) of the generated 3D data. performed data, and the like. Also, the sub-processing unit 40 may control the storage unit 30 to store the raw data obtained by the photographing unit 20 . Also, the sub-processing unit 40 may control the projector 22 of the photographing unit 20 to irradiate a specific type of light to the object. Also, the sub-processing unit 40 may control the identification unit 50 to be described later to identify the obtained raw data according to a predetermined criterion based on the operation of the photographing unit 20 . In addition, the sub-processing unit 40 transmits to the storage unit 30 through the communication unit 70 based on the result of determining whether the connection unit 60 to be described later is connected to the scanner 1 and the main processing unit 2 . The stored raw data and/or pre-processing data may be controlled to be transmitted to the main processing unit 2 .
이하에서는 서브 프로세싱부(40)의 세부 동작을 실시예별로 나누어 상세히 설명한다. 먼저, 제1 실시예에 따른 스캔 데이터의 후처리 시스템에서의 서브 프로세싱부(40)의 세부 동작을 설명하고, 이어서 제2 실시예에 따른 스캔 데이터의 후처리 시스템에서의 서브 프로세싱부(40)의 세부 동작을 설명한다. 한편, 제2 실시예에서, 서브 프로세싱부(40)의 세부 동작을 설명할 때, 그 동작이 제1 실시예에서의 서브 프로세싱부(40)의 세부 동작과 중복되는 경우, 해당 내용은 간략하게 언급하거나 생략한다.Hereinafter, detailed operations of the sub-processing unit 40 will be described in detail by dividing them according to embodiments. First, a detailed operation of the sub-processing unit 40 in the scan data post-processing system according to the first embodiment will be described, and then the sub-processing unit 40 in the scan data post-processing system according to the second embodiment The detailed operation of Meanwhile, in the second embodiment, when explaining the detailed operation of the sub-processing unit 40, if the operation overlaps with the detailed operation of the sub-processing unit 40 in the first embodiment, the content is briefly mentioned or omitted.
이하에서는, 제1 실시예에서의 서브 프로세싱부(40)의 동작을 설명한다.Hereinafter, the operation of the sub-processing unit 40 in the first embodiment will be described.
서브 프로세싱부(40)는 촬영부(20)를 제어할 수 있다. 서브 프로세싱부(40)는 촬영부(20) 중 프로젝터(22)가 특정 유형의 광을 대상체에 조사하도록 제어할 수 있는데, 상기 광은 구조광일 수 있다. 서브 프로세싱부(40)는 프로젝터(22)에 광출력 신호를 전송하여 복수의 패턴을 연속적으로 조사하도록 제어할 수 있다. 예시적으로, 서브 프로세싱부(40)는 프로젝터(22)가 제1 패턴(P1), 제2 패턴(P2), 제3 패턴(P3), 제4 패턴(P4), 제5 패턴(P5), 제6 패턴(P6), 제7 패턴(P7), 제8 패턴(P8), 제9 패턴(P9), 및 제10 패턴(P10)을 순차적, 연속적으로 출력하도록 제어할 수 있다. 제1 패턴 내지 제10 패턴(P1, P2, P3, P4, P5, P6, P7, P8, P9, P10)은 도시되어 있지는 않으나, 서로 다른 무늬를 가질 수 있다. 이미징 센서(23)는 광출력 신호에 따라 조사되는 패턴에 맞춰 제1 패턴 내지 제10 패턴(P1, P2, P3, P4, P5, P6, P7, P8, P9, P10)이 투영된 대상체의 로우 데이터(2차원 이미지)를 획득할 수 있다.The sub-processing unit 40 may control the photographing unit 20 . The sub-processing unit 40 may control the projector 22 of the photographing unit 20 to irradiate a specific type of light to the object, and the light may be structured light. The sub-processing unit 40 may transmit a light output signal to the projector 22 to control the plurality of patterns to be continuously irradiated. Illustratively, the sub-processing unit 40 may include the projector 22 using the first pattern P1 , the second pattern P2 , the third pattern P3 , the fourth pattern P4 , and the fifth pattern P5 . , the sixth pattern P6 , the seventh pattern P7 , the eighth pattern P8 , the ninth pattern P9 , and the tenth pattern P10 may be sequentially and continuously output. Although not illustrated, the first to tenth patterns P1, P2, P3, P4, P5, P6, P7, P8, P9, and P10 may have different patterns. The imaging sensor 23 is a row of the object on which the first to tenth patterns (P1, P2, P3, P4, P5, P6, P7, P8, P9, P10) are projected in accordance with the pattern irradiated according to the light output signal. Data (two-dimensional images) can be acquired.
또한, 서브 프로세싱부(40)는 촬영부(20)에서 획득한 로우 데이터를 저장부(30)에 저장하도록 제어할 수 있다. 촬영부(20)는 대상체의 로우 데이터를 저장부(30)에 저장하고, 이후 스캐너(1)가 메인 프로세싱 유닛(2)과 전기통신적으로 연결되었을 때 저장부(30)에 저장된 로우 데이터는 메인 프로세싱 유닛(2)으로 전송될 수 있다. 예시적으로, 저장부(30)는 칩의 형태로 형성될 수 있으나, 이에 한정되는 것은 아니다. 또한, 필요에 따라, 저장부(30)는 외장형 메모리 장치를 삽입하여 용량 확장이 가능하도록 형성될 수도 있다. 이와 같이 저장부(30)가 스캐너(1)의 내부에 형성되어, 스캐너(1)가 항상 메인 프로세싱 유닛(2)과 같은 장치와 연결되어 있지 않아도 촬영부(20)를 통해 획득한 로우 데이터를 저장할 수 있으며, 메인 프로세싱 유닛(2)이 존재하지 않거나 물리적으로 이격된 상황에서도 스캐너(1)를 사용할 수 있는 이점이 있다.Also, the sub-processing unit 40 may control the storage unit 30 to store the raw data obtained by the photographing unit 20 . The photographing unit 20 stores the raw data of the object in the storage unit 30 , and thereafter, when the scanner 1 is electrically connected to the main processing unit 2 , the raw data stored in the storage unit 30 is may be transmitted to the main processing unit 2 . Illustratively, the storage unit 30 may be formed in the form of a chip, but is not limited thereto. Also, if necessary, the storage unit 30 may be formed to allow capacity expansion by inserting an external memory device. As such, the storage unit 30 is formed inside the scanner 1 , so that the raw data acquired through the photographing unit 20 is stored even if the scanner 1 is not always connected to a device such as the main processing unit 2 . It can be stored, and there is an advantage that the scanner 1 can be used even when the main processing unit 2 does not exist or is physically separated from each other.
또한, 스캐너(1)는 촬영부(20)에 의해 획득된 복수의 2차원 이미지를 제1 2차원 이미지와 제2 2차원 이미지로 구분하는 식별부(50)를 더 포함할 수 있고, 서브 프로세싱부(40)는 식별부(50)로 하여금 복수의 2차원 이미지를 제1 2차원 이미지와 제2 2차원 이미지로 구분하도록 제어할 수 있다. 이 때, 촬영부(20)에 의해 획득된 복수의 2차원 이미지는 적어도 2 이상의 2차원 이미지의 군으로 구분될 수 있으며, 예시적으로 제3 2차원 이미지, 제4 2차원 이미지 등이 추가적으로 구분될 수도 있다.In addition, the scanner 1 may further include an identification unit 50 for dividing the plurality of 2D images acquired by the photographing unit 20 into a first 2D image and a second 2D image, and sub-processing The unit 40 may control the identification unit 50 to classify the plurality of 2D images into a first 2D image and a second 2D image. In this case, the plurality of two-dimensional images acquired by the photographing unit 20 may be divided into at least two or more groups of two-dimensional images, for example, a third two-dimensional image, a fourth two-dimensional image, and the like are additionally divided. could be
식별부(50)의 동작에 대해 보다 상세하게 설명한다. 제1 2차원 이미지는 메인 프로세싱 유닛(2)에서 3차원 데이터를 생성할 때, 제1 3차원 데이터를 생성하기 위한 2차원 이미지의 집합을 의미할 수 있다. 동일하게, 제2 2차원 이미지는 메인 프로세싱 유닛(2)에서 3차원 데이터를 생성할 때, 제2 3차원 데이터를 생성하기 위한 2차원 이미지의 집합을 의미할 수 있다. 즉, 하나의 3차원 데이터는 연속적으로 획득되는 복수의 2차원 이미지를 기초로 생성된다. 이 때, 복수의 2차원 이미지는 서로 다른 패턴(예를 들면, 제1 패턴 내지 제10 패턴)을 조사하여 획득한 P1 패턴 이미지 내지 P10 패턴 이미지일 수 있다. 보다 상세하게는, 식별부(50)는 특정 시점에서 투영된 P1 패턴 이미지 내지 P10 패턴 이미지까지의 총 10개의 패턴 이미지를 제1 2차원 이미지로 식별 및 구분하고, 특정 시점의 다음 시점에서 투영된 P1 패턴 이미지 내지 P10 패턴 이미지까지의 총 10개의 패턴 이미지를 제2 2차원 이미지로 식별 및 구분하도록 동작할 수 있다.An operation of the identification unit 50 will be described in more detail. The first 2D image may mean a set of 2D images for generating the first 3D data when the main processing unit 2 generates 3D data. Similarly, the second 2D image may mean a set of 2D images for generating the second 3D data when the main processing unit 2 generates 3D data. That is, one 3D data is generated based on a plurality of consecutively acquired 2D images. In this case, the plurality of two-dimensional images may be P1 pattern images to P10 pattern images obtained by irradiating different patterns (eg, first to tenth patterns). In more detail, the identification unit 50 identifies and classifies a total of 10 pattern images from the P1 pattern image to the P10 pattern image projected at a specific point in time as the first two-dimensional image, and is projected at the next point in time at the specific point in time. A total of 10 pattern images from the P1 pattern image to the P10 pattern image may be identified and distinguished as the second two-dimensional image.
메인 프로세싱 유닛(2)은 스캐너(1)와 연결된 다음, 스캐너(1)로부터 전송받은 대량의 2차원 이미지를 기초로 3차원 데이터를 생성할 수 있다. 만약, 2차원 이미지가 식별 및 구분되지 않으면, 잘못된 2차원 이미지의 집합을 기초로 3차원 데이터가 생성되는 문제가 발생한다. 예시적으로, 2차원 이미지가 식별되지 않으면, 특정 시점에서 투영된 P2 패턴 이미지 내지 P10 패턴 이미지까지의 9개의 패턴 이미지와, 특정 시점의 다음 시점에서 투영된 P1 패턴 이미지의 1개의 패턴 이미지를 하나의 3차원 데이터로 생성할 수 있다. 이 경우, 생성된 3차원 데이터는 부정확한 형상을 가질 수 있으며, 3차원 데이터의 신뢰도를 저하시킬 우려가 있다. 따라서, 식별부(50)에 의해 서로 다른 패턴 이미지가 하나의 집합을 이루도록 2차원 이미지를 구분하는 과정은 3차원 데이터의 신뢰도를 향상시키는 이점이 있다.The main processing unit 2 may be connected to the scanner 1 and then generate 3D data based on a large amount of 2D images transmitted from the scanner 1 . If the two-dimensional image is not identified and distinguished, a problem arises in that three-dimensional data is generated based on an incorrect set of two-dimensional images. Illustratively, if the two-dimensional image is not identified, nine pattern images from the P2 pattern image to the P10 pattern image projected at a specific point in time and one pattern image of the P1 pattern image projected at the next point in time at a specific point in time are one of 3D data can be created. In this case, the generated three-dimensional data may have an inaccurate shape, and there is a risk of lowering the reliability of the three-dimensional data. Accordingly, the process of classifying the two-dimensional image so that the different pattern images form one set by the identification unit 50 has an advantage of improving the reliability of the three-dimensional data.
식별부(50)는 촬영부(20)에 의해 획득되는 모든 2차원 이미지에 인덱스를 부여하는 방식으로 식별 과정을 수행할 수도 있지만, 이외의 방식을 사용하여 식별 과정을 수행할 수도 있다. 예시적으로, 식별부(50)에 의한 2차원 이미지 식별 과정은 최초로 획득된 2차원 이미지와 최후로 획득된 2차원 이미지 중 어느 하나 이상(예를 들면, P1 패턴 이미지, 또는 P10 패턴 이미지, 또는 P1 패턴 이미지와 P10 패턴 이미지)에 인덱스를 부여하고, 그 사이에 총 10 개의 2차원 이미지가 획득되었는지를 검사하는 방식으로 수행될 수도 있다. 즉, ‘식별’은 각각의 3차원 데이터를 생성하기 위해 사용되는 2차원 이미지를 구분하는 것을 의미할 수 있으며, 전술한 방식들 이외에도 2차원 이미지를 구분하기 위해 다양한 공지의 방식들 중 어느 하나가 사용될 수도 있다.The identification unit 50 may perform the identification process by assigning an index to all the two-dimensional images acquired by the photographing unit 20, but may also perform the identification process using other methods. Illustratively, the two-dimensional image identification process by the identification unit 50 is at least one of the first obtained two-dimensional image and the last obtained two-dimensional image (eg, a P1 pattern image, or a P10 pattern image, or The P1 pattern image and the P10 pattern image) may be assigned an index, and it may be performed by checking whether a total of 10 two-dimensional images are acquired between them. That is, 'identification' may mean to distinguish a two-dimensional image used to generate each three-dimensional data, and in addition to the above-described methods, any one of various known methods is used to distinguish a two-dimensional image. may be used.
또한, 서브 프로세싱부(40)는 연결부(60)가 스캐너(1)와 메인 프로세싱 유닛(2)과 연결되었는지 여부를 판단한 결과에 기초하여, 통신부(70)를 통해 저장부(30)에 저장된 로우 데이터 및/또는 프리프로세싱 데이터를 메인 프로세싱 유닛(2)에 전송하도록 제어할 수 있다. 연결부(60)는 촬영부(20)에 의한 스캔이 종료된 다음, 스캐너(1)와 메인 프로세싱 유닛(2)의 연결 여부를 판단한다. 예시적으로, 스캐너(1)와 메인 프로세싱 유닛(2)이 연결되었는지 여부는 전기적, 통신적으로 상호작용이 가능한지를 통해 판단할 수 있다. 통신부(70)는 서브 프로세싱부(40)의 제어신호에 따라 저장부(30)에 저장된 로우 데이터 및/또는 프리프로세싱 데이터를 외부로 발신할 수 있다. 통신부(70)에서 사용하는 무선 통신 방식은 통상적으로 무선 통신 분야에서 이용하는 Wi-fi, ZigBee, Bluetooth, LoRa 등 다양한 통신 기술이 사용될 수 있다. 그러나, 반드시 본 발명에 언급된 통신 기술에 한정되는 것은 아니며, 스캐너(1)와 메인 프로세싱 유닛(2) 간의 유선 접속에 의하여 저장부(30)에 저장된 데이터가 메인 프로세싱 유닛(2)으로 전송될 수도 있다.In addition, the sub-processing unit 40 determines whether the connection unit 60 is connected to the scanner 1 and the main processing unit 2, based on the result of determining whether the row stored in the storage unit 30 through the communication unit 70 is Data and/or preprocessing data may be controlled to be transmitted to the main processing unit 2 . The connection unit 60 determines whether the scanner 1 and the main processing unit 2 are connected after the scan by the photographing unit 20 is finished. For example, whether the scanner 1 and the main processing unit 2 are connected may be determined based on whether they can interact electrically and communicatively. The communication unit 70 may transmit the raw data and/or preprocessing data stored in the storage unit 30 to the outside according to the control signal of the subprocessing unit 40 . As the wireless communication method used by the communication unit 70 , various communication technologies such as Wi-fi, ZigBee, Bluetooth, LoRa, etc. which are typically used in the wireless communication field may be used. However, it is not necessarily limited to the communication technology mentioned in the present invention, and data stored in the storage unit 30 is transmitted to the main processing unit 2 by a wired connection between the scanner 1 and the main processing unit 2 . may be
스캐너(1)에 포함된 통신부(70)에서 발신된 데이터는 스캐너(1) 외부에 형성된 메인 프로세싱 유닛(2)에서 수신된다. 메인 프로세싱 유닛(2)은 스캐너(1)의 서브 프로세싱부(40)에서 완료하지 못한 과정을 완성할 수 있다. 이 때, 완료하지 못한 과정은 서브 프로세싱부(40)에서 로우 데이터(2차원 이미지)의 집합으로부터 3차원 데이터를 생성하는 과정이거나, 이러한 3차원 데이터들 간의 제1 얼라인(로컬 얼라인)을 수행하는 과정이거나, 이러한 제1 얼라인(로컬 얼라인)이 기수행된 데이터들 간에 전체적인 추가 얼라인(글로벌 얼라인, 또는 제2 얼라인)을 수행하는 작업일 수 있다. 이 때, 얼라인 과정은 제1 얼라인 및 제2 얼라인 중 적어도 하나를 포함하는 개념으로 설명될 수 있다. 얼라인 과정은 ICP(Iterative Closest Point) 알고리즘을 사용할 수 있다. 예시적으로, 제1 3차원 데이터와 제2 3차원 데이터의 공통 영역이 도출되어 결합될 수 있다.Data transmitted from the communication unit 70 included in the scanner 1 is received by the main processing unit 2 formed outside the scanner 1 . The main processing unit 2 may complete a process that has not been completed in the sub-processing unit 40 of the scanner 1 . In this case, the uncompleted process is a process of generating 3D data from a set of raw data (2D images) in the subprocessing unit 40, or performing a first alignment (local alignment) between these 3D data. It may be a process of performing the first alignment (local alignment), or it may be an operation of performing an overall additional alignment (global alignment or second alignment) between data on which the first alignment (local alignment) has been previously performed. In this case, the alignment process may be described as a concept including at least one of a first alignment and a second alignment. The alignment process may use an Iterative Closest Point (ICP) algorithm. For example, a common region of the first 3D data and the second 3D data may be derived and combined.
또한, 메인 프로세싱 유닛(2)은 스캐너(1)를 통하여 이미 생성된 3차원 이미지 데이터를 얼라인 과정(제1 얼라인 단계 및 제2 얼라인 단계)를 수행함으로써 전체적으로 1군의 데이터 세트(set)를 생성할 수 있다. 즉, 얼라인된 3차원 데이터는 상악을 이루는 데이터 세트, 하악을 이루는 데이터 세트, 및 교합을 이루는 데이터 세트를 각각 구성할 수 있다.In addition, the main processing unit 2 performs an aligning process (first aligning step and second aligning step) on the 3D image data already generated through the scanner 1 , so as to set a group of data as a whole. ) can be created. That is, the aligned 3D data may constitute a data set constituting an upper jaw, a data set constituting a mandible, and a data set constituting an occlusion, respectively.
한편, 본 실시예에 따라 메인 프로세싱 유닛(2)이 2차원 이미지 데이터인 로우 데이터만을 스캐너(1)의 통신부(70)를 통해 전송받는 경우, 메인 프로세싱 유닛(2)은 전송받은 2차원 이미지 데이터를 3차원 데이터들로 변환하고, 3차원 이미지 데이터들 간의 제1 얼라인(로컬 얼라인), 및 제1 얼라인을 통해 생성된 3차원 데이터들의 1군의 데이터 세트들(예를 들면 상악을 이루는 데이터 세트, 하악을 이루는 데이터 세트, 및 교합을 이루는 데이터 세트)의 제2 얼라인(글로벌 얼라인)을 순차적으로 수행할 수 있다. 한편, 복수의 2차원 이미지는 서로 결합되어 하나의 3차원 데이터 샷을 형성하는데, 이러한 3차원 데이터 샷들 간에 얼라인을 수행(즉, 신규 획득된 3차원 데이터 샷을 이전의 3차원 데이터 샷과 정렬)하는 것을 제1 얼라인(로컬 얼라인)이라 한다. 또한, 제1 얼라인이 수행된 모든 3차원 데이터 샷들을 전체적으로 정렬하는 것을 제2 얼라인(글로벌 얼라인)이라 한다.Meanwhile, according to the present embodiment, when the main processing unit 2 receives only raw data, which is two-dimensional image data, through the communication unit 70 of the scanner 1, the main processing unit 2 receives the received two-dimensional image data. is converted into 3D data, a first alignment (local alignment) between 3D image data, and a group of data sets of 3D data generated through the first alignment (for example, the maxilla The second alignment (global alignment) of the data set forming the mandible, the data set forming the mandible, and the data set forming the occlusion) may be sequentially performed. On the other hand, a plurality of 2D images are combined with each other to form one 3D data shot. Alignment is performed between these 3D data shots (that is, the newly acquired 3D data shot is aligned with the previous 3D data shot). ) is called first alignment (local alignment). Also, the overall alignment of all 3D data shots on which the first alignment has been performed is referred to as a second alignment (global alignment).
한편, 메인 프로세싱 유닛(2)은 클라우드(cloud) 형태의 프로세서일 수 있다. 서브 프로세싱부(40)는 스캐너(1)의 크기 및 규격에 의하여 적절한 프로세서를 선택하여야 하므로 서브 프로세싱부(40)에서 처리할 수 있는 데이터의 양 및 속도는 제한될 수 있다. 따라서, 예시적으로 서브 프로세싱부(40)에서는 식별부(50)를 제어하여 로우 데이터를 소정 기준에 따라 분류하는 작업만 수행하고, 3차원 데이터 생성, 제1 얼라인 작업, 및 추가 얼라인 작업(제2 얼라인)을 통한 데이터 머징은 클라우드 형태의 메인 프로세싱 유닛(2)에서 수행될 수 있다. 이 때, 메인 프로세싱 유닛(2)은 스캐너(1)와 물리적으로 이격되도록 형성될 수 있으며, 스캐너(1)의 통신부(70)를 통해 데이터를 수신하여 최종 3차원 데이터(머징된 구강 내부의 전체 3차원 모델)를 생성할 수 있다. 메인 프로세싱 유닛(2)이 클라우드 형태로 형성됨으로써, 상대적으로 성능이 낮은 장치(스캐너)의 데이터를 클라우드 컴퓨팅을 통해 고속 작업이 가능하게 되는 이점이 있다.Meanwhile, the main processing unit 2 may be a cloud-type processor. Since the sub-processing unit 40 must select an appropriate processor according to the size and standard of the scanner 1 , the amount and speed of data that can be processed by the sub-processing unit 40 may be limited. Accordingly, for example, the sub-processing unit 40 controls the identification unit 50 to classify raw data according to a predetermined criterion, and generates 3D data, a first alignment operation, and an additional alignment operation. Data merging through (second alignment) may be performed in the cloud-type main processing unit 2 . At this time, the main processing unit 2 may be formed to be physically spaced apart from the scanner 1 , and receive data through the communication unit 70 of the scanner 1 to receive the final three-dimensional data (the entire interior of the merged oral cavity). 3D model) can be created. Since the main processing unit 2 is formed in a cloud form, there is an advantage that high-speed operation of data from a device (scanner) with relatively low performance is possible through cloud computing.
본 발명에 따른 스캔 데이터의 후처리 시스템에서, 스캐너(1)는 무선으로 작동될 수 있다. 스캐너(1)가 무선으로 작동되면, 사용자(또는 치료자)가 스캐너(1)를 사용할 때 받는 제약이 최소화된다. 무선 환경을 구현하기 위하여, 스캐너(1)는 독자적으로 전원을 공급받을 수 있다. 따라서 본 발명에 따른 스캔 데이터의 후처리 시스템에서 사용되는 스캐너(1)는 촬영부(20), 저장부(30), 서브 프로세싱부(40), 식별부(50), 연결부(60), 통신부(70), 및 피드백부(90)를 구동하는 전원을 공급하는 전원공급부(80)를 더 포함할 수 있다. 전원공급부(80)로 여러가지 형태의 전원이 사용될 수 있으나, 스캐너(1)를 구성하는 각 부에 안정적으로 전원을 공급하기 위하여 직류전원을 공급하는 배터리가 사용될 수 있다. 이 때, 배터리는 규격화된 AA, AAA, 9V 등 판매되는 전지의 형태일 수도 있고, 스캐너(1)의 규격을 고려하여 설계된 리튬-이온 형태의 충전용 배터리일 수도 있다.In the post-processing system of scan data according to the present invention, the scanner 1 may be operated wirelessly. When the scanner 1 is operated wirelessly, the restrictions placed on the user (or the therapist) when using the scanner 1 are minimized. In order to implement a wireless environment, the scanner 1 may be independently powered. Therefore, the scanner 1 used in the post-processing system of scan data according to the present invention includes a photographing unit 20 , a storage unit 30 , a sub-processing unit 40 , an identification unit 50 , a connection unit 60 , and a communication unit. 70 , and a power supply unit 80 for supplying power to drive the feedback unit 90 may be further included. Various types of power may be used as the power supply unit 80 , but a battery for supplying DC power may be used to stably supply power to each part constituting the scanner 1 . At this time, the battery may be in the form of a standardized AA, AAA, 9V battery, etc., or a lithium-ion type rechargeable battery designed in consideration of the standard of the scanner 1 .
이하에서는, 제2 실시예에서의 서브 프로세싱부(40)의 동작에 대해 상세히 설명한다.Hereinafter, the operation of the sub-processing unit 40 in the second embodiment will be described in detail.
제2 실시예에서, 서브 프로세싱부(40)는 촬영부(20)에서 획득한 로우 데이터를 저장부(30)에 저장하도록 제어할 수 있다. 또한, 서브 프로세싱부(40)는 획득한 로우 데이터를 소정 기준에 따라 구분한 것, 로우 데이터를 기초로 생성된 3차원 데이터, 및 생성된 3차원 데이터를 제1 얼라인한 것을 포함하는 프리프로세싱 데이터도 저장부(30)에 저장하도록 제어할 수 있다. 이후, 저장부(30)에 저장된 프리프로세싱 데이터는 스캐너(1)가 메인 프로세싱 유닛(2)과 전기통신적으로 연결되었을 때 메인 프로세싱 유닛(2)으로 전송될 수 있다.In the second embodiment, the sub-processing unit 40 may control to store the raw data obtained by the photographing unit 20 in the storage unit 30 . In addition, the sub-processing unit 40 divides the obtained raw data according to a predetermined criterion, 3D data generated based on the raw data, and preprocessing data including a first alignment of the generated 3D data. It can also be controlled to be stored in the storage unit 30 . Thereafter, the preprocessing data stored in the storage unit 30 may be transmitted to the main processing unit 2 when the scanner 1 is electrically connected to the main processing unit 2 .
서브 프로세싱부(40)는 프리프로세싱 데이터를 생성할 수 있다. 예시적으로, 서브 프로세싱부(40)는 복수의 로우 데이터를 식별부(50)의 동작에 따라 구분할 수 있다. 다른 예시로, 서브 프로세싱부(40)는 복수의 로우 데이터(2차원 이미지)로부터 3차원 데이터를 생성할 수 있다. 또다른 예시로, 서브 프로세싱부(40)는 로우 데이터로부터 생성된 3차원 데이터를 제1 얼라인(로컬 얼라인)하여 연결 및 정렬한 데이터를 생성할 수 있다. 이 때, 제1 얼라인 과정은 제1 3차원 데이터와 제2 3차원 데이터의 공통 영역이 도출되어 결합되고, 제2 3차원 데이터와 제3 3차원 데이터의 공통 영역이 도출되어 결합되는 등의 순차적인 연결 및 정렬 과정을 의미할 수 있다. 상기 제1 얼라인 과정은 ICP(Interative Closest Point) 알고리즘을 사용할 수 있다. 서브 프로세싱부(40)에 의해 생성된 프리프로세싱 데이터는 메인 프로세싱 유닛(2)에 전송될 수 있다.The sub-processing unit 40 may generate preprocessing data. For example, the sub-processing unit 40 may classify the plurality of raw data according to the operation of the identification unit 50 . As another example, the sub-processing unit 40 may generate 3D data from a plurality of raw data (2D images). As another example, the sub-processing unit 40 may first align (locally align) the 3D data generated from the raw data to generate concatenated and aligned data. At this time, in the first alignment process, a common area of the first 3D data and the second 3D data is derived and combined, and a common area of the second 3D data and the third 3D data is derived and combined. It may mean a sequential connection and alignment process. The first alignment process may use an Interactive Closest Point (ICP) algorithm. The preprocessing data generated by the sub-processing unit 40 may be transmitted to the main processing unit 2 .
한편, 스캐너(1)에 포함된 통신부(70)에서 발신된 데이터는 스캐너(1)와 물리적으로 이격 형성된 메인 프로세싱 유닛(2)에서 수신된다. 메인 프로세싱 유닛(2)은 스캐너(1)의 서브 프로세싱부(40)에서 완료하지 못한 과정을 완성할 수 있다. 이 때, 완료하지 못한 과정은 얼라인 과정일 수 있으며, 상기 얼라인 과정은 제1 얼라인(로컬 얼라인)이 기수행된 프리프로세싱 데이터들 간에 전체적인 추가 얼라인(글로벌 얼라인, 제2 얼라인)을 수행하는 작업일 수 있다. 예시적으로, 제2 얼라인 과정은 제1 3차원 데이터, 제2 3차원 데이터, 제3 3차원 데이터 등 서브 프로세싱부(40)에서 생성되어 제1 얼라인 과정이 수행된 모든 3차원 데이터들을 전체적으로 연결할 수 있다. 전술한 바와 같이, 얼라인 과정은 ICP(Interative Closest Point) 알고리즘을 사용할 수 있다.Meanwhile, data transmitted from the communication unit 70 included in the scanner 1 is received by the main processing unit 2 formed physically separated from the scanner 1 . The main processing unit 2 may complete a process that has not been completed in the sub-processing unit 40 of the scanner 1 . In this case, the uncompleted process may be an alignment process, wherein the alignment process is an overall additional alignment (global alignment, second alignment) between preprocessing data for which the first alignment (local alignment) has already been performed. ) may be a task to be performed. Illustratively, in the second alignment process, all 3D data generated by the sub-processing unit 40 such as first 3D data, second 3D data, and third 3D data and on which the first alignment process is performed can be connected as a whole. As described above, the alignment process may use an ICP (Interactive Closest Point) algorithm.
메인 프로세싱 유닛(2)이 2차원 이미지인 로우 데이터와 프리프로세싱 데이터를 스캐너(1)의 통신부(70)를 통해 전송받는 경우, 메인 프로세싱 유닛(2)은 전송받은 데이터를 기초로 서브 프로세싱부(40)에서 완료되지 못한 과정을 수행하여 최종 3차원 데이터를 생성할 수 있다. 이 때, 서브 프로세싱부(40)에서 완료되지 못한 과정은, 프리프로세싱 데이터를 전체적으로 연결하는 제2 얼라인(글로벌 얼라인) 과정일 수 있다.When the main processing unit 2 receives the raw data and the preprocessing data, which are two-dimensional images, through the communication unit 70 of the scanner 1, the main processing unit 2 performs the sub-processing unit ( 40), it is possible to generate the final 3D data by performing the process that was not completed. In this case, the process that is not completed in the sub-processing unit 40 may be a second alignment (global alignment) process for connecting the preprocessing data as a whole.
이하에서는, 얼라인 과정이 수행되는 중에 3차원 데이터 간 얼라인이 불가능하게 되는 얼라인 실패가 발생하는 경우에 대해 설명한다. 얼라인 과정(예를 들면, 제1 얼라인 과정)은 제1 3차원 데이터와 제2 3차원 데이터 사이를 정렬하고, 그 후 제2 3차원 데이터와 제3 3차원 데이터 사이를 정렬하는 방식으로 순차적으로 진행된다. 이 때, 제2 3차원 데이터와 제3 3차원 데이터 사이에 얼라인 과정이 실패하는 경우, 종래에는 얼라인 과정이 성공할 때까지 스캔이 진행되지 않았다. 그러나, 본 발명에 따른 스캔 데이터의 후처리 시스템에서, 제1 실시예에 따른 서브 프로세싱부(40)는 얼라인 과정을 수행하지 않고, 스캐너(1)는 메인 프로세싱 유닛(2)과 연결되기 이전에는 얼라인 과정이 수행되지 않을 수 있으며, 이 경우 얼라인 실패를 확인할 수 없다. 따라서, 촬영부(20)에 의해 스캔이 수행되는 단계에서는 얼라인 실패 여부와 관계없이 로우 데이터를 지속적으로 획득하고, 이후 메인 프로세싱 유닛(2)에서 얼라인 실패가 판단되는 경우 그룹데이터가 생성될 수 있다.Hereinafter, a case in which an alignment failure occurs in which alignment between 3D data becomes impossible while an alignment process is performed will be described. The alignment process (eg, the first alignment process) aligns between the first 3D data and the second 3D data, and then aligns between the second 3D data and the third 3D data. proceeds sequentially. In this case, when the alignment process between the second 3D data and the third 3D data fails, conventionally, the scan is not performed until the alignment process is successful. However, in the post-processing system for scan data according to the present invention, the sub-processing unit 40 according to the first embodiment does not perform an alignment process, and the scanner 1 is connected to the main processing unit 2 before being connected to the main processing unit 2 . In this case, the alignment process may not be performed, and in this case, the alignment failure cannot be confirmed. Therefore, in the stage in which the scan is performed by the photographing unit 20, raw data is continuously acquired regardless of whether the alignment fails, and then group data is generated when the main processing unit 2 determines the alignment failure. can
예시적으로, 제2 3차원 데이터와 제3 3차원 데이터 사이에 얼라인 과정이 실패하면 제1 3차원 데이터와 제2 3차원 데이터의 얼라인에 의해 결합된 하나의 3차원 데이터 그룹(제1 그룹데이터)이 생성되고, 제3 3차원 데이터부터 다시 새로운 3차원 데이터 그룹(제2 그룹데이터)이 생성될 수 있다. 이후, 그룹데이터들 사이에 공통 영역이 발생하면 공통 영역을 기초로 그룹데이터들 간의 추가적인 얼라인 과정이 수행되어 하나의 3차원 모델이 생성될 수 있다. 이와 같은 방식에 의해, 본 발명은 스캐너(1)가 스캔을 수행할 때 얼라인의 성패 여부와 관계없이 계속적으로 스캔 과정을 진행할 수 있고, 획득되는 로우 데이터를 기초로 얼라인이 수행되지 않는 경우 스캔 속도가 획기적으로 향상되는 이점이 있다.Exemplarily, if the alignment process between the second 3D data and the third 3D data fails, one 3D data group (first 3D data group) combined by the alignment of the first 3D data and the second 3D data group data), and a new 3D data group (second group data) may be generated again from the third 3D data. Thereafter, when a common area is generated between the group data, an additional alignment process between the group data is performed based on the common area to generate one 3D model. In this way, according to the present invention, when the scanner 1 performs a scan, the scanning process can be continuously performed regardless of whether the alignment is successful or not, and when the alignment is not performed based on the obtained raw data There is an advantage in that the scan speed is dramatically improved.
한편, 제2 실시예에서, 서브 프로세싱부(40)에서 각각의 3차원 데이터들 간의 제1 얼라인이 수행되는 중, 3차원 데이터(프리프로세싱 데이터)들 간의 제1 얼라인이 불가능하게 되는 얼라인 실패가 발생하면 서브 프로세싱부(40)는 에러신호를 발신할 수 있다. 예시적으로, 서브 프로세싱부(40)에서 얼라인 3차원 데이터들 간의 얼라인 실패가 판단되면, 서브 프로세싱부(40)는 피드백부(90)에 에러신호를 발신한다. 이 때, 피드백부(90)는 사용자에게 촉각적으로 얼라인 실패를 알리는 액추에이터일 수 있다. 에러신호를 수신한 피드백부(90)는 1회 진동, 일정한 주기의 진동, 또는 연속적인 진동 등의 다양한 진동 패턴들 중 적어도 하나를 이용하여 사용자에게 얼라인 실패를 알릴 수 있다. 사용자는 스캐너(1)가 메인 프로세싱 유닛(2)에 연결되어 있지 않더라도 스캔을 수행하는 현장에서 얼라인 실패 여부를 감지할 수 있으며, 더욱 면밀하게 스캔 과정을 수행할 수 있다.Meanwhile, in the second embodiment, while the first alignment between the respective 3D data is performed in the sub-processing unit 40, the first alignment between the 3D data (pre-processing data) becomes impossible. When a printing failure occurs, the sub-processing unit 40 may transmit an error signal. Exemplarily, if the sub-processing unit 40 determines that alignment failure between the three-dimensional data is aligned, the sub-processing unit 40 transmits an error signal to the feedback unit 90 . In this case, the feedback unit 90 may be an actuator that notifies the user of the alignment failure tactilely. The feedback unit 90 receiving the error signal may notify the user of the alignment failure by using at least one of various vibration patterns such as one-time vibration, vibration of a certain period, or continuous vibration. Even if the scanner 1 is not connected to the main processing unit 2 , the user can detect whether or not the alignment has failed at the site performing the scan, and can perform the scanning process more closely.
또한, 스캐너(1)가 메인 프로세싱 유닛(2)과 전기통신적으로 연결된 경우, 서브 프로세싱부(40)는 메인 프로세싱 유닛(2)에 에러신호를 발신하여 사용자가 얼라인 에러 표시부(3)가 얼라인 에러의 발생 지점을 시각적으로 확인할 수 있도록 한다. 따라서, 사용자는 스캐너(1)가 메인 프로세싱 유닛(2)과 연결되어 있지 않을 때 피드백부(90)를 통해 얼라인 실패를 감지할 수 있고, 스캐너(1)가 메인 프로세싱 유닛(2)과 연결되어 있을 때 피드백부(90) 및 얼라인 에러 표시부(3)를 통해 얼라인 실패를 감지할 수 있다.In addition, when the scanner 1 is communicatively connected to the main processing unit 2 , the sub-processing unit 40 sends an error signal to the main processing unit 2 so that the user can display the alignment error display unit 3 . It allows you to visually check the point of occurrence of the alignment error. Accordingly, the user can detect the alignment failure through the feedback unit 90 when the scanner 1 is not connected with the main processing unit 2 , and the scanner 1 is connected with the main processing unit 2 . In this case, an alignment failure may be detected through the feedback unit 90 and the alignment error display unit 3 .
얼라인 실패를 사용자에게 알리는 방식은 별도로 구비된 경보음 발생부(미도시)의 경보를 통한 청각적인 방식 및 전술한 방식들과의 조합 등 다양한 방식이 사용될 수 있다.As a method of notifying the user of the alignment failure, various methods such as an audible method through an alarm of a separately provided alarm sound generator (not shown) and a combination with the above-described methods may be used.
이하에서는 스캔 데이터의 후처리 방법에 대하여 설명하도록 한다.Hereinafter, a post-processing method of scan data will be described.
도 4 내지 도 6은 본 발명에 따른 스캔 데이터의 후처리 방법의 개략적인 순서도이다.4 to 6 are schematic flowcharts of a method for post-processing scan data according to the present invention.
도 1 내지 도 6을 참조하면, 본 발명에 따른 스캔 데이터의 후처리 시스템을 이용한 스캔 데이터의 후처리 방법은 스캐너의 개구부로부터 입사된 광이 촬영부(20)의 카메라(21)에 수용되는 스캔 단계(S2)와, 수용된 광은 촬영부(20)의 이미징 센서(23)에 의해 로우 데이터를 획득하는 로우 데이터(2차원 이미지) 획득단계(S3)를 포함할 수 있다. 스캔 단계(S2)에서는 구강 내부로 스캐너(1)를 삽입(인입)하여 스캐너(1)의 개구부가 구강 내부를 향하도록 하여 환자의 환부(치아, 잇몸 등을 의미한다)를 촬영한다. 환자의 환부에서 굴절 또는 반사된 광이 개구부를 통해 입사하여 카메라(21)에 수용되고, 이미징 센서(23)는 카메라(21)에 수용된 광을 분석하여 2차원 이미지를 생성한다. 이 때, 환자의 환부를 촬영하여 2차원 이미지로 생성되는 데이터는 복수개가 취합되어 하나의 3차원 데이터를 생성할 수 있다. 본 발명은 적어도 하나의 3차원 데이터 형성에 필요한 이미지 샷에 해당하는 로우 데이터가 저장매체에 저장되도록 할 수 있다(저장 단계). 한편 저장매체는 전술한 바와 같은 저장부(30)와 동일한 의미로 해석될 수 있다.1 to 6 , in the method for post-processing scan data using the post-processing system for scan data according to the present invention, light incident from the opening of the scanner is received by the camera 21 of the photographing unit 20 . The step S2 and the received light may include a raw data (two-dimensional image) acquisition step S3 of acquiring raw data by the imaging sensor 23 of the photographing unit 20 . In the scanning step (S2), the patient's affected part (meaning teeth, gums, etc.) is photographed by inserting (retracting) the scanner 1 into the oral cavity so that the opening of the scanner 1 faces the interior of the oral cavity. Light refracted or reflected from the patient's affected part is incident through the opening and is received by the camera 21 , and the imaging sensor 23 analyzes the light received by the camera 21 to generate a two-dimensional image. At this time, a plurality of data generated as a two-dimensional image by photographing an affected part of the patient may be collected to generate one three-dimensional data. According to the present invention, raw data corresponding to an image shot required for forming at least one 3D data may be stored in a storage medium (storing step). Meanwhile, the storage medium may be interpreted as having the same meaning as the storage unit 30 as described above.
한편, 저장 단계에서 적어도 하나의 3차원 데이터 형성에 필요한 로우 데이터가 저장되면 스캔을 종료하게 되고, 저장매체에 저장된 로우 데이터는 스캐너 외부에 형성된 메인 프로세싱 유닛(2)으로 전송될 수 있다(전송 단계). 이 때, 메인 프로세싱 유닛(2)으로 전송되는 데이터는 로우 데이터와 상기 로우 데이터를 소정 기준에 따라 구분한 데이터일 수 있다. 또한, 메인 프로세싱 유닛(2)으로 전송되는 데이터는 상기 로우 데이터들을 기초로 생성된 3차원 데이터일 수 있다. 또한, 메인 프로세싱 유닛(2)으로 전송되는 데이터는 서브 프로세싱부(40)에 의해 제1 얼라인(로컬 얼라인) 완료된 데이터일 수 있다. 또는, 메인 프로세싱 유닛(2)에서 제1 얼라인 및 제2 얼라인을 모두 수행하는 경우에는, 저장매체에 저장된 로우 데이터만이 메인 프로세싱 유닛(2)으로 전송될 수 있다.Meanwhile, in the storage step, when the raw data required to form at least one 3D data is stored, the scan ends, and the raw data stored in the storage medium may be transmitted to the main processing unit 2 formed outside the scanner (transmission step) ). In this case, the data transmitted to the main processing unit 2 may be raw data and data obtained by dividing the raw data according to a predetermined criterion. Also, the data transmitted to the main processing unit 2 may be 3D data generated based on the raw data. In addition, the data transmitted to the main processing unit 2 may be data that has been first aligned (locally aligned) by the sub-processing unit 40 . Alternatively, when the main processing unit 2 performs both the first alignment and the second alignment, only raw data stored in the storage medium may be transmitted to the main processing unit 2 .
한편, 촬영부가 구강 내부(환자의 환부)를 촬영할 때 충분한 양의 광을 가하여 구강 내부를 조명하기 위해, 촬영부(20)의 일측에 배치되도록 스캐너(1) 내부에 형성된 프로젝터(22)로부터 광을 발생시키는 광 조사 단계(S1)가 더 포함될 수 있다. 광 조사 단계(S1)에서 발생하는 광은 바람직하게는 가시광선 영역의 파장을 가지는 광일 수 있다. 또한, 프로젝터(22)로부터 발생하는 광은 이후 2차원 이미지를 3차원 데이터로 변환시키기 위한 구조광의 형태를 가질 수 있다. 구조광의 형태를 가지는 광을 구강 내부에 조사하여 로우 데이터(2차원 이미지)를 획득하면, 획득한 로우 데이터의 깊이 정보 등으로부터 3차원 데이터를 생성할 수 있다.On the other hand, in order to illuminate the inside of the oral cavity by applying a sufficient amount of light when the photographing unit takes a picture of the inside of the oral cavity (the patient's affected part), the light from the projector 22 formed inside the scanner 1 so as to be disposed on one side of the photographing unit 20 A light irradiation step (S1) for generating may be further included. The light generated in the light irradiation step S1 may preferably be light having a wavelength in the visible ray region. In addition, the light generated from the projector 22 may have a form of structured light for converting a 2D image into 3D data. When raw data (two-dimensional image) is obtained by irradiating light having the form of structured light into the oral cavity, three-dimensional data may be generated from depth information of the obtained raw data.
본 발명에 따른 스캔 데이터의 후처리 방법은 전술한 과정에서 획득한 로우 데이터에서, 서브 프로세싱부(40)는 3차원 데이터를 생성할 수 있고, 3차원 데이터 간 제1 얼라인(로컬 얼라인)을 수행하는 프리프로세싱 단계(S4)를 포함할 수 있다. 이 때, 3차원 데이터는 하나의 전체 3차원 볼륨 데이터의 세트(set) 형태로 생성되기 이전의 3차원 데이터의 샷(shot)일 수 있다. 즉, 하나의 하악 데이터, 하나의 상악 데이터, 또는 하나의 교합 데이터로서 데이터 세트를 형성하기 전 3차원 데이터의 샷들을 의미할 수 있다. 한편, 전술한 과정에 따라 얻어진 로우 데이터와 3차원 데이터, 및 3차원 데이터의 샷들 간의 제1 얼라인 수행 데이터는 스캐너(1) 내부에 형성된 저장부(30)에 저장될 수 있다.In the post-processing method of scan data according to the present invention, from the raw data obtained in the above-described process, the sub-processing unit 40 may generate 3D data, and a first alignment between 3D data (local alignment) It may include a preprocessing step (S4) to perform. In this case, the 3D data may be a shot of the 3D data before being generated in the form of one whole 3D volume data set. That is, it may mean shots of three-dimensional data before forming a data set as one mandibular data, one maxillary data, or one occlusal data. Meanwhile, the raw data and the 3D data obtained according to the above-described process, and the first alignment performance data between shots of the 3D data may be stored in the storage unit 30 formed inside the scanner 1 .
프리프로세싱 단계(S4)에서 생성된 3차원 이미지 데이터는 이후 제2 얼라인(글로벌 얼라인)되기 위해 스캐너(1)에 형성된 통신부(70)를 통해 메인 프로세싱 유닛(2)으로 전송될 수 있다(S5). 이 때, 전송되는 데이터는 로우 데이터, 서브 프로세싱부(40)에 의해 생성된 3차원 데이터, 또는 3차원 데이터들의 샷들에 대하여 제1 얼라인이 수행된 데이터 중 적어도 하나일 수 있다. 로우 데이터, 3차원 데이터, 또는 제1 얼라인이 수행된 데이터는 스캐너(1) 내부에 형성된 저장부(30)에 저장되어 있다가, 서브 프로세싱부(40)에 의하여 로드되어 통신부(70)를 통해 메인 프로세싱 유닛(2)으로 전송될 수 있다. 데이터를 전송하는 방식에 대해서는 여러 방법이 사용될 수 있으나, 무선 통신 방식으로 알려진 Wifi, ZigBee, Bluetooth, LoRa와 같은 무선 통신 방식이 사용될 수 있다. 이와 같이 무선 통신 방식을 사용하여 데이터가 전송되고, 실질적으로 무선의 스캐너(1) 사용이 가능하게 되므로 사용자의 스캐너(1) 사용 자유도가 상승하는 이점이 있다.The three-dimensional image data generated in the pre-processing step S4 may then be transmitted to the main processing unit 2 through the communication unit 70 formed in the scanner 1 to be second aligned (global alignment) ( S5). In this case, the transmitted data may be at least one of raw data, 3D data generated by the subprocessing unit 40 , or data on which first alignment is performed on shots of 3D data. Raw data, 3D data, or data on which the first alignment is performed are stored in the storage unit 30 formed inside the scanner 1 , and loaded by the sub-processing unit 40 to communicate with the communication unit 70 . through the main processing unit 2 . Various methods may be used for data transmission, but wireless communication methods such as Wifi, ZigBee, Bluetooth, and LoRa, which are known as wireless communication methods, may be used. In this way, data is transmitted using the wireless communication method, and since it is possible to use the scanner 1 substantially wirelessly, there is an advantage in that the user's degree of freedom in using the scanner 1 increases.
한편, 메인 프로세싱 유닛(2)는 하드웨어 컴퓨터 서버일 수도 있지만, 클라우드(cloud) 형태의 프로세서일 수 있다. 클라우드 컴퓨팅을 이용하면 상대적으로 낮은 성능의 장치에서도 클라우드 시스템을 이용한 고속 연산이 가능하게 되어 효율적이며, 스캐너(1) 내부에 고가의 프로세서를 장비하지 않아도 되어 경제적인 이점이 있다.Meanwhile, the main processing unit 2 may be a hardware computer server, but may be a cloud-type processor. When cloud computing is used, high-speed operation using the cloud system is possible even in a device with relatively low performance, which is efficient, and there is an economic advantage because it is not necessary to equip the scanner 1 with an expensive processor.
메인 프로세싱 유닛(2)에 전송된 3차원 데이터는 서로 중첩되는 부분에 대하여 전체적으로 정렬되는 메인 프로세싱 단계가 수행된다(S6). 얼라인 과정 수행에 의하여 각각의 3차원 데이터는 제2 얼라인까지 수행될 수 있다. 보다 상세하게는, 제1 얼라인 과정이 수행된 3차원 데이터는 각각 상악 볼륨 데이터, 하악 볼륨 데이터, 및 교합 볼륨 데이터의 세트로 형성될 수 있고, 제2 얼라인 과정이 수행된 데이터는 환자의 구강 전체를 표현하는 최종 3차원 데이터가 될 수 있다.The three-dimensional data transmitted to the main processing unit 2 is fully aligned with respect to the overlapping parts, a main processing step is performed (S6). By performing the alignment process, each 3D data may be performed up to the second alignment. More specifically, the 3D data on which the first alignment process is performed may be formed as a set of maxillary volume data, mandibular volume data, and occlusal volume data, respectively, and the data on which the second alignment process is performed is the patient's It can be the final three-dimensional data representing the entire oral cavity.
한편, 서브 프로세싱부(40)에서 프리프로세싱 단계(S4)가 수행되지 않고, 스캐너(1)에서는 로우 데이터만이 획득되어 상기 로우 데이터만 메인 프로세싱 유닛(2)으로 전송되는 경우, 메인 프로세싱 단계(S6)는 복수의 로우 데이터로부터 3차원 데이터들을 형성하고, 상기 3차원 데이터들을 제1 얼라인 및 제2 얼라인하여 최종 3차원 데이터를 생성할 수 있다.On the other hand, when the pre-processing step S4 is not performed in the sub-processing unit 40 and only raw data is obtained from the scanner 1 and only the raw data is transmitted to the main processing unit 2, the main processing step ( S6) may form 3D data from a plurality of raw data, and first align and second align the 3D data to generate final 3D data.
한편, 도 5를 참조하면, 메인 프로세싱 유닛(2)에서 제1 얼라인 및 제2 얼라인 과정이 수행되는 경우, 메인 프로세싱 단계(S6)에서 얼라인 실패가 발생하는지 판단한다(S7). 만약 메인 프로세싱 단계(S6)에서 얼라인 실패가 발생하는 경우 메인 프로세싱 유닛(2)은 얼라인 실패를 알리는 에러신호를 얼라인 에러 표시부(3)로 전송한다(S71).Meanwhile, referring to FIG. 5 , when the first alignment and the second alignment processes are performed in the main processing unit 2 , it is determined whether an alignment failure occurs in the main processing step S6 ( S7 ). If an alignment failure occurs in the main processing step S6, the main processing unit 2 transmits an error signal indicating the alignment failure to the alignment error display unit 3 (S71).
이 때, 얼라인 실패란 3차원 데이터를 서로 연결하도록 정렬하는 과정에서 데이터 밀도가 낮아 얼라인이 불가능한 상태를 의미한다. 제1 얼라인 또는 제2 얼라인이 불가능하게 되면 사용자가 원하는 구강 내부의 전체 치아 데이터를 획득할 수 없다. 따라서 제1 얼라인 단계, 또는 제2 얼라인 단계 중 얼라인 실패가 발생하였다는 사실을 사용자에게 피드백(feedback)해줄 필요가 있다.In this case, the alignment failure means a state in which alignment is impossible due to a low data density in the process of aligning 3D data to be connected to each other. When the first alignment or the second alignment becomes impossible, the entire dental data in the oral cavity desired by the user cannot be obtained. Therefore, it is necessary to provide feedback to the user of the fact that an alignment failure has occurred during the first alignment step or the second alignment step.
본 발명에 따른 스캔 데이터의 후처리 방법에서, 메인 프로세싱 유닛(2)로부터 에러신호를 수신하며 메인 프로세싱 유닛(2)과 전기적으로 연결된 얼라인 에러 표시부(3)는, 메인 프로세싱 유닛(2)에 의해 얼라인 실패를 알리는 에러신호를 전송받고, 디스플레이 화면의 유저 인터페이스 상에 얼라인 실패가 발생 지점을 디스플레이할 수 있다. 사용자는 이후 디스플레이 화면에 표시된 얼라인 실패가 발생한 지점에 대해서만 추가적인 스캔을 수행함으로써 데이터의 신뢰성을 향상시킬 수 있다. 얼라인 실패가 해소되면 메인 프로세싱 유닛(2)은 얼라인 과정에 필요한 충분한 데이터를 수집한 것으로 판단할 수 있고, 계속적으로 얼라인 과정을 수행할 수 있다(S8).In the post-processing method of scan data according to the present invention, the alignment error display unit 3 that receives an error signal from the main processing unit 2 and is electrically connected to the main processing unit 2 is provided to the main processing unit 2 . An error signal notifying the alignment failure may be transmitted by the user interface, and a point where the alignment failure occurred may be displayed on the user interface of the display screen. The user may then improve the reliability of data by performing additional scans only on the point where the alignment failure occurred on the display screen. When the alignment failure is resolved, the main processing unit 2 may determine that sufficient data necessary for the alignment process has been collected, and may continuously perform the alignment process (S8).
또한, 서브 프로세싱부(40)에서 제1 얼라인 과정이 수행되는 경우, 스캐너(1) 자체적으로 얼라인 실패를 사용자에게 알릴 수 있다. 도 6을 참조하면, 프리프로세싱 단계(S4)에서 얼라인 실패가 발생하는지 판단한다(S41). 만약 프리프로세싱 단계(S4)에서 얼라인 실패가 발생하는 경우 서브 프로세싱부(40)는 얼라인 실패를 알리는 에러신호를 전술한 피드백부(90)로 전송한다(S42).Also, when the first alignment process is performed in the sub-processing unit 40 , the scanner 1 itself may notify the user of the alignment failure. Referring to FIG. 6 , it is determined whether an alignment failure occurs in the preprocessing step S4 (S41). If an alignment failure occurs in the preprocessing step S4, the sub-processing unit 40 transmits an error signal indicating the alignment failure to the above-described feedback unit 90 (S42).
본 발명에 따른 스캔 데이터의 후처리 방법에서, 서브 프로세싱부(40)로부터 에러신호를 수신하는 피드백부(90)는, 얼라인 실패가 발생한 시점에 진동을 발생시킬 수 있다. 사용자는 진동을 감지한 시점에 얼라인 실패가 발생한 사실을 용이하게 확인할 수 있고, 해당 시점에 스캔하였던 부분에 대한 추가적인 스캔을 수행함으로써 데이터의 신뢰성을 향상시킬 수 있다. 얼라인 실패가 해소되면 서브 프로세싱부(40)는 얼라인 과정에 필요한 충분한 데이터를 수집한 것으로 판단할 수 있고, 계속적으로 얼라인 과정을 수행할 수 있다(S43).In the post-processing method of scan data according to the present invention, the feedback unit 90 receiving the error signal from the sub-processing unit 40 may generate vibrations at the point in time when the alignment failure occurs. The user can easily check the fact that an alignment failure has occurred at the point in time when the vibration is sensed, and the reliability of data can be improved by performing additional scans on the part scanned at the time point. When the alignment failure is resolved, the sub-processing unit 40 may determine that sufficient data necessary for the alignment process has been collected, and may continuously perform the alignment process (S43).
한편, 얼라인 과정에서 얼라인 실패가 발생한 경우 얼라인 실패가 발생하기 이전의 데이터를 그룹화하여 그룹데이터로 형성하고, 얼라인 실패가 발생한 이후의 데이터를 그룹화하여 새로운 그룹데이터로 형성할 수 있다. 얼라인 실패시 그룹데이터를 생성하는 과정은 전술한 바와 동일하다.Meanwhile, when an alignment failure occurs in the alignment process, data before the alignment failure occurs may be grouped to form group data, and data after the alignment failure may be grouped to form new group data. The process of generating group data when the alignment fails is the same as described above.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.The above description is merely illustrative of the technical spirit of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.
[부호의 설명][Explanation of code]
1: 스캐너 10: 케이스1: Scanner 10: Case
20: 촬영부 21: 카메라20: photographing unit 21: camera
22: 프로젝터 23: 이미징 센서22: projector 23: imaging sensor
30: 저장부 40: 서브 프로세싱부30: storage unit 40: sub-processing unit
50: 식별부 60: 연결부50: identification unit 60: connection unit
70: 통신부 80: 전원공급부70: communication unit 80: power supply unit
90: 피드백부90: feedback unit
2: 메인 프로세싱 유닛 3: 얼라인 에러 표시부2: Main processing unit 3: Alignment error display unit
S1: 광 조사 단계 S2: 스캔 단계S1: Light irradiation step S2: Scanning step
S3: 로우 데이터 획득단계 S4: 프리프로세싱 단계S3: Raw data acquisition step S4: Pre-processing step
S41: 얼라인 에러 판단 단계 S42: 피드백 단계S41: alignment error determination step S42: feedback step
S43: 반복 단계S43: Repeat step
S5: 데이터 전송 단계 S6: 메인 프로세싱 단계S5: data transfer step S6: main processing step
S7: 얼라인 에러 판단 단계 S71: 피드백 단계S7: alignment error determination step S71: feedback step
S8: 반복 단계S8: Repeat step
본 발명은 대상체를 스캔하는 스캐너, 및 상기 스캐너와 물리적으로 이격 형성되고 상기 스캐너로부터 획득된 데이터를 기초로 얼라인 과정 및 최종 3차원 데이터 생성 과정 중 적어도 하나를 수행하는 메인 프로세싱 유닛을 포함하는 스캔 데이터의 후처리 시스템을 제공한다.The present invention relates to a scan including a scanner for scanning an object, and a main processing unit that is physically spaced apart from the scanner and performs at least one of an alignment process and a final 3D data generation process based on data obtained from the scanner A data post-processing system is provided.

Claims (8)

  1. 대상체를 스캔하는 스캐너; 및a scanner that scans the object; and
    상기 스캐너와 물리적으로 이격 형성되고 상기 스캐너로부터 획득된 데이터를 기초로 얼라인 과정 및 최종 3차원 데이터 생성 과정 중 적어도 하나를 수행하는 메인 프로세싱 유닛;을 포함하고,A main processing unit that is formed to be physically spaced apart from the scanner and performs at least one of an alignment process and a final three-dimensional data generation process based on data obtained from the scanner;
    상기 스캐너는,The scanner is
    복수의 2차원 이미지를 획득하는 촬영부;a photographing unit for acquiring a plurality of two-dimensional images;
    상기 촬영부로부터 획득된 상기 2차원 이미지를 저장하는 저장부;a storage unit for storing the two-dimensional image obtained from the photographing unit;
    상기 메인 프로세싱 유닛의 연결 여부를 판단하는 연결부; 및a connection unit for determining whether the main processing unit is connected; and
    상기 스캐너가 상기 메인 프로세싱 유닛과 연결되면 저장된 상기 2차원 이미지를 상기 메인 프로세싱 유닛으로 전송하는 통신부;를 포함하고,When the scanner is connected to the main processing unit, the communication unit for transmitting the stored two-dimensional image to the main processing unit; includes,
    상기 메인 프로세싱 유닛은, 전송된 상기 2차원 이미지를 기초로 3차원 데이터를 생성하고, 적어도 2 이상의 상기 3차원 데이터를 얼라인하는 것을 특징으로 하는 스캔 데이터의 후처리 시스템.The main processing unit generates 3D data based on the transmitted 2D image, and aligns at least two or more of the 3D data.
  2. 청구항 1에 있어서,The method according to claim 1,
    상기 스캐너는,The scanner is
    상기 촬영부로 제어신호를 전송하는 서브 프로세싱부;를 더 포함하는 것을 특징으로 하는 스캔 데이터의 후처리 시스템.The post-processing system of scan data further comprising; a sub-processing unit for transmitting a control signal to the photographing unit.
  3. 청구항 2에 있어서,3. The method according to claim 2,
    상기 촬영부는,The photographing unit,
    상기 대상체를 향해 광을 조사하는 프로젝터; 및a projector irradiating light toward the object; and
    상기 대상체로부터 반사된 광을 수용하는 카메라;를 포함하고,Including; a camera for receiving the light reflected from the object;
    상기 서브 프로세싱부는 상기 프로젝터에 광출력 신호를 전송하고,The sub-processing unit transmits an optical output signal to the projector,
    상기 카메라는 상기 광출력 신호에 따라 상기 2차원 이미지를 획득하는 것을 특징으로 하는 스캔 데이터의 후처리 시스템.and the camera acquires the two-dimensional image according to the optical output signal.
  4. 청구항 1에 있어서,The method according to claim 1,
    상기 스캐너는,The scanner is
    획득된 상기 복수의 2차원 이미지를 제1 2차원 이미지와 제2 2차원 이미지로 구분하는 식별부;를 더 포함하고,Further comprising; an identification unit for dividing the obtained plurality of two-dimensional images into a first two-dimensional image and a second two-dimensional image,
    상기 메인 프로세싱 유닛은,The main processing unit is
    상기 제1 2차원 이미지를 기초로 제1 3차원 데이터를 생성하고, 상기 제2 2차원 이미지를 기초로 제2 3차원 데이터를 생성하는 것을 특징으로 하는 스캔 데이터의 후처리 시스템.The post-processing system of scan data, characterized in that generating first 3D data based on the first 2D image and generating second 3D data based on the second 2D image.
  5. 청구항 1에 있어서,The method according to claim 1,
    상기 메인 프로세싱 유닛은,The main processing unit is
    얼라인 실패 시 그룹데이터를 생성하고, 적어도 2이상의 상기 그룹데이터를 얼라인하는 것을 특징으로 하는 스캔 데이터의 후처리 시스템.A post-processing system for scan data, characterized in that generating group data when alignment fails, and aligning at least two or more of the group data.
  6. 대상체를 스캔하는 스캐너; 및a scanner that scans the object; and
    상기 스캐너와 물리적으로 이격 형성되고 상기 스캐너로부터 획득된 데이터를 기초로 얼라인 과정 및 최종 3차원 데이터 생성 과정 중 적어도 하나를 수행하는 메인 프로세싱 유닛;을 포함하고,A main processing unit that is formed physically spaced apart from the scanner and performs at least one of an alignment process and a final three-dimensional data generation process based on data acquired from the scanner;
    상기 스캐너는,The scanner is
    복수의 2차원 이미지를 획득하는 촬영부;a photographing unit for acquiring a plurality of two-dimensional images;
    상기 2차원 이미지를 기초로 프로세싱을 수행하는 서브 프로세싱부;a sub-processing unit performing processing based on the two-dimensional image;
    상기 서브 프로세싱부에 의해 생성된 프리프로세싱 데이터를 저장하는 저장부;a storage unit for storing the preprocessing data generated by the subprocessing unit;
    상기 메인 프로세싱 유닛의 연결 여부를 판단하는 연결부;a connection unit for determining whether the main processing unit is connected;
    상기 스캐너가 상기 메인 프로세싱 유닛과 연결되면 상기 프리프로세싱 데이터를 상기 메인 프로세싱 유닛으로 전송하는 전송부;를 포함하고,a transmission unit for transmitting the pre-processing data to the main processing unit when the scanner is connected to the main processing unit;
    상기 메인 프로세싱 유닛은 전송받은 상기 프리프로세싱 데이터를 기초로 최종 3차원 데이터를 생성하는 것을 특징으로 하는 스캔 데이터의 후처리 시스템.and the main processing unit generates final 3D data based on the received preprocessing data.
  7. 청구항 6에 있어서,7. The method of claim 6,
    상기 서브 프로세싱부는,The sub-processing unit,
    상기 프리프로세싱 데이터를 기초로 얼라인을 수행하는 것을 특징으로 하는 스캔 데이터의 후처리 시스템.A post-processing system for scan data, characterized in that alignment is performed based on the pre-processing data.
  8. 청구항 7에 있어서,8. The method of claim 7,
    상기 스캐너는,The scanner is
    상기 얼라인 실패시 피드백을 발생시키는 피드백부;를 더 포함하는 것을 특징으로 하는 스캔 데이터의 후처리 시스템.The post-processing system of scan data further comprising; a feedback unit that generates feedback when the alignment fails.
PCT/KR2021/002489 2020-02-28 2021-02-26 System for post-processing scan data and method for post-processing scan data WO2021172952A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2020-0025432 2020-02-28
KR20200025432 2020-02-28
KR10-2021-0026602 2021-02-26
KR1020210026602A KR102575216B1 (en) 2020-02-28 2021-02-26 After-processing system and after-processing method of scanned data

Publications (1)

Publication Number Publication Date
WO2021172952A1 true WO2021172952A1 (en) 2021-09-02

Family

ID=77491947

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/002489 WO2021172952A1 (en) 2020-02-28 2021-02-26 System for post-processing scan data and method for post-processing scan data

Country Status (1)

Country Link
WO (1) WO2021172952A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013141502A1 (en) * 2012-03-22 2013-09-26 Choo Sang Wan Three-dimensional dental scanner and scanning method using same
KR20150128713A (en) * 2013-03-11 2015-11-18 케어스트림 헬스 인코포레이티드 Method and system for bite registration
KR20170113412A (en) * 2016-03-30 2017-10-12 주식회사바텍 Dental intraoral scanner system
US20180068455A1 (en) * 2010-02-24 2018-03-08 D4D Technologies, Llc Display method and system for enabling an operator to visualize and correct alignment errors in imaged data sets
KR20180126166A (en) * 2017-05-17 2018-11-27 주식회사바텍 Intra-Oral Scanner Having Display And Intra-Oral Scanner System Comprising The Same
KR102056910B1 (en) * 2018-12-21 2019-12-17 주식회사 디오에프연구소 3d intraoral scanner and intraoral scanning method using the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180068455A1 (en) * 2010-02-24 2018-03-08 D4D Technologies, Llc Display method and system for enabling an operator to visualize and correct alignment errors in imaged data sets
WO2013141502A1 (en) * 2012-03-22 2013-09-26 Choo Sang Wan Three-dimensional dental scanner and scanning method using same
KR20150128713A (en) * 2013-03-11 2015-11-18 케어스트림 헬스 인코포레이티드 Method and system for bite registration
KR20170113412A (en) * 2016-03-30 2017-10-12 주식회사바텍 Dental intraoral scanner system
KR20180126166A (en) * 2017-05-17 2018-11-27 주식회사바텍 Intra-Oral Scanner Having Display And Intra-Oral Scanner System Comprising The Same
KR102056910B1 (en) * 2018-12-21 2019-12-17 주식회사 디오에프연구소 3d intraoral scanner and intraoral scanning method using the same

Similar Documents

Publication Publication Date Title
KR101977181B1 (en) Dental intraoral scanner system
WO2018056544A1 (en) Augmented reality system for dental surgery and implementation method therefor
WO2017192020A1 (en) Dental three-dimensional data processing device and method thereof
WO2014051196A1 (en) Scanner for oral cavity
WO2011074867A2 (en) Intra-oral scanner
KR20160110189A (en) Intraoral sensor position detection for full mouth image
WO2020184876A1 (en) Method for establishing implant surgery plan by using artificial intelligence and medical image processing device therefor
WO2020162730A1 (en) Dental system having baseline enabling digital three-dimensional tooth model to be merged with anatomical location and plane analysis of human body
CN104736037B (en) Sweep type endoscopic system and the method for work of sweep type endoscopic system
WO2017191878A1 (en) Teeth movement tracking device and method thereof
WO2018230800A1 (en) Apparatus and method for acquiring near infrared-based diagnostic images of teeth
WO2021172952A1 (en) System for post-processing scan data and method for post-processing scan data
WO2021141424A1 (en) Image filtering method
WO2020204366A2 (en) Scan guide providing method and image processing device therefor
WO2020218734A1 (en) Method for displaying undercut area when designing prosthesis and prosthesis cad device for performing same
WO2021172928A2 (en) Alignment state indicating apparatus and method
WO2022060017A1 (en) Device and method for determining accuracy of implant surgery guide
WO2015194914A1 (en) Table for 3d scanning of tooth structure model
WO2022164013A1 (en) Intraoral scanner
KR20210110228A (en) After-processing system and after-processing method of scanned data
WO2021215816A1 (en) Alignment state indicating apparatus and method
WO2021215840A1 (en) Method and system for supplementing scan data by using library data
WO2022010330A1 (en) Data locking system and data locking method
WO2021133099A2 (en) Aligning method by grouped data
WO2023113499A1 (en) Intraoral scanner

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21761472

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21761472

Country of ref document: EP

Kind code of ref document: A1