WO2022031022A1 - 3차원 데이터 획득 방법, 장치 및 그 방법을 수행하는 프로그램이 저장된 컴퓨터 판독 가능 저장 매체 - Google Patents

3차원 데이터 획득 방법, 장치 및 그 방법을 수행하는 프로그램이 저장된 컴퓨터 판독 가능 저장 매체 Download PDF

Info

Publication number
WO2022031022A1
WO2022031022A1 PCT/KR2021/010252 KR2021010252W WO2022031022A1 WO 2022031022 A1 WO2022031022 A1 WO 2022031022A1 KR 2021010252 W KR2021010252 W KR 2021010252W WO 2022031022 A1 WO2022031022 A1 WO 2022031022A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
mode
point cloud
pattern light
obtaining
Prior art date
Application number
PCT/KR2021/010252
Other languages
English (en)
French (fr)
Inventor
임성빈
Original Assignee
주식회사 메디트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020210096699A external-priority patent/KR102534778B1/ko
Application filed by 주식회사 메디트 filed Critical 주식회사 메디트
Priority to EP21852597.0A priority Critical patent/EP4194804A1/en
Priority to US18/040,560 priority patent/US20230298270A1/en
Publication of WO2022031022A1 publication Critical patent/WO2022031022A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/34Making or working of models, e.g. preliminary castings, trial dentures; Dowel pins [4]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Definitions

  • the present disclosure relates to a method and an apparatus for acquiring three-dimensional data, and more particularly, to a method and an apparatus for acquiring three-dimensional data for a tooth using a three-dimensional scanner.
  • Dental CAD/CAM Densicle Computer Aided Design/Computer Aided Manufacturing
  • 3D data 3D data on the shape of an object, such as a patient's teeth, gums, and jawbone.
  • CT computed tomography
  • MRI magnetic resonance imaging
  • optical scanning may be used.
  • optical 3D scanners are widely used.
  • the optical three-dimensional scanner can acquire three-dimensional surface shape information using light reflected from an object, for example, a dental impression body, a plaster model obtained for the impression body, or three-dimensional data of the tooth surface.
  • the surface data may be recorded in the form of a polygon mesh, and may include position information of vertices of the surface of the object and connection relationship information of each vertex.
  • the surface data may be recorded in the form of a point cloud and include position information of vertices of the surface of the object.
  • One aspect of the present disclosure provides an apparatus for acquiring three-dimensional data, comprising: a communication interface for communicating with a three-dimensional scanner; and a processor executing at least one instruction to obtain the three-dimensional data, wherein the processor operates in a first mode to obtain first data by scanning an object by the three-dimensional scanner, and When a metal region is detected in the An apparatus for obtaining 3D data may be provided, which obtains 3D data of the object based on the data.
  • the three-dimensional data acquisition method according to the disclosed embodiment may acquire an accurate shape even for a metal structure in the oral cavity.
  • FIG. 1 is a diagram for describing an apparatus for obtaining 3D data according to an exemplary embodiment.
  • FIG. 2 is a diagram for describing a method for a 3D scanner to acquire surface data, according to an exemplary embodiment.
  • FIG. 3 is a view for explaining a point pattern light irradiated to an object according to an embodiment.
  • FIG. 4 is a flowchart illustrating a method for obtaining 3D data by an apparatus for obtaining 3D data according to an exemplary embodiment.
  • FIG. 5 is a diagram for explaining a method in which the 3D data acquisition apparatus acquires 3D data of an object using point pattern light and line pattern light according to an exemplary embodiment.
  • FIG. 6 is a diagram for describing a method in which the 3D data acquisition apparatus acquires 3D data of an object by merging first data and second data according to an exemplary embodiment.
  • FIG. 9 is a flowchart illustrating a method for obtaining 3D data by an apparatus for obtaining 3D data according to an exemplary embodiment.
  • FIG. 10 illustrates an example of a user interface displayed by an apparatus for obtaining 3D data according to an embodiment.
  • FIG. 11 illustrates an example of 3D data obtained by scanning an object in a first mode and a second mode by an apparatus for obtaining 3D data according to an exemplary embodiment.
  • FIG. 12 illustrates an example of mesh data obtained by scanning a normal area and mesh data obtained by scanning a metal area by an apparatus for obtaining 3D data according to an exemplary embodiment.
  • 13 is a view for explaining Delaunay triangulation performed by an apparatus for obtaining 3D data according to an exemplary embodiment.
  • FIG. 14 illustrates an example of filtering performed by an apparatus for obtaining 3D data on mesh data according to an embodiment.
  • 15 illustrates an example of filtering performed by the apparatus for obtaining 3D data on mesh data according to an embodiment.
  • 16 is a block diagram of an apparatus for obtaining 3D data according to an embodiment.
  • One aspect of the present disclosure provides an apparatus for acquiring three-dimensional data, comprising: a communication interface for communicating with a three-dimensional scanner; and a processor executing at least one instruction to obtain the three-dimensional data, wherein the processor operates in a first mode to obtain first data by scanning an object by the three-dimensional scanner, and When a metal region is detected in the An apparatus for obtaining 3D data may be provided, which obtains 3D data of the object based on the data.
  • the processor acquires first data on the surface of the object to which the first type of patterned light is irradiated, and obtains first data on the surface of the object to which the second type of patterned light is irradiated. It is possible to provide a three-dimensional data obtaining apparatus for obtaining two data.
  • the first type of pattern light may include line pattern light
  • the second type of pattern light may include point pattern light.
  • the first data obtained in the first mode and the second data obtained in the second mode are obtained through different post-processing methods, a three-dimensional data obtaining apparatus can provide
  • the processor obtains a first point cloud for the surface of the object, and obtains first mesh data by connecting adjacent points in the first point cloud, and the first data is Including the first mesh data, obtaining a second point cloud for the surface of the object, using Delaunay triangulation to obtain second mesh data by connecting points in the second point cloud,
  • the 2 data may include the second mesh data, and may provide an apparatus for obtaining 3D data.
  • the processor identifies points corresponding to the metal region on the object in the second point cloud, connects the identified points using the Delaunay triangulation, and the second For points that are not identified in the point cloud, a three-dimensional data obtaining apparatus may be provided that obtains the second mesh data by connecting adjacent points.
  • the processor may provide an apparatus for obtaining 3D data, which further performs filtering to delete an edge connecting two points of a predetermined distance or more in the second mesh data.
  • the processor obtains a first point cloud for the surface of the object, obtains first mesh data by connecting points in the first point cloud, and within the first mesh data Filtering is performed to delete a group consisting of triangles having a number of triangles less than or equal to a first predetermined value in Obtaining a cloud, obtaining second mesh data by connecting points in the second point cloud, and performing filtering by deleting a group consisting of a number of triangles less than or equal to a second predetermined value in the second mesh data and the second data includes the second mesh data on which filtering is performed, and the second predetermined value is smaller than the first predetermined value.
  • the processor analyzes the data acquired by the three-dimensional scanner using an artificial intelligence model, thereby providing a three-dimensional data acquisition device for detecting the presence of a metal region on the object can do.
  • the display device when a metal region on the object is detected, the display device further includes a user input unit configured to receive a user input for selecting an operation option to automatically change the operation mode from the first mode to the second mode. It is possible to provide a three-dimensional data acquisition device.
  • Another aspect of the present disclosure includes operating in a first mode to acquire first data by scanning an object by a three-dimensional scanner; switching an operation mode to a second mode when a metal region is detected on the object; operating in the second mode to obtain second data by scanning the object; and obtaining 3D data on the object based on the first data and the second data.
  • the step of operating in the first mode to obtain the first data includes obtaining first data on the surface of the object irradiated with a first type of pattern light
  • the step of operating in the second mode to obtain the second data includes obtaining second data for the surface of the object irradiated with a second type of pattern light
  • the first type of pattern light may include line pattern light
  • the second type of pattern light may include point pattern light
  • a method for obtaining 3D data may be provided.
  • the first data obtained in the first mode and the second data obtained in the second mode are obtained through different post-processing methods, a three-dimensional data obtaining method can provide
  • the operating in the first mode to obtain the first data may include: obtaining a first point cloud for the surface of the object; and obtaining first mesh data by connecting adjacent points in the first point cloud, wherein the first data includes the first mesh data, and in the second mode to obtain the second data.
  • the operating may include: acquiring a second point cloud for the surface of the object; and obtaining second mesh data by connecting points in the second point cloud using Delaunay triangulation, wherein the second data includes the second mesh data.
  • the acquiring of the second mesh data may include: identifying points corresponding to the metal region on the object in the second point cloud; and acquiring the second mesh data by connecting the identified points using the Delaunay triangulation and connecting adjacent points for unidentified points in the second point cloud.
  • a data acquisition method may be provided.
  • the step of operating in the second mode to obtain the second data includes performing filtering to delete an edge connecting two points of a predetermined distance or more in the second mesh data. Further comprising, it is possible to provide a three-dimensional data acquisition method.
  • the operating in the first mode to obtain the first data may include: obtaining a first point cloud for the surface of the object; acquiring first mesh data by connecting points in the first point cloud; and performing filtering by deleting a group consisting of a number of triangles less than or equal to a first predetermined value from within the first mesh data, wherein the first data includes the filtered first mesh data.
  • and acquiring the second data in the second mode may include: acquiring a second point cloud for the surface of the object; obtaining second mesh data by connecting points in the second point cloud; and performing filtering by deleting a group consisting of a number of triangles less than or equal to a second predetermined value in the second mesh data, wherein the second data includes the second mesh data on which the filtering has been performed. and the second predetermined value is smaller than the first predetermined value.
  • the changing of the operation mode to the second mode may include analyzing the data acquired by the 3D scanner using an artificial intelligence model to determine the presence of a metal region on the object. It is possible to provide a three-dimensional data acquisition method, including the step of sensing.
  • the method further comprising receiving a user input for selecting an operation option to automatically change the operation mode from the first mode to the second mode when a metal region on the object is detected , it is possible to provide a three-dimensional data acquisition method.
  • the method includes: irradiating a first type of pattern light to an object to obtain first data on a surface of the object to which the first type of pattern light is irradiated; irradiating a second type of pattern light to the object to obtain second data on a surface of the object to which the second type of pattern light is irradiated; and obtaining 3D data on the object based on the first data and the second data.
  • the first type of pattern light may include line pattern light
  • the second type of pattern light may include point pattern light
  • a method for obtaining 3D data may be provided.
  • the acquiring of the first data may include: irradiating the first type of pattern light to the object; acquiring a two-dimensional image with respect to the surface of the object irradiated with the first type of pattern light; and acquiring first point cloud data of the object based on the two-dimensional image of the surface of the object irradiated with the first type of pattern light and information on the first type of pattern light.
  • the acquiring of the second data may include: irradiating the second type of pattern light to the object; acquiring a two-dimensional image with respect to the surface of the object to which the second type of pattern light is irradiated; and acquiring second point cloud data of the object based on the two-dimensional image of the surface of the object irradiated with the second type of pattern light and information on the second type of pattern light. It is possible to provide a three-dimensional data acquisition method, including.
  • the first data and the second data are obtained by a 3D scanner that scans n (n is a natural number) frames per t time
  • the step of obtaining the first data includes: , irradiating the first type of pattern light to the object; and acquiring a (a is a natural number less than n) frames including a two-dimensional image with respect to the surface of the object irradiated with the first type of pattern light, and acquiring the second data
  • the step may include irradiating the second type of pattern light to the object; and acquiring b (b is a natural number less than or equal to na) frames including a two-dimensional image with respect to the surface of the object irradiated with the second pattern light, comprising the step of obtaining a three-dimensional data acquisition method can do.
  • the acquiring of the second data includes acquiring a plurality of frames including a two-dimensional image with respect to the surface of the object to which the second type of different patterned lights are sequentially irradiated. It is possible to provide a three-dimensional data acquisition method comprising the steps.
  • the acquiring of the first data may include: irradiating the first type of pattern light to the object; acquiring a two-dimensional image with respect to the surface of the object irradiated with the first type of pattern light; and acquiring first point cloud data of the object based on the two-dimensional image of the surface of the object irradiated with the first type of pattern light and information on the first type of pattern light.
  • the three-dimensional data acquisition method includes irradiating the second type of patterned light instead of the first type of patterned light, or alternately irradiating the first type of patterned light and the second type of patterned light It is possible to provide a three-dimensional data acquisition method, further comprising the step of determining what to do.
  • the acquiring of the first data may include: irradiating the first type of pattern light to the object; acquiring a two-dimensional image with respect to the surface of the object irradiated with the first type of pattern light; and acquiring first point cloud data of the object based on the two-dimensional image of the surface of the object irradiated with the first type of pattern light and information on the first type of pattern light.
  • a difference between a frame including the 2D image acquired with respect to the surface of the object irradiated with the first type of pattern light and the frame and a neighboring frame is a threshold value
  • the acquiring of the first data may include: irradiating the first type of pattern light to the object; acquiring a two-dimensional image with respect to the surface of the object irradiated with the first type of pattern light; and acquiring first point cloud data of the object based on the two-dimensional image of the surface of the object irradiated with the first type of pattern light and information on the first type of pattern light.
  • the method includes, wherein the 3D data acquisition method includes, using an artificial intelligence model, based on the 2D image acquired with respect to the surface of the object irradiated with the first type of pattern light, the first type of pattern Providing a three-dimensional data acquisition method, further comprising determining to irradiate the second type of patterned light instead of the light, or to alternately irradiate the first type of patterned light and the second type of patterned light can do.
  • the acquiring of the second data may include: irradiating the second type of red pattern light to the object; obtaining an R frame including a two-dimensional image with respect to the surface of the object irradiated with the second type of red pattern light; irradiating the second type of green pattern light to the object; obtaining a G-frame including a two-dimensional image with respect to the surface of the object irradiated with the second type of green pattern light; irradiating the second type of blue pattern light to the object; and obtaining a B frame including a 2D image with respect to the surface of the object to which the second type of blue pattern light is irradiated.
  • the acquiring of the first data may include: irradiating the first type of blue pattern light to the object; and obtaining a frame including a two-dimensional image with respect to the surface of the object irradiated with the first type of blue pattern light, wherein the obtaining of the second data includes: irradiating the red pattern light or the green pattern light; and obtaining a frame including a two-dimensional image with respect to the surface of the object to which the second type of red pattern light or green pattern light is irradiated.
  • the acquiring of the three-dimensional data includes: first shape information of the object included in the first data, second shape information and color information of the object included in the second data It is possible to provide a three-dimensional data acquisition method comprising the step of acquiring the three-dimensional data based on the
  • the obtaining of the three-dimensional data may include merging the first point cloud data included in the first data and the second point cloud data included in the second data, and thus the three-dimensional It is possible to provide a three-dimensional data acquisition method comprising the step of acquiring data.
  • the obtaining of the three-dimensional data includes obtaining the three-dimensional data based on a weighted sum of the first data and the second data.
  • the acquiring of the 3D data includes using the first data for at least a partial region of the object with high reliability, based on the reliability of the first data, and using the first data with low reliability.
  • the method of obtaining 3D data may include obtaining the 3D data by using the second data for the remaining area of the object.
  • the obtaining of the 3D data may include: determining a weight for the first data based on the reliability of the first data; and acquiring the three-dimensional data by merging the first data and the second data based on the weight.
  • the obtaining of the 3D data may include determining overlapping points between a plurality of first points included in the first data and a plurality of second points included in the second data. to do; and obtaining 3D data by using an average value of the overlapping points.
  • the first data and the second data are obtained by a 3D scanner that continuously scans frames with respect to the object
  • the obtaining of the 3D data includes: assigning a high weight to data having a high similarity to neighboring frames among the data and the second data; and obtaining the 3D data based on a weighted sum to which the assigned weights are applied to the first data and the second data.
  • Another aspect of the present disclosure is an apparatus for acquiring three-dimensional data, comprising: a display; a communication interface for communicating with the three-dimensional scanner; and at least one processor executing at least one instruction to obtain the three-dimensional data, wherein the at least one processor irradiates a first type of pattern light to the object by the three-dimensional scanner, Obtaining first data on the surface of the object to which one type of pattern light is irradiated, and irradiating the second type of patterned light to the object by the 3D scanner, the second type of patterned light is irradiated It is possible to provide a three-dimensional data obtaining apparatus, characterized in that the second data on the surface of the object is obtained, and the three-dimensional data of the object is obtained based on the first data and the second data. .
  • the first data and the second data are obtained by the 3D scanner that scans n (n is a natural number) frames per t time, and the 3D scanner includes the object is irradiated with the first type of pattern light, and a (a is a natural number less than n) frames including a two-dimensional image for the surface of the object irradiated with the first type of pattern light is obtained,
  • the second type of pattern light is irradiated to the object, and a frame including a two-dimensional image is formed with respect to the surface of the object irradiated with the second type of pattern light, b (b is a natural number less than or equal to na) It is possible to provide an apparatus for acquiring three-dimensional data.
  • the first data and the second data are obtained by a 3D scanner that continuously scans frames with respect to the object, and the 3D scanner provides the object with the first type of irradiating a patterned light, acquiring a two-dimensional image with respect to the surface of the object irradiated with the first type of patterned light, and the at least one processor, the object irradiated with the first type of patterned light Acquire first point cloud data of the object based on the information on the two-dimensional image and the first type of pattern light for the surface of It is possible to provide a three-dimensional data acquisition device, which determines whether to irradiate the patterned light or alternately irradiate the first type of patterned light and the second type of patterned light.
  • the 3D scanner irradiates the second type of red pattern light to the object, and generates a 2D image with respect to the surface of the object to which the second type of red pattern light is irradiated.
  • Obtaining an R frame including and irradiating the second type of blue pattern light to the object, and obtaining a B frame including a 2D image with respect to the surface of the object irradiated with the second type of blue pattern light, 3D data acquisition device can be provided.
  • the at least one processor acquires the 3D data
  • the first shape information of the object is extracted from the first data
  • the second shape information of the object is extracted from the second data. and extracting shape information and color information, and obtaining the 3D data based on the first shape information, the second shape information, and the color information, may be provided.
  • the at least one processor acquires the three-dimensional data by merging the first point cloud data included in the first data and the second point cloud data included in the second data. It is possible to provide a three-dimensional data acquisition device.
  • Another aspect of the present disclosure is a computer-readable recording medium storing a program for performing a three-dimensional data acquisition method, wherein the three-dimensional data acquisition method includes irradiating a first type of pattern light to an object, acquiring first data on the surface of the object to which one type of pattern light is irradiated; irradiating a second type of pattern light to the object to obtain second data on a surface of the object to which the second type of pattern light is irradiated; and obtaining 3D data of the object based on the first data and the second data.
  • an 'object' is an object to be photographed, and may include a person, an animal, or a part thereof.
  • the object may include a body part (eg, an organ or an organ), an artificial structure attachable to or insertable into the object, or a phantom.
  • a case in which 3D data is obtained for an oral cavity including at least one tooth as an object has been described as an example.
  • the subject may have teeth, gingiva, at least a portion of the oral cavity, and/or artificial structures insertable into the oral cavity (eg, orthodontic devices including brackets and wires, implants, artificial teeth, inlays and onlays, etc.) including dental restorations, orthodontic aids inserted into the oral cavity, etc.).
  • the present disclosure is not limited to the case of obtaining 3D data for the oral cavity, and may be applied to obtain 3D data for various objects.
  • an 'image' may be a two-dimensional image of an object or a three-dimensional model or three-dimensional image representing the object three-dimensionally.
  • an image may include both a 2D frame and a 3D frame.
  • the image may include a 2D frame including 2D images obtained from different viewpoints with respect to the object, or a 3D frame expressed in the form of a point cloud or a polygon mesh.
  • 'data' may refer to information necessary to represent an object in two or three dimensions, for example, raw data obtained from at least one image sensor.
  • the raw data may be a 2D image obtained to generate 3D data about the object.
  • the raw data may be 2D images of different viewpoints obtained by a plurality of image sensors when an object is scanned using a 3D scanner (eg, an intraoral scanner).
  • FIG. 1 is a diagram for describing an apparatus for obtaining 3D data according to an exemplary embodiment.
  • an apparatus 200 for obtaining 3D data may include a 3D scanner 100 and a 3D image display apparatus 300 .
  • the three-dimensional data acquisition apparatus 200 projects a pattern light onto the object using the three-dimensional scanner 100 and scans the object to which the pattern light is irradiated.
  • 3D data representing the shape of the object may be obtained by using the measurement principle.
  • the 3D scanner 100 may transmit raw data obtained from the object to the 3D image display apparatus 300 .
  • the 3D image display apparatus 300 may generate 3D data representing the shape of the surface of the object in 3D based on the received raw data.
  • the 3D data may be point cloud data or polygon mesh data.
  • the 3D scanner 100 according to another embodiment may reconstruct raw data obtained from the object to generate a 3D frame, and transmit the generated 3D frame to the 3D image display apparatus 300 .
  • the 3D scanner 100 may include a medical device for acquiring an intraoral image.
  • the 3D scanner 100 may be a device for generating a 3D model of the oral cavity including at least one tooth by being inserted into the oral cavity and scanning teeth in a non-contact manner.
  • the 3D scanner 100 may have a shape that can be drawn in and out of the oral cavity, and can scan the inside of the patient's oral cavity using at least one image sensor (eg, an optical camera, etc.).
  • the three-dimensional scanner 100 is an artificial structure that can be inserted into the teeth, gingiva, and the oral cavity (eg, orthodontic devices including brackets and wires, implants, artificial teeth, orthodontic aids inserted into the oral cavity, etc.)
  • surface information about the object may be acquired as raw data.
  • the three-dimensional image display apparatus 300 obtains three-dimensional data by performing three-dimensional operations such as merge based on raw data, and displays a three-dimensional image obtained by rendering the three-dimensional data on a display screen. can do.
  • the 3D image display apparatus 300 is connected to the 3D scanner 100 through a wired or wireless communication network, and raw data or 3D frame obtained by scanning an object from the 3D scanner 100 . can receive
  • the 3D image display apparatus 300 may be any electronic device capable of generating, processing, displaying, and/or transmitting 3D data or 3D image of an object based on the received raw data or 3D frame.
  • the 3D image display apparatus 300 may be a computing device such as a smart phone, a laptop computer, a desktop computer, a PDA, or a tablet PC, but is not limited thereto.
  • the 3D image display apparatus 300 generates at least one of information required for diagnosis of an object and an object image based on data received from the 3D scanner 100 , and displays the generated information and/or image on the display 320 . ) can be displayed.
  • the 3D image display apparatus 300 may analyze 3D data or 3D image of an object, and process, display, and/or transmit the analysis result.
  • the 3D image display apparatus 300 may store and execute dedicated software linked to the 3D scanner 100 .
  • the dedicated software may be referred to as a dedicated program or a dedicated application.
  • the dedicated software stored in the 3D image display apparatus 300 is connected to the 3D scanner 100 to scan the object
  • the 3D image display apparatus 300 may be driven to receive data obtained through the process in real time.
  • the 3D image display apparatus 300 may store and execute dedicated software corresponding to the i500 product.
  • the transmission software may perform at least one operations to acquire, process, store, and/or transmit the oral image.
  • the dedicated software may be stored in the processor or memory of the 3D image display apparatus 300 .
  • the dedicated software may provide a user interface for use of data acquired in the 3D scanner.
  • the user interface screen provided by the dedicated software may include a 3D image of the object generated according to the disclosed embodiment.
  • the user interface screen provided by the dedicated software may include at least some of the user interface screens shown in FIGS. 7, 8, and 10 .
  • FIG. 2 is a view for explaining a method of obtaining surface data by an optical 3D scanner according to an exemplary embodiment.
  • a structured light with stereo vision method may be used.
  • the three-dimensional scanner 100 includes two or more cameras 207 and 209 and at least one projector 211 capable of irradiating structured light (or patterned light) 213 . can be configured.
  • the 3D scanner 100 irradiates the structured light 213 to the object 201, and the L camera 207 and the right field of view corresponding to the left field of view View) may acquire the L image 203 corresponding to the left eye view and the R image 205 corresponding to the right eye view from each of the R cameras 209 corresponding to the view).
  • the 3D scanner 100 may continuously acquire 2D frames including the L image 203 and the R image 205 of the object 201 .
  • the 3D scanner 100 or the 3D image display apparatus 300 may reconstruct a 3D frame representing the surface shape of the object from the 2D frame including the L image 203 and the R image 205 .
  • the 3D scanner 100 includes two cameras 207 and 209 and one projector 211 is illustrated as an example.
  • the 3D scanner may include one camera and one projector.
  • the projector may simultaneously perform a role of a camera for acquiring an image and a role of a projector for irradiating structured light.
  • the 3D scanner may include a plurality of cameras and a plurality of projectors.
  • the 3D scanner 100 may acquire a plurality of 2D frames by scanning the object at regular time intervals (eg, several ms to several tens of ms) while moving around the object.
  • the 3D scanner 100 or the 3D image display apparatus 300 may obtain a plurality of 3D frames from the plurality of 2D frames.
  • the 3D scanner 100 may acquire 10 to 30 3D frames per second, and each 3D frame may be generated based on 20 to 30 2D frames.
  • the 3D image display apparatus 300 may reconstruct 3D data of the entire object by combining or aligning a plurality of 3D frames.
  • the three-dimensional scanner 100 scans the oral cavity according to the method shown in FIG. 2, metal structures in the oral cavity, such as inlays, onlays, crowns, prostheses, orthodontic devices, In this case, it is difficult to scan the shape.
  • the three-dimensional data acquisition method of acquiring three-dimensional shape information of the surface of the object by irradiating pattern light to the object the three-dimensional shape information can be obtained only when the pattern is seen on the surface of the object.
  • it is difficult to measure 3D shape information because the amount of reflected light among the irradiated pattern light is large.
  • a method in which the 3D scanner 100 irradiates a brighter pattern light so that even a part of the pattern light is visible on the surface of the object may be used.
  • the three-dimensional scanner 100 uses a red light source, a green light source, and A white pattern light may be irradiated to the surface of the object by using a blue light source at the same time.
  • the 3D scanner 100 may use point pattern light instead of line pattern light to scan the metal structure.
  • the line pattern light may refer to light in which straight lines or curves are arranged side by side in a horizontal, vertical, or oblique direction as illustrated in the pattern light 213 of FIG. 2 .
  • the point pattern light may refer to light in which dots of a certain size or various sizes are arranged.
  • FIG. 3 is a view for explaining a point pattern light irradiated to an object according to an embodiment.
  • the three-dimensional scanner 100 irradiates a point pattern light 301 to the object, and scans the surface of the object to which the point pattern light is irradiated, thereby providing a two-dimensional image frame ( 303) can be obtained.
  • the point pattern light since points included in the point pattern light may be arranged randomly without a specific rule, the point pattern light may also be referred to as a random pattern light.
  • the 3D data acquisition apparatus 200 may acquire a plurality of 2D images by scanning the surface of the object irradiated with the point pattern light from different viewpoints.
  • a stereo matching method may be used to obtain 3D shape information of the object surface from a plurality of 2D images.
  • the stereo matching method may include, for example, block matching, graph cut, or semi-global matching.
  • the semi-global matching method may be a method of acquiring 3D shape information using a pixel-based mutual information-based matching cost function for compensating for a radiometric difference between 2D images.
  • the three-dimensional scanner 100 acquires a larger amount of data related to the three-dimensional shape of the object by scanning the surface of the object to which the point pattern light is irradiated, compared with the case of irradiating the line pattern light can do. Accordingly, when the point pattern light is used, it is possible to obtain more accurate three-dimensional data even for an area made of metal.
  • the 3D scanner 100 uses the line pattern light, even if a part of the line is scanned blurry due to light reflection, information on the entire line cannot be used.
  • the 3D scanner 100 uses point pattern light, there is no problem in acquiring information from other points even if some points are scanned blurry due to light reflection. Accordingly, compared to the method using the line pattern light, the method using the point pattern light is more robust to light reflection, and thus may be advantageous for data acquisition of the metal region. However, for a non-metal region, using the line pattern light may have relatively higher precision than using the point pattern light.
  • the 3D data acquisition apparatus 200 may acquire 3D data of an object by using various operation modes. A detailed method for the 3D data acquisition apparatus 200 to acquire 3D data on an object according to various embodiments will be described below in detail with reference to FIGS. 4 to 16 .
  • FIG. 4 is a flowchart illustrating a method for obtaining 3D data by an apparatus for obtaining 3D data according to an exemplary embodiment.
  • step S401 the three-dimensional data acquisition apparatus 200 acquires first data on the surface of the object irradiated with the first type of pattern light by irradiating the object with a first type of pattern light.
  • the three-dimensional scanner 100 included in the three-dimensional data acquisition apparatus 200 irradiates a first type of pattern light to the object, and at two different viewpoints, the surface of the object to which the first type of pattern light is irradiated Dimensional images can be obtained.
  • the first type of pattern light may include line pattern light.
  • the 3D data acquisition apparatus 200 may provide first point cloud data of the object based on 2D images of the surface of the object irradiated with the first type of pattern light and information on the first type of pattern light. may be obtained as the first data.
  • the 3D data acquisition apparatus 200 may determine whether each line on the object appearing in the 2D image scanned by the first image sensor of the 3D scanner 100 is any of the 2D image scanned by the second image sensor. You can decide whether it corresponds to a line or not.
  • the 3D data acquisition apparatus 200 may calculate 3D coordinates of points constituting each line matched between 2D images based on the irradiated line pattern and the deformed line shown in the 2D images. have.
  • the 3D data acquisition apparatus 200 may acquire the first point cloud data by calculating 3D coordinates for each pixel included in the 2D images.
  • the 3D scanner 100 may irradiate the same pattern light of the first type to the object or sequentially irradiate the light with different patterns of the first type to the object.
  • the 3D scanner 100 may acquire at least one frame with respect to the surface of the object to which each of the first type of different pattern lights is irradiated.
  • step S402 the three-dimensional data acquisition apparatus 200 obtains second data on the surface of the object irradiated with the second type of pattern light by irradiating the second type of pattern light to the object.
  • the three-dimensional scanner 100 included in the three-dimensional data acquisition apparatus 200 irradiates a second type of pattern light to the object, and the second type of pattern light is irradiated to the surface of the object at two different viewpoints. Dimensional images can be obtained.
  • the second type of pattern light may include point pattern light.
  • the 3D data acquisition apparatus 200 may provide second point cloud data of the object based on the 2D images of the surface of the object irradiated with the second type of pattern light and information on the second type of pattern light. may be obtained as the second data.
  • the 3D data acquisition apparatus 200 may determine whether each point on the object appearing in the 2D image scanned by the first image sensor of the 3D scanner 100 is in the 2D image scanned by the second image sensor. It can be determined whether it corresponds to a point.
  • the 3D data acquisition apparatus 200 may calculate 3D coordinates of each point matched between 2D images based on the irradiated point pattern and the deformed point pattern shown in the 2D images.
  • the 3D data acquisition apparatus 200 may acquire the second point cloud data by calculating 3D coordinates for each pixel included in the 2D images.
  • the 3D scanner 100 may irradiate the same pattern light of the second type to the object, or may sequentially irradiate the second type of different pattern light light to the object.
  • the 3D scanner 100 may acquire at least one frame with respect to the surface of the object to which each of the second type of different pattern lights is irradiated.
  • the 3D scanner 100 may be configured to alternately irradiate a first type of pattern light and a second type of pattern light.
  • the 3D scanner 100 acquires first data based on a plurality of 2D image frames obtained using a first type of pattern light, and obtains a plurality of 2D images obtained using a second type of pattern light.
  • Second data may be obtained based on the dimensional image frames.
  • the 3D scanner 100 irradiates a first type of pattern light and then irradiates a second type of pattern light will be described as an example.
  • various embodiments of the present disclosure are not limited to these examples, and since the 3D scanner 100 is configured to alternately irradiate the pattern light of the first type and the pattern light of the second type, the pattern light of the second type After irradiation, the first type of pattern light may be irradiated.
  • the 3D scanner 100 may irradiate the pattern light of the first type, then irradiate the pattern light of the second type, and then irradiate the pattern light of the first type again.
  • the 3D scanner 100 may acquire first data by continuously scanning frames with respect to an object irradiated with a first type of pattern light.
  • the first data may be obtained by the 3D scanner 100 repeatedly scanning n (n is a natural number) frames per t time.
  • the 3D scanner 100 may scan 100 to 900 frames per second.
  • the 3D scanner 100 may acquire a frame (a is a natural number less than n) per time t including 2D images from different viewpoints with respect to the surface of the object irradiated with the first type of pattern light. have.
  • the 3D scanner 100 may include a first 2D image scanned by the first image sensor and a second 2D image scanned by the second image sensor with respect to the surface of the object irradiated with the first type of pattern light.
  • a frame including a 2D image may be acquired, and the frame acquisition process may be repeated a times within t time.
  • the 3D data acquisition apparatus 200 may acquire first point cloud data as first data based on a number of 2D image frames.
  • the 3D data acquisition apparatus 200 may acquire one point cloud from 20 to 30 2D image frames.
  • the 3D scanner 100 may acquire the second data by continuously scanning frames with respect to the object irradiated with the second type of pattern light.
  • the 3D scanner 100 may acquire b frames (where b is a natural number less than na) per t time including 2D images of different viewpoints with respect to the surface of the object irradiated with the second type of pattern light. have.
  • the 3D data acquisition apparatus 200 may acquire second point cloud data as second data based on b 2D image frames.
  • the 3D scanner 100 When the 3D scanner 100 according to an embodiment acquires second data using the second type of pattern light, red pattern light, green pattern light, and blue pattern light to obtain color information about an object At least one of them may be irradiated to the subject.
  • the 3D scanner 100 according to an embodiment may irradiate red pattern light, green pattern light, and blue pattern light respectively to the object in order to obtain color information on the object.
  • the 3D scanner 100 irradiates a second type of red pattern light to the object, and includes 2D images from different viewpoints with respect to the surface of the object to which the second type of red pattern light is irradiated.
  • R frames can be obtained.
  • the 3D scanner 100 irradiates a second type of green pattern light to the object, and acquires a G-frame including 2D images from different viewpoints with respect to the surface of the object to which the second type of green pattern light is irradiated can do.
  • the 3D scanner 100 irradiates a second type of blue pattern light to the object, and acquires a B frame including 2D images from different viewpoints with respect to the surface of the object to which the second type of blue pattern light is irradiated can do.
  • the 3D data acquisition apparatus 200 may acquire second point cloud data as second data based on the R frame, the G frame, and the B frame.
  • the present disclosure is not limited to an embodiment in which the 3D scanner 100 irradiates point pattern light using all light source colors (ie, red, green, and blue).
  • the three-dimensional scanner 100 irradiates line pattern light using one of red, green, and blue light sources, and irradiates point pattern light, non-pattern light, or random pattern light.
  • the remaining light sources of red, green, and blue may be used.
  • the 3D scanner 100 may irradiate blue light of a line pattern, irradiate red light of a point pattern, and irradiate green light without a pattern (or random pattern green light).
  • the 3D scanner 100 may be configured to irradiate a second type of pattern light when a metal region is detected while scanning an object irradiated with a first type of pattern light.
  • the 3D scanner 100 may acquire first data by continuously scanning frames with respect to an object irradiated with a first type of pattern light.
  • the 3D data acquisition apparatus 200 may acquire first point cloud data as first data based on a plurality of 2D image frames acquired from an object irradiated with a first type of pattern light.
  • the 3D data acquisition apparatus 200 may provide a brightness value between a frame including 2D images from different viewpoints acquired with respect to the surface of the object irradiated with the first type of pattern light and a neighboring frame. When the difference is greater than the threshold value, it may be determined to irradiate the second type of patterned light instead of the first type of patterned light.
  • the 3D data acquisition apparatus 200 may determine whether the area of the object being scanned is a metal area using the artificial intelligence model.
  • the 3D data acquisition apparatus 200 may apply a 2D image frame or 3D frame obtained from the object to the artificial intelligence model as an input to determine whether the area of the object being scanned is a metal area.
  • the artificial intelligence model used for determining the metal region may be an artificial intelligence model obtained by training a large amount of scan data obtained from the metal region and the non-metal region of the object.
  • the 3D data acquisition apparatus 200 may determine to irradiate the second type of pattern light instead of the first type of pattern light.
  • the 3D scanner 100 may acquire second data by irradiating the second type of pattern light to the object, and continuously scanning frames with respect to the object to which the second type of pattern light is irradiated.
  • the 3D data acquisition apparatus 200 may acquire second point cloud data as second data based on a plurality of 2D image frames acquired from the object irradiated with the second type of pattern light.
  • the 3D data acquisition apparatus 200 may acquire 3D data of the object based on the first data and the second data.
  • the first data obtained by the 3D scanner 100 using the first type of pattern light may include first shape information of the object.
  • the second data obtained by the 3D scanner 100 irradiating at least one of a second type of pattern light among red, green, and blue light may include second shape information and color information of the object.
  • the 3D scanner 100 obtains first shape information of the object using a first type of blue pattern light, a second type of red pattern light, a second type of green pattern light, and a second The type of blue pattern light may be irradiated to include second shape information and color information of the object.
  • the 3D data acquisition apparatus 200 may acquire 3D data based on the first shape information, the second shape information, and the color information.
  • the 3D data acquisition apparatus 200 may acquire 3D data by merging the first point cloud data included in the first data and the second point cloud data included in the second data. .
  • the 3D data acquisition apparatus 200 may acquire 3D data based on a weighted sum of the first data and the second data.
  • the first data, the second data, and the 3D data may be point cloud data or polygon mesh data.
  • the 3D data acquisition apparatus 200 uses the first data for at least a partial area of the object with high reliability based on the reliability of the first data, and uses the first data for the remaining area of the object with low reliability. By using the second data, 3D data may be obtained.
  • the 3D data acquisition apparatus 200 may determine a weight to be applied to the first data based on the reliability of the first data.
  • the 3D data acquisition apparatus 200 may acquire 3D data by merging the first data and the second data based on a weight.
  • the 3D data acquisition apparatus 200 may determine overlapping points between a plurality of first points included in the first data and a plurality of second points included in the second data.
  • the 3D data acquisition apparatus 200 may acquire 3D data by using an average value of overlapping points.
  • the 3D data acquisition apparatus 200 may assign a high weight to data having a high similarity to neighboring frames among the first data and the second data.
  • the 3D data obtaining apparatus 200 may obtain 3D data based on a weight sum to which an assigned weight is applied to the first data and the second data.
  • FIG. 5 is a diagram for explaining a method in which the 3D data acquisition apparatus acquires 3D data of an object using point pattern light and line pattern light according to an exemplary embodiment.
  • the 3D data acquisition apparatus 200 may acquire one 3D image frame from a plurality of 2D image frames.
  • the plurality of 2D image frames used to obtain one 3D image frame include an R frame 511 and a G frame 513 for obtaining color data 551 and shape data 553 of an object. ), and a B frame 515 and frames 521 , 523 , 525 , and 527 for acquiring shape data 557 of the object.
  • the 3D scanner 100 obtains an R frame 511 for the surface of the object irradiated with the red light of the point pattern, and obtains the G frame 513 for the surface of the object on which the green light of the point pattern is irradiated Then, a B frame 515 may be obtained for the surface of the object to which the blue light of the point pattern is irradiated.
  • the 3D scanner 100 may acquire a plurality of frames 521 , 523 , 525 , and 527 with respect to the surface of the object to which the blue line pattern light is irradiated.
  • the three-dimensional data obtaining apparatus 200 merges the shape data 553 of the object obtained using the point pattern light and the shape data 557 of the object obtained using the line pattern light, 3D data of the object may be obtained.
  • the shape data 553 and the shape data 557 of the object may be point cloud data indicating positions on the 3D space of points corresponding to the surface of the object.
  • the 3D data acquisition apparatus 200 may acquire one 3D data by merging the shape data 553 and the shape data 557 .
  • FIG. 6 is a diagram for describing a method in which the 3D data acquisition apparatus acquires 3D data of an object by merging first data and second data according to an exemplary embodiment.
  • the three-dimensional data acquisition apparatus 200 may merge the first point cloud 601 obtained by the line pattern light and the second point cloud 602 obtained by the point pattern light, thereby providing a three-dimensional Data 630 may be obtained.
  • the second point cloud 602 obtained using the point pattern may have a larger amount of data than the first point cloud 601 obtained using the line pattern.
  • the 3D data acquisition apparatus 200 may determine overlapping points between points included in the first point cloud 601 and points included in the second point cloud 602 .
  • the point of the first point cloud 601 and the point of the second point cloud 602 are adjacent to each other in the three-dimensional space, they may be determined as overlapping points.
  • the 3D data acquisition apparatus 200 may use a point located within a predetermined distance from a point included in the first point cloud 601 among points included in the second point cloud 602 as an overlapping point. can decide The 3D data acquisition apparatus 200 may acquire 3D data based on overlapping points.
  • the three-dimensional data acquisition apparatus 200 is adjacent to the point 611 included in the first point cloud 601, based on the point 622 included in the second point cloud 602, The position of the point 633 in the 3D data 630 may be determined.
  • the three-dimensional data acquisition apparatus 200 includes coordinate values (10, 21, 16) indicating the position of the point 611 and coordinate values indicating the position of the point 622 .
  • the position of the point 633 can be determined as (10.5, 20.5, 17).
  • the three-dimensional data acquisition apparatus 200 includes coordinate values (10, 21, 16) indicating the position of the point 611 and coordinate values (11, 20, 18) indicating the position of the point 622.
  • the position of the point 633 may be determined by calculating the weighted sum.
  • the three-dimensional data acquisition apparatus 200 gives the point 611 a weight of 0.7 and gives a weight of 0.3 to the point 622, so that the position of the point 633 is (10.3, 20.7, 16.6) can be determined.
  • the 3D data acquisition apparatus 200 may use various methods in determining a weight to be assigned for merging the first point cloud 601 and the second point cloud 602 .
  • the 3D data acquisition apparatus 200 preferentially assigns a high weight to the first point cloud 601 obtained using the line pattern light, and the second point cloud obtained using the point pattern light (602) can be given a relatively low weight.
  • the 3D data acquisition apparatus 200 may assign a high weight to a point cloud having a high similarity with neighboring 3D frames when continuously acquiring 3D frames in the form of a point cloud.
  • the 3D data acquisition apparatus 200 may provide a predetermined point cloud and a neighboring point based on a distance between at least one point included in a predetermined point cloud and at least one point included in a neighboring point cloud.
  • a degree of similarity between clouds may be determined, and a weight given to a predetermined point cloud may be determined based on the degree of similarity.
  • the neighboring point cloud may mean a point cloud obtained from data scanned before obtaining a predetermined point cloud.
  • the 3D data acquisition apparatus 200 may correspond the points of the first point cloud to the points of the neighboring point clouds acquired before acquiring the first point cloud.
  • the 3D data acquisition apparatus 200 may determine that the point of the first point cloud and the point of the neighboring point cloud are well aligned when the distance between points corresponding to each other is close.
  • the 3D data acquisition apparatus 200 gives a high weight to the points of the first point cloud when the distances between the points corresponding to each other are close, and the distance between the points corresponding to each other is long. In this case, a low weight may be given to the points of the first point cloud.
  • the three-dimensional data acquisition device 200 corresponds to the points of the neighboring point clouds obtained before acquiring the second point cloud, and the points of the second point cloud are compared with the first point cloud, and corresponding to each other.
  • a high weight may be given to a point of the second point cloud
  • a low weight may be given to a point of the second point cloud if the points corresponding to each other are far apart.
  • the 3D data acquisition apparatus 200 merges the first point cloud and the second point cloud based on the determined weight, so that, among the first point cloud and the second point cloud, a high weight is given to a point cloud having a high similarity to a neighboring point cloud. can be given
  • the three-dimensional data acquisition apparatus 200 selects a point that is more closely aligned with a neighboring point cloud from among the points of the first point cloud and the points of the second point cloud to be three-dimensional You can use a method to include it in the data.
  • a point more closely aligned with a neighboring point cloud among the points of the first point cloud and the points of the second point cloud may be determined based on a distance between points corresponding to each other.
  • the 3D data acquisition device 200 calculates a first distance between a first point of the first point cloud and a corresponding point of a neighboring point cloud, and calculates a first distance between a second point of a second point cloud and a neighboring point cloud.
  • a second distance between the corresponding points may be calculated.
  • the 3D data acquisition apparatus 200 may compare the first distance and the second distance, and when the distance between the corresponding points is short, it may be determined that alignment between the corresponding points is good.
  • the 3D data acquisition apparatus 200 gives a high weight when the reliability of the first point cloud 601 is high, based on the reliability of the first point cloud 601 obtained using the line pattern light, , when the reliability of the first point cloud 601 is low, a relatively low weight may be assigned. For example, when the contrast between the lines in the plurality of 2D images obtained from the surface of the object irradiated with the line pattern light is clear (that is, when the difference in brightness between the line area and other areas is greater than or equal to a threshold value) ), the 3D data acquisition apparatus 200 may determine that the reliability of the point cloud obtained from the plurality of 2D images is high.
  • the 3D data acquisition apparatus 200 may acquire 3D data by combining the first data and the second data obtained from the 3D scanner 100 .
  • the display 320 of the 3D data acquisition apparatus 200 may display a 3D image 703 of an object generated from 3D data.
  • the 3D data may be point cloud data including a plurality of points disposed in a 3D space.
  • the display 320 of the 3D data acquisition apparatus 200 may display a 3D image 803 of an object generated from 3D data.
  • the 3D data may include color information as well as shape information of the object.
  • the 3D data acquisition apparatus 200 may generate the 3D image 803 by converting the point cloud data into a polygon mesh form or by applying interpolation to a plurality of points.
  • the 3D data acquisition apparatus 200 uses different 3D scanning methods in each of the first mode and the second mode to acquire accurate 3D data on the object including the metal region.
  • First data and second data may be obtained.
  • 3D scan may mean acquiring a series of 3D point clouds using 2D image data and geometric information (eg, calibration data, etc.) acquired by photographing an object using a camera.
  • the different 3D scan methods refer to at least one of a parameter related to pattern light irradiated to the object, a method of obtaining a 2D image from the object, or a method of obtaining a 3D point cloud from 2D image data. It may mean different 3D scan schemes.
  • the 3D data acquisition apparatus 200 obtains first data and second data from an object by irradiating different types of pattern lights, and includes the first data and 3D data regarding the object including the metal region may be acquired based on the second data.
  • the 3D data acquisition apparatus 200 may acquire the first data and the second data by applying different post-processing methods to the 3D point cloud obtained from the object.
  • the 3D data acquisition apparatus 200 may acquire accurate 3D data even for an object including a metal region by using the first data and the second data to which different post-processing methods are applied.
  • Post-processing means using the point cloud and other information obtained from the object to transform the point cloud (eg, adding or deleting a new point) or new 3D information (eg, included in the point cloud) It means to generate mesh data generated based on a connection relationship between points, or curvature or reliability of a point cloud).
  • the different post-processing methods may refer to post-processing methods in which at least one of a method of transforming a 3D point cloud obtained from an object or a method of generating new 3D information is different.
  • the three-dimensional data acquisition apparatus 200 is obtained in different operation modes (eg, operation modes using different three-dimensional scan methods or operation modes using different post-processing methods).
  • operation modes eg, operation modes using different three-dimensional scan methods or operation modes using different post-processing methods.
  • a detailed method of acquiring 3D data regarding an object including a metal region based on the first data and the second data will be described.
  • the 3D data acquisition apparatus 200 may receive a user input for selecting an operation option for automatically changing an operation mode when a metal region on the object is detected. Based on the user input, the 3D data acquisition apparatus 200 according to an embodiment may operate by switching the operation mode to the metal scan mode when a metal region is detected on the object while scanning the object.
  • FIG. 9 is a flowchart illustrating a method for obtaining 3D data by an apparatus for obtaining 3D data according to an exemplary embodiment.
  • the 3D data acquisition apparatus 200 may operate in the first mode to acquire first data by scanning the object with a 3D scanner.
  • the first mode may include scan parameters, a scan method for acquiring two-dimensional data from an object, and/or post-processing of data acquired from the object, so as to be suitable for scanning non-metallic regions such as teeth and gingiva. (post-processing) may mean an operation mode in which the method is set.
  • the 3D data acquisition apparatus 200 may change the operation mode from the first mode to the second mode when a metal region is detected on the object.
  • the 3D data acquisition apparatus 200 may detect the presence of the metal region on the object by analyzing data acquired by the 3D scanner using an artificial intelligence model. For example, the 3D data acquisition apparatus 200 may apply the first data obtained from the object to the artificial intelligence model as an input to determine whether the area of the object being scanned is a metal area.
  • the artificial intelligence model used for determining the metal region may be an artificial intelligence model obtained by training a large amount of scan data obtained from the metal region and the non-metal region of the object.
  • the object used for learning the artificial intelligence model may be a separate object from the object being scanned by the 3D data acquisition apparatus 200 .
  • the 3D data acquisition apparatus 200 may change the operation mode from the first mode to the second mode.
  • the 3D scanner 100 may irradiate at least one of red light, green light, and blue light to the object in order to obtain color information along with shape information about the object when scanning the object. have.
  • the 3D scanner 100 may sequentially irradiate red light, green light, and blue light to the object in order to obtain color information on the object.
  • red light, green light, or blue light irradiated to the object to obtain color information may include pattern light formed of a plurality of lights in the form of a predetermined figure, line, and/or point.
  • the present disclosure is not limited to an example of irradiating patterned light to the object to obtain color information about the object, and at least one of red light, green light, and blue light without a pattern may be irradiated to the object.
  • the 3D data acquisition apparatus 200 is a color image generated by combining the intensities of the R frame, the G frame, and the B frame acquired based on each of the red light, the green light, and the blue light. can be analyzed.
  • the 3D data acquisition apparatus 200 may detect the presence of the metal region on the object by analyzing the generated color image, and determine whether the metal region is being scanned.
  • the 3D data acquisition apparatus 200 analyzes a color image obtained by scanning an object, and when it is determined that an area of a predetermined ratio or more in the color image is a metal area, the 3D data acquisition apparatus 200 scans the metal area. can be judged to be working. For example, the 3D data acquisition apparatus 200 may determine that the metal area is being scanned when it is determined that 40% or more of pixels among all pixels in the color image are pixels corresponding to the metal area.
  • the present disclosure is not limited to specific numerical values, and different reference values for determining the metal region may be applied according to various embodiments.
  • the 3D data acquisition apparatus 200 may change the operation mode from the first mode to the second mode based on a result of determining that the metal region of the object is being scanned.
  • the 3D data acquisition apparatus 200 may operate in the second mode to acquire second data by scanning the object with a 3D scanner.
  • the second mode may mean an operation mode in which a scan parameter, a scan method, and/or a post-processing method are set to be suitable for scanning a metal region.
  • the first mode and the second mode may mean operation modes using different 3D scan methods or operation modes using different post-processing methods.
  • the 3D data acquisition apparatus 200 may acquire the first data and the second data using different 3D scan methods in the first mode and the second mode.
  • the 3D data acquisition apparatus 200 acquires first data on the surface of the object irradiated with the first type of patterned light in step S910, and obtains the second type of patterned light in step S930.
  • Second data on the surface of the irradiated object may be acquired.
  • the first type of pattern light may include line pattern light
  • the second type of pattern light may include point pattern light.
  • the 3D data acquisition apparatus 200 may acquire the first data and the second data using different post-processing methods.
  • the 3D data acquisition apparatus 200 may acquire the first mesh data from the first point cloud of the object using a general triangulation method in step S910 .
  • the three-dimensional data acquisition apparatus 200 may acquire, in the first mode, a first point cloud for the surface of the object, and acquire the first mesh data as the first data by connecting adjacent points in the first point cloud. have.
  • the 3D data acquisition apparatus 200 may acquire second mesh data from the second point cloud of the object using a Delaunay triangulation method.
  • the 3D data acquisition apparatus 200 obtains a second point cloud for the surface of the object in the second mode, and connects the points in the second point cloud using Delaunay triangulation to connect the second mesh data to the second data can be obtained.
  • the 3D data obtaining apparatus 200 may apply Delaunay triangulation to the entire second point cloud in order to obtain the second mesh data.
  • the 3D data acquisition apparatus 200 identifies points corresponding to the metal region in the second point cloud, applies Delaunay triangulation only to the identified points, and applies the Delaunay triangulation to unidentified points.
  • the second mesh data may be obtained by applying general triangulation connecting adjacent points.
  • the 3D data acquisition apparatus 200 deletes an edge connecting two points of a predetermined distance or more in the second mesh data obtained using Delaunay triangulation in step S930 and/or a mesh including the same filtering may be additionally performed.
  • the 3D data acquisition apparatus 200 acquires a first point cloud for the surface of the object in step S910, and acquires first mesh data by connecting points in the first point cloud And, filtering may be performed by deleting a group consisting of a number of triangles less than or equal to a first predetermined value in the first mesh data.
  • the 3D data acquisition apparatus 200 may acquire first data including first mesh data on which filtering is performed.
  • the 3D data acquisition apparatus 200 acquires a second point cloud for the surface of the object, acquires second mesh data by connecting points in the second point cloud, and the second mesh Filtering may be performed by deleting a group consisting of a number of triangles less than or equal to a second predetermined value in the data.
  • the 3D data acquisition apparatus 200 may acquire second data including second mesh data on which filtering is performed.
  • the second predetermined value used for filtering in the second mode may be smaller than the first predetermined value used for filtering in the first mode.
  • the triangle group removed by filtering in the first mode may not be removed in the second mode. Accordingly, compared to when the 3D data acquisition apparatus 200 operates in the first mode, the amount of data deleted by filtering may be reduced in the second mode. As a result, more information about the metal region can be preserved without being deleted.
  • the 3D data acquisition apparatus 200 may acquire 3D data of the object based on the first data acquired in the first mode and the second data acquired in the second mode.
  • the 3D data acquisition apparatus 200 may acquire 3D data of an object in which a non-metal region and a metal region are mixed by positionally aligning data obtained in each of the first mode and the second mode.
  • FIG. 10 illustrates an example of a user interface displayed by an apparatus for obtaining 3D data according to an embodiment.
  • the three-dimensional data acquisition apparatus 200 acquires three-dimensional data by scanning an object with the three-dimensional scanner 100, and obtains a three-dimensional image 1007 generated based on the obtained three-dimensional data. can be displayed.
  • the screen 1001 displayed by the 3D data acquisition apparatus 200 displays a 2D image 1003 obtained by scanning an object and 3D data obtained by reconstructing a plurality of 2D images obtained by scanning an object.
  • the rendered 3D image 1007 may be included.
  • the 3D scanner 100 may acquire a plurality of 2D frames by scanning the object at regular time intervals (eg, several ms to several tens of ms).
  • the 3D data acquisition apparatus 200 may acquire a plurality of 3D frames from a plurality of 2D frames.
  • the 3D data acquisition apparatus 200 may reconstruct 3D data for the entire object by combining or aligning a plurality of 3D frames.
  • the 3D data acquisition apparatus 200 may display an area 1009 currently being scanned by the 3D scanner 100 on the object on the screen 1001 .
  • the 3D data acquisition apparatus 200 displays setting information related to scanning of an object and/or setting information related to processing of 3D data obtained by scanning the object, and receives a user input for changing the setting information A menu bar that enables this may be displayed on the screen 1001 .
  • the 3D data acquisition apparatus 200 according to an embodiment provides a user interface 1005 for receiving a user input for selecting an operation option related to a metal region scan on a screen 1001 . can do.
  • the user interface 1005 may display whether an operation option related to the metal region scan is turned on or off.
  • the 3D data acquisition apparatus 200 may automatically change the operation mode from the first mode to the second mode when the metal area is detected on the object.
  • the 3D data acquisition apparatus 200 scans the metal region on the object without determining whether the metal region is detected on the object. Even in this case, it can always operate in the first mode without changing the operation mode.
  • FIG. 11 illustrates an example of 3D data obtained by scanning an object in a first mode and a second mode by an apparatus for obtaining 3D data according to an exemplary embodiment.
  • a portion 1115 corresponding to the metal region of the object contains the 3D data. There can be many omissions. This is because most of the pattern light irradiated to the metal area is reflected, the amount of 3D shape information that the 3D scanner 100 can obtain by photographing the metal area is the same as the amount of information obtained when the non-metal area is photographed. because it is relatively less than the quantity.
  • the 3D data acquisition apparatus 200 when the 3D data acquisition apparatus 200 scans the metal area, it is configured to obtain 3D data on the metal area (ie, surface information of the metal area irradiated with the pattern light).
  • the operation mode may be changed to operate in the second mode (configured to secure as many as possible without loss).
  • the 3D data acquisition apparatus 200 acquires 3D data 1130 in the second mode, complete data may be acquired even for a portion 1135 corresponding to the metal region of the object.
  • the 3D data acquisition apparatus 200 may change the operation mode by changing the pattern light irradiated on the object.
  • the 3D data acquisition apparatus 200 may scan an object using line pattern light in a first mode and use point pattern light in a second mode.
  • the method using the point pattern light is stronger in light reflection, so it may be advantageous for data acquisition of the metal region.
  • the present disclosure is not limited to the point pattern light, and various pattern light designed to be suitable for scanning the metal area may be used.
  • the 3D data acquisition apparatus 200 may use a stereo matching method in the second mode in acquiring 3D shape information of the object surface from a plurality of 2D images.
  • the stereo matching method may include, for example, block matching, graph cut, or semi-global matching.
  • the 3D data acquisition apparatus 200 may change the operation mode by changing a post-processing method, which is a processing method after obtaining 3D point cloud data from an object. . That is, the 3D data acquisition apparatus 200 may perform post-processing in different ways in each of the first mode and the second mode.
  • the 3D data acquisition apparatus 200 may generate 3D polygon mesh data by using a triangulation method of constructing a triangular network by connecting points included in a point cloud.
  • the 3D data acquisition apparatus 200 may use various methods to generate mesh data from a point cloud.
  • the 3D data acquisition apparatus 200 generates a 3D point cloud by using 2D image data obtained by scanning an object, and uses a connection relationship between pixels of the 2D image data to create a 3D point cloud.
  • Mesh data can be generated from point clouds.
  • the 3D data acquisition apparatus 200 may generate mesh data by using a connection relationship between adjacent pixels among pixels constituting the 2D image data.
  • the 3D data acquisition apparatus 200 may generate mesh data using a 3D point cloud.
  • the 3D data acquisition apparatus 200 may generate mesh data from the 3D point cloud using a method such as Marching Cubes or Delaunay Triangulation.
  • Delaunay triangulation may refer to a method of connecting points so that the minimum value of the interior angle of the triangles becomes the maximum when the points are connected in the form of a triangle.
  • the 3D data acquisition apparatus 200 may generate mesh data in different forms according to a triangulation method and an input factor, even if mesh data is generated from the same point cloud.
  • the 3D data acquisition apparatus 200 When the 3D data acquisition apparatus 200 according to an embodiment generates a point cloud composed of a plurality of vertices by a 3D scan, the physical between adjacent vertices depends on the resolution of the camera and/or optical system used during the scan. A minimum distance may be determined. However, due to the material of the object, the shape of the object, the geometric condition between the object and the 3D scanner, or the lighting condition to illuminate the object, it may be impossible to obtain 3D data for at least a part of the object.
  • 3D data obtained by one scan may include vertices having a distance between adjacent vertices equal to or greater than a predetermined standard.
  • the 3D data acquisition apparatus 200 may determine the connection as an inappropriate connection and remove the connection relationship.
  • the 3D data acquisition apparatus 200 may acquire mesh data including a triangular network configured by connecting only vertices spaced apart by less than a reference distance.
  • the 3D data acquisition apparatus 200 may group triangles adjacent to each other in the mesh data into at least one group.
  • the 3D data acquisition apparatus 200 may identify, for each group, the number of triangles constituting the group. When the number of triangles constituting a group is less than or equal to a predetermined value, the 3D data acquisition apparatus 200 regards the group as noise generated in the scanning process and filters the group to remove the group from the mesh data.
  • FIG. 12 illustrates an example of mesh data obtained by scanning a normal area and mesh data obtained by scanning a metal area by an apparatus for obtaining 3D data according to an exemplary embodiment.
  • the 3D data acquisition apparatus 200 may perform filtering to remove a group consisting of a number of triangles less than or equal to a predetermined value on the mesh data 1210 acquired from the non-metal region of the object. have.
  • the 3D data acquisition apparatus 200 may regard a group consisting of three or less triangles as noise.
  • the 3D data acquisition apparatus 200 may delete a triangle group 1211 including one triangle from the mesh data 1210 .
  • FIG. 12 shows mesh data 1230 obtained from the metal region of the object.
  • the mesh data 1230 of FIG. 12 since the data obtained by scanning for the metal region is insufficient, the mesh data 1230 including the triangular groups 1231 , 1233 , and 1235 sparsely can be created
  • the 3D data acquisition apparatus 200 may perform filtering to remove a group consisting of a number of triangles less than or equal to a predetermined value on the mesh data 120 acquired from the metal region of the object. have.
  • the 3D data acquisition apparatus 200 may regard a group consisting of three or less triangles as noise.
  • the sparsely included triangle groups 1231 , 1233 , and 1235 may be deleted from the mesh data 1230 .
  • the 3D data acquisition apparatus 200 regards all of the triangle groups 1231 , 1233 , and 1235 as noise and deletes them from the mesh data 1230 , data may be greatly lost.
  • the 3D data acquisition apparatus 200 may change the operation mode to the second mode by changing a reference value that is a criterion for filtering in order to reduce data loss.
  • the 3D data acquisition apparatus 200 is set to delete a group consisting of a triangle or less in the first mode, and when the operation mode is changed as a metal region is detected, b in the second mode It can be set to delete a group consisting of more than one triangle.
  • a and b may be natural numbers, and b may be a number smaller than a.
  • a group including more than b and fewer than a triangles may be deleted from data.
  • the group including more than b and fewer than a triangles is not deleted from data. Accordingly, when the 3D data acquisition apparatus 200 operates in the second mode, compared to when it operates in the first mode, it is possible to secure as much surface information as possible without loss of the metal region.
  • the 3D data acquisition apparatus 200 performs a general triangulation method in a first mode and uses a Delaunay triangulation method in a second mode in order to reduce data loss. to generate mesh data. If the 3D data acquisition apparatus 200 uses the Delaunay triangulation method, even if the points are far apart, they may be connected to each other to form a mesh. Accordingly, the mesh data obtained by the Delaunay triangulation method may not include a group consisting of triangles less than or equal to the reference value, and thus data may not be deleted by filtering.
  • 13 is a view for explaining Delaunay triangulation performed by an apparatus for obtaining 3D data according to an exemplary embodiment.
  • the three-dimensional data acquisition apparatus 200 acquires a plurality of two-dimensional images by photographing an object irradiated with a pattern light, and based on the plurality of two-dimensional images and information about the pattern light, the image of the object is obtained.
  • a point cloud 1310 including surface shape information may be acquired.
  • the 3D data acquisition apparatus 200 may generate mesh data 1320 by connecting points included in the point cloud 1310 .
  • the 3D data acquisition apparatus 200 may use the Delaunay triangulation method in the second mode when generating the mesh data 1320 from the point cloud 1310 .
  • the 3D data acquisition apparatus 200 uses the Delaunay triangulation method, thereby minimizing data loss even when a small amount of point information is obtained from the metal region. You can create mesh data.
  • the noise data generally exists apart from the object data to be scanned. Therefore, according to the Delaunay triangulation method, since even points obtained as noise are connected to the mesh, noise is not filtered by filtering that removes a group consisting of triangles having a number of less than a predetermined value. Therefore, in order to prevent this, the 3D data acquisition apparatus 200 according to an embodiment deletes an edge over a certain length and/or a mesh including the same when generating mesh data using the Delaunay triangulation method. can be configured.
  • FIG. 14 illustrates an example of filtering performed by an apparatus for obtaining 3D data on mesh data according to an embodiment.
  • FIG. 14 illustrates initial mesh data 1410 obtained by operating in the second mode, and mesh data 1430 on which filtering is performed, by the apparatus 200 for obtaining 3D data according to an exemplary embodiment.
  • the 3D data acquisition apparatus 200 deletes an edge of a predetermined length or more and/or meshes including the same in the initial mesh data 1410 to filter the filtered mesh data ( 1430) can be obtained.
  • edges having a predetermined length or longer are indicated by dotted lines.
  • the 3D data acquisition apparatus 200 additionally performs filtering to remove groups including triangles having a number of triangles less than or equal to a predetermined value with respect to the filtered mesh data 1430 from which edges of a predetermined length or more and/or meshes including the same have been removed. can be done
  • the 3D data acquisition apparatus 200 may acquire the final mesh data 1510 illustrated in FIG. 15 by deleting the triangle groups 1431 and 1433 by filtering.
  • the three-dimensional data acquisition apparatus 200 accurately determines the three-dimensional shape of the object in which the non-metal region and the metal region are mixed by aligning the data acquired in the first mode and the data acquired in the second mode. It is possible to obtain 3D data to express.
  • the 3D data acquisition apparatus 200 may apply a post-processing method set to be suitable for scanning the metal region to the entire 3D data. For example, when the 3D data acquisition apparatus 200 operates in the second mode, mesh data is generated by applying Delaunay triangulation to the entire 3D data, or a changed reference value is applied to the 3D data as a whole. It can be used to perform filtering to remove groups containing a small number of triangles.
  • the 3D data acquisition apparatus 200 may perform post-processing according to the second mode only on a portion identified as a metal region in 3D data. .
  • the Delaunay triangulation method requires more computation.
  • the filtering method using a low reference value may also increase the amount of data that is not removed and is kept, thereby increasing the amount of computation as a result. Accordingly, the 3D data acquisition apparatus 200 according to an embodiment may reduce an increase in the amount of computation by performing post-processing according to the second mode only on a portion identified as a metal region in the 3D data.
  • 16 is a block diagram of an apparatus for obtaining 3D data according to an embodiment.
  • the block diagram of the 3D data obtaining apparatus 200 shown in FIG. 16 is an example of the 3D data obtaining apparatus 200 described above.
  • the 3D data acquisition apparatus 200 illustrated in FIG. 16 may perform a 3D data acquisition method according to various embodiments of the present disclosure, and the descriptions of FIGS. 1 to 15 may be applied. Therefore, the content overlapping with the above will be omitted.
  • the 3D data acquisition apparatus 200 may include a 3D scanner 100 and a 3D image display apparatus 300 .
  • the 3D data acquisition apparatus 200 may acquire 3D data representing the shape of the object by scanning the object using the 3D scanner 100 .
  • the 3D scanner 100 may transmit a 2D image frame obtained by scanning an object or a 3D frame obtained from the 2D image frame to the 3D image display apparatus 300 .
  • the 3D image display apparatus 300 is connected to the 3D scanner 100 through a wired or wireless communication network, and raw data or 3D frame obtained by scanning an object from the 3D scanner 100 . can receive
  • the 3D image display apparatus 300 may be any electronic device capable of generating, processing, displaying, and/or transmitting a 3D image of an object based on a received 2D image frame or a 3D frame.
  • the 3D image display apparatus 300 may be a fixed terminal or a mobile terminal.
  • the 3D image display apparatus 300 may be, for example, a computing device such as a smart phone, a laptop computer, a desktop computer, a PDA, or a tablet PC, but is not limited thereto.
  • the 3D image display apparatus 300 may include a processor 310 , a display 320 , a communication interface 330 , a user input unit 340 , and a memory 350 .
  • the processor 310 controls the 3D scanner 100 and the 3D image display apparatus 300 to perform an intended operation by executing at least one instruction.
  • an operation performed by the 3D data acquisition apparatus 200 is performed by the 3D image display apparatus 300 , or is performed by the 3D scanner 100 or the 3D image display apparatus 300 . It may be an operation controlled by the processor 310 as much as possible.
  • at least one instruction may be stored in an internal memory (not shown) included in the processor 310 or a memory 350 included in the 3D image display apparatus 300 separately from the processor 310 .
  • the processor 310 may control at least one configuration included in the 3D data acquisition apparatus 200 to perform an intended operation by performing at least one instruction. Accordingly, although the case in which the processor 310 performs a predetermined operation is described as an example, the processor 310 configures the at least one configuration so that at least one component included in the 3D data acquisition apparatus 200 performs the predetermined operation. It can mean controlling.
  • the processor 310 stores a signal or data input from the outside of the 3D image display apparatus 300 or is used as a storage area corresponding to various operations performed in the 3D image display apparatus 300 .
  • RAM (not shown)
  • the processor 310 may include a graphics processor (Graphic Processing Unit, not shown) for processing graphics corresponding to video.
  • the processor 310 may be implemented as a system on chip (SoC) in which a core (not shown) and a GPU (not shown) are integrated.
  • SoC system on chip
  • the processor 310 may generate 3D data of an object based on data received from the 3D scanner 100 and generate a 3D image of the object.
  • the display 320 may display a predetermined screen according to the control of the processor 310 . Specifically, the display 320 may display a user interface screen including an image generated based on data obtained by the 3D scanner 100 scanning an object. Alternatively, the display 320 may display a user interface screen including information related to diagnosis and treatment of the object.
  • the communication interface 330 may communicate with at least one external electronic device (not shown) through a wired or wireless communication network. Specifically, the communication interface 330 may communicate with the 3D scanner 100 under the control of the processor 310 .
  • the user input unit 340 may receive a user input for controlling the 3D data obtaining apparatus 200 .
  • the user input unit 340 includes a touch panel for sensing a user's touch, a button for receiving a user's push operation, a mouse or keyboard for designating or selecting a point on the user interface screen, etc. It may include, but is not limited to, a user input device.
  • the user input unit 340 may include a voice recognition device (not shown) for voice recognition.
  • the voice recognition device (not shown) may be a microphone, and the voice recognition device may receive a user's voice command or voice request.
  • the processor 310 may control an operation corresponding to a voice command or a voice request to be performed.
  • the user input unit 340 may receive a user input for selecting an operation option for automatically changing the operation mode from the first mode to the second mode when a metal region on the object is detected.
  • the memory 350 may store at least one instruction. Also, the memory 350 may store at least one instruction executed by the processor 310 . Also, the memory 350 may store at least one program executed by the processor 310 . The memory 350 may store data received from the 3D scanner 100 (eg, raw data obtained through scanning an object, 2D image data, 3D data, etc.). The memory 350 may store an object image representing the object in three dimensions.
  • data received from the 3D scanner 100 eg, raw data obtained through scanning an object, 2D image data, 3D data, etc.
  • the memory 350 may store an object image representing the object in three dimensions.
  • the processor 310 may control the overall operation of the 3D data acquisition apparatus 200 by executing a program stored in the memory 350 .
  • the processor 310 may control other components included in the 3D data acquisition apparatus 200 to acquire 3D data on the object.
  • the description of FIG. 4 or FIG. 9 may be applied, and the redundant description may be omitted.
  • the processor 310 may operate to automatically change the operation mode from the first mode to the second mode when a metal region on the object is detected based on a user input.
  • the processor 310 operates in the first mode to acquire first data by scanning the object by the 3D scanner 100 , and when a metal region on the object is detected, the operation mode is changed to the second mode. mode can be changed.
  • the processor 310 operates in the second mode to obtain second data by scanning the object, and based on the first data obtained in the first mode and the second data obtained in the second mode, Dimensional data can be obtained.
  • the first mode and the second mode may mean operation modes using different 3D scan methods or operation modes using different post-processing methods.
  • the processor 310 may acquire the first data and the second data using different 3D scan methods in the first mode and the second mode.
  • the processor 310 may acquire first data on the surface of the object to which the first type of pattern light is irradiated.
  • the first type of patterned light may include line patterned light.
  • the processor 310 may acquire second data on the surface of the object to which the second type of pattern light is irradiated.
  • the second type of pattern light may include point pattern light.
  • the processor 310 irradiates the first type of pattern light to the object, and the 3D data obtaining apparatus 200 obtains first data on the surface of the object to which the first type of pattern light is irradiated. ) can be controlled.
  • the processor 310 irradiates the first type of pattern light to the object, and controls the 3D scanner 100 to obtain 2D images from different viewpoints with respect to the surface of the object to which the first type of pattern light is irradiated. can do.
  • the first type of patterned light may include line patterned light.
  • the processor 310 converts first point cloud data of the object to the first data based on the 2D images of the surface of the object to which the first type of pattern light is irradiated and information about the first type of pattern light. can be obtained as For example, the processor 310 may determine whether each line on the object appearing in the 2D image scanned by the first image sensor of the 3D scanner 100 corresponds to any line in the 2D image scanned by the second image sensor. can decide whether In addition, the processor 310 may calculate 3D coordinates of points constituting each line matched between 2D images based on the irradiated line pattern and the deformed line shown in the 2D images. The processor 310 may obtain the first point cloud data by calculating 3D coordinates for each pixel included in the 2D images.
  • the processor 310 irradiates the second type of pattern light to the object to obtain second data on the surface of the object to which the second type of pattern light is irradiated, the 3D data obtaining apparatus 200 ) can be controlled.
  • the processor 310 irradiates the second type of pattern light to the object, and controls the 3D scanner 100 to obtain 2D images from different viewpoints with respect to the surface of the object to which the second type of pattern light is irradiated. can do.
  • the second type of pattern light may include point pattern light.
  • the processor 310 converts second point cloud data of the object to the second data, based on the 2D images of the surface of the object to which the second type of pattern light is irradiated and information about the second type of pattern light. can be obtained as For example, the processor 310 may be configured so that each point of the object surface appearing in the 2D image scanned by the first image sensor of the 3D scanner 100 corresponds to a point in the 2D image scanned by the second image sensor. can decide whether In addition, the processor 310 may calculate the 3D coordinates of each point matched between the 2D images based on the irradiated point pattern and the modified point pattern shown in the 2D images. The processor 310 may obtain the first point cloud data by calculating 3D coordinates for each pixel included in the 2D images.
  • the 3D scanner 100 may be configured to alternately irradiate a first type of pattern light and a second type of pattern light.
  • the processor 310 uses the 3D scanner 100 to obtain first data based on a plurality of 2D image frames obtained using the first type of pattern light, and generates a second type of pattern light. Second data may be obtained based on the plurality of 2D image frames obtained using
  • the 3D scanner 100 acquires the second data using the second type of pattern light, in order to obtain color information about the object, the red pattern light, the green pattern light, and the blue pattern light By sequentially irradiating to the object, an R frame, a G frame, and a B frame may be obtained.
  • the processor 310 may acquire second point cloud data as second data based on the R frame, the G frame, and the B frame.
  • the processor 310 is configured to scan the object irradiated with the first type of pattern light using the 3D scanner 100 and irradiate the second type of pattern light when the metal region is detected.
  • the processor 310 may control the 3D scanner 100 to acquire first data by continuously scanning frames for an object irradiated with a first type of pattern light.
  • the processor 310 may acquire first point cloud data as the first data based on a plurality of 2D image frames obtained from the object irradiated with the first type of pattern light.
  • the processor 310 determines that a difference in brightness values between a frame including two-dimensional images of different viewpoints acquired with respect to the surface of the object irradiated with the first type of pattern light and a neighboring frame is greater than a threshold value. In this case, it may be determined to irradiate the second type of patterned light instead of the first type of patterned light.
  • the processor 310 may determine whether the area of the object being scanned is a metal area using the artificial intelligence model stored in the memory 350 .
  • the processor 310 may determine whether the scanning area of the object is a metal area by applying the 2D image frame or the 3D frame obtained from the object to the artificial intelligence model as an input.
  • the artificial intelligence model used for determining the metal region may be an artificial intelligence model obtained by training a large amount of scan data obtained from the metal region and the non-metal region of the object.
  • the 3D data acquisition apparatus 200 may determine to irradiate the second type of pattern light instead of the first type of pattern light.
  • the processor 310 may control the 3D scanner 100 to acquire second data by continuously scanning frames for the object irradiated with the second type of pattern light.
  • the processor 310 may acquire second point cloud data as second data based on a plurality of 2D image frames obtained from the object irradiated with the second type of pattern light.
  • the processor 310 may acquire 3D data of the object based on the first data and the second data.
  • the 3D scanner 100 receives the pattern light of the first type
  • the first data acquired by using it may include first shape information of the object.
  • the second data obtained by sequentially irradiating the 3D scanner 100 with the second type of red pattern light, the green second type pattern light, and the blue second type pattern light is the second data of the object. It may include shape information and color information.
  • the processor 310 may acquire 3D data based on the first shape information, the second shape information, and the color information.
  • the processor 310 may acquire 3D data based on a weighted sum of the first data and the second data.
  • the first data, the second data, and the 3D data may be point cloud data or polygon mesh data.
  • the processor 310 Based on the reliability of the first data, the processor 310 according to an embodiment uses the first data for at least some areas of the object with high reliability, and uses the second data for the remaining areas of the object with low reliability. By using it, three-dimensional data can be obtained.
  • the processor 310 may determine overlapping points between a plurality of first points included in the first data and a plurality of second points included in the second data.
  • the processor 310 may obtain 3D data by using an average value of overlapping points.
  • the processor 310 may acquire the first data and the second data using different post-processing methods.
  • the processor 310 may obtain, in the first mode, a first point cloud for the surface of the object, and obtain first mesh data by connecting adjacent points in the first point cloud.
  • the processor 310 may perform filtering by deleting a group including a number of triangles less than or equal to a first predetermined value in the first mesh data.
  • the processor 310 may acquire first data including first mesh data on which filtering is performed.
  • the processor 310 may acquire a second point cloud for the surface of the object, and may acquire second mesh data by connecting points in the second point cloud.
  • the processor 310 may perform filtering by deleting a group consisting of a number of triangles less than or equal to a second predetermined value in the second mesh data.
  • the processor 310 may acquire second data including second mesh data on which filtering is performed.
  • the second predetermined value used for filtering in the second mode may be smaller than the first predetermined value used for filtering in the first mode.
  • the processor 310 may acquire first mesh data as the first data from the first point cloud of the object using a general triangulation method.
  • the processor 310 may obtain second mesh data as second data from the second point cloud of the object by using Delaunay triangulation.
  • the processor 310 may identify points corresponding to the metal region in the second point cloud in order to obtain the second mesh data, and connect the identified points using Delaunay triangulation.
  • the processor 310 may acquire second mesh data by connecting adjacent points to points not identified in the second point cloud.
  • the processor 310 may additionally perform filtering to delete an edge connecting two points of a predetermined distance or more in the second mesh data and/or a mesh including the same.
  • the processor 310 may change the operation mode from the first mode to the second mode.
  • the processor 310 may detect the presence of the metal region on the object by analyzing data obtained by the 3D scanner using an artificial intelligence model. For example, the processor 310 may apply the first data obtained from the object as an input to the artificial intelligence model to determine whether the area of the object being scanned is a metal area.
  • the artificial intelligence model used for determining the metal region may be an artificial intelligence model obtained by training a large amount of scan data obtained from the metal region and the non-metal region of the object.
  • the processor 310 may change the operation mode from the first mode to the second mode.
  • the processor 310 may analyze the color image generated by combining the intensities of the R frame, the G frame, and the B frame obtained based on each of the red light, the green light, and the blue light. have.
  • the processor 310 may detect the presence of the metal region on the object by analyzing the generated color image.
  • the processor 310 analyzes a color image obtained by scanning an object, and when it is determined that an area of a predetermined ratio or more in the color image is a metal area (eg, the entire color image in the color image). If it is determined that 40% or more of the pixels are pixels corresponding to the metal area), it may be determined that the metal area is being scanned. The processor 310 may change the operation mode from the first mode to the second mode based on a result of determining that the metal region of the object is being scanned.
  • a metal area eg, the entire color image in the color image.
  • the three-dimensional data acquisition method may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium.
  • a computer-readable storage medium in which one or more programs including at least one instruction for executing a 3D data acquisition method are recorded may be provided.
  • the computer-readable storage medium may include program instructions, data files, data structures, etc. alone or in combination.
  • examples of the computer-readable storage medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and floppy disks.
  • a hardware device configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like may be included.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • the 'non-transitory storage medium' may mean that the storage medium is a tangible device.
  • the 'non-transitory storage medium' may include a buffer in which data is temporarily stored.
  • the method for displaying an oral image may be provided by being included in a computer program product.
  • the computer program product may be distributed in the form of a machine-readable storage medium (eg, compact disc read only memory (CD-ROM)). Alternatively, it may be distributed online (eg, downloaded or uploaded) through an application store (eg, play store, etc.) or directly between two user devices (eg, smartphones).
  • CD-ROM compact disc read only memory

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Epidemiology (AREA)
  • Theoretical Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Graphics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 개시의 일 측면은 3차원 데이터를 획득하는 장치에 있어서, 3차원 스캐너와 통신하는 통신 인터페이스; 및 적어도 하나의 인스트럭션을 실행하여 상기 3차원 데이터를 획득하는 프로세서를 포함하고, 상기 프로세서는, 상기 3차원 스캐너에 의해 대상체를 스캔함으로써 제1 데이터를 획득하도록 제1 모드에서 동작하고, 상기 대상체 상에 금속 영역이 감지되면, 동작 모드를 제2 모드로 전환하고, 상기 3차원 스캐너에 의해 상기 대상체를 스캔함으로써 제2 데이터를 획득하도록 상기 제2 모드에서 동작하고, 상기 제1 데이터 및 상기 제2 데이터에 기초하여, 상기 대상체에 대한 3차원 데이터를 획득하는, 3차원 데이터 획득 장치를 제공할 수 있다.

Description

3차원 데이터 획득 방법, 장치 및 그 방법을 수행하는 프로그램이 저장된 컴퓨터 판독 가능 저장 매체
본 개시는 3차원 데이터를 획득하는 방법 및 장치에 관한 것으로, 보다 구체적으로는 3차원 스캐너를 이용하여 치아에 대한 3차원 데이터를 획득하는 방법 및 장치에 관한 것이다.
치과 치료, 특히 보철 등의 치료를 하는 데 있어 치과용 CAD/CAM(Dental Computer Aided Design/Computer Aided Manufacturing) 기술이 널리 사용되고 있다. CAD/CAM을 이용한 치과 치료에서 가장 중요한 것은 환자의 치아, 잇몸, 턱뼈 등의 대상체의 형상에 대하여 정교한 3차원 데이터를 획득하는 것이다. 치과 치료를 수행함에 있어서, 대상체로부터 획득된 3차원 데이터를 이용하면, 컴퓨터에 의하여 정확한 계산이 수행될 수 있다는 장점이 있다.
예를 들어, 치과용 CAD/CAM 치료 과정에서 대상체의 3차원 데이터를 획득하기 위해서는, CT(Computed Tomography), MRI(Magnetic Resonance Imaging), 및 광학 스캐닝 등의 방법이 이용될 수 있다.
치과 CAD/CAM 분야에서는 광학식 3차원 스캐너가 많이 사용되고 있다. 광학식 3차원 스캐너는 대상체로부터 반사되는 빛을 이용하여 3차원 표면 형상 정보를 획득할 수 있으며, 예를 들어 치아의 인상체, 인상체에 대해서 획득된 석고 모델 또는 치아 표면의 3차원 데이터를 획득할 수 있다. 표면 데이터는, 폴리곤 메쉬 형태로 기록되고, 대상체의 표면의 정점들의 위치 정보와 각 정점들의 연결 관계 정보를 포함할 수 있다. 또는, 표면 데이터는, 포인트 클라우드 형태로 기록되고, 대상체의 표면의 정점들의 위치 정보를 포함할 수 있다.
CAD/CAM을 이용한 치과 치료가 좋은 결과를 얻기 위해서는, 대상체의 형상을 정확하게 반영한 3차원 데이터가 필요하다. 다만, 3차원 스캐너를 이용하여 치아 표면의 3차원 데이터를 획득함에 있어서, 인레이(inlay), 온레이(onlay), 크라운, 보철, 교정 장치 등의 구강 내 금속 구조물은 빛의 반사율이 높아 정확한 형상이 스캔되지 않는다는 문제가 있다.
본 개시의 일 측면은 3차원 데이터를 획득하는 장치에 있어서, 3차원 스캐너와 통신하는 통신 인터페이스; 및 적어도 하나의 인스트럭션을 실행하여 상기 3차원 데이터를 획득하는 프로세서를 포함하고, 상기 프로세서는, 상기 3차원 스캐너에 의해 대상체를 스캔함으로써 제1 데이터를 획득하도록 제1 모드에서 동작하고, 상기 대상체 상에 금속 영역이 감지되면, 동작 모드를 제2 모드로 전환하고, 상기 3차원 스캐너에 의해 상기 대상체를 스캔함으로써 제2 데이터를 획득하도록 상기 제2 모드에서 동작하고, 상기 제1 데이터 및 상기 제2 데이터에 기초하여, 상기 대상체에 대한 3차원 데이터를 획득하는, 3차원 데이터 획득 장치를 제공할 수 있다.
개시된 실시 예에 따른 3차원 데이터 획득 방법은, 구강 내의 금속 구조물에 대해서도 정확한 형상을 획득할 수 있다.
본 발명은, 다음의 자세한 설명과 그에 수반되는 도면들의 결합으로 쉽게 이해될 수 있으며, 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미한다.
도 1은 일 실시 예에 따른 3차원 데이터 획득 장치를 설명하기 위한 도면이다.
도 2는 일 실시 예에 따라 3차원 스캐너가 표면 데이터를 획득하는 방법을 설명하기 위한 도면이다.
도 3은 일 실시 예에 따라 대상체에 조사되는 포인트 패턴 광을 설명하기 위한 도면이다.
도 4는 일 실시 예에 따른 3차원 데이터 획득 장치가 3차원 데이터를 획득하는 방법의 흐름도를 도시한다.
도 5는 일 실시 예에 따른 3차원 데이터 획득 장치가 포인트 패턴 광 및 라인 패턴 광을 이용하여 대상체에 대한 3차원 데이터를 획득하는 방법을 설명하기 위한 도면이다.
도 6은 일 실시 예에 따른 3차원 데이터 획득 장치가 제1 데이터 및 제2 데이터를 병합함으로써 대상체에 대한 3차원 데이터를 획득하는 방법을 설명하기 위한 도면이다.
도 7은 일 실시 예에 따라 획득되는 3차원 데이터의 예를 도시한다.
도 8은 일 실시 예에 따라 획득되는 3차원 데이터의 예를 도시한다.
도 9는 일 실시 예에 따른 3차원 데이터 획득 장치가 3차원 데이터를 획득하는 방법의 흐름도를 도시한다.
도 10은 일 실시 예에 따라 3차원 데이터 획득 장치가 디스플레이 하는 사용자 인터페이스의 예를 도시한다.
도 11은 일 실시 예에 따라 3차원 데이터 획득 장치가 제1 모드 및 제2 모드로 대상체를 스캔하여 획득되는 3차원 데이터의 예를 도시한다.
도 12는 일 실시 예에 따라 3차원 데이터 획득 장치가 일반 영역을 스캔하여 획득되는 메쉬 데이터 및 메탈 영역을 스캔하여 획득되는 메쉬 데이터의 예를 도시한다.
도 13은 일 실시 예에 따라 3차원 데이터 획득 장치가 수행하는 들로네 삼각화를 설명하는 도면이다.
도 14는 일 실시 예에 따라 3차원 데이터 획득 장치가 메쉬 데이터에 수행하는 필터링의 예를 도시한다.
도 15는 일 실시 예에 따라 3차원 데이터 획득 장치가 메쉬 데이터에 수행하는 필터링의 예를 도시한다.
도 16은 일 실시 예에 따른 3차원 데이터 획득 장치의 블록도를 도시한다.
본 개시의 일 측면은 3차원 데이터를 획득하는 장치에 있어서, 3차원 스캐너와 통신하는 통신 인터페이스; 및 적어도 하나의 인스트럭션을 실행하여 상기 3차원 데이터를 획득하는 프로세서를 포함하고, 상기 프로세서는, 상기 3차원 스캐너에 의해 대상체를 스캔함으로써 제1 데이터를 획득하도록 제1 모드에서 동작하고, 상기 대상체 상에 금속 영역이 감지되면, 동작 모드를 제2 모드로 전환하고, 상기 3차원 스캐너에 의해 상기 대상체를 스캔함으로써 제2 데이터를 획득하도록 상기 제2 모드에서 동작하고, 상기 제1 데이터 및 상기 제2 데이터에 기초하여, 상기 대상체에 대한 3차원 데이터를 획득하는, 3차원 데이터 획득 장치를 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 프로세서는, 제1 타입의 패턴광이 조사된 상기 대상체의 표면에 대한 제1 데이터를 획득하고, 제2 타입의 패턴광이 조사된 상기 대상체의 표면에 대한 제2 데이터를 획득하는, 3차원 데이터 획득 장치를 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 제1 타입의 패턴 광은, 라인 패턴 광을 포함하고, 상기 제2 타입의 패턴 광은, 포인트 패턴 광을 포함하는, 3차원 데이터 획득 장치를 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 제1 모드에서 획득되는 상기 제1 데이터와 상기 제2 모드에서 획득되는 상기 제2 데이터는, 서로 다른 후-처리 방식을 통해 획득되는, 3차원 데이터 획득 장치를 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 프로세서는, 상기 대상체의 표면에 대한 제1 포인트 클라우드를 획득하고, 상기 제1 포인트 클라우드 내의 인접한 포인트들을 연결함으로써 제1 메쉬 데이터를 획득하고, 상기 제1 데이터는 상기 제1 메쉬 데이터를 포함하고, 상기 대상체의 표면에 대한 제2 포인트 클라우드를 획득하고, 들로네 삼각화를 이용하여, 상기 제2 포인트 클라우드 내의 포인트들을 연결함으로써 제2 메쉬 데이터를 획득하고, 상기 제2 데이터는 상기 제2 메쉬 데이터를 포함하는, 3차원 데이터 획득 장치를 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 프로세서는, 상기 제2 포인트 클라우드 내에서 상기 대상체 상의 금속 영역에 대응하는 포인트들을 식별하고, 상기 들로네 삼각화를 이용하여 상기 식별된 포인트들을 연결하고, 상기 제2 포인트 클라우드 내에서 식별되지 않은 포인트들에 대해서는 인접한 포인트들을 연결함으로써 상기 제2 메쉬 데이터를 획득하는, 3차원 데이터 획득 장치를 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 프로세서는, 상기 제2 메쉬 데이터 내에서 소정 거리 이상의 두 포인트들을 연결한 엣지를 삭제하는 필터링을 더 수행하는, 3차원 데이터 획득 장치를 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 프로세서는, 상기 대상체의 표면에 대한 제1 포인트 클라우드를 획득하고, 상기 제1 포인트 클라우드 내의 포인트들을 연결함으로써 제1 메쉬 데이터를 획득하고, 상기 제1 메쉬 데이터 내에서 제1 소정 값 이하의 개수의 삼각형들로 이루어지는 그룹을 삭제하는, 필터링을 수행하고, 상기 제1 데이터는 필터링이 수행된 상기 제1 메쉬 데이터를 포함하고, 상기 대상체의 표면에 대한 제2 포인트 클라우드를 획득하고, 상기 제2 포인트 클라우드 내의 포인트들을 연결함으로써 제2 메쉬 데이터를 획득하고, 상기 제2 메쉬 데이터 내에서 제2 소정 값 이하의 개수의 삼각형들로 이루어지는 그룹을 삭제하는, 필터링을 수행하고, 상기 제2 데이터는 필터링이 수행된 상기 제2 메쉬 데이터를 포함하고, 상기 제2 소정 값은 상기 제1 소정 값보다 작은 것을 특징으로 하는, 3차원 데이터 획득 장치를 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 프로세서는, 상기 3차원 스캐너에 의해 획득된 데이터를 인공 지능 모델을 이용하여 분석함으로써, 상기 대상체 상에 금속 영역의 존재를 감지하는, 3차원 데이터 획득 장치를 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 대상체 상에 금속 영역이 감지되면 상기 동작 모드를 상기 제1 모드로부터 상기 제2 모드로 자동으로 변경하도록 동작 옵션을 선택하는 사용자 입력을 수신하는 사용자 입력부를 더 포함하는, 3차원 데이터 획득 장치를 제공할 수 있다.
본 개시의 다른 측면은 3차원 스캐너에 의해 대상체를 스캔함으로써 제1 데이터를 획득하도록 제1 모드에서 동작하는 단계; 상기 대상체 상에 금속 영역이 감지되면, 동작 모드를 제2 모드로 전환하는 단계; 상기 대상체를 스캔함으로써 제2 데이터를 획득하도록 상기 제2 모드에서 동작하는 단계; 및 상기 제1 데이터 및 상기 제2 데이터에 기초하여, 상기 대상체에 대한 3차원 데이터를 획득하는 단계를 포함하는, 3차원 데이터 획득 방법을 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 제1 데이터를 획득하도록 상기 제1 모드에서 동작하는 단계는, 제1 타입의 패턴광이 조사된 상기 대상체의 표면에 대한 제1 데이터를 획득하는 단계를 포함하고, 상기 제2 데이터를 획득하도록 상기 제2 모드에서 동작하는 단계는, 제2 타입의 패턴광이 조사된 상기 대상체의 표면에 대한 제2 데이터를 획득하는 단계를 포함하는, 3차원 데이터 획득 방법을 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 제1 타입의 패턴 광은, 라인 패턴 광을 포함하고, 상기 제2 타입의 패턴 광은, 포인트 패턴 광을 포함하는, 3차원 데이터 획득 방법을 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 제1 모드에서 획득되는 상기 제1 데이터와 상기 제2 모드에서 획득되는 상기 제2 데이터는, 서로 다른 후-처리 방식을 통해 획득되는, 3차원 데이터 획득 방법을 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 제1 데이터를 획득하도록 상기 제1 모드에서 동작하는 단계는, 상기 대상체의 표면에 대한 제1 포인트 클라우드를 획득하는 단계; 및 상기 제1 포인트 클라우드 내의 인접한 포인트들을 연결함으로써 제1 메쉬 데이터를 획득하는 단계를 포함하고, 상기 제1 데이터는 상기 제1 메쉬 데이터를 포함하고, 상기 제2 데이터를 획득하도록 상기 제2 모드에서 동작하는 단계는, 상기 대상체의 표면에 대한 제2 포인트 클라우드를 획득하는 단계; 및 들로네 삼각화를 이용하여, 상기 제2 포인트 클라우드 내의 포인트들을 연결함으로써 제2 메쉬 데이터를 획득하는 단계를 포함하고, 상기 제2 데이터는 상기 제2 메쉬 데이터를 포함하는, 3차원 데이터 획득 방법을 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 제2 메쉬 데이터를 획득하는 단계는, 상기 제2 포인트 클라우드 내에서 상기 대상체 상의 금속 영역에 대응하는 포인트들을 식별하는 단계; 및 상기 들로네 삼각화를 이용하여 상기 식별된 포인트들을 연결하고, 상기 제2 포인트 클라우드 내에서 식별되지 않은 포인트들에 대해서는 인접한 포인트들을 연결함으로써 상기 제2 메쉬 데이터를 획득하는 단계를 포함하는, 3차원 데이터 획득 방법을 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 제2 데이터를 획득하도록 상기 제2 모드에서 동작하는 단계는, 상기 제2 메쉬 데이터 내에서 소정 거리 이상의 두 포인트들을 연결한 엣지를 삭제하는 필터링을 수행하는 단계를 더 포함하는, 3차원 데이터 획득 방법을 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 제1 데이터를 획득하도록 상기 제1 모드에서 동작하는 단계는, 상기 대상체의 표면에 대한 제1 포인트 클라우드를 획득하는 단계; 상기 제1 포인트 클라우드 내의 포인트들을 연결함으로써 제1 메쉬 데이터를 획득하는 단계; 및 상기 제1 메쉬 데이터 내에서 제1 소정 값 이하의 개수의 삼각형들로 이루어지는 그룹을 삭제하는, 필터링을 수행하는 단계를 포함하고, 상기 제1 데이터는 필터링이 수행된 상기 제1 메쉬 데이터를 포함하고, 상기 제2 모드로 상기 제2 데이터를 획득하는 단계는, 상기 대상체의 표면에 대한 제2 포인트 클라우드를 획득하는 단계; 상기 제2 포인트 클라우드 내의 포인트들을 연결함으로써 제2 메쉬 데이터를 획득하는 단계; 및 상기 제2 메쉬 데이터 내에서 제2 소정 값 이하의 개수의 삼각형들로 이루어지는 그룹을 삭제하는, 필터링을 수행하는 단계를 포함하고, 상기 제2 데이터는 필터링이 수행된 상기 제2 메쉬 데이터를 포함하고 상기 제2 소정 값은 상기 제1 소정 값보다 작은 것을 특징으로 하는, 3차원 데이터 획득 방법을 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 동작 모드를 상기 제2 모드로 변경하는 단계는, 상기 3차원 스캐너에 의해 획득된 데이터를 인공 지능 모델을 이용하여 분석함으로써, 상기 대상체 상에 금속 영역의 존재를 감지하는 단계를 포함하는, 3차원 데이터 획득 방법을 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 대상체 상에 금속 영역이 감지되면 상기 동작 모드를 상기 제1 모드로부터 상기 제2 모드로 자동으로 변경하도록 동작 옵션을 선택하는 사용자 입력을 수신하는 단계를 더 포함하는, 3차원 데이터 획득 방법을 제공할 수 있다.
본 개시의 일 측면은 대상체에 제1 타입의 패턴 광을 조사하여, 상기 제1 타입의 패턴 광이 조사된 상기 대상체의 표면에 대한 제1 데이터를 획득하는 단계; 상기 대상체에 제2 타입의 패턴 광을 조사하여, 상기 제2 타입의 패턴 광이 조사된 상기 대상체의 표면에 대한 제2 데이터를 획득하는 단계; 및 상기 제1 데이터 및 상기 제2 데이터에 기초하여, 상기 대상체에 대한 3차원 데이터를 획득하는 단계를 포함하는, 3차원 데이터 획득 방법을 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 제1 타입의 패턴 광은, 라인 패턴 광을 포함하고, 상기 제2 타입의 패턴 광은, 포인트 패턴 광을 포함하는, 3차원 데이터 획득 방법을 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 제1 데이터를 획득하는 단계는, 상기 대상체에 상기 제1 타입의 패턴 광을 조사하는 단계; 상기 제1 타입의 패턴 광이 조사된 상기 대상체의 표면에 대해서, 2차원 영상을 획득하는 단계; 및 상기 제1 타입의 패턴 광이 조사된 상기 대상체의 표면에 대한 상기 2차원 영상 및 상기 제1 타입의 패턴 광에 대한 정보에 기초하여, 상기 대상체에 대한 제1 포인트 클라우드 데이터를 획득하는 단계를 포함하고, 상기 제2 데이터를 획득하는 단계는, 상기 대상체에 상기 제2 타입의 패턴 광을 조사하는 단계; 상기 제2 타입의 패턴 광이 조사된 상기 대상체의 표면에 대해서, 2차원 영상을 획득하는 단계; 및 상기 제2 타입의 패턴 광이 조사된 상기 대상체의 표면에 대한 상기 2차원 영상 및 상기 제2 타입의 패턴 광에 대한 정보에 기초하여, 상기 대상체에 대한 제2 포인트 클라우드 데이터를 획득하는 단계를 포함하는, 3차원 데이터 획득 방법을 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 제1 데이터 및 상기 제2 데이터는, t 시간 당 n(n은 자연수)개의 프레임들을 스캔하는 3차원 스캐너에 의해 획득되고, 상기 제1 데이터를 획득하는 단계는, 상기 대상체에 상기 제1 타입의 패턴 광을 조사하는 단계; 및 상기 제1 타입의 패턴 광이 조사된 상기 대상체의 표면에 대해서 2차원 영상을 포함하는 프레임을 a(a는, n보다 작은 자연수)개 획득하는 단계를 포함하고, 상기 제2 데이터를 획득하는 단계는, 상기 대상체에 상기 제2 타입의 패턴 광을 조사하는 단계; 및 상기 제2 패턴 광이 조사된 상기 대상체의 표면에 대해서 2차원 영상을 포함하는 프레임을 b(b는, n-a보다 작거나 같은 자연수)개 획득하는 단계를 포함하는, 3차원 데이터 획득 방법을 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 제2 데이터를 획득하는 단계는, 상기 제2 타입의 상이한 패턴 광들이 순차적으로 조사되는 상기 대상체의 표면에 대해서, 2차원 영상을 포함하는 복수의 프레임들을 획득하는 단계를 포함하는, 3차원 데이터 획득 방법을 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 제1 데이터를 획득하는 단계는, 상기 대상체에 상기 제1 타입의 패턴 광을 조사하는 단계; 상기 제1 타입의 패턴 광이 조사된 상기 대상체의 표면에 대해서, 2차원 영상을 획득하는 단계; 및 상기 제1 타입의 패턴 광이 조사된 상기 대상체의 표면에 대한 상기 2차원 영상 및 상기 제1 타입의 패턴 광에 대한 정보에 기초하여, 상기 대상체에 대한 제1 포인트 클라우드 데이터를 획득하는 단계를 포함하고, 상기 3차원 데이터 획득 방법은, 상기 제1 타입의 패턴 광 대신에 상기 제2 타입의 패턴 광을 조사하거나, 상기 제1 타입의 패턴 광 및 상기 제2 타입의 패턴 광을 번갈아 가면서 조사할 것을 결정하는 단계를 더 포함하는, 3차원 데이터 획득 방법을 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 제1 데이터를 획득하는 단계는, 상기 대상체에 상기 제1 타입의 패턴 광을 조사하는 단계; 상기 제1 타입의 패턴 광이 조사된 상기 대상체의 표면에 대해서, 2차원 영상을 획득하는 단계; 및 상기 제1 타입의 패턴 광이 조사된 상기 대상체의 표면에 대한 상기 2차원 영상 및 상기 제1 타입의 패턴 광에 대한 정보에 기초하여, 상기 대상체에 대한 제1 포인트 클라우드 데이터를 획득하는 단계를 포함하고, 상기 3차원 데이터 획득 방법은, 상기 제1 타입의 패턴 광이 조사된 상기 대상체의 표면에 대해서 획득된 상기 2차원 영상을 포함하는 프레임과 상기 프레임과 이웃하는 이웃 프레임 간의 차이가 임계 값 이상으로 많이 나는 경우, 상기 제1 타입의 패턴 광 대신에 상기 제2 타입의 패턴 광을 조사하거나, 상기 제1 타입의 패턴 광 및 상기 제2 타입의 패턴 광을 번갈아 가면서 조사할 것을 결정하는 단계를 더 포함하는, 3차원 데이터 획득 방법을 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 제1 데이터를 획득하는 단계는, 상기 대상체에 상기 제1 타입의 패턴 광을 조사하는 단계; 상기 제1 타입의 패턴 광이 조사된 상기 대상체의 표면에 대해서, 2차원 영상을 획득하는 단계; 및 상기 제1 타입의 패턴 광이 조사된 상기 대상체의 표면에 대한 상기 2차원 영상 및 상기 제1 타입의 패턴 광에 대한 정보에 기초하여, 상기 대상체에 대한 제1 포인트 클라우드 데이터를 획득하는 단계를 포함하고, 상기 3차원 데이터 획득 방법은, 인공 지능 모델을 이용하여, 상기 제1 타입의 패턴 광이 조사된 상기 대상체의 표면에 대해서 획득된 상기 2차원 영상에 기초하여, 상기 제1 타입의 패턴 광 대신에 상기 제2 타입의 패턴 광을 조사하거나, 상기 제1 타입의 패턴 광 및 상기 제2 타입의 패턴 광을 번갈아 가면서 조사할 것을 결정하는 단계를 더 포함하는, 3차원 데이터 획득 방법을 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 제2 데이터를 획득하는 단계는, 상기 대상체에 상기 제2 타입의 적색 패턴 광을 조사하는 단계; 상기 제2 타입의 적색 패턴 광이 조사된 상기 대상체의 표면에 대해서 2차원 영상을 포함하는 R 프레임을 획득하는 단계; 상기 대상체에 상기 제2 타입의 녹색 패턴 광을 조사하는 단계; 상기 제2 타입의 녹색 패턴 광이 조사된 상기 대상체의 표면에 대해서 2차원 영상을 포함하는 G 프레임을 획득하는 단계; 상기 대상체에 상기 제2 타입의 청색 패턴 광을 조사하는 단계; 및 상기 제2 타입의 청색 패턴 광이 조사된 상기 대상체의 표면에 대해서 2차원 영상을 포함하는 B 프레임을 획득하는 단계를 포함하는, 3차원 데이터 획득 방법을 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 제1 데이터를 획득하는 단계는, 상기 대상체에 상기 제1 타입의 청색 패턴 광을 조사하는 단계; 및 상기 제1 타입의 청색 패턴 광이 조사된 상기 대상체의 표면에 대해서 2차원 영상을 포함하는 프레임을 획득하는 단계를 포함하고, 상기 제2 데이터를 획득하는 단계는, 상기 대상체에 상기 제2 타입의 적색 패턴 광 또는 녹색 패턴 광을 조사하는 단계; 및 상기 제2 타입의 적색 패턴 광 또는 녹색 패턴 광이 조사된 상기 대상체의 표면에 대해서 2차원 영상을 포함하는 프레임을 획득하는 단계를 포함하는, 3차원 데이터 획득 방법을 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 3차원 데이터를 획득하는 단계는, 상기 제1 데이터에 포함되는 상기 대상체의 제1 형상 정보, 상기 제2 데이터에 포함되는 상기 대상체의 제2 형상 정보 및 색상 정보에 기초하여 상기 3차원 데이터를 획득하는 단계를 포함하는, 3차원 데이터 획득 방법을 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 3차원 데이터를 획득하는 단계는, 상기 제1 데이터에 포함되는 제1 포인트 클라우드 데이터 및 상기 제2 데이터에 포함되는 제2 포인트 클라우드 데이터를 병합함으로써, 상기 3차원 데이터를 획득하는 단계를 포함하는, 3차원 데이터 획득 방법을 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 3차원 데이터를 획득하는 단계는, 상기 제1 데이터 및 상기 제2 데이터의 가중치 합에 기초하여 상기 3차원 데이터를 획득하는 단계를 포함하는, 3차원 데이터 획득 방법을 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 3차원 데이터를 획득하는 단계는, 상기 제1 데이터의 신뢰도에 기초하여, 신뢰도가 높은 상기 대상체의 적어도 일부 영역에 대해서는 상기 제1 데이터를 이용하고, 신뢰도가 낮은 상기 대상체의 나머지 영역에 대해서는 상기 제2 데이터를 이용함으로써, 상기 3차원 데이터를 획득하는 단계를 포함하는, 3차원 데이터 획득 방법을 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 3차원 데이터를 획득하는 단계는, 상기 제1 데이터의 신뢰도에 기초하여, 상기 제1 데이터에 대한 가중치를 결정하는 단계; 및 상기 가중치에 기초하여 상기 제1 데이터 및 상기 제2 데이터를 병합함으로써, 상기 3차원 데이터를 획득하는 단계를 포함하는, 3차원 데이터 획득 방법을 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 3차원 데이터를 획득하는 단계는, 상기 제1 데이터에 포함되는 복수의 제1 포인트들 및 상기 제2 데이터에 포함되는 복수의 제2 포인트들 간의 중첩 포인트들을 결정하는 단계; 및 상기 중첩 포인트들에 대한 평균값을 이용하여 3차원 데이터를 획득하는 단계를 포함하는, 3차원 데이터 획득 방법을 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 제1 데이터 및 상기 제2 데이터는, 상기 대상체에 대해서 연속적으로 프레임들을 스캔하는 3차원 스캐너에 의해 획득되고, 상기 3차원 데이터를 획득하는 단계는, 상기 제1 데이터 및 상기 제2 데이터 중에서 이웃하는 프레임들과 유사도가 높은 데이터에 높은 가중치를 할당하는 단계; 및 상기 제1 데이터 및 상기 제2 데이터에 대해서 상기 할당된 가중치를 적용한 가중치 합에 기초하여 상기 3차원 데이터를 획득하는 단계를 포함하는, 3차원 데이터 획득 방법을 제공할 수 있다.
본 개시의 다른 측면은 3차원 데이터를 획득하는 장치에 있어서, 디스플레이; 3차원 스캐너와 통신하는 통신 인터페이스; 및 적어도 하나의 인스트럭션을 실행하여 상기 3차원 데이터를 획득하는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 3차원 스캐너에 의해 대상체에 제1 타입의 패턴 광을 조사하여, 상기 제1 타입의 패턴 광이 조사된 상기 대상체의 표면에 대한 제1 데이터를 획득하고, 상기 3차원 스캐너에 의해 상기 대상체에 제2 타입의 패턴 광을 조사하여, 상기 제2 타입의 패턴 광이 조사된 상기 대상체의 표면에 대한 제2 데이터를 획득하고, 상기 제1 데이터 및 상기 제2 데이터에 기초하여 상기 대상체에 대한 3차원 데이터를 획득하는 것을 특징으로 하는, 3차원 데이터 획득 장치를 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 제1 데이터 및 상기 제2 데이터는, t 시간 당 n(n은 자연수)개의 프레임들을 스캔하는 상기 3차원 스캐너에 의해 획득되고, 상기 3차원 스캐너는, 상기 대상체에 상기 제1 타입의 패턴 광을 조사하고, 상기 제1 타입의 패턴 광이 조사된 상기 대상체의 표면에 대해서 2차원 영상을 포함하는 프레임을 a(a는, n보다 작은 자연수)개 획득하고, 상기 대상체에 상기 제2 타입의 패턴 광을 조사하고, 상기 제2 타입의 패턴 광이 조사된 상기 대상체의 표면에 대해서 2차원 영상을 포함하는 프레임을 b(b는, n-a보다 작거나 같은 자연수)개 획득하는, 3차원 데이터 획득 장치를 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 제1 데이터 및 상기 제2 데이터는, 상기 대상체에 대해서 연속적으로 프레임들을 스캔하는 3차원 스캐너에 의해 획득되고, 상기 3차원 스캐너는, 상기 대상체에 상기 제1 타입의 패턴 광을 조사하고, 상기 제1 타입의 패턴 광이 조사된 상기 대상체의 표면에 대해서, 2차원 영상을 획득하고, 상기 적어도 하나의 프로세서는, 상기 제1 타입의 패턴 광이 조사된 상기 대상체의 표면에 대한 상기 2차원 영상 및 상기 제1 타입의 패턴 광에 대한 정보에 기초하여, 상기 대상체에 대한 제1 포인트 클라우드 데이터를 획득하고, 상기 제1 타입의 패턴 광 대신에 상기 제2 타입의 패턴 광을 조사하거나, 상기 제1 타입의 패턴 광 및 상기 제2 타입의 패턴 광을 번갈아 가면서 조사할 것을 결정하는, 3차원 데이터 획득 장치를 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 3차원 스캐너는, 상기 대상체에 상기 제2 타입의 적색 패턴 광을 조사하고, 상기 제2 타입의 적색 패턴 광이 조사된 상기 대상체의 표면에 대해서 2차원 영상을 포함하는 R 프레임을 획득하고, 상기 대상체에 상기 제2 타입의 녹색 패턴 광을 조사하고, 상기 제2 타입의 녹색 패턴 광이 조사된 상기 대상체의 표면에 대해서 2차원 영상을 포함하는 G 프레임을 획득하고, 상기 대상체에 상기 제2 타입의 청색 패턴 광을 조사하고, 상기 제2 타입의 청색 패턴 광이 조사된 상기 대상체의 표면에 대해서 2차원 영상을 포함하는 B 프레임을 획득하는, 3차원 데이터 획득 장치를 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 적어도 하나의 프로세서는, 상기 3차원 데이터를 획득함에 있어서, 상기 제1 데이터로부터 상기 대상체의 제1 형상 정보를 추출하고, 상기 제2 데이터로부터 상기 대상체의 제2 형상 정보 및 색상 정보를 추출하고, 상기 제1 형상 정보, 상기 제2 형상 정보 및 상기 색상 정보에 기초하여 상기 3차원 데이터를 획득하는, 3차원 데이터 획득 장치를 제공할 수 있다.
또한 본 개시의 일 실시 예에서 상기 적어도 하나의 프로세서는, 상기 제1 데이터에 포함되는 제1 포인트 클라우드 데이터 및 상기 제2 데이터에 포함되는 제2 포인트 클라우드 데이터를 병합함으로써, 상기 3차원 데이터를 획득하는, 3차원 데이터 획득 장치를 제공할 수 있다.
본 개시의 다른 측면은 3차원 데이터 획득 방법을 수행하도록 하는 프로그램이 저장된 컴퓨터로 읽을 수 있는 기록매체에 있어서, 상기 3차원 데이터 획득 방법은, 대상체에 제1 타입의 패턴 광을 조사하여, 상기 제1 타입의 패턴 광이 조사된 상기 대상체의 표면에 대한 제1 데이터를 획득하는 단계; 상기 대상체에 제2 타입의 패턴 광을 조사하여, 상기 제2 타입의 패턴 광이 조사된 상기 대상체의 표면에 대한 제2 데이터를 획득하는 단계; 및 상기 제1 데이터 및 상기 제2 데이터에 기초하여, 상기 대상체에 대한 3차원 데이터를 획득하는 단계를 포함하는, 기록 매체를 제공할 수 있다.
본 명세서는 본 발명의 권리범위를 명확히 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 실시할 수 있도록, 본 발명의 원리를 설명하고, 실시 예들을 개시한다. 개시된 실시 예들은 다양한 형태로 구현될 수 있다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시 예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시 예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부'(part, portion)라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시 예들에 따라 복수의 '부'가 하나의 요소(unit, element)로 구현되거나, 하나의 '부'가 복수의 요소들을 포함하는 것도 가능하다. 이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시 예들에 대해 설명한다.
본 개시에서 '대상체(object)'는 촬영의 대상이 되는 것으로서, 사람, 동물, 또는 그 일부를 포함할 수 있다. 예를 들어, 대상체는 신체의 일부(장기 또는 기관 등), 대상체 상에 부착 가능하거나 대상체 내에 삽입 가능한 인공 구조물, 또는 팬텀(phantom) 등을 포함할 수 있다. 이하에서는, 대상체로서 적어도 하나의 치아를 포함하는 구강에 대한 3차원 데이터를 획득하는 경우를 예로 들어 설명하였다. 예를 들어, 대상체는 치아, 치은, 구강의 적어도 일부 영역, 및/또는 구강 내에 삽입 가능한 인공 구조물(예를 들어, 브라켓 및 와이어를 포함하는 교정 장치, 임플란트, 인공 치아, 인레이 및 온레이 등을 포함하는 치아 수복물, 구강 내 삽입되는 교정 보조 도구 등) 등을 포함할 수 있다. 하지만 본 개시는 구강에 대한 3차원 데이터를 획득하는 경우에 제한되지 않으며, 다양한 대상체에 대한 3차원 데이터를 획득하기 위해 적용될 수 있다.
본 개시에서 '영상'은 대상체에 대한 2차원 영상 또는 대상체를 입체적으로 나타내는 3차원 모델 또는 3차원 영상이 될 수 있다. 본 개시에서 영상이란, 2차원 프레임 및 3차원 프레임을 모두 포함할 수 있다. 예를 들어, 영상은, 대상체에 대해서 서로 다른 시점에서 획득된 2차원 영상들을 포함하는 2차원 프레임, 또는 포인트 클라우드 형태 또는 폴리곤 메쉬 형태로 표현되는 3차원 프레임을 포함할 수 있다.
또한, 본 개시에서 '데이터'는 대상체를 2차원 또는 3차원적으로 표현하기 위해서 필요한 정보, 예를 들어, 적어도 하나의 영상 센서로부터 획득된 로우 데이터(raw data)를 의미할 수 있다. 구체적으로, 로우 데이터는 대상체에 대한 3차원 데이터를 생성하기 위해서 획득되는 2차원 영상일 수 있다. 로우 데이터는, 3차원 스캐너(예를 들어, 구강 스캐너(intraoral scanner))를 이용하여 대상체를 스캔할 때 복수의 영상 센서들에 의해 획득되는 서로 다른 시점의 2차원 영상들이 될 수 있다.
이하에서는 도면을 참조하여 실시 예들을 상세히 설명한다.
도 1은 일 실시 예에 따른 3차원 데이터 획득 장치를 설명하기 위한 도면이다.
도 1에 도시된 바와 같이, 본 개시의 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 3차원 스캐너(100) 및 3차원 영상 디스플레이 장치(300)를 포함할 수 있다.
일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 3차원 스캐너(100)를 이용하여 대상체에 패턴 광을 조사(project)하고 패턴 광이 조사된 대상체를 스캔함으로써, 패턴의 변형에 의한 삼각 계측의 원리를 이용하여 대상체의 형상을 나타내는 3차원 데이터를 획득할 수 있다.
일 실시 예에 따른 3차원 스캐너(100)는, 대상체로부터 획득된 로우 데이터를 3차원 영상 디스플레이 장치(300)에게 전송할 수 있다. 3차원 영상 디스플레이 장치(300)는, 전달받은 로우 데이터에 기초하여, 대상체의 표면의 형상을 3차원적으로 나타내는 3차원 데이터를 생성할 수 있다. 3차원 데이터는, 포인트 클라우드 데이터 또는 폴리곤 메쉬 데이터일 수 있다. 다른 일 실시 예에 따른 3차원 스캐너(100)는, 대상체로부터 획득된 로우 데이터를 재구성하여 3차원 프레임을 생성하고, 생성된 3차원 프레임을 3차원 영상 디스플레이 장치(300)에게 전송할 수 있다.
일 실시 예에 따른 3차원 스캐너(100)는, 구강 내의 영상을 획득하기 위한 의료 장치를 포함할 수 있다. 구체적으로, 3차원 스캐너(100)는 구강 내에 삽입되어 비 접촉식으로 치아를 스캐닝함으로써, 적어도 하나의 치아를 포함하는 구강에 대한 3차원 모델을 생성하기 위한 장치가 될 수 있다. 또한, 3차원 스캐너(100)는 구강 내에 인입 및 인출이 가능한 형태를 가질 수 있으며, 적어도 하나의 영상 센서(예를 들어, 광학 카메라 등)를 이용하여 환자의 구강 내부를 스캔할 수 있다.
3차원 스캐너(100)는 대상체인 구강 내부의 치아, 치은 및 구강 내에 삽입 가능한 인공 구조물(예를 들어, 브라켓 및 와이어를 포함하는 교정 장치, 임플란트, 인공 치아, 구강 내 삽입되는 교정 보조 도구 등) 중 적어도 하나의 표면을 이미징하기 위해서, 대상체에 대한 표면 정보를 로우 데이터로서 획득할 수 있다. 3차원 영상 디스플레이 장치(300)는, 로우 데이터를 기초로 결합(merge) 등의 3차원 연산을 수행하여 3차원 데이터를 획득하고, 3차원 데이터를 렌더링한 3차원 영상을 화면 상에 디스플레이에 표시할 수 있다.
일 실시 예에 따른 3차원 영상 디스플레이 장치(300)는 3차원 스캐너(100)와 유선 또는 무선 통신 네트워크를 통하여 연결되며, 3차원 스캐너(100)로부터 대상체를 스캔하여 획득된 로우 데이터 또는 3차원 프레임을 수신할 수 있다.
3차원 영상 디스플레이 장치(300)는, 수신된 로우 데이터 또는 3차원 프레임에 기초하여, 대상체에 대한 3차원 데이터 또는 3차원 영상을 생성, 처리, 디스플레이 및/또는 전송할 수 있는 모든 전자 장치가 될 수 있다. 예를 들어, 3차원 영상 디스플레이 장치(300) 는 스마트 폰(smart phone), 랩탑 컴퓨터, 데스크탑 컴퓨터, PDA, 태블릿 PC 등의 컴퓨팅 장치가 될 수 있으며, 이에 한정되지 않는다.
3차원 영상 디스플레이 장치(300)는 3차원 스캐너(100)에서 수신된 데이터에 기초하여, 대상체의 진단에 필요한 정보 및 대상체 영상 중 적어도 하나를 생성하고, 생성된 정보 및/또는 영상을 디스플레이(320)를 통하여 디스플레이 할 수 있다.
일 실시 예에 따른 3차원 영상 디스플레이 장치(300)는 대상체에 대한 3차원 데이터 또는 3차원 영상을 분석하고, 분석 결과를 처리, 디스플레이 및/또는 전송할 수 있다.
또한, 일 실시 예에 따른 3차원 영상 디스플레이 장치(300)는 3차원 스캐너(100)에 연동되는 전용 소프트웨어를 저장 및 실행할 수 있다. 여기서, 전용 소프트웨어는 전용 프로그램 또는 전용 어플리케이션으로 호칭 될 수 있다. 3차원 영상 디스플레이 장치(300)가 3차원 스캐너(100)와 상호 연동되어 동작하는 경우, 3차원 영상 디스플레이 장치(300)에 저장되는 전용 소프트웨어는, 3차원 스캐너(100)와 연결되어 대상체 스캔을 통하여 획득되는 데이터들을 실시간으로 수신하도록 3차원 영상 디스플레이 장치(300)를 구동할 수 있다. 예를 들어, 자사의 구강 스캐너인 i500에서 구강 스캔을 통하여 획득된 데이터를 처리하기 위한 전용 소프트웨어가 존재한다. 3차원 영상 디스플레이 장치(300)는 i500 제품에 대응되는 전용 소프트웨어를 저장 및 실행할 수 있다. 전송 소프트웨어는 구강 이미지를 획득, 처리, 저장, 및/또는 전송하기 위한 적어도 하나의 동작들을 수행할 수 있다.
전용 소프트웨어는 3차원 영상 디스플레이 장치(300)의 프로세서 또는 메모리에 저장될 수 있다. 또한, 전용 소프트웨어는 3차원 스캐너에서 획득된 데이터의 이용을 위한 사용자 인터페이스를 제공할 수 있다. 전용 소프트웨어에서 제공되는 사용자 인터페이스 화면은 개시된 실시 예에 따라서 생성되는 대상체에 대한 3차원 영상을 포함할 수 있다. 예를 들어, 개시된 실시 예에서, 전용 소프트웨어에서 제공되는 사용자 인터페이스 화면은 도 7, 도 8 및 도 10에서 도시되는 사용자 인터페이스 화면들 중 적어도 일부를 포함할 수 있다.
도 2는 일 실시 예에 따라 광학식 3차원 스캐너가 표면 데이터를 획득하는 방법을 설명하기 위한 도면이다.
일 실시 예에 따라 3차원 스캐너(100)를 이용하여 대상체의 표면에 대한 3차원 데이터를 획득하기 위해서는, 양안시 구조광(structured light with stereo vision) 방식이 이용될 수 있다.
일 실시 예에 따른 3차원 스캐너(100)는 2개 이상의 카메라(207, 209)와 구조광(structured light)(또는, 패턴광)(213)을 조사할 수 있는 적어도 하나의 프로젝터(211)로 구성될 수 있다. 일 실시 예에 따른 3차원 스캐너(100)는, 대상체(201)에게 구조광(213)을 조사하고, 좌안 시야(left Field of View)에 대응되는 L 카메라(207)와 우안 시야(Right Field of View)에 대응되는 R 카메라(209) 각각에서 좌안 시야에 대응되는 L 영상(203) 및 우안 시야에 대응되는 R 영상(205)을 획득할 수 있다. 3차원 스캐너(100)는 대상체(201)에 대한 L 영상(203) 및 R 영상(205)을 포함하는 2차원 프레임을 연속적으로 획득할 수 있다. 3차원 스캐너(100) 또는 3차원 영상 디스플레이 장치(300)는, L 영상(203) 및 R 영상(205)을 포함하는 2차원 프레임로부터 대상체의 표면 형상을 나타내는 3차원 프레임을 재구성할 수 있다.
도 2에는 3차원 스캐너(100)가 2 개의 카메라(207, 209) 및 하나의 프로젝터(211)를 포함하는 경우를 예로 들어 도시하였다. 그러나 본 개시의 다양한 실시 예들은 도 2에 도시된 예에 제한되지 않으며, 3차원 스캐너는 하나의 카메라 및 하나의 프로젝터를 포함할 수 있다. 3차원 스캐너가 하나의 카메라 및 하나의 프로젝터를 포함하는 경우, 프로젝터가 영상을 획득하는 카메라의 역할과 구조광을 조사하는 프로젝터의 역할을 동시에 수행할 수 있다. 또한, 본 개시의 다양한 구현 방식에 따라, 3차원 스캐너는 복수 개의 카메라들 및 복수 개의 프로젝터들을 포함할 수 있다.
한편, 3차원 스캐너(100)는, 대상체 주위를 이동하면서 일정한 시간 간격(예를 들어, 수 ms~수십 ms)으로 대상체를 스캔함으로써 복수의 2차원 프레임들을 획득할 수 있다. 3차원 스캐너(100) 또는 3차원 영상 디스플레이 장치(300)는, 복수의 2차원 프레임들로부터 복수의 3차원 프레임들을 획득할 수 있다. 예를 들어, 3차원 스캐너(100)는, 초당 10~30 개의 3차원 프레임들을 획득하고, 각 3차원 프레임은 20~30개의 2차원 프레임들에 기초하여 생성될 수 있다. 3차원 영상 디스플레이 장치(300)는, 복수의 3차원 프레임들을 결합 또는 위치 정렬함으로써 대상체 전체에 대한 3차원 데이터를 재구성할 수 있다.
일 실시 예에 따른 3차원 스캐너(100)가 도 2에 도시된 방식에 따라 구강을 스캔함에 있어서, 인레이(inlay), 온레이(onlay), 크라운, 보철, 교정 장치 등의 구강 내 금속 구조물의 경우 그 형상을 스캔하는 것에 어려움이 있다. 이는, 패턴 광을 대상체에 조사하여 대상체 표면의 3차원 형상 정보를 획득하는 3차원 데이터 획득 방법에 의하면, 패턴이 대상체 표면 상에서 보여야 3차원 형상 정보가 획득 가능하다. 그러나, 금속 구조물의 경우 조사된 패턴 광 중에서 반사되는 빛의 양이 많아 3차원 형상 정보의 측정에 어려움이 있다.
따라서, 금속 구조물을 스캔하기 위해서는, 3차원 스캐너(100)가 더 밝은 패턴 광을 조사하여 패턴 광의 일부라도 대상체 표면 상에서 보이도록 하는 방법이 이용될 수 있다. 예를 들어, 3차원 스캐너(100)가 치아를 스캔하기 위해 적색 광원, 녹색 광원 및 청색 광원 각각을 이용하여 패턴 광을 조사할 수 있는 경우, 3차원 스캐너(100)가 적색 광원, 녹색 광원 및 청색 광원을 동시에 이용하여 흰색 패턴 광을 대상체의 표면에 조사할 수 있다.
또한, 일 실시 예에 따른 3차원 스캐너(100)는, 금속 구조물을 스캔하기 위하여, 라인 패턴 광 대신에 포인트 패턴 광을 이용할 수 있다. 예를 들어, 라인 패턴 광이란, 도 2의 패턴광(213)에 예시된 바와 같이 가로, 세로, 또는 사선 방향으로 직선이나 곡선을 나란히 나타낸 광을 의미할 수 있다. 포인트 패턴 광이란, 일정 크기 또는 다양한 크기의 점들을 늘어놓은 광을 의미할 수 있다.
도 3은 일 실시 예에 따라 대상체에 조사되는 포인트 패턴 광을 설명하기 위한 도면이다.
도 3에 도시된 바와 같이, 일 실시 예에 따른 3차원 스캐너(100)는, 대상체에게 포인트 패턴 광(301)을 조사하고, 포인트 패턴 광이 조사된 대상체의 표면을 스캔함으로써 2차원 영상 프레임(303)을 획득할 수 있다. 일 실시 예에 따르면, 포인트 패턴 광에 포함되는 포인트들이 일정한 규칙 없이 랜덤하게 늘어놓아질 수 있으므로, 포인트 패턴 광은 랜덤 패턴 광이라고도 지칭될 수 있다.
일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 포인트 패턴 광이 조사된 대상체의 표면을 서로 다른 시점에서 스캔한 복수의 2차원 영상들을 획득할 수 있다. 이 때, 복수의 2차원 영상들로부터 대상체 표면의 3차원 형상 정보를 획득하기 위해서는 스테레오 매칭(Stereo Matching) 방식이 이용될 수 있다. 스테레오 매칭 방식에는, 예를 들어, 블록 매칭(Block Matching), 그래프 컷(Graph Cut), 또는 세미-글로벌 매칭(Semi-Global Matching) 등이 포함될 수 있다. 세미-글로벌 매칭 방법은, 2차원 영상들의 방사계측(radiometric) 차이값을 보상하기 위한, 픽셀 단위의 상호 정보 기반 매칭 비용 함수를 이용하여 3차원 형상 정보를 획득하는 방법일 수 있다.
일 실시 예에 따른 3차원 스캐너(100)는, 라인 패턴 광을 조사한 경우와 비교하였을 때, 포인트 패턴 광이 조사된 대상체의 표면을 스캔함으로써 대상체의 3차원 형상과 관련된 더 많은 양의 데이터를 획득할 수 있다. 따라서, 포인트 패턴 광을 이용할 경우, 금속으로 이루어진 영역에 대해서도 보다 정확한 3차원 데이터 획득이 가능하다.
3차원 스캐너(100)가 라인 패턴 광을 이용하는 경우, 빛 반사에 의해 선의 일부가 흐릿하게 스캔되더라도 해당 선 전체에 대한 정보를 이용할 수 없게 된다. 반면에, 3차원 스캐너(100)가 포인트 패턴 광을 이용하는 경우, 빛 반사에 의해 일부 포인트가 흐릿하게 스캔되더라도 다른 포인트들로부터 정보를 획득하는 것에 문제가 없게 된다. 따라서, 라인 패턴 광을 이용하는 방식에 비해, 포인트 패턴 광을 이용하는 방식이 빛 반사에 강인하므로, 금속으로 이루어진 영역에 대한 데이터 획득에 유리할 수 있다. 하지만, 금속이 아닌 영역에 대해서는 포인트 패턴 광을 이용하는 것보다, 라인 패턴 광을 이용하는 것이 상대적으로 정밀도가 높을 수 있다.
본 개시의 다양한 실시 예들에 따르면, 3차원 데이터 획득 장치(200)는 다양한 동작 모드를 이용하여 대상체에 대한 3차원 데이터를 획득할 수 있다. 다양한 실시 예들에 따라 3차원 데이터 획득 장치(200)가 대상체에 대한 3차원 데이터를 획득하는 구체적인 방법에 대해서, 이하에서 도 4 내지 도 16을 참조하여 상세히 설명한다.
도 4는 일 실시 예에 따른 3차원 데이터 획득 장치가 3차원 데이터를 획득하는 방법의 흐름도를 도시한다.
단계 S401에서 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 대상체에 제1 타입의 패턴 광을 조사하여, 제1 타입의 패턴 광이 조사된 대상체의 표면에 대한 제1 데이터를 획득할 수 있다.
3차원 데이터 획득 장치(200)에 포함되는 3차원 스캐너(100)는, 대상체에 제1 타입의 패턴 광을 조사하고, 제1 타입의 패턴 광이 조사된 대상체의 표면에 대해서 서로 다른 시점의 2차원 영상들을 획득할 수 있다. 예를 들어, 제1 타입의 패턴 광은, 라인 패턴 광을 포함할 수 있다. 3차원 데이터 획득 장치(200)는, 제1 타입의 패턴 광이 조사된 대상체의 표면에 대한 2차원 영상들 및 제1 타입의 패턴 광에 대한 정보에 기초하여, 대상체에 대한 제1 포인트 클라우드 데이터를 제1 데이터로서 획득할 수 있다.
예를 들어, 3차원 데이터 획득 장치(200)는, 3차원 스캐너(100)의 제1 영상 센서가 스캔한 2차원 영상에 나타나는 대상체 상의 각 선이 제2 영상 센서가 스캔한 2차원 영상의 어느 선에 대응되는 지를 결정할 수 있다. 그리고, 3차원 데이터 획득 장치(200)는, 조사된 라인 패턴 및 2차원 영상들에 보여지는 변형된 선에 기초하여, 2차원 영상들 간에 매칭되는 각 선을 이루는 점들의 3차원 좌표를 계산할 수 있다. 3차원 데이터 획득 장치(200)는, 2차원 영상들에 포함되는 각 픽셀에 대한 3차원 좌표를 계산함으로써 제1 포인트 클라우드 데이터를 획득할 수 있다.
일 실시 예에 따른 3차원 스캐너(100)는, 제1 타입의 동일한 패턴 광을 대상체에게 조사하거나, 제1 타입의 상이한 패턴 광들을 순차적으로 대상체에게 조사할 수 있다. 예를 들어, 3차원 스캐너(100)는, 제1 타입의 상이한 패턴 광들 각각이 조사된 대상체의 표면에 대해서, 적어도 하나의 프레임을 획득할 수 있다.
단계 S402에서 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 대상체에 제2 타입의 패턴 광을 조사하여, 제2 타입의 패턴 광이 조사된 대상체의 표면에 대한 제2 데이터를 획득할 수 있다.
3차원 데이터 획득 장치(200)에 포함되는 3차원 스캐너(100)는, 대상체에 제2 타입의 패턴 광을 조사하고, 제2 타입의 패턴 광이 조사된 대상체의 표면에 대해서 서로 다른 시점의 2차원 영상들을 획득할 수 있다. 예를 들어, 제2 타입의 패턴 광은, 포인트 패턴 광을 포함할 수 있다. 3차원 데이터 획득 장치(200)는, 제2 타입의 패턴 광이 조사된 대상체의 표면에 대한 2차원 영상들 및 제2 타입의 패턴 광에 대한 정보에 기초하여, 대상체에 대한 제2 포인트 클라우드 데이터를 제2 데이터로서 획득할 수 있다.
예를 들어, 3차원 데이터 획득 장치(200)는, 3차원 스캐너(100)의 제1 영상 센서가 스캔한 2차원 영상에 나타나는 대상체 상의 각 포인트가 제2 영상 센서가 스캔한 2차원 영상의 어느 포인트에 대응되는 지를 결정할 수 있다. 그리고, 3차원 데이터 획득 장치(200)는, 조사된 포인트 패턴 및 2차원 영상들에 보여지는 변형된 포인트 패턴에 기초하여, 2차원 영상들 간에 매칭되는 각 포인트의 3차원 좌표를 계산할 수 있다. 3차원 데이터 획득 장치(200)는, 2차원 영상들에 포함되는 각 픽셀에 대한 3차원 좌표를 계산함으로써 제2 포인트 클라우드 데이터를 획득할 수 있다.
일 실시 예에 따른 3차원 스캐너(100)는, 제2 타입의 동일한 패턴 광을 대상체에게 조사하거나, 제2 타입의 상이한 패턴 광들을 순차적으로 대상체에게 조사할 수 있다. 예를 들어, 3차원 스캐너(100)는, 제2 타입의 상이한 패턴 광들 각각이 조사된 대상체의 표면에 대해서, 적어도 하나의 프레임을 획득할 수 있다.
일 실시 예에 따르면, 3차원 스캐너(100)는, 제1 타입의 패턴 광 및 제2 타입의 패턴 광을 번갈아 가면서 조사하도록 구성될 수 있다. 3차원 스캐너(100)는, 제1 타입의 패턴 광을 이용하여 획득된 복수의 2차원 영상 프레임들에 기초하여 제1 데이터를 획득하고, 제2 타입의 패턴 광을 이용하여 획득된 복수의 2차원 영상 프레임들에 기초하여 제2 데이터를 획득할 수 있다.
본 개시에서는, 설명의 편의를 위하여 3차원 스캐너(100)가 제1 타입의 패턴 광을 조사한 후 제2 타입의 패턴 광을 조사하는 경우를 예로 들어 설명한다. 그러나 본 개시의 다양한 실시 예들은 이러한 예에 제한되지 않으며, 3차원 스캐너(100)가 제1 타입의 패턴 광과 제2 타입의 패턴 광을 번갈아 가면서 조사하도록 구성되므로, 제2 타입의 패턴 광을 조사한 후 제1 타입의 패턴 광을 조사할 수 있다. 또는, 3차원 스캐너(100)는, 제1 타입의 패턴 광을 조사한 후, 제2 타입의 패턴 광을 조사하고, 다시 제1 타입의 패턴 광을 조사할 수 있다.
먼저, 3차원 스캐너(100)는, 제1 타입의 패턴 광이 조사된 대상체에 대해서 연속적으로 프레임들을 스캔함으로써 제1 데이터를 획득할 수 있다. 예를 들어, 제1 데이터는, t 시간 당 n(n은 자연수)개의 프레임들을 반복하여 스캔하는 3차원 스캐너(100)에 의해 획득될 수 있다. 예를 들어, 3차원 스캐너(100)는, 초당 100~900 프레임들을 스캔할 수 있다.
3차원 스캐너(100)는, 제1 타입의 패턴 광이 조사된 대상체의 표면에 대해서 서로 다른 시점의 2차원 영상들을 포함하는 프레임을 t 시간 당 a개(a는 n보다 작은 자연수) 획득할 수 있다. 예를 들어, 3차원 스캐너(100)는, 제1 타입의 패턴 광이 조사된 대상체의 표면에 대해서 제1 영상 센서가 스캔한 제1의 2차원 영상 및 제2 영상 센서가 스캔한 제2의 2차원 영상을 포함하는 프레임을 획득하고, 프레임 획득 과정을 t 시간 내에 a번 반복할 수 있다. 3차원 데이터 획득 장치(200)는, a개의 2차원 영상 프레임들에 기초하여 제1 데이터로서 제1 포인트 클라우드 데이터를 획득할 수 있다. 예를 들어, 3차원 데이터 획득 장치(200)는, 20~30개의 2차원 영상 프레임들로부터 하나의 포인트 클라우드를 획득할 수 있다.
다음으로, 3차원 스캐너(100)는, 제2 타입의 패턴 광이 조사된 대상체에 대해서 연속적으로 프레임들을 스캔함으로써 제2 데이터를 획득할 수 있다. 3차원 스캐너(100)는, 제2 타입의 패턴 광이 조사된 대상체의 표면에 대해서 서로 다른 시점의 2차원 영상들을 포함하는 프레임을 t 시간 당 b개(b는 n-a보다 작은 자연수) 획득할 수 있다. 3차원 데이터 획득 장치(200)는, b개의 2차원 영상 프레임들에 기초하여 제2 데이터로서 제2 포인트 클라우드 데이터를 획득할 수 있다.
일 실시 예에 따른 3차원 스캐너(100)가 제2 타입의 패턴 광을 이용한 제2 데이터를 획득함에 있어서, 대상체에 대한 색상 정보를 획득하기 위하여, 적색 패턴 광, 녹색 패턴 광, 및 청색 패턴 광 중 적어도 하나를 대상체에게 조사할 수 있다. 일 실시 예에 따른 3차원 스캐너(100)는, 대상체에 대한 색상 정보를 획득하기 위하여, 적색 패턴 광, 녹색 패턴 광, 및 청색 패턴 광을 각각 대상체에게 조사할 수 있다.
예를 들어, 3차원 스캐너(100)는, 대상체에 제2 타입의 적색 패턴 광을 조사하고, 제2 타입의 적색 패턴 광이 조사된 대상체의 표면에 대해서 서로 다른 시점의 2차원 영상들을 포함하는 R 프레임을 획득할 수 있다. 3차원 스캐너(100)는, 대상체에 제2 타입의 녹색 패턴 광을 조사하고, 제2 타입의 녹색 패턴 광이 조사된 대상체의 표면에 대해서 서로 다른 시점의 2차원 영상들을 포함하는 G 프레임을 획득할 수 있다. 3차원 스캐너(100)는, 대상체에 제2 타입의 청색 패턴 광을 조사하고, 제2 타입의 청색 패턴 광이 조사된 대상체의 표면에 대해서 서로 다른 시점의 2차원 영상들을 포함하는 B 프레임을 획득할 수 있다. 3차원 데이터 획득 장치(200)는, R 프레임, G 프레임, 및 B 프레임에 기초하여 제2 데이터로서 제2 포인트 클라우드 데이터를 획득할 수 있다.
그러나, 본 개시는 3차원 스캐너(100)가 모든 광원 색상들(즉, 적색, 녹색, 및 청색)을 이용하여 포인트 패턴 광을 조사하는 실시 예에 제한되지 않는다. 일 실시 예에 따른 3차원 스캐너(100)는, 적색, 녹색, 및 청색 중 하나의 광원을 이용하여 라인 패턴 광을 조사하고, 포인트 패턴 광, 패턴이 없는 광, 또는 랜덤 패턴 광을 조사함에 있어서 적색, 녹색, 및 청색 중 나머지 광원들을 이용할 수 있다. 예를 들어, 3차원 스캐너(100)는, 라인 패턴의 청색 광을 조사하고, 포인트 패턴의 적색 광을 조사하고, 패턴이 없는 녹색 광(또는, 랜덤 패턴 녹색 광)을 조사할 수 있다.
다른 일 실시 예에 따르면, 3차원 스캐너(100)는, 제1 타입의 패턴 광이 조사된 대상체를 스캔하다가, 금속 영역이 감지되면 제2 타입의 패턴 광을 조사하도록 구성될 수 있다.
먼저, 3차원 스캐너(100)는, 제1 타입의 패턴 광이 조사된 대상체에 대해서 연속적으로 프레임들을 스캔함으로써 제1 데이터를 획득할 수 있다. 3차원 데이터 획득 장치(200)는, 제1 타입의 패턴 광이 조사된 대상체로부터 획득된 복수의 2차원 영상 프레임들에 기초하여, 제1 데이터로서 제1 포인트 클라우드 데이터를 획득할 수 있다.
일 예로서, 3차원 데이터 획득 장치(200)는, 제1 타입의 패턴 광이 조사된 대상체의 표면에 대해서 획득된 서로 다른 시점의 2차원 영상들을 포함하는 프레임과 이웃하는 이웃 프레임 간의 밝기 값의 차이가 임계 값 이상으로 많이 나는 경우, 제1 타입의 패턴 광 대신에 제2 타입의 패턴 광을 조사할 것을 결정할 수 있다.
다른 예로서, 3차원 데이터 획득 장치(200)는, 인공 지능 모델을 이용하여, 스캔하고 있는 대상체의 영역이 금속 영역인지 여부를 판단할 수 있다. 3차원 데이터 획득 장치(200)는, 대상체로부터 획득된 2차원 영상 프레임 또는 3차원 프레임을 입력으로서 인공 지능 모델에 적용하여, 스캔하고 있는 대상체의 영역이 금속 영역인지 여부를 판단할 수 있다. 금속 영역 판단에 이용되는 인공 지능 모델은, 대상체의 금속 영역 및 비금속 영역으로부터 획득된 많은 양의 스캔 데이터를 학습(train)한 인공 지능 모델일 수 있다. 3차원 데이터 획득 장치(200)는, 대상체의 영역이 금속 영역이라고 판단되면, 제1 타입의 패턴 광 대신에 제2 타입의 패턴 광을 조사할 것을 결정할 수 있다.
다음으로, 3차원 스캐너(100)는, 제2 타입의 패턴 광을 대상체에게 조사하고, 제2 타입의 패턴 광이 조사된 대상체에 대해서 연속적으로 프레임들을 스캔함으로써 제2 데이터를 획득할 수 있다. 3차원 데이터 획득 장치(200)는, 제2 타입의 패턴 광이 조사된 대상체로부터 획득된 복수의 2차원 영상 프레임들에 기초하여, 제2 데이터로서 제2 포인트 클라우드 데이터를 획득할 수 있다.
단계 S403에서 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 제1 데이터 및 제2 데이터에 기초하여, 대상체에 대한 3차원 데이터를 획득할 수 있다.
3차원 스캐너(100)가 제1 타입의 패턴 광을 이용하여 획득한 제1 데이터는, 대상체의 제1 형상 정보를 포함할 수 있다. 그리고 3차원 스캐너(100)가 적색, 녹색, 및 청색 중 적어도 하나의 제2 타입의 패턴 광을 조사하여 획득한 제2 데이터는, 대상체의 제2 형상 정보 및 색상 정보를 포함할 수 있다. 예를 들어, 3차원 스캐너(100)는 제1 타입의 청색 패턴 광을 이용하여 대상체의 제1 형상 정보를 획득하고, 제2 타입의 적색 패턴 광, 제2 타입의 녹색 패턴 광, 및 제2 타입의 청색 패턴 광을 조사하여, 대상체의 제2 형상 정보 및 색상 정보를 포함할 수 있다.
3차원 데이터 획득 장치(200)는, 제1 형상 정보, 제2 형상 정보 및 색상 정보에 기초하여 3차원 데이터를 획득할 수 있다.
일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 제1 데이터에 포함되는 제1 포인트 클라우드 데이터 및 제2 데이터에 포함되는 제2 포인트 클라우드 데이터를 병합함으로써, 3차원 데이터를 획득할 수 있다.
일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 제1 데이터 및 제2 데이터의 가중치 합에 기초하여 3차원 데이터를 획득할 수 있다. 예를 들어, 제1 데이터, 제2 데이터, 및 3차원 데이터는, 포인트 클라우드 데이터이거나 폴리곤 메쉬 데이터일 수 있다.
일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 제1 데이터의 신뢰도에 기초하여, 신뢰도가 높은 대상체의 적어도 일부 영역에 대해서는 제1 데이터를 이용하고, 신뢰도가 낮은 대상체의 나머지 영역에 대해서는 제2 데이터를 이용함으로써, 3차원 데이터를 획득할 수 있다.
다른 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 제1 데이터의 신뢰도에 기초하여, 제1 데이터에 대해서 적용될 가중치를 결정할 수 있다. 3차원 데이터 획득 장치(200)는, 가중치에 기초하여 제1 데이터 및 제2 데이터를 병합함으로써, 3차원 데이터를 획득할 수 있다.
또 다른 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 제1 데이터에 포함되는 복수의 제1 포인트들 및 제2 데이터에 포함되는 복수의 제2 포인트들 간의 중첩 포인트들을 결정할 수 있다. 3차원 데이터 획득 장치(200)는, 중첩 포인트들에 대한 평균값을 이용하여 3차원 데이터를 획득할 수 있다.
또 다른 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 제1 데이터 및 제2 데이터 중에서 이웃하는 프레임들과 유사도가 높은 데이터에 높은 가중치를 할당할 수 있다. 3차원 데이터 획득 장치(200)는, 제1 데이터 및 제2 데이터에 대해서, 할당된 가중치를 적용한 가중치 합에 기초하여 3차원 데이터를 획득할 수 있다.
도 5는 일 실시 예에 따른 3차원 데이터 획득 장치가 포인트 패턴 광 및 라인 패턴 광을 이용하여 대상체에 대한 3차원 데이터를 획득하는 방법을 설명하기 위한 도면이다.
일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 복수의 2차원 영상 프레임들로부터 하나의 3차원 영상 프레임을 획득할 수 있다. 이 때, 하나의 3차원 영상 프레임을 획득하기 위해 이용되는 복수의 2차원 영상 프레임들은, 대상체의 색상 데이터(551) 및 형상 데이터(553)를 획득하기 위한 R 프레임(511), G 프레임(513), 및 B 프레임(515)과, 대상체의 형상 데이터(557)를 획득하기 위한 프레임들(521, 523, 525, 527)을 포함할 수 있다.
3차원 스캐너(100)는, 포인트 패턴의 적색 광이 조사된 대상체의 표면에 대해서 R 프레임(511)을 획득하고, 포인트 패턴의 녹색 광이 조사된 대상체의 표면에 대해서 G 프레임(513)을 획득하고, 포인트 패턴의 청색 광이 조사된 대상체의 표면에 대해서 B 프레임(515)을 획득할 수 있다. 3차원 스캐너(100)는, 청색의 라인 패턴 광이 조사된 대상체의 표면에 대해서 복수의 프레임들(521, 523, 525, 527)을 획득할 수 있다.
일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 포인트 패턴 광을 이용하여 획득된 대상체의 형상 데이터(553) 및 라인 패턴 광을 이용하여 획득된 대상체의 형상 데이터(557)를 병합함으로써, 대상체의 3차원 데이터를 획득할 수 있다. 대상체의 형상 데이터(553) 및 형상 데이터(557)는, 대상체의 표면에 대응되는 포인트들의 3차원 공간 상의 위치를 나타내는 포인트 클라우드 데이터일 수 있다. 3차원 데이터 획득 장치(200)는, 형상 데이터(553) 및 형상 데이터(557)를 병합함으로써 하나의 3차원 데이터를 획득할 수 있다.
도 6은 일 실시 예에 따른 3차원 데이터 획득 장치가 제1 데이터 및 제2 데이터를 병합함으로써 대상체에 대한 3차원 데이터를 획득하는 방법을 설명하기 위한 도면이다.
일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 라인 패턴 광에 의해 획득되는 제1 포인트 클라우드(601) 및 포인트 패턴 광에 의해 획득되는 제2 포인트 클라우드(602)를 병합함으로써, 3차원 데이터(630)를 획득할 수 있다. 도 6에 도시된 바와 같이, 포인트 패턴을 이용하여 획득된 제2 포인트 클라우드(602)가 라인 패턴을 이용하여 획득된 제1 포인트 클라우드(601)에 비해 데이터의 양이 더 많을 수 있다.
3차원 데이터 획득 장치(200)는, 제1 포인트 클라우드(601)에 포함되는 포인트들 및 제2 포인트 클라우드(602)에 포함되는 포인트들 간의 중첩 포인트들을 결정할 수 있다. 제1 포인트 클라우드(601)의 포인트와 제2 포인트 클라우드(602)의 포인트가 3차원 공간 내에서 서로 인접한 경우, 중첩 포인트들로서 결정할 수 있다. 예를 들어, 3차원 데이터 획득 장치(200)는, 제2 포인트 클라우드(602)에 포함되는 포인트들 중에서, 제1 포인트 클라우드(601)에 포함되는 포인트로부터 소정 거리 내에 위치하는 포인트를 중첩 포인트로서 결정할 수 있다. 3차원 데이터 획득 장치(200)는, 중첩 포인트들에 기초하여 3차원 데이터를 획득할 수 있다.
일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 제1 포인트 클라우드(601)에 포함되는 포인트(611)와 인접한, 제2 포인트 클라우드(602)에 포함되는 포인트(622)에 기초하여, 3차원 데이터(630) 내의 포인트(633)의 위치를 결정할 수 있다.
일 예로서, 도 6에 도시된 바와 같이, 3차원 데이터 획득 장치(200)는, 포인트(611)의 위치를 나타내는 좌표 값 (10, 21, 16)과 포인트(622)의 위치를 나타내는 좌표 값 (11, 20, 18)의 평균을 계산하여, 포인트(633)의 위치를 (10.5, 20.5, 17)로 결정할 수 있다.
다른 예로서, 3차원 데이터 획득 장치(200)는, 포인트(611)의 위치를 나타내는 좌표 값 (10, 21, 16)과 포인트(622)의 위치를 나타내는 좌표 값 (11, 20, 18)의 가중치 합을 계산하여 포인트(633)의 위치를 결정할 수 있다. 예를 들어, 3차원 데이터 획득 장치(200)는, 포인트(611)에 0.7의 가중치를 부여하고, 포인트(622)에 0.3의 가중치를 부여하여, 포인트(633)의 위치를 (10.3, 20.7, 16.6)로 결정할 수 있다.
3차원 데이터 획득 장치(200)는, 제1 포인트 클라우드(601) 및 제2 포인트 클라우드(602)를 포인트 병합하기 위하여 할당될 가중치를 결정함에 있어서, 다양한 방법을 이용할 수 있다. 예를 들어, 3차원 데이터 획득 장치(200)는, 라인 패턴 광을 이용하여 획득되는 제1 포인트 클라우드(601)에 우선적으로 높은 가중치를 부여하고, 포인트 패턴 광을 이용하여 획득되는 제2 포인트 클라우드(602)에 상대적으로 낮은 가중치를 부여할 수 있다.
또는, 3차원 데이터 획득 장치(200)는, 포인트 클라우드 형태의 3차원 프레임들을 연속적으로 획득함에 있어서, 이웃하는 3차원 프레임들과의 유사도가 높은 포인트 클라우드에 높은 가중치를 부여할 수 있다.
일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 소정 포인트 클라우드에 포함되는 적어도 하나의 포인트와, 이웃하는 포인트 클라우드에 포함되는 적어도 하나의 포인트 간의 거리에 기초하여, 소정 포인트 클라우드와 이웃 포인트 클라우드 간의 유사도를 판단하고, 유사도에 기초하여 소정 포인트 클라우드에게 부여되는 가중치를 결정할 수 있다. 이웃하는 포인트 클라우드란, 소정 포인트 클라우드를 획득하기 전에 스캔 된 데이터로부터 획득된 포인트 클라우드를 의미할 수 있다.
일 예로서 3차원 데이터 획득 장치(200)는, 제1 포인트 클라우드를 획득하기 이 전에 획득한 이웃 포인트 클라우드의 포인트에 대해 제1 포인트 클라우드의 포인트를 대응시킬 수 있다. 3차원 데이터 획득 장치(200)는, 서로 대응하는 포인트들 간의 거리가 가까운 경우, 제1 포인트 클라우드의 포인트와 이웃 포인트 클라우드의 포인트가 잘 얼라인(align) 된다고 판단할 수 있다. 3차원 데이터 획득 장치(200)는, 제2 포인트 클라우드와 비교하여, 서로 대응하는 포인트들 간의 거리가 가까운 경우 제1 포인트 클라우드의 포인트에 높은 가중치를 부여하고, 서로 대응하는 포인트들 간의 거리가 먼 경우 제1 포인트 클라우드의 포인트에 낮은 가중치를 부여할 수 있다.
그리고, 3차원 데이터 획득 장치(200)는, 제2 포인트 클라우드를 획득하기 이 전에 획득한 이웃 포인트 클라우드의 포인트에 대해 제2 포인트 클라우드의 포인트를 대응시키고, 제1 포인트 클라우드와 비교하여, 서로 대응하는 포인트들 간의 거리가 가까운 경우 제2 포인트 클라우드의 포인트에 높은 가중치를 부여하고, 서로 대응하는 포인트들 간의 거리가 먼 경우 제2 포인트 클라우드의 포인트에 낮은 가중치를 부여할 수 있다. 3차원 데이터 획득 장치(200)는, 결정된 가중치에 기초하여 제1 포인트 클라우드 및 제2 포인트 클라우드를 병합함으로써, 제1 포인트 클라우드 및 제2 포인트 클라우드 중에서 이웃 포인트 클라우드와 유사도가 높은 포인트 클라우드에 높은 가중치를 부여할 수 있다.
다른 예로서, 3차원 데이터 획득 장치(200)는, 제1 포인트 클라우드의 포인트 및 제2 포인트 클라우드의 포인트 중에서 이웃 포인트 클라우드에 보다 근사하게(closely) 얼라인(align)되는 포인트를 선택하여 3차원 데이터에 포함시키는 방식을 이용할 수 있다. 제1 포인트 클라우드의 포인트 및 제2 포인트 클라우드의 포인트 중에서 이웃 포인트 클라우드에 보다 근사하게 얼라인되는 포인트는, 서로 대응하는 포인트들 간의 거리에 기초하여 결정될 수 있다. 예를 들어, 3차원 데이터 획득 장치(200)는, 제1 포인트 클라우드의 제1 포인트와 이웃 포인트 클라우드의 대응 포인트 간의 제1 거리를 계산하고, 제2 포인트 클라우드의 제2 포인트와 이웃 포인트 클라우드의 대응 포인트 간의 제2 거리를 계산할 수 있다. 3차원 데이터 획득 장치(200)는, 제1 거리 및 제2 거리를 비교하여, 대응하는 포인트들 간의 거리가 짧은 경우, 대응하는 포인트들 간에 얼라인이 잘된다고 판단할 수 있다.
또는, 3차원 데이터 획득 장치(200)는, 라인 패턴 광을 이용하여 획득되는 제1 포인트 클라우드(601)의 신뢰도에 기초하여, 제1 포인트 클라우드(601)의 신뢰도가 높을 경우 높은 가중치를 부여하고, 제1 포인트 클라우드(601)의 신뢰도가 낮을 경우 상대적으로 낮은 가중치를 부여할 수 있다. 예를 들어, 라인 패턴 광이 조사된 대상체의 표면으로부터 획득된 복수의 2차원 영상들 내에서 선(line) 간의 명암 대비가 뚜렷한 경우(즉, 선 영역과 다른 영역의 밝기 차이가 임계 값 이상인 경우), 3차원 데이터 획득 장치(200)는 복수의 2차원 영상들로부터 획득된 포인트 클라우드의 신뢰도가 높다고 판단할 수 있다.
도 7은 일 실시 예에 따라 획득되는 3차원 데이터의 예를 도시한다.
일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 3차원 스캐너(100)로부터 획득된 제1 데이터 및 제2 데이터를 결합함으로써 3차원 데이터를 획득할 수 있다. 일 실시 예에 따른 3차원 데이터 획득 장치(200)의 디스플레이(320)는, 3차원 데이터로부터 생성된 대상체의 3차원 영상(703)을 디스플레이 할 수 있다. 도 7에 도시된 바와 같이, 3차원 데이터는, 3차원 공간 상에 배치된 복수의 포인트들을 포함하는 포인트 클라우드 데이터일 수 있다.
도 8은 일 실시 예에 따라 획득되는 3차원 데이터의 예를 도시한다.
일 실시 예에 따른 3차원 데이터 획득 장치(200)의 디스플레이(320)는, 3차원 데이터로부터 생성된 대상체의 3차원 영상(803)을 디스플레이 할 수 있다. 3차원 데이터는, 대상체의 형상 정보뿐만 아니라 색상 정보도 포함할 수 있다. 3차원 데이터 획득 장치(200)는, 포인트 클라우드 데이터를 폴리곤 메쉬 형태로 변환하거나, 복수의 포인트들에 대한 보간(interpolation)을 적용함으로써, 3차원 영상(803)을 생성할 수 있다.
일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 금속 영역을 포함하는 대상체에 대한 정확한 3차원 데이터를 획득하기 위하여, 제1 모드 및 제2 모드 각각에서 서로 다른 3차원 스캔 방식을 이용하여 제1 데이터 및 제2 데이터를 획득할 수 있다. 3차원 스캔이란, 카메라를 이용하여 대상체를 촬영함으로써 획득된 2차원 영상 데이터와 기하학적 정보(예를 들어, 캘리브레이션 데이터 등)를 이용하여, 일련의 3차원 포인트 클라우드를 획득하는 것을 의미할 수 있다. 따라서, 서로 다른 3차원 스캔 방식들이란, 대상체에 조사되는 패턴 광과 관련된 파라미터, 대상체로부터 2차원 영상을 획득하는 방식, 또는, 2차원 영상 데이터로부터 3차원 포인트 클라우드를 획득하는 방식 중 적어도 하나가 상이한 3차원 스캔 방식들을 의미할 수 있다. 예를 들어, 도 4를 참조하여 상술한 바와 같이, 3차원 데이터 획득 장치(200)는, 서로 다른 타입의 패턴 광들을 조사하여 대상체로부터 제1 데이터 및 제2 데이터를 획득하고, 제1 데이터 및 제2 데이터에 기초하여 금속 영역이 포함된 대상체에 관한 3차원 데이터를 획득할 수 있다.
다른 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 대상체로부터 획득된 3차원 포인트 클라우드에 서로 다른 후-처리 방식을 적용함으로써 제1 데이터 및 제2 데이터를 획득할 수 있다. 3차원 데이터 획득 장치(200)는, 서로 다른 후-처리 방식이 적용된 제1 데이터 및 제2 데이터를 이용함으로써, 금속 영역을 포함하는 대상체에 대해서도 정확한 3차원 데이터를 획득할 수 있다. 후-처리란, 대상체로부터 획득된 포인트 클라우드 및 기타 정보를 이용하여, 포인트 클라우드를 변형(예를 들어, 새로운 포인트의 추가 혹은 삭제)하거나, 새로운 3차원 정보(예를 들어, 포인트 클라우드에 포함되는 포인트들 간의 연결 관계에 기초하여 생성되는 메쉬 데이터, 또는 포인트 클라우드의 곡률 혹은 신뢰도 등)를 생성하는 것을 의미한다. 따라서, 서로 다른 후-처리 방식들이란, 대상체로부터 획득된 3차원 포인트 클라우드를 변형하는 방식 또는 새로운 3차원 정보를 생성하는 방식 중 적어도 하나가 상이한 후-처리 방식들을 의미할 수 있다.
이하에서는, 3차원 데이터 획득 장치(200)가, 서로 다른 동작 모드들(예를 들어, 서로 다른 3차원 스캔 방식들을 이용하는 동작 모드들 또는 서로 다른 후-처리 방식들을 이용하는 동작 모드들)에서 획득된 제1 데이터 및 제2 데이터에 기초하여, 금속 영역이 포함된 대상체에 관한 3차원 데이터를 획득하는 구체적인 방법을 설명한다.
일 실시 예에 따르면 3차원 데이터 획득 장치(200)는, 대상체 상에 금속 영역이 감지되면 동작 모드를 자동으로 변경하는 동작 옵션을 선택하는 사용자 입력을 수신할 수 있다. 사용자 입력에 기초하여, 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 대상체를 스캔하다가, 대상체 상에 금속 영역이 감지되면 금속 스캔 모드로 동작 모드를 전환하여 동작할 수 있다.
도 9는 일 실시 예에 따른 3차원 데이터 획득 장치가 3차원 데이터를 획득하는 방법의 흐름도를 도시한다.
단계 S910에서 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 3차원 스캐너에 의해 대상체를 스캔함으로써 제1 데이터를 획득하도록 제1 모드에서 동작할 수 있다. 일 실시 예에 따르면 제1 모드는, 치아 및 치은과 같은 비금속 영역을 스캔하기 적합하도록, 스캔 파라미터, 대상체로부터 2차원 데이터를 획득하는 스캔 방식, 및/또는 대상체로부터 획득된 데이터에 대한 후-처리(post-processing) 방식이 설정된 동작 모드를 의미할 수 있다.
단계 S920에서 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 대상체 상에 금속 영역이 감지되면, 동작 모드를 제1 모드에서 제2 모드로 변경할 수 있다.
3차원 데이터 획득 장치(200)는, 3차원 스캐너에 의해 획득된 데이터를 인공 지능 모델을 이용하여 분석함으로써, 대상체 상에 금속 영역의 존재를 감지할 수 있다. 예를 들어, 3차원 데이터 획득 장치(200)는, 대상체로부터 획득된 제1데이터를 입력으로서 인공 지능 모델에 적용하여, 스캔하고 있는 대상체의 영역이 금속 영역인지 여부를 판단할 수 있다. 금속 영역 판단에 이용되는 인공 지능 모델은, 대상체의 금속 영역 및 비금속 영역으로부터 획득된 많은 양의 스캔 데이터를 학습(train)한 인공 지능 모델일 수 있다. 인공 지능 모델 학습에 이용되는 대상체는, 3차원 데이터 획득 장치(200)가 스캔하고 있는 대상체와는 별개의 대상체일 수 있다.
3차원 데이터 획득 장치(200)는, 대상체 상에 금속 영역이 포함된다고 판단되면, 동작 모드를 제1 모드에서 제2 모드로 변경할 수 있다.
일 실시 예에 따른 3차원 스캐너(100)는 대상체를 스캔함에 있어서, 대상체에 대한 형상 정보와 더불어 색상 정보를 획득하기 위하여, 적색 광, 녹색 광, 및 청색 광 중 적어도 하나를 대상체에게 조사할 수 있다. 일 실시 예에 따른 3차원 스캐너(100)는, 대상체에 대한 색상 정보를 획득하기 위하여, 적색 광, 녹색 광, 및 청색 광을 각각 순차적으로 대상체에게 조사할 수 있다. 예를 들어, 색상 정보를 획득하기 위하여 대상체에게 조사되는 적색 광, 녹색 광, 또는 청색 광은, 소정 도형, 선, 및/또는 점 형태의 복수의 광들로 이루어진 패턴 광을 포함할 수 있다. 그러나 본 개시는, 대상체에 대한 색상 정보를 획득하기 위해 패턴 광을 대상체에게 조사하는 예에 제한되지 않으며, 패턴이 없는 적색 광, 녹색 광, 및 청색 광 중 적어도 하나가 대상체에게 조사될 수 있다.
일 실시 예에 따르면 3차원 데이터 획득 장치(200)는, 적색 광, 녹색 광 및 청색 광 각각에 기초하여 획득된 R 프레임, G 프레임, 및 B 프레임의 세기(intensity)를 결합하여 생성된 컬러 이미지를 분석할 수 있다. 3차원 데이터 획득 장치(200)는, 생성된 컬러 이미지를 분석함으로써, 대상체 상에 금속 영역의 존재를 감지하고, 금속 영역을 스캔하고 있는 지 여부를 판단할 수 있다.
예를 들어, 일 실시 예에 따르면 3차원 데이터 획득 장치(200)는, 대상체를 스캔하여 획득한 컬러 이미지를 분석하여, 컬러 이미지 내에 소정 비율 이상의 영역이 금속 영역으로 판단되는 경우, 금속 영역을 스캔하고 있는 것으로 판단할 수 있다. 예를 들어, 3차원 데이터 획득 장치(200)는, 컬러 이미지 내의 전체 픽셀들 중 40% 이상의 픽셀이 금속 영역에 대응하는 픽셀로 판단되는 경우, 금속 영역을 스캔하고 있는 것으로 판단할 수 있다. 그러나 본 개시는, 구체적인 수치에 제한되지 않으며, 다양한 구현 예에 따라 금속 영역을 판단하는 기준 값이 상이하게 적용될 수 있다. 3차원 데이터 획득 장치(200)는, 대상체의 금속 영역을 스캔하고 있는 것으로 판단한 결과에 기초하여, 동작 모드를 제1 모드에서 제2 모드로 변경할 수 있다.
단계 S930에서 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 3차원 스캐너에 의해 대상체를 스캔함으로써 제2 데이터를 획득하도록 제2 모드에서 동작할 수 있다. 일 실시 예에 따르면 제2 모드는, 금속 영역을 스캔하기 적합하도록, 스캔 파라미터, 스캔 방식, 및/또는 후-처리 방식이 설정된 동작 모드를 의미할 수 있다.
예를 들어, 제1 모드 및 제2 모드는, 서로 다른 3차원 스캔 방식들을 이용하는 동작 모드들이거나, 서로 다른 후-처리 방식들을 이용하는 동작 모드들을 의미할 수 있다.
일 실시 예에 따르면, 3차원 데이터 획득 장치(200)는, 제1 모드 및 제2 모드에서 서로 다른 3차원 스캔 방식을 이용하여 제1 데이터 및 제2 데이터를 획득할 수 있다.
일 실시 예에 따르면, 3차원 데이터 획득 장치(200)는, 단계 S910에서 제1 타입의 패턴광이 조사된 대상체의 표면에 대한 제1 데이터를 획득하고, 단계 S930에서 제2 타입의 패턴광이 조사된 대상체의 표면에 대한 제2 데이터를 획득할 수 있다. 예를 들어, 제1 타입의 패턴 광은, 라인 패턴 광을 포함하고, 제2 타입의 패턴 광은, 포인트 패턴 광을 포함할 수 있다.
일 실시 예에 따르면 3차원 데이터 획득 장치(200)는, 서로 다른 후-처리 방식을 이용하여 제1 데이터 및 제2 데이터를 획득할 수 있다.
일 실시 예에 따르면 3차원 데이터 획득 장치(200)는, 단계 S910에서 일반적인 삼각화 방식을 이용하여 대상체에 대한 제1 포인트 클라우드로부터 제1 메쉬 데이터를 획득할 수 있다. 3차원 데이터 획득 장치(200)는, 제1 모드에서, 대상체의 표면에 대한 제1 포인트 클라우드를 획득하고, 제1 포인트 클라우드 내의 인접한 포인트들을 연결함으로써 제1 메쉬 데이터를 제1 데이터로서 획득할 수 있다.
반면에, 단계 S930에서 3차원 데이터 획득 장치(200)는, 들로네 삼각화(Delaunay Triangulation) 방식을 이용하여 대상체에 대한 제2 포인트 클라우드로부터 제2 메쉬 데이터를 획득할 수 있다. 3차원 데이터 획득 장치(200)는, 제2 모드에서, 대상체의 표면에 대한 제2 포인트 클라우드를 획득하고, 들로네 삼각화를 이용하여 제2 포인트 클라우드 내의 포인트들을 연결함으로써 제2 메쉬 데이터를 제2 데이터로서 획득할 수 있다.
일 예로서, 3차원 데이터 획득 장치(200)는, 제2 메쉬 데이터를 획득하기 위해서, 제2 포인트 클라우드 전체에 대해 들로네 삼각화를 적용할 수 있다.
다른 예로서, 3차원 데이터 획득 장치(200)는, 제2 포인트 클라우드 내에서 금속 영역에 대응하는 포인트들을 식별하고, 식별된 포인트들에 대해서만 들로네 삼각화를 적용하고, 식별되지 않은 포인트들에 대해서는 인접한 포인트들을 연결하는 일반적인 삼각화를 적용함으로써 제2 메쉬 데이터를 획득할 수 있다.
일 실시 예에 따르면 3차원 데이터 획득 장치(200)는, 단계 S930에서 들로네 삼각화를 이용하여 획득된 제2 메쉬 데이터 내에서 소정 거리 이상의 두 포인트들을 연결한 엣지 및/또는 이를 포함하는 메쉬를 삭제하는 필터링을 추가적으로 수행할 수 있다.
또한 본 개시의 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 단계 S910에서 대상체의 표면에 대한 제1 포인트 클라우드를 획득하고, 제1 포인트 클라우드 내의 포인트들을 연결함으로써 제1 메쉬 데이터를 획득하고, 제1 메쉬 데이터 내에서 제1 소정 값 이하의 개수의 삼각형들로 이루어지는 그룹을 삭제하는, 필터링을 수행할 수 있다. 3차원 데이터 획득 장치(200)는, 필터링이 수행된 제1 메쉬 데이터를 포함하는 제1 데이터를 획득할 수 있다.
반면에, 단계 S930에서, 3차원 데이터 획득 장치(200)는, 대상체의 표면에 대한 제2 포인트 클라우드를 획득하고, 제2 포인트 클라우드 내의 포인트들을 연결함으로써 제2 메쉬 데이터를 획득하고, 제2 메쉬 데이터 내에서 제2 소정 값 이하의 개수의 삼각형들로 이루어지는 그룹을 삭제하는, 필터링을 수행할 수 있다. 3차원 데이터 획득 장치(200)는, 필터링이 수행된 제2 메쉬 데이터를 포함하는 제2 데이터를 획득할 수 있다. 이 때, 제2 모드에서 필터링을 위해 이용되는 제2소정값은, 제1 모드에서 필터링을 위해 이용되는 제1소정값보다 작을 수 있다.
즉, 제1 모드에서 필터링에 의해 제거되는 삼각형 그룹도, 제2 모드에서는 제거되지 않을 수 있다. 따라서, 3차원 데이터 획득 장치(200)가 제1 모드에서 동작할 때와 비교하여, 제2 모드에서는 필터링에 의해 삭제되는 데이터의 양이 감소될 수 있다. 그 결과, 금속 영역에 관한 보다 많은 정보가, 삭제 되지 않고 보존될 수 있다.
단계 S940에서 일 실시 예에 따르면 3차원 데이터 획득 장치(200)는, 제1 모드에서 획득된 제1 데이터 및 제2 모드에서 획득된 제2 데이터에 기초하여, 대상체에 대한 3차원 데이터를 획득할 수 있다. 3차원 데이터 획득 장치(200)는, 제1 모드 및 제2 모드 각각에서 획득된 데이터를 위치 정렬함으로써, 비금속 영역과 금속 영역이 혼재된 대상체에 대한 3차원 데이터를 획득할 수 있다.
도 10은 일 실시 예에 따라 3차원 데이터 획득 장치가 디스플레이 하는 사용자 인터페이스의 예를 도시한다.
도 10은, 일 실시 예에 따른 3차원 데이터 획득 장치(200)가 디스플레이 하는 화면(1001)의 예를 도시한다. 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 3차원 스캐너(100)로 대상체를 스캔함으로써 3차원 데이터를 획득하고, 획득된 3차원 데이터에 기초하여 생성된 3차원 영상(1007)을 디스플레이 할 수 있다.
3차원 데이터 획득 장치(200)가 디스플레이 하는 화면(1001)은, 대상체를 스캔함으로써 획득된 2차원 이미지(1003) 및 대상체를 스캔함으로써 획득된 복수의 2차원 이미지들을 재구성하여 획득된 3차원 데이터를 렌더링한 3차원 영상(1007)을 포함할 수 있다.
3차원 스캐너(100)는, 일정한 시간 간격(예를 들어, 수 ms~수십 ms)으로 대상체를 스캔함으로써 복수의 2차원 프레임들을 획득할 수 있다. 3차원 데이터 획득 장치(200)는, 복수의 2차원 프레임들로부터 복수의 3차원 프레임들을 획득할 수 있다. 3차원 데이터 획득 장치(200)는, 복수의 3차원 프레임들을 결합 또는 위치 정렬함으로써 대상체 전체에 대한 3차원 데이터를 재구성할 수 있다. 3차원 데이터 획득 장치(200)는, 대상체 상에서 3차원 스캐너(100)에 의해 현재 스캔되고 있는 영역(1009)을 화면(1001) 상에 표시할 수 있다.
또한, 3차원 데이터 획득 장치(200)는, 대상체의 스캔과 관련된 설정 정보 및/또는 대상체 스캔에 의해 획득된 3차원 데이터의 처리와 관련된 설정 정보를 디스플레이 하고, 설정 정보를 변경하는 사용자 입력을 수신할 수 있도록 하는 메뉴 바를 화면(1001) 상에 표시할 수 있다. 도 10을 참조하면, 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 금속 영역 스캔과 관련된 동작 옵션을 선택하는 사용자 입력을 수신하기 위한 사용자 인터페이스(1005)를 화면(1001) 상에 제공할 수 있다.
사용자 인터페이스(1005)는, 금속 영역 스캔과 관련된 동작 옵션이 on 되었는지, off되었는 지 여부를 표시할 수 있다. 금속 영역 스캔과 관련된 동작 옵션이 on되는 경우, 일 실시 예에 따른 3차원 데이터 획득 장치(200)는 대상체 상에 금속 영역이 감지되면 동작 모드를 제1 모드에서 제2 모드로 자동으로 변경할 수 있다. 반면에, 금속 영역 스캔과 관련된 동작 옵션이 off되는 경우, 일 실시 예에 따른 3차원 데이터 획득 장치(200)는 대상체 상에 금속 영역이 감지되는지 여부를 판단하지 않고, 대상체 상의 금속 영역을 스캔하는 경우에도 동작 모드 변경 없이 항상 제1 모드에서 동작할 수 있다.
도 11은 일 실시 예에 따라 3차원 데이터 획득 장치가 제1 모드 및 제2 모드로 대상체를 스캔하여 획득되는 3차원 데이터의 예를 도시한다.
도 11에 도시된 바와 같이, 3차원 데이터 획득 장치(200)가 제1 모드에서 동작하여 3차원 데이터(1110)를 획득하는 경우, 대상체의 금속 영역에 대응되는 부분(1115)에는 3차원 데이터의 누락이 많이 발생할 수 있다. 이는, 금속 영역에 조사된 패턴 광은 대부분이 반사되기 때문에, 3차원 스캐너(100)가 금속 영역을 촬영하여 획득할 수 있는 3차원 형상 정보의 양이, 비금속 영역을 촬영하였을 때 획득되는 정보의 양보다 상대적으로 적기 때문이다.
따라서, 일 실시 예에 따르면 3차원 데이터 획득 장치(200)는, 금속 영역을 스캔하는 경우, 금속 영역에 대한 3차원 데이터를 획득하기 적합하도록 구성된(즉, 패턴 광이 조사된 금속 영역의 표면 정보를 손실 없이 최대한 많이 확보할 수 있도록 구성된) 제2 모드에서 동작하도록 동작 모드를 변경할 수 있다. 도 11에 도시된 바와 같이, 3차원 데이터 획득 장치(200)가 제2 모드에서 3차원 데이터(1130)를 획득하는 경우, 대상체의 금속 영역에 대응되는 부분(1135)에 대해서도 온전한 데이터를 획득할 수 있다.
이하에서는, 일 실시 예에 따른 3차원 데이터 획득 장치(200)가, 금속 영역에 대한 3차원 데이터를 획득하기 위하여, 제2 모드에서 동작하는 구체적인 방법을 설명한다.
일 실시 예에 따르면 3차원 데이터 획득 장치(200)는, 스캔하는 대상체 상에 금속 영역이 감지되면, 대상체 상에 조사되는 패턴광을 변경함으로써 동작 모드를 변경할 수 있다.
예를 들어, 3차원 데이터 획득 장치(200)는, 제1 모드에서 라인 패턴광을 이용하여 대상체를 스캔하고, 제2 모드에서 포인트 패턴 광을 이용할 수 있다. 라인 패턴 광을 이용하는 방식에 비해, 포인트 패턴 광을 이용하는 방식이 빛 반사에 강인하므로, 금속으로 이루어진 영역에 대한 데이터 획득에 유리할 수 있다. 다만, 본 개시는 포인트 패턴 광에 제한되지 않으며, 금속 영역 스캔에 적합하게 설계된 다양한 패턴 광이 이용될 수 있다.
또한, 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 복수의 2차원 영상들로부터 대상체 표면의 3차원 형상 정보를 획득함에 있어서, 제2 모드에서 스테레오 매칭(Stereo Matching) 방식을 이용할 수 있다. 스테레오 매칭 방식에는, 예를 들어, 블록 매칭(Block Matching), 그래프 컷(Graph Cut), 또는 세미-글로벌 매칭(Semi-Global Matching) 등이 포함될 수 있다.
또한, 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 대상체로부터 3차원 포인트 클라우드 데이터를 획득한 이 후의 처리 방법인, 후-처리(post processing) 방식을 변경함으로써 동작 모드를 변경할 수 있다. 즉, 3차원 데이터 획득 장치(200)는, 제1 모드 및 제2 모드 각각에서 서로 다른 방식으로 후-처리를 수행할 수 있다.
일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 포인트 클라우드에 포함되는 포인트들을 연결하여 삼각 망을 구성하는 삼각화 방식을 이용하여 3차원 폴리곤 메쉬 데이터를 생성할 수 있다.
일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 포인트 클라우드로부터 메쉬 데이터를 생성하기 위해 다양한 방법을 사용할 수 있다.
일 예로서, 3차원 데이터 획득 장치(200)는, 대상체를 스캔하여 획득된 2차원 영상 데이터를 이용하여 3차원 포인트 클라우드를 생성하고, 2차원 영상 데이터의 각 픽셀 간 연결 관계를 이용하여 3차원 포인트 클라우드로부터 메쉬 데이터를 생성할 수 있다. 3차원 데이터 획득 장치(200)는, 2차원 영상 데이터를 구성하는 픽셀들 중에서 인접한 픽셀들 간의 연결 관계를 이용하여 메쉬 데이터를 생성할 수 있다.
다른 예로서, 3차원 데이터 획득 장치(200)는, 3차원 포인트 클라우드를 이용하여 메쉬 데이터를 생성할 수 있다. 예를 들어, 3차원 데이터 획득 장치(200)는, 마칭 큐브(Marching Cubes)나 들로네 삼각화(Delaunay Triangulation) 등의 방법을 사용하여 3차원 포인트 클라우드로부터 메쉬 데이터를 생성할 수 있다. 들로네 삼각화란, 포인트들을 삼각형의 형태로 연결함에 있어서, 삼각형들의 내각의 최소값이 최대가 되도록 연결하는 방식을 의미할 수 있다.
일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 동일한 포인트 클라우드로부터 메쉬 데이터들을 생성하더라도, 삼각화 방식 및 입력 인자에 따라 서로 다른 형태의 메쉬 데이터들을 생성할 수 있다.
일 실시 예에 따른 3차원 데이터 획득 장치(200)가, 3차원 스캔에 의해 복수의 정점들로 구성된 포인트 클라우드를 생성함에 있어서, 스캔 시 사용한 카메라 및/또는 광학계의 해상도에 따라서 인접한 정점들 간의 물리적인 최소 거리가 정해질 수 있다. 하지만, 대상체의 재질, 대상체의 형상, 대상체와 3차원 스캐너 간의 기하적인 조건, 또는 대상체를 비추는 조명 조건 등으로 인해, 대상체의 적어도 일부에 대한 3차원 데이터를 획득하지 못하는 경우가 발생할 수 있다.
대상체의 적어도 일부에 대한 3차원 데이터가 획득되지 않은 경우, 한 번의 스캔에 의해 획득한 3차원 데이터는, 인접한 정점들 간의 거리가 일정 기준 이상인 정점들을 포함할 수 있다. 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 기준 거리 이상 이격된 정점들이 연결되는 경우, 해당 연결을 적합하지 않은 연결로 판단하여 해당 연결 관계를 제거할 수 있다. 그 결과, 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 기준 거리 미만으로 이격된 정점들 만을 연결하여 구성된 삼각망을 포함하는 메쉬 데이터를 획득할 수 있다.
또한, 3차원 데이터 획득 장치(200)는, 메쉬 데이터 내에서 서로 인접한 삼각형들을 적어도 하나의 그룹으로 그룹화할 수 있다. 3차원 데이터 획득 장치(200)는, 각 그룹 별로, 그룹을 구성하는 삼각형의 수를 식별할 수 있다. 3차원 데이터 획득 장치(200)는, 그룹을 구성하는 삼각형의 수가 소정 값 이하인 경우, 해당 그룹을 스캔 과정에서 발생한 노이즈로 간주하여 필터링함으로써 해당 그룹을 메쉬 데이터로부터 제거할 수 있다.
도 12는 일 실시 예에 따라 3차원 데이터 획득 장치가 일반 영역을 스캔하여 획득되는 메쉬 데이터 및 메탈 영역을 스캔하여 획득되는 메쉬 데이터의 예를 도시한다.
일 실시 예에 따르면, 3차원 데이터 획득 장치(200)는, 대상체의 비금속 영역으로부터 획득된 메쉬 데이터(1210)에 대해서, 소정 값 이하의 개수의 삼각형들로 이루어진 그룹을 제거하는 필터링을 수행할 수 있다. 예를 들어, 3차원 데이터 획득 장치(200)는, 3개 이하의 삼각형들로 이루어진 그룹을 노이즈라고 간주할 수 있다. 도 12에 도시된 예를 참조하면, 3차원 데이터 획득 장치(200)는, 메쉬 데이터(1210)로부터 1개의 삼각형을 포함하는 삼각형 그룹(1211)을 삭제할 수 있다.
또한, 도 12에는 대상체의 금속 영역으로부터 획득된 메쉬 데이터(1230)가 도시 된다. 도 12의 메쉬 데이터(1230)에 도시된 바와 같이, 금속 영역에 대해서는 스캔에 의해 획득된 데이터가 부족하므로, 삼각형 그룹들(1231, 1233, 1235)이 듬성 듬성하게 포함된 메쉬 데이터(1230)가 생성될 수 있다. 일 실시 예에 따르면, 3차원 데이터 획득 장치(200)는, 대상체의 금속 영역으로부터 획득된 메쉬 데이터(120)에 대해서, 소정 값 이하의 개수의 삼각형들로 이루어진 그룹을 제거하는 필터링을 수행할 수 있다. 예를 들어, 3차원 데이터 획득 장치(200)는, 3개 이하의 삼각형들로 이루어진 그룹을 노이즈라고 간주할 수 있다. 3차원 데이터 획득 장치(200)가 메쉬 데이터(1230)에 대해 필터링을 수행하는 경우, 듬성 듬성하게 포함된 삼각형 그룹들(1231, 1233, 1235) 이 메쉬 데이터(1230)로부터 삭제될 수 있다. 3차원 데이터 획득 장치(200)가 메쉬 데이터(1230)로부터 삼각형 그룹들(1231, 1233, 1235)을 모두 노이즈로 간주하여 삭제할 경우, 데이터가 크게 손실될 수 있다.
따라서, 본 개시의 일 실시 예에 따르면, 3차원 데이터 획득 장치(200)는, 데이터의 손실을 줄이기 위하여, 필터링의 기준이 되는 기준 값을 변경함으로써 동작 모드를 제2 모드로 변경할 수 있다. 예를 들어, 3차원 데이터 획득 장치(200)는, 제1 모드에서 a개 이하의 삼각형들로 이루어진 그룹을 삭제하도록 설정되고, 금속 영역이 감지되어 동작 모드가 변경되는 경우, 제2 모드에서 b개 이상의 삼각형들로 이루어진 그룹을 삭제하도록 설정될 수 있다. 이 때, a, b는 자연수이고, b는 a보다 작은 수일 수 있다.
예를 들어, 3차원 데이터 획득 장치(200)는, 제1 모드에서 동작하는 경우, b개보다 많고 a개보다 적은 수의 삼각형들을 포함하는 그룹을 데이터에서 삭제할 수 있다. 반면에, 3차원 데이터 획득 장치(200)는, 제2 모드에서 동작하는 경우, b개보다 많고 a개보다 적은 수의 삼각형들을 포함하는 그룹을 데이터에서 삭제하지 않는다. 따라서, 3차원 데이터 획득 장치(200)는, 제1 모드에서 동작할 때와 비교하여, 제2 모드에서 동작하는 경우, 금속 영역의 표면 정보를 손실 없이 최대한 많이 확보할 수 있다.
한편, 본 개시의 일 실시 예에 따르면, 3차원 데이터 획득 장치(200)는, 데이터의 손실을 줄이기 위하여, 제1 모드에서는 일반적인 삼각화 방식을 수행하고, 제2 모드에서는 들로네 삼각화 방식을 이용하여 메쉬 데이터를 생성할 수 있다. 3차원 데이터 획득 장치(200)는, 들로네 삼각화 방식을 이용할 경우, 포인트들이 멀리 떨어져 있어도 서로 연결하여 메쉬를 구성할 수 있다. 따라서, 들로네 삼각화 방식에 의해 획득된 메쉬 데이터에는, 기준 값 이하의 삼각형들로 이루어진 그룹이 포함되기 어려우므로, 필터링에 의해 데이터가 삭제되지 않을 수 있다.
도 13은 일 실시 예에 따라 3차원 데이터 획득 장치가 수행하는 들로네 삼각화를 설명하는 도면이다.
일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 패턴광이 조사된 대상체를 촬영함으로써 복수의 2차원 영상들을 획득하고, 복수의 2차원 영상들 및 패턴광에 대한 정보에 기초하여 대상체의 표면의 형상 정보를 포함하는 포인트 클라우드(1310)를 획득할 수 있다. 3차원 데이터 획득 장치(200)는, 포인트 클라우드(1310)에 포함되는 포인트들을 연결함으로써 메쉬 데이터(1320)를 생성할 수 있다. 이 때, 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 포인트 클라우드(1310)로부터 메쉬 데이터(1320)를 생성함에 있어서, 제2 모드에서 들로네 삼각화 방식을 이용할 수 있다.
도 13에 도시된 바와 같이, 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 들로네 삼각화 방식을 이용함으로써, 금속 영역으로부터 적은 양의 포인트 정보가 획득되는 경우에도, 데이터 손실을 최소화하면서 메쉬 데이터를 생성할 수 있다.
다만, 노이즈 데이터는, 일반적으로 스캔하고자 하는 피대상체 데이터로부터 떨어져 존재한다. 그러므로, 들로네 삼각화 방식에 의하면, 노이즈로서 획득된 포인트까지도 메쉬로 연결되기 때문에, 소정 값 이하의 개수의 삼각형들로 구성된 그룹을 제거하는 필터링에 의해 노이즈가 필터링 되지 않는다. 따라서, 이를 방지하기 위해, 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 들로네 삼각화 방식을 이용하여 메쉬 데이터를 생성할 때, 일정 길이 이상의 엣지 및/또는 이를 포함하는 메쉬는 삭제하도록 구성될 수 있다.
도 14는 일 실시 예에 따라 3차원 데이터 획득 장치가 메쉬 데이터에 수행하는 필터링의 예를 도시한다.
도 14는, 일 실시 예에 따른 3차원 데이터 획득 장치(200)가, 제2 모드로 동작하여 획득한 초기 메쉬 데이터(1410) 및 필터링을 수행한 메쉬 데이터(1430)를 도시한다. 도 14에 도시된 바와 같이, 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 초기 메쉬 데이터(1410) 내에서 일정 길이 이상의 엣지 및/또는 이를 포함하는 메쉬들을 삭제하여 필터링된 메쉬 데이터(1430)를 획득할 수 있다. 도 14에서 일정 길이 이상의 엣지들은 점선으로 표시된다.
3차원 데이터 획득 장치(200)는, 일정 길이 이상의 엣지 및/또는 이를 포함하는 메쉬들이 제거된 필터링된 메쉬 데이터(1430)에 대해 소정 값 이하의 개수의 삼각형을 포함하는 그룹을 제거하는 필터링을 추가적으로 수행할 수 있다. 3차원 데이터 획득 장치(200)는, 필터링에 의해 삼각형 그룹들(1431, 1433)을 삭제함으로써, 도 15에 도시된 최종 메쉬 데이터(1510)를 획득할 수 있다.
일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 제1 모드로 획득된 데이터와 제2 모드로 획득된 데이터를 위치 정렬함으로써, 비금속 영역과 금속 영역이 혼재된 대상체의 3차원 형상을 정확하게 표현하는 3차원 데이터를 획득할 수 있다.
일 실시 예에 따르면, 3차원 데이터 획득 장치(200)는, 제2 모드에서, 3차원 데이터 전체에 대해, 금속 영역을 스캔하기 적합하도록 설정된 후-처리 방식을 적용할 수 있다. 예를 들어, 3차원 데이터 획득 장치(200)는, 제2 모드로 동작하는 경우, 3차원 데이터 전체에 대해 들로네 삼각화를 적용하여 메쉬 데이터를 생성하거나, 3차원 데이터 전체에 대해서 변경된 기준 값을 이용하여 적은 숫자의 삼각형을 포함하는 그룹을 제거하는 필터링을 수행할 수 있다.
그러나 본 개시는 이에 제한되지 않으며, 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 3차원 데이터에서 금속 영역으로 식별된 부분에 대해서만, 제2 모드에 따른 후-처리를 수행할 수 있다. 일반적인 삼각화 방식에 비해 들로네 삼각화 방식은 더 많은 연산량이 요구된다. 또한, 낮은 기준 값을 이용하는 필터링 방식 역시, 제거되지 않고 보존되는 데이터 양을 증가시킴으로써 결과적으로 연산량을 증가시킬 수 있다. 따라서, 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 3차원 데이터에서 금속 영역으로 식별된 부분에 대해서만, 제2 모드에 따른 포스트 프로세싱을 수행함으로써, 연산량 증가를 줄일 수 있다.
도 16은 일 실시 예에 따른 3차원 데이터 획득 장치의 블록도를 도시한다.
도 16에 도시된 3차원 데이터 획득 장치(200)의 블록도는 상술한 3차원 데이터 획득 장치(200)의 일 예이다. 도 16에 도시된 3차원 데이터 획득 장치(200)는, 본 개시의 다양한 실시 예들에 따른 3차원 데이터 획득 방법을 수행할 수 있으며, 도 1 내지 도 15에 대한 설명이 적용될 수 있다. 따라서, 상술한 바와 중복되는 내용은 생략한다.
도 16에 도시된 바와 같이, 본 개시의 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 3차원 스캐너(100) 및 3차원 영상 디스플레이 장치(300)를 포함할 수 있다. 일 실시 예에 따른 3차원 데이터 획득 장치(200)는, 3차원 스캐너(100)를 이용하여 대상체를 스캔함으로써 대상체의 형상을 나타내는 3차원 데이터를 획득할 수 있다.
일 실시 예에 따른 3차원 스캐너(100)는, 대상체를 스캔한 2차원 영상 프레임 또는 2차원 영상 프레임으로부터 획득된 3차원 프레임을 3차원 영상 디스플레이 장치(300)에게 전송할 수 있다.
일 실시 예에 따른 3차원 영상 디스플레이 장치(300)는 3차원 스캐너(100)와 유선 또는 무선 통신 네트워크를 통하여 연결되며, 3차원 스캐너(100)로부터 대상체를 스캔하여 획득된 로우 데이터 또는 3차원 프레임을 수신할 수 있다.
3차원 영상 디스플레이 장치(300)는, 수신된 2차원 영상 프레임 또는 3차원 프레임에 기초하여, 대상체에 대한 3차원 영상을 생성, 처리, 디스플레이 및/또는 전송할 수 있는 모든 전자 장치가 될 수 있다. 본 개시의 다양한 실시 예들에 따른 3차원 영상 디스플레이 장치(300)는 고정형 단말이거나 이동형 단말일 수 있다. 3차원 영상 디스플레이 장치(300)는, 예를 들어, 스마트 폰(smart phone), 랩탑 컴퓨터, 데스크탑 컴퓨터, PDA, 태블릿 PC 등의 컴퓨팅 장치가 될 수 있으며, 이에 한정되지 않는다.
도 16을 참조하면, 3차원 영상 디스플레이 장치(300)는 프로세서(310), 디스플레이(320), 통신 인터페이스(330), 사용자 입력부(340), 및 메모리(350)를 포함할 수 있다.
일 실시 예에 따른 프로세서(310)는 적어도 하나의 인스트럭션을 수행하여, 의도하는 동작을 수행하도록 3차원 스캐너(100) 및 3차원 영상 디스플레이 장치(300)를 제어한다. 본 개시의 설명에서 3차원 데이터 획득 장치(200)가 수행하는 동작은, 3차원 영상 디스플레이 장치(300)에 의해 수행되거나, 3차원 스캐너(100) 또는 3차원 영상 디스플레이 장치(300)에 의해 수행되도록 프로세서(310)에 의해 제어되는 동작일 수 있다. 여기서, 적어도 하나의 인스트럭션은 프로세서(310) 내에 포함되는 내부 메모리(미도시) 또는 프로세서(310)와 별도로 3차원 영상 디스플레이 장치(300) 내에 포함되는 메모리(350)에 저장되어 있을 수 있다.
일 실시 예에 따른 프로세서(310)는 적어도 하나의 인스트럭션을 수행하여, 의도하는 동작을 수행하도록 3차원 데이터 획득 장치(200) 내부에 포함되는 적어도 하나의 구성들을 제어할 수 있다. 따라서, 프로세서(310)가 소정 동작을 수행하는 경우를 예로 들어 설명하더라도, 3차원 데이터 획득 장치(200) 에 포함하는 적어도 하나의 구성들이 소정 동작을 수행하도록 프로세서(310)가 적어도 하나의 구성들을 제어하는 것을 의미할 수 있다.
일 실시 예에 따른 프로세서(310)는 3차원 영상 디스플레이 장치(300)의 외부에서부터 입력되는 신호 또는 데이터를 저장하거나, 3차원 영상 디스플레이 장치(300)에서 수행되는 다양한 작업에 대응되는 저장 영역으로 사용되는 RAM(미도시), 3차원 영상 디스플레이 장치(300)의 제어를 위한 제어 프로그램 및/또는 복수개의 인스트럭션이 저장된 ROM(미도시) 및 적어도 하나의 인스트럭션을 실행하는 적어도 하나의 내부의 프로세서(미도시)를 포함할 수 있다.
또한, 프로세서(310)는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit, 미도시)를 포함할 수 있다. 또한, 프로세서(310)는 코어(core, 미도시)와 GPU(미도시)를 통합한 SoC(System On Chip)로 구현될 수 있다.
개시된 실시 예에서, 프로세서(310)는 3차원 스캐너(100)로부터 수신되는 데이터에 기초하여 대상체에 대한 3차원 데이터를 생성하고, 대상체에 대한 3차원 영상을 생성할 수 있다.
디스플레이(320)는 프로세서(310)에 제어에 따라서 소정 화면을 디스플레이 할 수 있다. 구체적으로, 디스플레이(320)는 3차원 스캐너(100) 가 대상체를 스캔하여 획득한 데이터에 기초하여 생성된 영상을 포함하는 사용자 인터페이스 화면을 디스플레이 할 수 있다. 또는, 디스플레이(320)는 대상체에 대한 진단 및 치료와 관련되는 정보를 포함하는 사용자 인터페이스 화면을 디스플레이 할 수 있다.
통신 인터페이스(330)는 적어도 하나의 외부 전자 장치(미도시)와 유선 또는 무선 통신 네트워크를 통하여 통신을 수행할 수 있다. 구체적으로, 통신 인터페이스(330)는 프로세서(310)의 제어에 따라서 3차원 스캐너(100)와 통신을 수행할 수 있다.
사용자 입력부(340)는 3차원 데이터 획득 장치(200)를 제어하기 위한 사용자 입력을 수신할 수 있다. 사용자 입력부(340)는 사용자의 터치를 감지하는 터치 패널, 사용자의 푸시 조작을 수신하는 버튼, 사용자 인터페이스 화면 상의 일 지점을 지칭 또는 선택하기 위한 마우스(mouse) 또는 키보드(key board) 등을 포함하는 사용자 입력 디바이스를 포함할 수 있으나 이에 제한되지 않는다.
또한, 사용자 입력부(340)는 음성 인식을 위한 음성 인식 장치(미도시)를 포함할 수 있다. 예를 들어, 음성 인식 장치(미도시)는 마이크가 될 수 있으며, 음성 인식 장치는 사용자의 음성 명령 또는 음성 요청을 수신할 수 있다. 그에 따라서, 프로세서(310)는 음성 명령 또는 음성 요청에 대응되는 동작이 수행되도록 제어할 수 있다.
일 실시 예에 따르면, 사용자 입력부(340)는, 대상체 상에 금속 영역이 감지되면 동작 모드를 제1 모드로부터 제2 모드로 자동으로 변경하는 동작 옵션을 선택하는 사용자 입력을 수신할 수 있다.
메모리(350)는 적어도 하나의 인스트럭션을 저장할 수 있다. 또한, 메모리(350)는 프로세서(310)가 실행하는 적어도 하나의 인스트럭션을 저장하고 있을 수 있다. 또한, 메모리(350)는 프로세서(310)가 실행하는 적어도 하나의 프로그램을 저장하고 있을 수 있다. 메모리(350)는 3차원 스캐너(100)로부터 수신되는 데이터(예를 들어, 대상체 스캔을 통하여 획득된 로우 데이터, 2차원 영상 데이터, 3차원 데이터 등)를 저장할 수 있다. 메모리(350)는 대상체를 3차원적으로 나타내는 대상체 영상을 저장할 수 있다.
본 개시의 일 실시 예에 따른 프로세서(310)는, 메모리(350)에 저장된 프로그램을 실행함으로써 3차원 데이터 획득 장치(200)의 전체적인 동작을 제어할 수 있다. 프로세서(310)는 대상체에 대한 3차원 데이터를 획득하기 위하여 3차원 데이터 획득 장치(200)에 포함되는 다른 구성들을 제어할 수 있다.
프로세서(310)가 3차원 데이터 획득 장치(200)의 전체적인 동작을 제어하여 3차원 데이터를 획득하는 구체적인 방법에 대해서는 도 4 또는 도 9에 대한 설명이 적용될 수 있고 중복되는 설명은 생략될 수 있다.
일 실시 예에 따르면 프로세서(310)는, 사용자 입력에 기초하여, 대상체 상에 금속 영역이 감지되면 동작 모드를 제1 모드로부터 제2 모드로 자동으로 변경하도록 동작할 수 있다.
일 실시 예에 따르면 프로세서(310)는, 3차원 스캐너(100)에 의해 대상체를 스캔함으로써 제1 데이터를 획득하도록 제1 모드에서 동작하고, 대상체 상에 금속 영역이 감지되면, 동작 모드를 제2 모드로 변경할 수 있다. 프로세서(310)는, 대상체를 스캔함으로써 제2 데이터를 획득하도록 제2 모드에서 동작하고, 제1 모드에서 획득된 제1 데이터 및 제2 모드에서 획득된 제2 데이터에 기초하여, 대상체에 대한 3차원 데이터를 획득할 수 있다.
예를 들어, 제1 모드 및 제2 모드는, 서로 다른 3차원 스캔 방식들을 이용하는 동작 모드들이거나, 서로 다른 후-처리 방식들을 이용하는 동작 모드들을 의미할 수 있다.
일 실시 예에 따르면, 프로세서(310)는, 제1 모드 및 제2 모드에서 서로 다른 3차원 스캔 방식을 이용하여 제1 데이터 및 제2 데이터를 획득할 수 있다.
일 실시 예에 따르면 프로세서(310)는, 제1 모드에서, 제1 타입의 패턴광이 조사된 대상체의 표면에 대한 제1 데이터를 획득할 수 있다. 예를 들어, 제1 타입의 패턴 광은, 라인 패턴 광을 포함할 수 있다. 일 실시 예에 따르면 프로세서(310)는, 제2 모드에서, 제2 타입의 패턴광이 조사된 대상체의 표면에 대한 제2 데이터를 획득할 수 있다. 예를 들어, 제2 타입의 패턴 광은, 포인트 패턴 광을 포함할 수 있다.
일 실시 예에 따른 프로세서(310)는, 대상체에 제1 타입의 패턴 광을 조사하여, 제1 타입의 패턴 광이 조사된 대상체의 표면에 대한 제1 데이터를 획득하도록 3차원 데이터 획득 장치(200)를 제어할 수 있다.
프로세서(310)는, 대상체에 제1 타입의 패턴 광을 조사하고, 제1 타입의 패턴 광이 조사된 대상체의 표면에 대해서 서로 다른 시점의 2차원 영상들을 획득하도록 3차원 스캐너(100)를 제어할 수 있다. 예를 들어, 제1 타입의 패턴 광은, 라인 패턴 광을 포함할 수 있다.
프로세서(310)는, 제1 타입의 패턴 광이 조사된 대상체의 표면에 대한 2차원 영상들 및 제1 타입의 패턴 광에 대한 정보에 기초하여, 대상체에 대한 제1 포인트 클라우드 데이터를 제1 데이터로서 획득할 수 있다. 예를 들어, 프로세서(310)는, 3차원 스캐너(100)의 제1 영상 센서가 스캔한 2차원 영상에 나타나는 대상체 상의 각 선이 제2 영상 센서가 스캔한 2차원 영상의 어느 선에 대응되는 지를 결정할 수 있다. 그리고, 프로세서(310)는, 조사된 라인 패턴 및 2차원 영상들에 보여지는 변형된 선에 기초하여, 2차원 영상들 간에 매칭되는 각 선을 이루는 점들의 3차원 좌표를 계산할 수 있다. 프로세서(310)는, 2차원 영상들에 포함되는 각 픽셀에 대한 3차원 좌표를 계산함으로써 제1 포인트 클라우드 데이터를 획득할 수 있다.
일 실시 예에 따른 프로세서(310) 는, 대상체에 제2 타입의 패턴 광을 조사하여, 제2 타입의 패턴 광이 조사된 대상체의 표면에 대한 제2 데이터를 획득하도록 3차원 데이터 획득 장치(200)를 제어할 수 있다.
프로세서(310)는, 대상체에 제2 타입의 패턴 광을 조사하고, 제2 타입의 패턴 광이 조사된 대상체의 표면에 대해서 서로 다른 시점의 2차원 영상들을 획득하도록 3차원 스캐너(100)를 제어할 수 있다. 예를 들어, 제2 타입의 패턴 광은, 포인트 패턴 광을 포함할 수 있다.
프로세서(310)는, 제2 타입의 패턴 광이 조사된 대상체의 표면에 대한 2차원 영상들 및 제2 타입의 패턴 광에 대한 정보에 기초하여, 대상체에 대한 제2 포인트 클라우드 데이터를 제2 데이터로서 획득할 수 있다. 예를 들어, 프로세서(310)는, 3차원 스캐너(100)의 제1 영상 센서가 스캔한 2차원 영상에 나타나는 대상체 표면의 각 포인트가 제2 영상 센서가 스캔한 2차원 영상의 어느 포인트에 대응되는 지를 결정할 수 있다. 그리고, 프로세서(310)는, 조사된 포인트 패턴 및 2차원 영상들에 보여지는 변형된 포인트 패턴에 기초하여, 2차원 영상들 간에 매칭되는 각 포인트의 3차원 좌표를 계산할 수 있다. 프로세서(310)는, 2차원 영상들에 포함되는 각 픽셀에 대한 3차원 좌표를 계산함으로써 제1 포인트 클라우드 데이터를 획득할 수 있다.
일 실시 예에 따르면, 3차원 스캐너(100)는, 제1 타입의 패턴 광 및 제2 타입의 패턴 광을 번갈아 가면서 조사하도록 구성될 수 있다. 프로세서(310)는 3차원 스캐너(100)를 이용하여, 제1 타입의 패턴 광을 이용하여 획득된 복수의 2차원 영상 프레임들에 기초하여 제1 데이터를 획득하고, 제2 타입의 패턴 광을 이용하여 획득된 복수의 2차원 영상 프레임들에 기초하여 제2 데이터를 획득할 수 있다.
예를 들어, 3차원 스캐너(100)는, 제2 타입의 패턴 광을 이용한 제2 데이터를 획득함에 있어서, 대상체에 대한 색상 정보를 획득하기 위하여, 적색 패턴 광, 녹색 패턴 광, 및 청색 패턴 광을 각각 순차적으로 대상체에게 조사함으로써, R 프레임, G 프레임, 및 B 프레임을 획득할 수 있다. 프로세서(310)는, R 프레임, G 프레임, 및 B 프레임에 기초하여 제2 데이터로서 제2 포인트 클라우드 데이터를 획득할 수 있다.
다른 일 실시 예에 따르면, 프로세서(310)는 3차원 스캐너(100)를 이용하여 제1 타입의 패턴 광이 조사된 대상체를 스캔하다가, 금속 영역이 감지되면 제2 타입의 패턴 광을 조사하도록 구성될 수 있다.
먼저, 프로세서(310)는 제1 타입의 패턴 광이 조사된 대상체에 대해서 연속적으로 프레임들을 스캔함으로써 제1 데이터를 획득하도록 3차원 스캐너(100)를 제어할 수 있다. 프로세서(310)는, 제1 타입의 패턴 광이 조사된 대상체로부터 획득된 복수의 2차원 영상 프레임들에 기초하여, 제1 데이터로서 제1 포인트 클라우드 데이터를 획득할 수 있다. 프로세서(310)는, 제1 타입의 패턴 광이 조사된 대상체의 표면에 대해서 획득된 서로 다른 시점의 2차원 영상들을 포함하는 프레임과 이웃하는 이웃 프레임 간의 밝기 값의 차이가 임계 값 이상으로 많이 나는 경우, 제1 타입의 패턴 광 대신에 제2 타입의 패턴 광을 조사할 것을 결정할 수 있다.
다른 일 실시 예에 따르면, 프로세서(310)는, 메모리(350)에 저장된 인공 지능 모델을 이용하여, 스캔하고 있는 대상체의 영역이 금속 영역인지 여부를 판단할 수 있다. 프로세서(310)는, 대상체로부터 획득된 2차원 영상 프레임 또는 3차원 프레임을 입력으로서 인공 지능 모델에 적용하여, 스캔하고 있는 대상체의 영역이 금속 영역인지 여부를 판단할 수 있다. 금속 영역 판단에 이용되는 인공 지능 모델은, 대상체의 금속 영역 및 비금속 영역으로부터 획득된 많은 양의 스캔 데이터를 학습(train)한 인공 지능 모델일 수 있다. 3차원 데이터 획득 장치(200)는, 대상체의 영역이 금속 영역이라고 판단되면, 제1 타입의 패턴 광 대신에 제2 타입의 패턴 광을 조사할 것을 결정할 수 있다.
다음으로, 프로세서(310)는, 제2 타입의 패턴 광이 조사된 대상체에 대해서 연속적으로 프레임들을 스캔함으로써 제2 데이터를 획득하도록 3차원 스캐너(100)를 제어할 수 있다. 프로세서(310)는, 제2 타입의 패턴 광이 조사된 대상체로부터 획득된 복수의 2차원 영상 프레임들에 기초하여, 제2 데이터로서 제2 포인트 클라우드 데이터를 획득할 수 있다.
일 실시 예에 따른 프로세서(310) 는, 제1 데이터 및 제2 데이터에 기초하여, 대상체에 대한 3차원 데이터를 획득할 수 있다.
일 실시 예에 따른 3차원 스캐너(100)가 제1 타입의 패턴 광 및 제2 타입의 패턴 광을 번갈아 가면서 조사하도록 구성되는 경우에 있어서, 3차원 스캐너(100)가 제1 타입의 패턴 광을 이용하여 획득한 제1 데이터는, 대상체의 제1 형상 정보를 포함할 수 있다. 그리고 3차원 스캐너(100)가 적색의 제2 타입의 패턴 광, 녹색의 제2 타입의 패턴 광 및 청색의 제2 타입의 패턴 광을 순차적으로 조사하여 획득한 제2 데이터는, 대상체의 제2 형상 정보 및 색상 정보를 포함할 수 있다. 프로세서(310)는, 제1 형상 정보, 제2 형상 정보 및 색상 정보에 기초하여 3차원 데이터를 획득할 수 있다.
일 실시 예에 따른 프로세서(310)는, 제1 데이터 및 제2 데이터의 가중치 합에 기초하여 3차원 데이터를 획득할 수 있다. 예를 들어, 제1 데이터, 제2 데이터, 및 3차원 데이터는, 포인트 클라우드 데이터이거나 폴리곤 메쉬 데이터일 수 있다.
일 실시 예에 따른 프로세서(310)는, 제1 데이터의 신뢰도에 기초하여, 신뢰도가 높은 대상체의 적어도 일부 영역에 대해서는 제1 데이터를 이용하고, 신뢰도가 낮은 대상체의 나머지 영역에 대해서는 제2 데이터를 이용함으로써, 3차원 데이터를 획득할 수 있다.
다른 일 실시 예에 따른 프로세서(310)는, 제1 데이터에 포함되는 복수의 제1 포인트들 및 제2 데이터에 포함되는 복수의 제2 포인트들 간의 중첩 포인트들을 결정할 수 있다. 프로세서(310)는, 중첩 포인트들에 대한 평균값을 이용하여 3차원 데이터를 획득할 수 있다.
한편, 다른 일 실시 예에 따르면 프로세서(310)는, 서로 다른 후-처리 방식을 이용하여 제1 데이터 및 제2 데이터를 획득할 수 있다.
일 예로서, 일 실시 예에 따르면 프로세서(310)는, 제1 모드에서, 대상체의 표면에 대한 제1 포인트 클라우드를 획득하고, 제1 포인트 클라우드 내의 인접한 포인트들을 연결함으로써 제1 메쉬 데이터를 획득할 수 있다. 또한, 프로세서(310)는, 제1 메쉬 데이터 내에서 제1 소정 값 이하의 개수의 삼각형들로 이루어지는 그룹을 삭제하는, 필터링을 수행할 수 있다. 프로세서(310)는, 필터링이 수행된 제1 메쉬 데이터를 포함하는 제1 데이터를 획득할 수 있다.
일 실시 예에 따르면 프로세서(310)는, 제2 모드에서, 대상체의 표면에 대한 제2 포인트 클라우드를 획득하고, 제2 포인트 클라우드 내의 포인트들을 연결함으로써 제2 메쉬 데이터를 획득할 수 있다. 프로세서(310)는, 제2 메쉬 데이터 내에서 제2 소정 값 이하의 개수의 삼각형들로 이루어지는 그룹을 삭제하는, 필터링을 수행할 수 있다. 프로세서(310)는, 필터링이 수행된 제2 메쉬 데이터를 포함하는 제2 데이터를 획득할 수 있다. 이 때, 제2 모드에서 필터링을 위해 이용되는 제2소정값은, 제1 모드에서 필터링을 위해 이용되는 제1소정값보다 작을 수 있다.
다른 예로서, 일 실시 예에 따르면 프로세서(310)는, 제1 모드에서, 일반적인 삼각화 방식을 이용하여 대상체에 대한 제1 포인트 클라우드로부터 제1 메쉬 데이터를 제1 데이터로서 획득할 수 있다. 반면에, 프로세서(310)는, 제2 모드에서, 들로네 삼각화를 이용하여, 대상체에 대한 제2 포인트 클라우드로부터 제2 메쉬 데이터를 제2 데이터로서 획득할 수 있다.
일 실시 예에 따른 프로세서(310)는, 제2 메쉬 데이터를 획득하기 위해서, 제2 포인트 클라우드 내에서 금속 영역에 대응하는 포인트들을 식별하고, 들로네 삼각화를 이용하여 식별된 포인트들을 연결할 수 있다. 프로세서(310)는, 제2 포인트 클라우드 내에서 식별되지 않은 포인트들에 대해서는 인접한 포인트들을 연결함으로써 제2 메쉬 데이터를 획득할 수 있다.
또한, 프로세서(310)는, 제2 메쉬 데이터 내에서 소정 거리 이상의 두 포인트들을 연결한 엣지 및/또는 이를 포함하는 메쉬를 삭제하는 필터링을 추가적으로 수행할 수 있다.
일 실시 예에 따르면 프로세서(310)는, 대상체 상에 금속 영역이 감지되면, 동작 모드를 제1 모드에서 제2 모드로 변경할 수 있다.
일 실시 예에 따르면 프로세서(310)는, 3차원 스캐너에 의해 획득된 데이터를 인공 지능 모델을 이용하여 분석함으로써, 대상체 상에 금속 영역의 존재를 감지할 수 있다. 예를 들어, 프로세서(310)는, 대상체로부터 획득된 제1데이터를 입력으로서 인공 지능 모델에 적용하여, 스캔하고 있는 대상체의 영역이 금속 영역인지 여부를 판단할 수 있다. 금속 영역 판단에 이용되는 인공 지능 모델은, 대상체의 금속 영역 및 비금속 영역으로부터 획득된 많은 양의 스캔 데이터를 학습(train)한 인공 지능 모델일 수 있다. 프로세서(310)는, 대상체의 영역이 금속 영역이라고 판단되면, 동작 모드를 제1 모드에서 제2 모드로 변경할 수 있다.
일 실시 예에 따르면 프로세서(310)는, 적색 광, 녹색 광 및 청색 광 각각에 기초하여 획득된 R 프레임, G 프레임, 및 B 프레임의 세기(intensity)를 결합하여 생성된 컬러 이미지를 분석할 수 있다. 프로세서(310)는, 생성된 컬러 이미지를 분석함으로써, 대상체 상에 금속 영역의 존재를 감지할 수 있다.
예를 들어, 일 실시 예에 따르면 프로세서(310)는, 대상체를 스캔하여 획득한 컬러 이미지를 분석하여, 컬러 이미지 내에 소정 비율 이상의 영역이 금속 영역으로 판단되는 경우(예를 들어, 컬러 이미지 내의 전체 픽셀들 중 40% 이상의 픽셀이 금속 영역에 대응하는 픽셀로 판단되는 경우), 금속 영역을 스캔하고 있는 것으로 판단할 수 있다. 프로세서(310)는, 대상체의 금속 영역을 스캔하고 있는 것으로 판단한 결과에 기초하여, 동작 모드를 제1 모드에서 제2 모드로 변경할 수 있다.
본 개시의 일 실시 예에 따른 3차원 데이터 획득 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 또한, 본 개시의 실시 예에 따르면, 3차원 데이터 획득 방법을 실행하는 적어도 하나의 인스트럭션을 포함하는 하나 이상의 프로그램이 기록된 컴퓨터로 읽을 수 있는 저장 매체가 제공될 수 있다.
상기 컴퓨터 판독 가능 저장 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 여기서, 컴퓨터 판독 가능 저장 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치가 포함될 수 있다.
여기서, 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적 저장매체'는 저장 매체가 실재(tangible)하는 장치임을 의미할 수 있다. 또한, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.
일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 구강 영상의 디스플레이 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포될 수 있다. 또는, 어플리케이션 스토어(예: 플레이 스토어 등)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다.
이상에서 실시 예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.
[부호의 설명]
100: 3차원 스캐너
200: 3차원 데이터 획득 장치
300: 3차원 영상 디스플레이 장치
310: 프로세서
320: 디스플레이
330: 통신 인터페이스
340: 사용자 입력부
350: 메모리

Claims (20)

  1. 3차원 데이터를 획득하는 장치에 있어서,
    3차원 스캐너와 통신하는 통신 인터페이스; 및
    적어도 하나의 인스트럭션을 실행하여 상기 3차원 데이터를 획득하는 프로세서를 포함하고,
    상기 프로세서는,
    상기 3차원 스캐너에 의해 대상체를 스캔함으로써 제1 데이터를 획득하도록 제1 모드에서 동작하고,
    상기 대상체 상에 금속 영역이 감지되면, 동작 모드를 제2 모드로 전환하고,
    상기 3차원 스캐너에 의해 상기 대상체를 스캔함으로써 제2 데이터를 획득하도록 상기 제2 모드에서 동작하고,
    상기 제1 데이터 및 상기 제2 데이터에 기초하여, 상기 대상체에 대한 3차원 데이터를 획득하는, 3차원 데이터 획득 장치.
  2. 제1 항에 있어서,
    상기 프로세서는,
    제1 타입의 패턴광이 조사된 상기 대상체의 표면에 대한 제1 데이터를 획득하고,
    제2 타입의 패턴광이 조사된 상기 대상체의 표면에 대한 제2 데이터를 획득하는, 3차원 데이터 획득 장치.
  3. 제2 항에 있어서,
    상기 제1 타입의 패턴 광은, 라인 패턴 광을 포함하고,
    상기 제2 타입의 패턴 광은, 포인트 패턴 광을 포함하는, 3차원 데이터 획득 장치.
  4. 제1 항에 있어서,
    상기 제1 모드에서 획득되는 상기 제1 데이터와 상기 제2 모드에서 획득되는 상기 제2 데이터는, 서로 다른 후-처리 방식을 통해 획득되는, 3차원 데이터 획득 장치.
  5. 제4 항에 있어서,
    상기 프로세서는,
    상기 대상체의 표면에 대한 제1 포인트 클라우드를 획득하고, 상기 제1 포인트 클라우드 내의 인접한 포인트들을 연결함으로써 제1 메쉬 데이터를 획득하고, 상기 제1 데이터는 상기 제1 메쉬 데이터를 포함하고,
    상기 대상체의 표면에 대한 제2 포인트 클라우드를 획득하고, 들로네 삼각화를 이용하여, 상기 제2 포인트 클라우드 내의 포인트들을 연결함으로써 제2 메쉬 데이터를 획득하고, 상기 제2 데이터는 상기 제2 메쉬 데이터를 포함하는, 3차원 데이터 획득 장치.
  6. 제5 항에 있어서,
    상기 프로세서는,
    상기 제2 포인트 클라우드 내에서 상기 대상체 상의 금속 영역에 대응하는 포인트들을 식별하고,
    상기 들로네 삼각화를 이용하여 상기 식별된 포인트들을 연결하고, 상기 제2 포인트 클라우드 내에서 식별되지 않은 포인트들에 대해서는 인접한 포인트들을 연결함으로써 상기 제2 메쉬 데이터를 획득하는, 3차원 데이터 획득 장치.
  7. 제5 항에 있어서,
    상기 프로세서는,
    상기 제2 메쉬 데이터 내에서 소정 거리 이상의 두 포인트들을 연결한 엣지를 삭제하는 필터링을 더 수행하는, 3차원 데이터 획득 장치.
  8. 제4 항에 있어서,
    상기 프로세서는,
    상기 대상체의 표면에 대한 제1 포인트 클라우드를 획득하고, 상기 제1 포인트 클라우드 내의 포인트들을 연결함으로써 제1 메쉬 데이터를 획득하고, 상기 제1 메쉬 데이터 내에서 제1 소정 값 이하의 개수의 삼각형들로 이루어지는 그룹을 삭제하는, 필터링을 수행하고, 상기 제1 데이터는 필터링이 수행된 상기 제1 메쉬 데이터를 포함하고,
    상기 대상체의 표면에 대한 제2 포인트 클라우드를 획득하고, 상기 제2 포인트 클라우드 내의 포인트들을 연결함으로써 제2 메쉬 데이터를 획득하고, 상기 제2 메쉬 데이터 내에서 제2 소정 값 이하의 개수의 삼각형들로 이루어지는 그룹을 삭제하는, 필터링을 수행하고, 상기 제2 데이터는 필터링이 수행된 상기 제2 메쉬 데이터를 포함하고,
    상기 제2 소정 값은 상기 제1 소정 값보다 작은 것을 특징으로 하는, 3차원 데이터 획득 장치.
  9. 제1 항에 있어서,
    상기 프로세서는,
    상기 3차원 스캐너에 의해 획득된 데이터를 인공 지능 모델을 이용하여 분석함으로써, 상기 대상체 상에 금속 영역의 존재를 감지하는, 3차원 데이터 획득 장치.
  10. 제1 항에 있어서,
    상기 대상체 상에 금속 영역이 감지되면 상기 동작 모드를 상기 제1 모드로부터 상기 제2 모드로 자동으로 변경하도록 동작 옵션을 선택하는 사용자 입력을 수신하는 사용자 입력부를 더 포함하는, 3차원 데이터 획득 장치.
  11. 3차원 스캐너에 의해 대상체를 스캔함으로써 제1 데이터를 획득하도록 제1 모드에서 동작하는 단계;
    상기 대상체 상에 금속 영역이 감지되면, 동작 모드를 제2 모드로 전환하는 단계;
    상기 대상체를 스캔함으로써 제2 데이터를 획득하도록 상기 제2 모드에서 동작하는 단계; 및
    상기 제1 데이터 및 상기 제2 데이터에 기초하여, 상기 대상체에 대한 3차원 데이터를 획득하는 단계를 포함하는, 3차원 데이터 획득 방법.
  12. 제11 항에 있어서,
    상기 제1 데이터를 획득하도록 상기 제1 모드에서 동작하는 단계는,
    제1 타입의 패턴광이 조사된 상기 대상체의 표면에 대한 제1 데이터를 획득하는 단계를 포함하고,
    상기 제2 데이터를 획득하도록 상기 제2 모드에서 동작하는 단계는,
    제2 타입의 패턴광이 조사된 상기 대상체의 표면에 대한 제2 데이터를 획득하는 단계를 포함하는, 3차원 데이터 획득 방법.
  13. 제12 항에 있어서,
    상기 제1 타입의 패턴 광은, 라인 패턴 광을 포함하고,
    상기 제2 타입의 패턴 광은, 포인트 패턴 광을 포함하는, 3차원 데이터 획득 방법.
  14. 제11 항에 있어서,
    상기 제1 모드에서 획득되는 상기 제1 데이터와 상기 제2 모드에서 획득되는 상기 제2 데이터는, 서로 다른 후-처리 방식을 통해 획득되는, 3차원 데이터 획득 방법.
  15. 제14 항에 있어서,
    상기 제1 데이터를 획득하도록 상기 제1 모드에서 동작하는 단계는,
    상기 대상체의 표면에 대한 제1 포인트 클라우드를 획득하는 단계; 및
    상기 제1 포인트 클라우드 내의 인접한 포인트들을 연결함으로써 제1 메쉬 데이터를 획득하는 단계를 포함하고, 상기 제1 데이터는 상기 제1 메쉬 데이터를 포함하고,
    상기 제2 데이터를 획득하도록 상기 제2 모드에서 동작하는 단계는,
    상기 대상체의 표면에 대한 제2 포인트 클라우드를 획득하는 단계; 및
    들로네 삼각화를 이용하여, 상기 제2 포인트 클라우드 내의 포인트들을 연결함으로써 제2 메쉬 데이터를 획득하는 단계를 포함하고, 상기 제2 데이터는 상기 제2 메쉬 데이터를 포함하는, 3차원 데이터 획득 방법.
  16. 제15 항에 있어서,
    상기 제2 메쉬 데이터를 획득하는 단계는,
    상기 제2 포인트 클라우드 내에서 상기 대상체 상의 금속 영역에 대응하는 포인트들을 식별하는 단계; 및
    상기 들로네 삼각화를 이용하여 상기 식별된 포인트들을 연결하고, 상기 제2 포인트 클라우드 내에서 식별되지 않은 포인트들에 대해서는 인접한 포인트들을 연결함으로써 상기 제2 메쉬 데이터를 획득하는 단계를 포함하는, 3차원 데이터 획득 방법.
  17. 제15 항에 있어서,
    상기 제2 데이터를 획득하도록 상기 제2 모드에서 동작하는 단계는,
    상기 제2 메쉬 데이터 내에서 소정 거리 이상의 두 포인트들을 연결한 엣지를 삭제하는 필터링을 수행하는 단계를 더 포함하는, 3차원 데이터 획득 방법.
  18. 제14 항에 있어서,
    상기 제1 데이터를 획득하도록 상기 제1 모드에서 동작하는 단계는,
    상기 대상체의 표면에 대한 제1 포인트 클라우드를 획득하는 단계;
    상기 제1 포인트 클라우드 내의 포인트들을 연결함으로써 제1 메쉬 데이터를 획득하는 단계; 및
    상기 제1 메쉬 데이터 내에서 제1 소정 값 이하의 개수의 삼각형들로 이루어지는 그룹을 삭제하는, 필터링을 수행하는 단계를 포함하고, 상기 제1 데이터는 필터링이 수행된 상기 제1 메쉬 데이터를 포함하고,
    상기 제2 모드로 상기 제2 데이터를 획득하는 단계는,
    상기 대상체의 표면에 대한 제2 포인트 클라우드를 획득하는 단계;
    상기 제2 포인트 클라우드 내의 포인트들을 연결함으로써 제2 메쉬 데이터를 획득하는 단계; 및
    상기 제2 메쉬 데이터 내에서 제2 소정 값 이하의 개수의 삼각형들로 이루어지는 그룹을 삭제하는, 필터링을 수행하는 단계를 포함하고, 상기 제2 데이터는 필터링이 수행된 상기 제2 메쉬 데이터를 포함하고
    상기 제2 소정 값은 상기 제1 소정 값보다 작은 것을 특징으로 하는, 3차원 데이터 획득 방법.
  19. 제11 항에 있어서,
    상기 동작 모드를 상기 제2 모드로 변경하는 단계는,
    상기 3차원 스캐너에 의해 획득된 데이터를 인공 지능 모델을 이용하여 분석함으로써, 상기 대상체 상에 금속 영역의 존재를 감지하는 단계를 포함하는, 3차원 데이터 획득 방법.
  20. 제11 항에 있어서,
    상기 대상체 상에 금속 영역이 감지되면 상기 동작 모드를 상기 제1 모드로부터 상기 제2 모드로 자동으로 변경하도록 동작 옵션을 선택하는 사용자 입력을 수신하는 단계를 더 포함하는, 3차원 데이터 획득 방법.
PCT/KR2021/010252 2020-08-05 2021-08-04 3차원 데이터 획득 방법, 장치 및 그 방법을 수행하는 프로그램이 저장된 컴퓨터 판독 가능 저장 매체 WO2022031022A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP21852597.0A EP4194804A1 (en) 2020-08-05 2021-08-04 Method and device for acquiring three-dimensional data, and computer-readable storage medium storing program for performing method
US18/040,560 US20230298270A1 (en) 2020-08-05 2021-08-04 Method and device for acquiring three-dimensional data, and computer-readable storage medium storing program for performing method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2020-0098230 2020-08-05
KR20200098230 2020-08-05
KR1020210096699A KR102534778B1 (ko) 2020-08-05 2021-07-22 3차원 데이터 획득 방법, 장치 및 그 방법을 수행하는 프로그램이 저장된 컴퓨터 판독 가능 저장 매체
KR10-2021-0096699 2021-07-22

Publications (1)

Publication Number Publication Date
WO2022031022A1 true WO2022031022A1 (ko) 2022-02-10

Family

ID=80117579

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/010252 WO2022031022A1 (ko) 2020-08-05 2021-08-04 3차원 데이터 획득 방법, 장치 및 그 방법을 수행하는 프로그램이 저장된 컴퓨터 판독 가능 저장 매체

Country Status (3)

Country Link
US (1) US20230298270A1 (ko)
EP (1) EP4194804A1 (ko)
WO (1) WO2022031022A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150042759A1 (en) * 2012-12-14 2015-02-12 Faro Technologies, Inc. Device for optically scanning and measuring an environment
JP2015203597A (ja) * 2014-04-11 2015-11-16 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
US20170150124A1 (en) * 2015-11-19 2017-05-25 Hand Held Products, Inc. High resolution dot pattern
KR20190121359A (ko) * 2017-02-24 2019-10-25 샤이닝 쓰리디 테크 컴퍼니., 리미티드. 3차원 스캐닝 시스템 및 그 스캐닝 방법
US20200175678A1 (en) * 2018-11-28 2020-06-04 Orca Dental AI Ltd. Dental image segmentation and registration with machine learning

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150042759A1 (en) * 2012-12-14 2015-02-12 Faro Technologies, Inc. Device for optically scanning and measuring an environment
JP2015203597A (ja) * 2014-04-11 2015-11-16 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
US20170150124A1 (en) * 2015-11-19 2017-05-25 Hand Held Products, Inc. High resolution dot pattern
KR20190121359A (ko) * 2017-02-24 2019-10-25 샤이닝 쓰리디 테크 컴퍼니., 리미티드. 3차원 스캐닝 시스템 및 그 스캐닝 방법
US20200175678A1 (en) * 2018-11-28 2020-06-04 Orca Dental AI Ltd. Dental image segmentation and registration with machine learning

Also Published As

Publication number Publication date
US20230298270A1 (en) 2023-09-21
EP4194804A1 (en) 2023-06-14

Similar Documents

Publication Publication Date Title
WO2021242050A1 (ko) 구강 이미지의 처리 방법, 그에 따른 동작을 수행하는 구강 진단 장치, 및 그 방법을 수행하는 프로그램이 저장된 컴퓨터 판독 가능 저장 매체
WO2018066868A1 (ko) 3차원 형상 측정 장치 및 그의 측정 방법
JP2017523491A (ja) 3dスキャンされるオブジェクトに関する色情報を収集するためのシステム、方法、装置、及びコンピュータ可読記憶媒体
WO2017113689A1 (zh) 虚拟现实系统中的空间定位方法、装置及系统
WO2021133090A2 (ko) 구강스캐너에 내장된 광학요소 검사 방법 및 이를 이용한 시스템
WO2023282614A1 (ko) 텍스처 영상 생성 방법 및 장치
WO2022085966A1 (ko) 구강 이미지 처리 장치 및 구강 이미지 처리 방법
WO2022092627A1 (ko) 3차원 모델로부터 대상체 영역을 결정하는 방법 및 3차원 모델 처리 장치
WO2022031022A1 (ko) 3차원 데이터 획득 방법, 장치 및 그 방법을 수행하는 프로그램이 저장된 컴퓨터 판독 가능 저장 매체
WO2020091347A1 (ko) 3차원 깊이 측정 장치 및 방법
WO2021242053A1 (ko) 3차원 데이터 획득 방법, 장치 및 그 방법을 수행하는 프로그램이 저장된 컴퓨터 판독 가능 저장 매체
WO2022164175A1 (ko) 삼차원 구강 모델을 처리하는 방법 및 장치
WO2021145713A1 (ko) 가상 모델 생성 장치 및 방법
WO2022203305A1 (ko) 데이터 처리 장치 및 데이터 처리 방법
WO2023282619A1 (ko) 3차원 모델 상에 텍스트를 추가하는 방법 및 3차원 모델 처리 장치
WO2022025435A1 (ko) 프로젝터 및 그 제어 방법
WO2024063560A1 (ko) 스캐너, 데이터 처리 장치 및 데이터 처리 방법
WO2020085758A1 (ko) 검사 영역 결정 방법 및 이를 이용하는 외관 검사 장치
WO2023059166A1 (ko) 구강 이미지를 처리하는 방법 및 데이터 처리 장치
WO2023068760A1 (ko) 데이터 처리 장치 및 데이터 처리 방법
WO2022216056A1 (ko) 데이터 처리 장치, 스캐너 및 그 동작 방법
WO2023038455A1 (ko) 구강 이미지를 처리하는 방법 및 데이터 처리 장치
WO2020149527A1 (en) Apparatus and method for encoding in structured depth camera system
WO2022103153A1 (ko) 구강 이미지 처리 장치 및 구강 이미지 처리 방법
WO2022092802A1 (ko) 삼차원 구강 모델을 처리하는 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21852597

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021852597

Country of ref document: EP

Effective date: 20230306