WO2020076026A1 - Method for acquiring three-dimensional object by using artificial lighting photograph and device thereof - Google Patents

Method for acquiring three-dimensional object by using artificial lighting photograph and device thereof Download PDF

Info

Publication number
WO2020076026A1
WO2020076026A1 PCT/KR2019/013099 KR2019013099W WO2020076026A1 WO 2020076026 A1 WO2020076026 A1 WO 2020076026A1 KR 2019013099 W KR2019013099 W KR 2019013099W WO 2020076026 A1 WO2020076026 A1 WO 2020076026A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
images
geometry
reflectometer
reconstructing
Prior art date
Application number
PCT/KR2019/013099
Other languages
French (fr)
Korean (ko)
Inventor
김민혁
남길주
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020190120410A external-priority patent/KR102287472B1/en
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to EP19813220.1A priority Critical patent/EP3664039B1/en
Priority to US16/622,234 priority patent/US11380056B2/en
Publication of WO2020076026A1 publication Critical patent/WO2020076026A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo

Definitions

  • the present invention relates to a three-dimensional object acquisition technology, and more specifically, artificial lighting, for example, the shape information and the surface reflectometer information (Bidirectional Reflectance Distribution Function, of the three-dimensional object from a photograph or image taken with the flash on) BRDF) is a method and apparatus for measuring or obtaining.
  • artificial lighting for example, the shape information and the surface reflectometer information (Bidirectional Reflectance Distribution Function, of the three-dimensional object from a photograph or image taken with the flash on) BRDF) is a method and apparatus for measuring or obtaining.
  • SVBRDF spatially-varying bidirectional reflectance distribution functions
  • One embodiment technique for capturing reflections from known 3D geometry has introduced a method of capturing SVBRDF of known 3D objects that contain clustered basis reflections. Per-texel reflection is progressively improved with linear blending. Another embodiment of the technique proposed an SVBRDF acquisition method that jointly optimizes the reflection basis and blend weights for known 3D geometry, which finds the smallest basis reflection and then gently blends them.
  • these techniques require a commercial 3D scanner to accurately capture the input 3D geometry.
  • One embodiment technique for reflection capture limited to 2D planar geometry is an efficient SVBRDF capture method that uses a LCD screen and camera to limit the range of angular reflection samples, as well as two flash / flashless reflections for specific cases of stationary material. An acquisition method was proposed, and a larger region can be synthesized from a small reconstruction through this method.
  • Another embodiment technique uses a smartphone camera from various view-points to capture the appearance of adjacent planar objects, and the light source provides active illumination where normals and reflections are estimated.
  • Another embodiment technology proposed a portable system consisting of a smart phone camera, a handheld linear light source and a custom BRDF chart, the technology taking a short video of the target object along the BRDF chart while moving the handheld light tube, Recover SVBRDF from a linear combination of reference BRDFs.
  • Another embodiment technique presents an acquisition setup similar to a method focused on obtaining a planar art painting reflection.
  • Other acquisition systems that capture high quality SVBRDF on a flat surface rely on more sophisticated hardware. For example, using a computer-controlled LED light to place a sample on a small dome to obtain both reflectance and normal at the microscope scale at the same time, different systems have many different light-camera combinations, linear light reflection measurements, or condenser lenses. Includes a 4-axis spherical gantry for sampling. These acquisition methods are limited to near-flat objects.
  • Shaded normals are often used to improve geometry detail by assuming reflectance, which only has diffusion throughout the object.
  • One embodiment technique for 3D reconstruction assuming only diffuse reflection is obtained using base structure estimated using SfM (Structural From Motion) and Multiview Stereo (MVS), and then assuming diffuse reflection, using the estimated surface normal geometry Update it.
  • Another embodiment technique uses Kinect Fusion to obtain the indicated distance function of the surface, and refines the distance function using surface shading cues.
  • Another embodiment technique uses two mobile devices as a camera and a light source, respectively, and takes multiple images at fixed viewpoints under various light directions to reconstruct the surface from the metering stereo.
  • Other recent methods have further demonstrated the use of smartphone cameras or large scenes to capture the 3D shape of the objects, which are based on SfM and MVS technologies. All of these methods cannot recover SVBRDF information, assuming that the surface reflection of the reconstructed object only diffuses.
  • the technique of one embodiment has created a structure similar to an LED arm that orbits rapidly to generate a continuous spherical light in a harmonic pattern, and another embodiment technique uses two mechanical arms using a phase shift pattern for 3D geometry.
  • a spherical gantry with a projector-camera pair was created, and similar dome structures of several cameras were presented.
  • This structure uses structured light patterns for 3D geometry and exhibits reflections with bidirectional texture functions (BTF).
  • One embodiment technique further estimates SVBRDF based on 3D geometry by making a multi-light device consisting of 72 LED lights on a circle board to obtain 3D geometry by combining SfM and metering stereo, but using this information It does not refine the geometry or surface normals.
  • Another embodiment technique solves the inverse rendering problem by using an environment map for estimating spherical illumination by capturing an optical probe.
  • Another embodiment technique uses a mechanical rotating stage to capture a sequence of videos over a thousand frames, which requires high density sampling with at least two distinct changes in illumination per vertex (or vertex).
  • Another embodiment technique uses spherical illumination or IR illumination from a depth camera, as well as relying on depth information using Kinect Fusion.
  • SVBRDF acquisition method that can capture the polarized appearance of diffuse reflections and specular reflections using high-resolution normals that rely on the input geometry of structured lighting.
  • artificial lighting for example, a method and apparatus for measuring or obtaining the shape information and surface reflectometer information (BRDF) of a three-dimensional object from a photograph or image taken with the flash on to provide.
  • BRDF shape information and surface reflectometer information
  • a 3D object acquisition method includes receiving a plurality of images of a 3D object photographed by a camera; Reconstructing spatially changing surface reflectometer information for the 3D object based on the received plurality of images; Estimating a shadow normal for the 3D object based on the reconstructed spatially changing surface reflectometer information; And obtaining 3D geometry for the 3D object based on the estimated shading normal.
  • the reconstructing step estimates base surface reflectometer information for the 3D object based on the received plurality of images, and spatially changes the weight based on the estimated base surface reflectometer information and a spatially varying weight map.
  • the changing surface reflectometer information can be reconstructed.
  • the method for acquiring a 3D object further includes acquiring a base geometry of the 3D object based on external parameters of the camera and the plurality of images, and the reconstructing step includes the plurality of Based on the image and the base geometry, it is possible to reconstruct the spatially changing surface reflectometer information.
  • the reconstructing step and the estimating step reconstruct the spatially changing surface reflectometer information using an inverse rendering technique that satisfies a preset image forming model for the camera, and estimate the shading normal can do.
  • the acquiring step may acquire the three-dimensional geometry using a Poisson surface reconstruction technique.
  • the reconstructing step updates the spatially changing surface reflectometer information based on the obtained 3D geometry and the plurality of images, and the estimating step is based on the updated spatially changing surface reflectometer information
  • the acquiring step may update the 3D geometry based on the updated shading normal.
  • a plurality of images of the 3D object photographed while artificial lighting is on may be received.
  • a 3D object acquisition method includes obtaining a 3D point cloud for the 3D object from the plurality of images and the pose of the camera using multiview stereo; Generating a base mesh for the 3D object based on the 3D point cloud and Poisson surface reconstruction technique; And subdividing the base mesh to obtain initial geometry for the 3D object, and the reconstructing step includes the spatially changing surface reflectometer information based on the plurality of images and the initial geometry. Can be reconstructed.
  • a method for acquiring a 3D object includes receiving a plurality of images of a 3D object photographed by a camera while artificial lighting is on; And acquiring spatially changing surface reflectometer information and 3D geometry for the 3D object based on the received plurality of images and Poisson surface reconstruction technique.
  • the acquiring may include reconstructing the spatially changing surface reflectometer information based on the received plurality of images; Estimating a shadow normal for the 3D object based on the reconstructed spatially changing surface reflectometer information; And acquiring the 3D geometry based on the estimated shading normal and the Poisson surface reconstruction technique.
  • An apparatus for acquiring a 3D object includes a receiver configured to receive a plurality of images of a 3D object photographed by a camera; A reconstruction unit reconstructing spatially changing surface reflectometer information for the 3D object based on the received plurality of images; An estimator for estimating a shadow normal for the 3D object based on the reconstructed spatially changing surface reflectometer information; And an acquiring unit acquiring 3D geometry for the 3D object based on the estimated shadow normal.
  • the reconstruction unit estimates base surface reflectometer information for the 3D object based on the received plurality of images, and changes spatially based on the estimated base surface reflectometer information and a spatially changing weight map.
  • the surface reflectometer information can be reconstructed.
  • the reconstruction unit acquires the base geometry of the 3D object based on the camera's external parameters and the plurality of images, and reconstructs the spatially changing surface reflectometer information based on the plurality of images and the basis geometry. You can.
  • the reconstructing unit and the estimating unit may reconstruct the spatially changing surface reflectometer information using an inverse rendering technique that satisfies a preset image forming model for the camera, and estimate the shading normal.
  • the acquiring unit may acquire the 3D geometry using a Poisson surface reconstruction technique.
  • the reconstructing unit updates the spatially changing surface reflectometer information based on the obtained three-dimensional geometry and the plurality of images, and the estimating unit is configured to shade the normal based on the updated spatially changing surface reflectometer information. And updating, the obtaining unit may update the 3D geometry based on the updated shadow normal.
  • the receiving unit may receive a plurality of images of the 3D object photographed while artificial lighting is on.
  • the reconstruction unit acquires a 3D point cloud for the 3D object from the poses of the plurality of images and the camera using multiview stereo, and based on the 3D point cloud and Poisson surface reconstruction technique, the 3D object To generate a base mesh for, and to subdivide the base mesh to obtain the initial geometry for the three-dimensional object, it is possible to reconstruct the spatially changing surface reflectometer information based on the plurality of images and the initial geometry have.
  • a method for acquiring a 3D object includes receiving a plurality of images of a 3D object taken by a camera; Reconstructing spatially changing surface reflectometer information for the 3D object based on the received plurality of images; And acquiring 3D geometry for the 3D object based on the reconstructed spatially changing surface reflectometer information.
  • the reconstructing may reconstruct spatially changing surface reflectometer information for the 3D object based on the received plurality of images and depth information for the 3D object.
  • BRDF surface reflectometer information
  • the present invention is a technique required for extremely realistic rendering of a 3D model, and thus, it can be applied to virtual reality and augmented reality technologies and various applications using the same.
  • FIG. 1 is a flowchart illustrating an operation of a 3D object acquisition method according to an embodiment of the present invention.
  • Figure 2 shows an exemplary view for explaining the outline of the three-dimensional object acquisition method according to the present invention.
  • Figure 3 shows an exemplary view of the geometry (b) of the present invention with a Rusinkiewicz parameter (a) of a light and camera and a smartphone.
  • FIG. 4 illustrates an exemplary diagram for explaining a process of updating a 3D geometry.
  • FIG. 5 shows an exemplary diagram for a comparison result of the Nehab method and the screened Poisson reconstruction method for the unstructured capture setup of the present invention.
  • FIG. 6 illustrates a configuration of a 3D object acquisition device according to an embodiment of the present invention.
  • SVBRDF surface reflectometer information
  • Embodiments of the present invention are to measure shape information and surface reflectometer information (BRDF) of a 3D object that can be measured only by using special equipment using a camera equipped with a general flash.
  • BRDF surface reflectometer information
  • the present invention provides a simple yet powerful framework that eliminates the need for expensive dedicated hardware, so that the shape information and SVBRDF information of an actual 3D object can be measured simultaneously with a single camera with built-in flash.
  • the present invention can provide a high-quality 3D geometry reconstruction including more accurate high-frequency details than cutting-edge multi-view stereo technology by eliminating diffuse reflection assumptions and utilizing SVBRDF information.
  • the present invention can formulate co-reconstruction of SVBRDFs, shading normals, and 3D geometry into a multi-stage inverse-rendering pipeline, and can also be applied directly to existing multi-view 3D reconstruction techniques.
  • co-reconstruction can be performed in a multi-step, eg, iterative and interactive optimization reverse-rendering pipeline that progressively enhances 3D to 2D correspondence, leading to high quality reconstruction of both SVBRDF and 3D geometry.
  • FIG. 1 is a flowchart illustrating an operation of a 3D object acquisition method according to an embodiment of the present invention.
  • a method for acquiring a 3D object receives a plurality of images of a 3D object photographed by a camera while artificial lighting is turned on (S110).
  • step S110 may receive a plurality of images, for example, pictures, taken by two different exposures.
  • step S110 When a plurality of images photographed by artificial lighting is received in step S110, spatially changing surface reflectometer information (SVBRDF) for a 3D object is reconstructed based on the received plurality of images (S120).
  • SVBRDF spatially changing surface reflectometer information
  • step S120 estimates the base surface reflectometer information (BRDF) for the 3D object based on the received plurality of images, and reconstructs the SVBRDF based on the estimated base surface reflectometer information and the spatially changing weight map. can do.
  • BRDF base surface reflectometer information
  • the shadow normal for the 3D object is estimated based on the reconstructed SVBRDF, and the 3D geometry for the 3D object is obtained based on the estimated shadow normal (S130) , S140).
  • step S140 may acquire a 3D geometry using a Poisson surface reconstruction technique.
  • step S140 it is determined whether the error converges, and if the error is not converged, the update process is repeatedly performed to update the SVBRDF, the shadow normal, and the 3D geometry (S150, S160).
  • the method acquires a 3D point cloud for a 3D object from a plurality of images and poses of a camera using multiview stereo, and the 3D point cloud Based on the Poisson surface reconstruction technique, the method further includes generating a base mesh for the 3D object, and subdividing the base mesh to obtain initial geometry for the 3D object, and step S120 is based on the plurality of images and the initial geometry.
  • SVBRDF can be reconstructed.
  • Table 1 below defines the variables used in the present invention.
  • Figure 2 shows an exemplary view for explaining the outline of the three-dimensional object acquisition method according to the present invention.
  • the method of the present invention uses an artificial lighting image photographed by a general camera, for example, a handheld camera.
  • the present invention can be formulated by acquiring a set of surface reflectometer information (BRDF) F b and SVBRDF information F defined by a corresponding weight map W, shaded normal N and 3D geometry X.
  • BRDF surface reflectometer information
  • the present invention acquires external parameters and rough base geometry of the camera using a commercial 3D reconstruction technique including SfM (Structural From Motion), MVS (Multiview Stereo), and mesh reconstruction in the initialization step. do.
  • the present invention reconstructs SVBRDF information simultaneously while improving the reconstructed 3D geometry using an iterative step.
  • the iterative step begins with an inverse rendering step aimed at obtaining the first approximation for W, F b and N.
  • the method according to the present invention reconstructs the SVBRDF information F, estimates the shadow normal N depending on the SVBRDF information, obtains W, F b and N, and then inputs the deformation input of the shadow normal N through Poisson surface reconstruction.
  • the present invention repeats the inverse-rendering process and the geometry reconstruction process until a predetermined error converges.
  • the present invention only needs to estimate the position of the flash relative to the camera and the camera optical parameters, and the position of the flash and the estimation of the camera optical parameters can be performed only once.
  • the present invention may use multiple chrome ball images and a checkerboard image.
  • the present invention uses a commercial camera with a built-in flash to capture a set of artificial lighting photos as input. Since the dynamic range of commercial cameras is insufficient to capture detailed specular reflections under flash lighting, the exposure time ⁇ t is changed, for example, for a mobile phone with a fixed amount of flash light, the exposure time or flash intensity ⁇ g is changed. Here, the flash intensity may correspond to the EV number of the DSLR camera.
  • the image forming model for the pixel position u can be formulated as ⁇ Equation 1> below.
  • I (u) means the captured image
  • L (o; x) may mean the outgoing radiance emitted from the point x on the 3D geometry in the view direction o.
  • the radiance captured at the point x can be formulated with a reflection equation as shown in ⁇ Equation 2> below.
  • f (i, o; x, n) means the reflection function at point x
  • n means the normal vector
  • L (-i; x) at x for the light vector i It may mean the incident light (incident light).
  • the present invention acquires internal parameters of the camera using a method capable of acquiring internal parameters.
  • the method for acquiring the internal parameter may be various methods, and such a method is obvious to those skilled in the art, and detailed description thereof is omitted.
  • the initial relationship between the camera 2 and the pixel u ⁇ R In response to the captured surface x ⁇ R point 3 is calculated in a perspective (perspective) projection matrix ⁇ R 3 ⁇ 3.
  • t] ⁇ R which defines the external relationship between the surface point and camera for each photo using SfM because the photo is captured without any supporting structure Obtain 3 ⁇ 4 .
  • the present invention can gradually update internal parameters such as a focal length of each picture using SfM for more accurate geometric response by correcting a focus breathing effect due to autofocus. .
  • the present invention acquires a high density 3D point cloud using MVS from captured images and camera poses.
  • this initial point cloud generally violates the basic diffusion texture assumptions of the MVS method due to the high frequency noise caused by the specular reflection generated by flash lighting.
  • the present invention uses a Poisson surface reconstruction screened to reduce this noise to produce a low resolution mesh, eg 2 7 voxel grid mesh.
  • the present invention subdivides the low-resolution mesh to obtain a finer mesh, such as 2 10 grid mesh, used as the initial geometry.
  • fine geometrical details may be missing because it is removed along with the noise in the Poisson reconstruction step.
  • the present invention recovers these details using an iterative geometry update algorithm.
  • the present invention satisfies the image forming model of Equation 2 by finding a set of two unknowns ⁇ f (i p, k , o p, k ; x p , n p ), n p ⁇ that minimizes the objective function.
  • the inverse-rendering problem can be formulated as ⁇ Equation 3> below.
  • ⁇ p, k may mean the visibility function of the vertex x p of the image k.
  • the inverse rendering problem of factoring reflections and shading is a very ill-posed and underdetermined problem.
  • the present invention uses an iterative optimization method that updates four unknown elements W, F b , N and X until the rendering result satisfies the input image.
  • the present invention separates the input picture into different training and test data sets to test optimized parameters with unused data sets.
  • the present invention reconstructs the entire space of the SVBRDF, and obtains a normal using this information.
  • the reconstructed SVBRDF F can be formulated as ⁇ Equation 4> below.
  • W ⁇ w p , b ⁇ may mean a set of per-point blending weights.
  • Flash pictures set up Flash photography setup
  • the reflection is kept almost constant along the azimuth angle ⁇ d of the light i around h.
  • the data set captured in the setup of the present invention includes high density sampling along the ⁇ h and ⁇ d dimensions.
  • high-density sampling leads to a single sample for ⁇ d at about ⁇ 5 ° because the light and camera are fixed and very close in the setup of the present invention.
  • the present invention uses a Cook-Torrance (CT) model with a non-parametric normal distribution function (NDF) term for better representation of specular reflection.
  • CT Cook-Torrance
  • NDF non-parametric normal distribution function
  • the present invention does not rely on an analytical function such as Beckmann that performs high-density sampling along ⁇ h and ⁇ d angles.
  • the base reflection model f b of the present invention can be expressed as ⁇ Equation 5> below.
  • ⁇ d and ⁇ s denote diffusion and reflection albedo
  • D denotes a univariate NDF term for specularity
  • G denotes a geometric term
  • F denotes Fresnel Term.
  • NDF is represented by the non-parametric table function D ( ⁇ h ) ⁇ R M.
  • D ⁇ h
  • R M the non-parametric table function
  • each element stores the BRDF value in the corresponding ⁇ h using the square root mapping of the angle.
  • the present invention can use a V-groove cavity model for shading / masking term G.
  • the F term can be set as a constant. In practice, this setup helps reduce complexity in the optimization process. At this time, this approximation may be more effective than using a constant index of refraction (IOR) value for the Fresnel term.
  • the geometric factor G is excluded from the coefficient vector.
  • the invention converts the reflection f 'p, k captured the captured radiance from the equation (2).
  • the present invention The base BRDFs f b and the spatial weights w p , b can be mixed to approximate. Then, the present invention can reform Equation 3 as an objective function as shown in ⁇ Equation 6> below to reconstruct base BRDFs and corresponding weights.
  • the present invention can fix D ( ⁇ h > 60) to 0 following conventional distribution functions such as Beckmann and GGX.
  • the present invention can apply a non-negative monotonicity constraint to D ( ⁇ h ).
  • D ( ⁇ h ) may decrease monotonically as ⁇ h increases.
  • no softness limits are placed.
  • Equation 6 is minimized while W is fixed. This becomes a quadratic programming problem in F b with sparse input data.
  • the present invention may use a commercial rare secondary programming solver.
  • the present invention estimates the set of diffusion components of the base BRDF F b by averaging color observations around median brightness per vertex clustering using Kmean in CIELAB space. This produces an initial binary labeled weight set W.
  • the underlying BRDFs are still a problem to be solved.
  • an ad-hoc method is used to gradually determine the number of bases and increase it until the optimization converges.
  • the number of bases may be set using previous techniques, and the number of bases may vary depending on the situation.
  • the present invention updates W using F b estimated in the previous optimization. Updating W by using the fixed F b of Equation 6 is the same as minimizing the objective function as shown in Equation 7 below at each point x p .
  • the kth row of Q ⁇ R K + B is [f 1 (i p, k , o p, k ), ..., f B (i p, k , o p, k )], r ⁇ R K
  • the kth element of is L (o p, k ; x p ) / L (-i p, k ; x p ) / (n p ⁇ i p, k ).
  • Equation 7 is a standard secondary programming problem.
  • the present invention can solve this problem by using the convex quadratic programming solver.
  • the present invention uses color based BRDF and monochromatic mixing weights.
  • the present invention can independently optimize each color channel when updating F b , and optimize the mixing weight of each vertex (vertex) using all color channels when updating W.
  • the present invention feeds the initial surface normal n p from the current geometry updated in the previous iteration as an input variable for BRDF f at point x p in Equation 3 above.
  • the present invention estimates the weight W, the base BRDFs F b and the shadow normal N, and then reconstructs the geometry X to match the shadow observation.
  • 4 illustrates an exemplary diagram for explaining a process of updating a 3D geometry.
  • the process of updating the 3D geometry is obtained by obtaining a rough base geometry (or base mesh) from the initial point cloud and subdividing it into a finer mesh.
  • the present invention estimates the shadow normal using the subdivided mesh, and then updates the geometry using the estimated shadow normal.
  • the geometry update may be performed using at least one of a Nehab method and a screened Poisson reconstruction method.
  • the present invention preferably uses a screened Poisson method designed to reconstruct an implicit surface using a three-dimensional tri-quadratic B-spline basis function in a coarse-to-fine method voxel lattice. This results in robust performance when integrating noise-containing surface normals into 3D geometry.
  • FIG. 5 shows an exemplary diagram for a comparison result of the Nehab method and the screened Poisson reconstruction method for the unstructured capture setup of the present invention.
  • the result of the Nehab method is the unstructured capture setup While it contains the high frequency noise of the shadow normal estimated at, it can be seen that the geometry of the screened Poisson reconstruction method robustly processes the input noise through coarse-to-fine reconstruction, thereby providing more detailed details.
  • the screened Poisson reconstruction method implicitly surfaces from the input point cloud. Can be reconstructed as ⁇ Equation 8> below.
  • V: R 3- > R 3 means a vector field derived from a set of shaded normals N
  • ⁇ ⁇ (x p ) means the gradient of the implicit scalar surface function
  • ⁇ 2 (x p ) means the squared distance between the point x p and the implicit surface ⁇
  • can mean the weight of the normalization term.
  • the present invention determines ⁇ [0.1,4.0] according to the reliability of the initial geometry.
  • the resolution of the voxel grating can be set to 2 9 or 2 10 for each dimension. This size corresponds to approximately 0.1 to 0.2 mm for the captured physical object.
  • the original algorithm uses geometric normals, but the present invention utilizes shaded normals n to p to implicit surfaces whose gradients match n to p. Aim to seek. In other words, if different views and lighting directions are given for each vertex, a consistent shadow should appear.
  • the present invention converts the implicit surface to a polygonal mesh by applying marching cubes.
  • the present invention repeatedly updates W, F b , N, and X until it finds the optimal 3D geometry and SVBRDF.
  • the present invention evaluates the Hausdorff distance between the old mesh and the new X.
  • the entire process shown in FIG. 2 is repeated until the test RMS error of the photometric difference of Equation 3 of the present invention starts to increase.
  • the present invention randomly separates captured images into training and test groups at a 9: 1 ratio.
  • the method for acquiring a 3D object uses the general flash-mounted camera to measure shape information of a 3D object and spatially changing surface reflectometer information (SVBRDF), which could only be measured using special equipment. ) Can be measured simultaneously.
  • SVBRDF spatially changing surface reflectometer information
  • the 3D object acquisition method can measure high quality 3D shape information and SVBRDF without relying on special equipment.
  • the method for acquiring a 3D object according to an embodiment of the present invention requires only a single commercial camera with a built-in flash, for example, a smartphone camera, because multiple artificial lighting photos are used as input.
  • the core of the 3D object acquisition method is a new co-reconstruction of SVBRDF, shading normals, and 3D geometry
  • the co-reconfiguration is a multi-step e.g. iteratively enhancing 3D to 2D correspondence And can be performed in an interactive optimization inverse-rendering pipeline to induce high-quality reconstruction of both SVBRDF and 3D geometry.
  • the method according to embodiments of the present invention reconstructs spatially changing surface reflectometer information for a 3D object based on a plurality of images photographed by a camera, and thus reconstructed spatially changing surface reflection Acquiring 3D geometry for a 3D object based on system information, and estimating the shading normal for a 3D object using the reconstructed spatially changing surface reflectometer information, and then based on the estimated shading normal It is not limited to obtaining 3D geometry for a 3D object. That is, the method according to another embodiment of the present invention can be applied to a variety of methods for acquiring 3D geometry for a 3D object based on spatially changing surface reflectometer information.
  • a method reconstructs spatially changing surface reflectometer information for a 3D object based on a plurality of images photographed by a camera, and reconstructed spatially changing surface reflectometer information Based on the information, it is possible to obtain 3D geometry for a 3D object.
  • the technical configuration of reconstructing spatially changing surface reflectometer information for a 3D object is not limited to being reconstructed only by a plurality of images photographed by a camera.
  • additional depth information that is, depth information for a 3D object may be reflected to improve the weight and speed of the algorithm.
  • the method according to embodiments of the present invention can reconstruct spatially changing surface reflectometer information for a 3D object based on depth information for a 3D object as well as a plurality of images photographed by a camera. have.
  • the depth information for the 3D object may be obtained separately using a depth camera, or may be obtained using various measurement techniques.
  • the present invention uses a multi-view camera to depth a 3D object. Information may be obtained, or depth information on a 3D object may be obtained using stereo matching.
  • the method for obtaining depth information in the present invention is not limited to the above-described method, and any method applicable to the present invention can be used.
  • a method of reconstructing spatially changing surface reflectometer information for a 3D object by additionally using the depth information may be applied to all of the above-described contents.
  • FIG. 6 illustrates a configuration of a 3D object acquisition device according to an embodiment of the present invention, and shows a conceptual configuration of a device performing the method of FIGS. 1 to 5.
  • a 3D object acquisition apparatus 600 includes a reception unit 610, a reconstruction unit 620, an estimation unit 630, and an acquisition unit 640.
  • the reception unit 610 receives a plurality of images of a 3D object photographed by a camera.
  • the receiving unit 610 may receive a plurality of images of the 3D object photographed with artificial lighting turned on.
  • the reconstruction unit 620 reconstructs spatially changing surface reflectometer information for a 3D object based on the received plurality of images.
  • the reconstruction unit 620 estimates the base surface reflectometer information for the 3D object based on the plurality of images, and spatially changes based on the estimated base surface reflectometer information and the spatially changing weight map.
  • the surface reflectometer information can be reconstructed.
  • the reconstruction unit 620 acquires the base geometry of the 3D object based on the camera's external parameters and a plurality of images, and reconstructs spatially changing surface reflectometer information based on the plurality of images and the base geometry. You can.
  • the reconstruction unit 620 may reconstruct spatially changing surface reflectometer information using an inverse rendering technique that satisfies a preset image forming model for the camera.
  • the reconstruction unit 620 may update spatially changing surface reflectometer information based on the 3D geometry and a plurality of images acquired by the acquisition unit 640.
  • the reconstruction unit 620 acquires a 3D point cloud for a 3D object from a pose of a plurality of images and cameras using multiview stereo, and 3D based on a 3D point cloud and a Poisson surface reconstruction technique It is possible to generate a base mesh for an object, to subdivide the base mesh to obtain initial geometry for a 3D object, and reconstruct spatially changing surface reflectometer information based on a plurality of images and the initial geometry.
  • the estimator 630 estimates the shadow normal for the 3D object based on the reconstructed spatially changing surface reflectometer information.
  • the estimator 630 may estimate the shadow normal using an inverse rendering technique that satisfies a preset image forming model for the camera.
  • the estimator 630 may update the shading normal based on the updated spatially changing surface reflectometer information.
  • the acquisition unit 640 acquires 3D geometry based on the estimated shadow normal and Poisson surface reconstruction technique.
  • the acquisition unit 640 may acquire a 3D geometry using a Poisson surface reconstruction technique.
  • the acquirer 640 may update the 3D geometry based on the updated shadow normal.
  • each of the constituent elements constituting FIG. 6 may include all the contents described in FIGS. 1 to 5, which is apparent to those skilled in the art.
  • the device described above may be implemented with hardware components, software components, and / or combinations of hardware components and software components.
  • the devices and components described in the embodiments include, for example, a processor, controller, arithmetic logic unit (ALU), digital signal processor (micro signal processor), microcomputer, field programmable array (FPA), It may be implemented using one or more general purpose computers or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions.
  • the processing device may run an operating system (OS) and one or more software applications running on the operating system.
  • the processing device may access, store, manipulate, process, and generate data in response to the execution of the software.
  • a processing device may be described as one being used, but a person having ordinary skill in the art, the processing device may include a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that may include.
  • the processing device may include a plurality of processors or a processor and a controller.
  • other processing configurations such as parallel processors, are possible.
  • the software may include a computer program, code, instruction, or a combination of one or more of these, and configure the processing device to operate as desired, or process independently or collectively You can command the device.
  • Software and / or data may be interpreted by a processing device, or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device.
  • the software may be distributed on networked computer systems, and stored or executed in a distributed manner.
  • Software and data may be stored in one or more computer-readable recording media.
  • the method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium.
  • the computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination.
  • the program instructions recorded on the medium may be specially designed and configured for the embodiments or may be known and usable by those skilled in computer software.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic media such as floptical disks.
  • -Hardware devices specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like.
  • Examples of program instructions include high-level language code that can be executed by a computer using an interpreter, etc., as well as machine language codes produced by a compiler.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Disclosed are a method for acquiring a three-dimensional object by using an artificial lighting photograph and a device thereof. A three-dimensional object acquiring method according to an embodiment of the present invention comprises the steps of: receiving a plurality of images obtained by photographing a three-dimensional object by a camera; reconstructing spatially-varying bidirectional reflectance distribution functions for the three-dimensional object, on the basis of the received plurality of images; estimating a shading normals for the three-dimensional object on the basis of the reconstructed spatially-varying bidirectional reflectance distribution functions; and obtaining a three-dimensional geometry for the three-dimensional object on the basis of the estimated shading normals.

Description

인공조명 사진을 이용한 3차원 객체 획득 방법 및 그 장치 3D object acquisition method and device using artificial lighting photo
본 발명은 3차원 객체 획득 기술에 관한 것으로, 보다 구체적으로는 인공조명 예를 들어, 플래시가 켜진 상태에서 촬영된 사진 또는 영상으로부터 3차원 객체의 형상 정보와 표면 반사계 정보(Bidirectional Reflectance Distribution Function, BRDF)를 측정 또는 획득할 수 있는 방법 및 그 장치에 관한 것이다.The present invention relates to a three-dimensional object acquisition technology, and more specifically, artificial lighting, for example, the shape information and the surface reflectometer information (Bidirectional Reflectance Distribution Function, of the three-dimensional object from a photograph or image taken with the flash on) BRDF) is a method and apparatus for measuring or obtaining.
실제 객체의 외관(appearance)을 획득하고 재현하는 것은 컴퓨터 그래픽의 주요 목표 중 하나이며, 특수한 하드웨어에 의존하는 방법에서 모바일 셋업(setup)에 의존하는 방법까지 다양한 방법들이 제안되었다. 그러나, 이러한 방법의 기능과 비용 간에는 필연적인 트레이드 오프가 존재한다. 예를 들어, 모바일 방식은 저렴하지만 거의 평면 지오메트리(geometry)에 국한된다.Acquiring and reproducing the appearance of a real object is one of the main goals of computer graphics, and various methods have been proposed, ranging from a method that relies on special hardware to a method that relies on mobile setup. However, there is an inevitable trade-off between the functionality and cost of this method. For example, the mobile method is inexpensive, but is almost limited to planar geometry.
스마트폰 카메라와 같은 상용 카메라로 비평면 3D 객체의 공간적으로 변화하는 표면 반사계 정보(spatially-varying bidirectional reflectance distribution functions, SVBRDF)를 캡쳐하는 것은 다음과 같은 기술적인 문제로 인해 구현되지 못하고 있다. Capturing spatially-varying bidirectional reflectance distribution functions (SVBRDF) of non-planar 3D objects with commercial cameras such as smartphone cameras has not been implemented due to the following technical problems.
첫째, SVBRDF 정보를 캡쳐 하려면, 고밀도 광 뷰 공간 샘플링이 필요하다. 이러한 요구사항은 일반적으로 라이트 돔 또는 4차원 갠트리(gantries)와 같은 전문적인 지지 구조를 이용하여 달성된다. 종래 카메라의 내장 플래시는 렌즈와 거의 동일하게 배치되기 때문에 라이트-뷰 공간의 샘플링을 심각하게 제한한다. 또한, 근거리 플래시 조명(또는 플래시 라이트)는 객체를 불균일하게 조명한다.First, in order to capture SVBRDF information, high-density optical view space sampling is required. These requirements are generally achieved using professional support structures such as light domes or four-dimensional gantry. Since the built-in flash of a conventional camera is placed almost the same as a lens, it severely limits the sampling of the light-view space. Also, near-field flash lighting (or flash light) illuminates the object non-uniformly.
둘째, 대부분의 기존 카메라에는 뎁스 센서(depth sensor)가 존재하지 않기 때문에 지오메트리를 복구하려면 확산 반사만을 가정하는 수동 멀티 뷰 스테레오 기술에 의존해야 한다. 그러나, 공간적으로 변하는 표면 반사의 존재 하에서, 이것은 부정확한 재구성을 유도한다.Second, since most existing cameras do not have a depth sensor, restoring geometry requires relying on passive multi-view stereo technology that assumes only diffuse reflections. However, in the presence of spatially varying surface reflections, this leads to incorrect reconstruction.
셋째, 핸드헬드 획득의 구조화되지 않은 특성(또는 인공 특성)으로 인해 객체의 3D 포인트와 여러 이미지의 2D 픽셀 간의 픽셀 대응이 보장되지 않는다. 이러한 대응은 고정 카메라와 다양한 광원이 사용되거나 카메라와 광이 물리적 구조에 잠긴(locked) 구조화된 입력을 제공하는 측광(photometric) 스테레오 셋업에서 보장된다. 핸드헬드 접근법에서 객체의 3D 지오메트리뿐만 아니라 내부(intrinsic)/외부(extrinsic) 파라미터가 모두 제공되어야 하는데, 이러한 정보는 가지고 있지 않은 정보이다. 결과로 나타나는 불균형은 구조화되지 않은 캡쳐 셋업을 사용하는 3D 지오메트리 및 SVBRDF의 고품질 재구성의 주된 장애이다.Third, due to unstructured characteristics (or artificial characteristics) of handheld acquisition, pixel correspondence between 3D points of objects and 2D pixels of multiple images is not guaranteed. This correspondence is ensured in photometric stereo setups where a fixed camera and various light sources are used or the camera and light provide a structured input locked to a physical structure. In the handheld approach, both the intrinsic / extrinsic parameters, as well as the 3D geometry of the object, must be provided, which is information that is not possessed. The resulting imbalance is a major obstacle to high-quality reconstruction of 3D geometry and SVBRDF using unstructured capture setup.
기존의 카메라를 사용하는 대부분의 획득 방법들은 지오메트리 또는 반사 캡쳐에만 초점을 맞추며, 이 둘을 동시 획득하기 위해 일반적으로 특수 하드웨어 예를 들어, 기계화된 갠트리, 광 스테이지 또는 상용 3D 스캐너 등을 필요로 한다.Most acquisition methods using conventional cameras focus only on geometry or reflection capture, and generally require special hardware such as a mechanical gantry, optical stage or commercial 3D scanner to acquire both. .
기존 연구들은 (a) 알려진 3D 지오메트리로부터의 반사 캡쳐, (b) 2D 평면 지오메트리로 제한된 반사 캡쳐, (c) 확산 반사만을 가정한 3D 재구성, (d) 반사 및 3D 지오메트리의 동시 획득 등으로 분류될 수 있다.Existing studies would be categorized into (a) reflection capture from known 3D geometry, (b) reflection capture limited to 2D planar geometry, (c) 3D reconstruction assuming only diffuse reflection, (d) simultaneous acquisition of reflection and 3D geometry, etc. You can.
알려진 3D 지오메트리로부터의 반사 캡쳐에 대한 일 실시예 기술은 클러스터된 기저(basis) 반사를 포함하는 알려진 3D 객체의 SVBRDF를 포착하는 방법을 도입하였다. 텍셀 당(per-texel) 반사는 선형 블렌딩으로 점진적으로 개선된다. 다른 일 실시예의 기술은 알려진 3D 지오메트리에 대한 반사 기저와 혼합 가중치를 공동으로 최적화하는 SVBRDF 획득 방법을 제안하였으며, 이 방법은 가장 작은 기저 반사를 찾은 다음 이들을 부드럽게 혼합한다. 하지만, 이러한 기술들은 입력 3D 지오메트리를 정확하게 캡쳐하기 위해 상용 3D 스캐너를 필요로 한다.One embodiment technique for capturing reflections from known 3D geometry has introduced a method of capturing SVBRDF of known 3D objects that contain clustered basis reflections. Per-texel reflection is progressively improved with linear blending. Another embodiment of the technique proposed an SVBRDF acquisition method that jointly optimizes the reflection basis and blend weights for known 3D geometry, which finds the smallest basis reflection and then gently blends them. However, these techniques require a commercial 3D scanner to accurately capture the input 3D geometry.
스마트폰 카메라와 같은 기존의 카메라도 평면 표면 반사계 정보를 캡쳐하는 데 사용된다. 2D 평면 지오메트리로 제한된 반사 캡쳐에 대한 일 실시예 기술은 LCD 화면과 카메라를 사용하여 각도 반사 샘플의 범위를 제한하는 효율적인 SVBRDF 캡쳐 방법뿐만 아니라 정지된 물질의 특정 경우에 대한 2회 플래시/플래시 없는 반사 획득 방법을 제안하였으며, 이 방법을 통해 작은 재구성으로부터 더 큰 영역이 합성될 수 있다. 다른 일 실시예 기술은 다양한 뷰-포인트로부터 스마트폰 카메라를 사용하여 인접 평면 객체의 외관을 캡쳐하며, 광원은 법선과 반사가 추정되는 능동 조명을 제공한다. 또 다른 일 실시예 기술은 스마트폰 카메라, 핸드헬드 선형 광원 및 맞춤형 BRDF 차트로 구성된 휴대용 시스템을 제안하였으며, 해당 기술은 핸드헬드 광 튜브를 이동시키면서 BRDF 차트를 따라 대상 객체의 짧은 비디오를 촬영하고, 참조 BRDF의 선형 조합으로부터 SVBRDF를 복구한다. 또 다른 일 실시예 기술은 평면 아트 페인팅 반사를 획득하는 것에 초점을 둔 방법과 유사한 획득 셋업을 제시한다. 평면 표면에서 고품질의 SVBRDF를 포착하는 다른 획득 시스템은 보다 정교한 하드웨어에 의존한다. 예를 들어, 컴퓨터 제어 LED 조명을 사용하여 작은 돔에 샘플을 배치함으로써 현미경 스케일에서 반사율과 법선을 동시에 얻는 방법이 있으며, 다른 시스템들은 많은 다른 광-카메라 조합, 선형 광원 반사 측정, 또는 콘덴서 렌즈를 샘플링하기 위해 4축 구형 갠트리를 포함한다. 이러한 획득 방법들은 근접-평판(near-flat) 객체에 국한된다.Conventional cameras, such as smartphone cameras, are also used to capture flat surface reflectometer information. One embodiment technique for reflection capture limited to 2D planar geometry is an efficient SVBRDF capture method that uses a LCD screen and camera to limit the range of angular reflection samples, as well as two flash / flashless reflections for specific cases of stationary material. An acquisition method was proposed, and a larger region can be synthesized from a small reconstruction through this method. Another embodiment technique uses a smartphone camera from various view-points to capture the appearance of adjacent planar objects, and the light source provides active illumination where normals and reflections are estimated. Another embodiment technology proposed a portable system consisting of a smart phone camera, a handheld linear light source and a custom BRDF chart, the technology taking a short video of the target object along the BRDF chart while moving the handheld light tube, Recover SVBRDF from a linear combination of reference BRDFs. Another embodiment technique presents an acquisition setup similar to a method focused on obtaining a planar art painting reflection. Other acquisition systems that capture high quality SVBRDF on a flat surface rely on more sophisticated hardware. For example, using a computer-controlled LED light to place a sample on a small dome to obtain both reflectance and normal at the microscope scale at the same time, different systems have many different light-camera combinations, linear light reflection measurements, or condenser lenses. Includes a 4-axis spherical gantry for sampling. These acquisition methods are limited to near-flat objects.
음영 법선은 객체 전체에 확산만 존재하는 반사율을 가정하여 지오메트리 세부사항을 향상시키는 데 자주 사용된다. 확산 반사만을 가정한 3D 재구성에 대한 일 실시예 기술은 SfM(Structural From Motion) 및 MVS(Multiview Stereo)를 사용하여 기저(base) 지오메트리를 얻은 다음 확산 반사를 가정함으로써 추정된 표면 법선을 사용하여 지오메트리를 업데이트한다. 다른 일 실시예 기술은 Kinect Fusion을 사용하여 표면의 표시된 거리 함수를 얻고, 표면 음영 큐(cues)를 사용하여 거리 함수를 정제한다. 또 다른 일 실시예 기술은 두 개의 모바일 장치를 각각 카메라와 광원으로 사용하며, 다양한 광 방향하의 고정된 시점에서 여러 이미지를 가져 와서 측광 스테레오로부터 표면을 재구성한다. 최근의 다른 방법들은 객체의 3D 형상을 캡쳐하기 위해 스마트폰 카메라 또는 큰 장면의 사용을 추가로 입증하였으며, 이 방법들은 SfM 및 MVS 기술을 기반으로 한다. 이러한 모든 방법들은 재구성되는 객체의 표면 반사가 확산만 한다고 가정하기 때문에 SVBRDF 정보를 복구할 수 없다.Shaded normals are often used to improve geometry detail by assuming reflectance, which only has diffusion throughout the object. One embodiment technique for 3D reconstruction assuming only diffuse reflection is obtained using base structure estimated using SfM (Structural From Motion) and Multiview Stereo (MVS), and then assuming diffuse reflection, using the estimated surface normal geometry Update it. Another embodiment technique uses Kinect Fusion to obtain the indicated distance function of the surface, and refines the distance function using surface shading cues. Another embodiment technique uses two mobile devices as a camera and a light source, respectively, and takes multiple images at fixed viewpoints under various light directions to reconstruct the surface from the metering stereo. Other recent methods have further demonstrated the use of smartphone cameras or large scenes to capture the 3D shape of the objects, which are based on SfM and MVS technologies. All of these methods cannot recover SVBRDF information, assuming that the surface reflection of the reconstructed object only diffuses.
반사 및 3D 지오메트리의 동시 획득에 대해 설명하면, 반사와 3D 지오메트리를 동시에 포착하는 이전의 연구들은 가격이 수십만 달러에 달하는 특수 하드웨어 셋업에 의존하였다. 예를 들어, 편광 광원을 이용한 이산 구형 조명에 의존하는 많은 광 단계 설계들이 존재한다. 일 실시예의 기술은 고조파 패턴으로 연속 구형 조명을 생성하기 위해 빠르게 공전하는 LED 암(arm)과 비슷한 구조를 만들었으며, 다른 일 실시예 기술은 3D 지오메트리를 위한 위상 이동 패턴을 사용하여 2개의 기계 암에 프로젝터-카메라 쌍이 장착된 구형 갠트리를 만들었고, 여러 카메라의 유사한 돔 구조가 제시되기도 하였다. 이 구조는 3D 지오메트리에 대한 구조화된 광 패턴을 사용하고 BTF(bidirectional texture functions)로 반사를 나타낸다.Explaining the simultaneous acquisition of reflections and 3D geometry, previous studies that captured reflections and 3D geometry simultaneously relied on special hardware setups costing hundreds of thousands of dollars. For example, there are many optical stage designs that rely on discrete spherical illumination using polarized light sources. The technique of one embodiment has created a structure similar to an LED arm that orbits rapidly to generate a continuous spherical light in a harmonic pattern, and another embodiment technique uses two mechanical arms using a phase shift pattern for 3D geometry. In this case, a spherical gantry with a projector-camera pair was created, and similar dome structures of several cameras were presented. This structure uses structured light patterns for 3D geometry and exhibits reflections with bidirectional texture functions (BTF).
또한, 광 프로브, 다중 광 구조 또는 RGB-D 카메라와 같이 저렴한 하드웨어를 필요로 하는 보다 적용 가능한 방법들이 존재한다. 일 실시예 기술은 서클 보드에 72개의 LED 조명으로 구성된 다중 라이트 장치를 제작하여 SfM과 측광 스테레오를 결합함으로써 3D 지오메트리를 얻을 수 있도록 함으로써, 3D 지오메트리를 기반으로 SVBRDF를 더 추정하지만, 이 정보를 사용하여 지오메트리 또는 표면 법선을 정제하지는 않는다. 다른 일 실시예 기술은 광 프로브를 캡쳐함으로써, 구면 조명을 추정하기 위한 환경 맵을 이용하여 역 렌더링 문제를 해결한다. 또 다른 일 실시예 기술은 기계적 회전 스테이지를 사용하여 천 프레임 이상의 비디오 시퀀스를 캡쳐하는데, 이 방법은 꼭지점(또는 정점) 당 조명의 적어도 두 가지 명확한 변화를 가지는 고밀도 샘플링을 필요로 한다. 또 다른 일 실시예 기술은 Kinect Fusion을 이용한 뎁스 정보 의존 뿐만 아니라, 뎁스 카메라로부터 구형 조명 또는 IR 조명을 사용한다. 최근에는 구조화된 조명의 입력 지오메트리에 의존하는 고해상도 법선을 사용하여 확산 반사 및 정반사(specular reflection)의 편광 외관을 캡쳐할 수 있는 SVBRDF 획득 방법을 제안하였다.In addition, there are more applicable methods that require inexpensive hardware such as optical probes, multiple optical structures or RGB-D cameras. One embodiment technique further estimates SVBRDF based on 3D geometry by making a multi-light device consisting of 72 LED lights on a circle board to obtain 3D geometry by combining SfM and metering stereo, but using this information It does not refine the geometry or surface normals. Another embodiment technique solves the inverse rendering problem by using an environment map for estimating spherical illumination by capturing an optical probe. Another embodiment technique uses a mechanical rotating stage to capture a sequence of videos over a thousand frames, which requires high density sampling with at least two distinct changes in illumination per vertex (or vertex). Another embodiment technique uses spherical illumination or IR illumination from a depth camera, as well as relying on depth information using Kinect Fusion. Recently, we proposed an SVBRDF acquisition method that can capture the polarized appearance of diffuse reflections and specular reflections using high-resolution normals that rely on the input geometry of structured lighting.
이러한 시스템들은 특수한 하드웨어 예를 들어, 부피가 크거나, 구축 비용이 비싸거나, 확보하기 어려울 수 있는 하드웨어에 의존하거나, 다중 광, 구형 조명 또는 뎁스와 같은 추가 정보 소스들을 사용한다. 또한, 기존 방법들은 일반적으로 시간이 많이 걸리는 보정 프로세스를 필요로 하는 반면, 획득 시간은 수 시간 정도 걸리는 경우가 많다.These systems rely on special hardware, such as bulky, expensive to build, or hardware that may be difficult to secure, or use additional sources of information such as multiple light, spherical lighting or depth. In addition, existing methods generally require a time-consuming calibration process, while acquisition times often take hours.
본 발명의 실시예들은, 인공조명 예를 들어, 플래시가 켜진 상태에서 촬영된 사진 또는 영상으로부터 3차원 객체의 형상 정보와 표면 반사계 정보(BRDF)를 측정 또는 획득할 수 있는 방법 및 그 장치를 제공한다.Embodiments of the present invention, artificial lighting, for example, a method and apparatus for measuring or obtaining the shape information and surface reflectometer information (BRDF) of a three-dimensional object from a photograph or image taken with the flash on to provide.
본 발명의 일 실시예에 따른 3차원 객체 획득 방법은 카메라에 의해 촬영된 3차원 객체에 대한 복수의 이미지를 수신하는 단계; 상기 수신된 복수의 이미지에 기초하여 상기 3차원 객체에 대한 공간적으로 변화하는 표면 반사계 정보를 재구성하는 단계; 상기 재구성된 공간적으로 변화하는 표면 반사계 정보에 기초하여 상기 3차원 객체에 대한 음영 법선을 추정하는 단계; 및 상기 추정된 음영 법선에 기초하여 상기 3차원 객체에 대한 3차원 지오메트리(geometry)를 획득하는 단계를 포함한다.A 3D object acquisition method according to an embodiment of the present invention includes receiving a plurality of images of a 3D object photographed by a camera; Reconstructing spatially changing surface reflectometer information for the 3D object based on the received plurality of images; Estimating a shadow normal for the 3D object based on the reconstructed spatially changing surface reflectometer information; And obtaining 3D geometry for the 3D object based on the estimated shading normal.
상기 재구성하는 단계는 상기 수신된 복수의 이미지에 기초하여 상기 3차원 객체에 대한 기저 표면 반사계 정보를 추정하고, 상기 추정된 기저 표면 반사계 정보와 공간적으로 변화하는 가중치 맵에 기초하여 상기 공간적으로 변화하는 표면 반사계 정보를 재구성할 수 있다.The reconstructing step estimates base surface reflectometer information for the 3D object based on the received plurality of images, and spatially changes the weight based on the estimated base surface reflectometer information and a spatially varying weight map. The changing surface reflectometer information can be reconstructed.
나아가. 본 발명의 일 실시예에 따른 3차원 객체 획득 방법은 상기 카메라의 외부 파라미터와 상기 복수의 이미지에 기초하여 상기 3차원 객체의 기저 지오메트리를 획득하는 단계를 더 포함하고, 상기 재구성하는 단계는 상기 복수의 이미지와 상기 기저 지오메트리에 기초하여 상기 공간적으로 변화하는 표면 반사계 정보를 재구성할 수 있다.Furthermore. The method for acquiring a 3D object according to an embodiment of the present invention further includes acquiring a base geometry of the 3D object based on external parameters of the camera and the plurality of images, and the reconstructing step includes the plurality of Based on the image and the base geometry, it is possible to reconstruct the spatially changing surface reflectometer information.
상기 재구성하는 단계와 상기 추정하는 단계는 상기 카메라에 대해 미리 설정된 이미지 형성 모델을 만족시키는 역 렌더링(inverse rendering) 기법을 이용하여 상기 공간적으로 변화하는 표면 반사계 정보를 재구성하고, 상기 음영 법선을 추정할 수 있다.The reconstructing step and the estimating step reconstruct the spatially changing surface reflectometer information using an inverse rendering technique that satisfies a preset image forming model for the camera, and estimate the shading normal can do.
상기 획득하는 단계는 포아송(Poisson) 표면 재구성 기법을 이용하여 상기 3차원 지오메트리를 획득할 수 있다.The acquiring step may acquire the three-dimensional geometry using a Poisson surface reconstruction technique.
상기 재구성하는 단계는 상기 획득된 3차원 지오메트리와 상기 복수의 이미지에 기초하여 상기 공간적으로 변화하는 표면 반사계 정보를 업데이트하고, 상기 추정하는 단계는 상기 업데이트된 공간적으로 변화하는 표면 반사계 정보에 기초하여 상기 음영 법선을 업데이트하며, 상기 획득하는 단계는 상기 업데이트된 음영 법선에 기초하여 상기 3차원 지오메트리를 업데이트할 수 있다.The reconstructing step updates the spatially changing surface reflectometer information based on the obtained 3D geometry and the plurality of images, and the estimating step is based on the updated spatially changing surface reflectometer information By updating the shading normal, the acquiring step may update the 3D geometry based on the updated shading normal.
상기 수신하는 단계는 인공조명이 켜진 상태에서 촬영된 상기 3차원 객체에 대한 복수의 이미지를 수신할 수 있다.In the receiving step, a plurality of images of the 3D object photographed while artificial lighting is on may be received.
더 나아가, 본 발명의 일 실시예에 따른 3차원 객체 획득 방법은 멀티뷰 스테레오를 사용하여 상기 복수의 이미지와 상기 카메라의 포즈로부터 상기 3차원 객체에 대한 3차원 포인트 클라우드를 획득하는 단계; 상기 3차원 포인트 클라우드와 포아송 표면 재구성 기법에 기초하여 상기 3차원 객체에 대한 기저 메쉬를 생성하는 단계; 및 상기 기저 메쉬를 세분화하여 상기 3차원 객체에 대한 초기 지오메트리를 획득하는 단계를 더 포함하고, 상기 재구성하는 단계는 상기 복수의 이미지와 상기 초기 지오메트리에 기초하여 상기 공간적으로 변화하는 표면 반사계 정보를 재구성할 수 있다.Furthermore, a 3D object acquisition method according to an embodiment of the present invention includes obtaining a 3D point cloud for the 3D object from the plurality of images and the pose of the camera using multiview stereo; Generating a base mesh for the 3D object based on the 3D point cloud and Poisson surface reconstruction technique; And subdividing the base mesh to obtain initial geometry for the 3D object, and the reconstructing step includes the spatially changing surface reflectometer information based on the plurality of images and the initial geometry. Can be reconstructed.
본 발명의 다른 일 실시예에 따른 3차원 객체 획득 방법은 인공 조명이 켜진 상태에서 카메라에 의해 촬영된 3차원 객체에 대한 복수의 이미지를 수신하는 단계; 및 상기 수신된 복수의 이미지와 포아송 표면 재구성 기법에 기초하여 상기 3차원 객체에 대한 공간적으로 변화하는 표면 반사계 정보와 3차원 지오메트리를 획득하는 단계를 포함한다.A method for acquiring a 3D object according to another embodiment of the present invention includes receiving a plurality of images of a 3D object photographed by a camera while artificial lighting is on; And acquiring spatially changing surface reflectometer information and 3D geometry for the 3D object based on the received plurality of images and Poisson surface reconstruction technique.
상기 획득하는 단계는 상기 수신된 복수의 이미지에 기초하여 상기 공간적으로 변화하는 표면 반사계 정보를 재구성하는 단계; 상기 재구성된 공간적으로 변화하는 표면 반사계 정보에 기초하여 상기 3차원 객체에 대한 음영 법선을 추정하는 단계; 및 상기 추정된 음영 법선과 상기 포아송 표면 재구성 기법에 기초하여 상기 3차원 지오메트리를 획득하는 단계를 포함할 수 있다.The acquiring may include reconstructing the spatially changing surface reflectometer information based on the received plurality of images; Estimating a shadow normal for the 3D object based on the reconstructed spatially changing surface reflectometer information; And acquiring the 3D geometry based on the estimated shading normal and the Poisson surface reconstruction technique.
본 발명의 일 실시예에 따른 3차원 객체 획득 장치는 카메라에 의해 촬영된 3차원 객체에 대한 복수의 이미지를 수신하는 수신부; 상기 수신된 복수의 이미지에 기초하여 상기 3차원 객체에 대한 공간적으로 변화하는 표면 반사계 정보를 재구성하는 재구성부; 상기 재구성된 공간적으로 변화하는 표면 반사계 정보에 기초하여 상기 3차원 객체에 대한 음영 법선을 추정하는 추정부; 및 상기 추정된 음영 법선에 기초하여 상기 3차원 객체에 대한 3차원 지오메트리를 획득하는 획득부를 포함한다.An apparatus for acquiring a 3D object according to an embodiment of the present invention includes a receiver configured to receive a plurality of images of a 3D object photographed by a camera; A reconstruction unit reconstructing spatially changing surface reflectometer information for the 3D object based on the received plurality of images; An estimator for estimating a shadow normal for the 3D object based on the reconstructed spatially changing surface reflectometer information; And an acquiring unit acquiring 3D geometry for the 3D object based on the estimated shadow normal.
상기 재구성부는 상기 수신된 복수의 이미지에 기초하여 상기 3차원 객체에 대한 기저 표면 반사계 정보를 추정하고, 상기 추정된 기저 표면 반사계 정보와 공간적으로 변화하는 가중치 맵에 기초하여 상기 공간적으로 변화하는 표면 반사계 정보를 재구성할 수 있다.The reconstruction unit estimates base surface reflectometer information for the 3D object based on the received plurality of images, and changes spatially based on the estimated base surface reflectometer information and a spatially changing weight map. The surface reflectometer information can be reconstructed.
상기 재구성부는 상기 카메라의 외부 파라미터와 상기 복수의 이미지에 기초하여 상기 3차원 객체의 기저 지오메트리를 획득하고, 상기 복수의 이미지와 상기 기저 지오메트리에 기초하여 상기 공간적으로 변화하는 표면 반사계 정보를 재구성할 수 있다.The reconstruction unit acquires the base geometry of the 3D object based on the camera's external parameters and the plurality of images, and reconstructs the spatially changing surface reflectometer information based on the plurality of images and the basis geometry. You can.
상기 재구성부와 상기 추정부는 상기 카메라에 대해 미리 설정된 이미지 형성 모델을 만족시키는 역 렌더링 기법을 이용하여 상기 공간적으로 변화하는 표면 반사계 정보를 재구성하고, 상기 음영 법선을 추정할 수 있다.The reconstructing unit and the estimating unit may reconstruct the spatially changing surface reflectometer information using an inverse rendering technique that satisfies a preset image forming model for the camera, and estimate the shading normal.
상기 획득부는 포아송 표면 재구성 기법을 이용하여 상기 3차원 지오메트리를 획득할 수 있다.The acquiring unit may acquire the 3D geometry using a Poisson surface reconstruction technique.
상기 재구성부는 상기 획득된 3차원 지오메트리와 상기 복수의 이미지에 기초하여 상기 공간적으로 변화하는 표면 반사계 정보를 업데이트하고, 상기 추정부는 상기 업데이트된 공간적으로 변화하는 표면 반사계 정보에 기초하여 상기 음영 법선을 업데이트하며, 상기 획득부는 상기 업데이트된 음영 법선에 기초하여 상기 3차원 지오메트리를 업데이트할 수 있다.The reconstructing unit updates the spatially changing surface reflectometer information based on the obtained three-dimensional geometry and the plurality of images, and the estimating unit is configured to shade the normal based on the updated spatially changing surface reflectometer information. And updating, the obtaining unit may update the 3D geometry based on the updated shadow normal.
상기 수신부는 인공조명이 켜진 상태에서 촬영된 상기 3차원 객체에 대한 복수의 이미지를 수신할 수 있다.The receiving unit may receive a plurality of images of the 3D object photographed while artificial lighting is on.
상기 재구성부는 멀티뷰 스테레오를 사용하여 상기 복수의 이미지와 상기 카메라의 포즈로부터 상기 3차원 객체에 대한 3차원 포인트 클라우드를 획득하고, 상기 3차원 포인트 클라우드와 포아송 표면 재구성 기법에 기초하여 상기 3차원 객체에 대한 기저 메쉬를 생성하며, 상기 기저 메쉬를 세분화하여 상기 3차원 객체에 대한 초기 지오메트리를 획득하고, 상기 복수의 이미지와 상기 초기 지오메트리에 기초하여 상기 공간적으로 변화하는 표면 반사계 정보를 재구성할 수 있다.The reconstruction unit acquires a 3D point cloud for the 3D object from the poses of the plurality of images and the camera using multiview stereo, and based on the 3D point cloud and Poisson surface reconstruction technique, the 3D object To generate a base mesh for, and to subdivide the base mesh to obtain the initial geometry for the three-dimensional object, it is possible to reconstruct the spatially changing surface reflectometer information based on the plurality of images and the initial geometry have.
본 발명의 또 다른 일 실시예에 따른 3차원 객체 획득 방법은 카메라에 의해 촬영된 3차원 객체에 대한 복수의 이미지들을 수신하는 단계; 상기 수신된 복수의 이미지들에 기초하여 상기 3차원 객체에 대한 공간적으로 변화하는 표면 반사계 정보를 재구성하는 단계; 및 상기 재구성된 공간적으로 변화하는 표면 반사계 정보에 기초하여 상기 3차원 객체에 대한 3차원 지오메트리(geometry)를 획득하는 단계를 포함한다.A method for acquiring a 3D object according to another embodiment of the present invention includes receiving a plurality of images of a 3D object taken by a camera; Reconstructing spatially changing surface reflectometer information for the 3D object based on the received plurality of images; And acquiring 3D geometry for the 3D object based on the reconstructed spatially changing surface reflectometer information.
상기 재구성하는 단계는 상기 수신된 복수의 이미지들과 상기 3차원 객체에 대한 뎁스 정보에 기초하여 상기 3차원 객체에 대한 공간적으로 변화하는 표면 반사계 정보를 재구성할 수 있다.The reconstructing may reconstruct spatially changing surface reflectometer information for the 3D object based on the received plurality of images and depth information for the 3D object.
본 발명의 실시예들에 따르면, 일반적인 플래시가 장착된 카메라를 이용하여 특수 장비를 사용해야만 측정 가능하던 3차원 객체의 형상 정보와 표면 반사계 정보(BRDF)를 동시에 측정할 수 있다.According to embodiments of the present invention, it is possible to simultaneously measure shape information and surface reflectometer information (BRDF) of a 3D object that can be measured only by using special equipment using a camera equipped with a general flash.
본 발명의 실시예들에 따르면, 특수한 장비에 의존하지 않고 고품질의 3차원 형상 정보와 BRDF 표면 반사계 정보를 측정할 수 있기 때문에 3차원 스캔 기술의 보급화에 영향을 줄 수 있다.According to embodiments of the present invention, since it is possible to measure high-quality 3D shape information and BRDF surface reflectometer information without relying on special equipment, it may affect the spread of 3D scanning technology.
본 발명은 3차원 모델의 극사실적인 렌더링을 위해 반드시 요구되는 기술이며, 따라서, 가상 현실과 증강 현실 기술 그리고 이를 이용한 다양한 어플리케이션에 적용할 수 있다.The present invention is a technique required for extremely realistic rendering of a 3D model, and thus, it can be applied to virtual reality and augmented reality technologies and various applications using the same.
도 1은 본 발명의 일 실시예에 따른 3차원 객체 획득 방법에 대한 동작 흐름도를 나타낸 것이다.1 is a flowchart illustrating an operation of a 3D object acquisition method according to an embodiment of the present invention.
도 2는 본 발명에 따른 3차원 객체 획득 방법의 개요를 설명하기 위한 일 예시도를 나타낸 것이다.Figure 2 shows an exemplary view for explaining the outline of the three-dimensional object acquisition method according to the present invention.
도 3은 광과 카메라의 Rusinkiewicz 매개 변수(a)와 스마트폰으로 본 발명의 지오메트리(b)에 대한 일 예시도를 나타낸 것이다.Figure 3 shows an exemplary view of the geometry (b) of the present invention with a Rusinkiewicz parameter (a) of a light and camera and a smartphone.
도 4는 3차원 지오메트리를 업데이트하는 과정을 설명하기 위한 일 예시도를 나타낸 것이다.4 illustrates an exemplary diagram for explaining a process of updating a 3D geometry.
도 5는 본 발명의 구조화되지 않은 캡쳐 셋업에 대한 Nehab 방법과 스크리닝된 포아송 재구성 방법의 비교 결과에 대한 일 예시도를 나타낸 것이다.FIG. 5 shows an exemplary diagram for a comparison result of the Nehab method and the screened Poisson reconstruction method for the unstructured capture setup of the present invention.
도 6은 본 발명의 일 실시예에 따른 3차원 객체 획득 장치에 대한 구성을 나타낸 것이다.6 illustrates a configuration of a 3D object acquisition device according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형 태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various different forms, and only the present embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains. It is provided to completely inform the person having the scope of the invention, and the present invention is only defined by the scope of the claims.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상 의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for describing the embodiments, and is not intended to limit the present invention. In this specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein, "comprises" and / or "comprising" refers to the components, steps, operations, and / or elements mentioned above of one or more other components, steps, operations, and / or elements. Presence or addition is not excluded.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사 전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings commonly understood by those skilled in the art to which the present invention pertains. In addition, commonly used terms defined in the dictionary are not ideally or excessively interpreted unless specifically defined.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예들을 보다 상세하게 설명하고자 한다. 도면 상의 동일한 구성요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The same reference numerals are used for the same components in the drawings, and duplicate descriptions for the same components are omitted.
하나의 핸드헬드 카메라 예를 들어, 일반적인 스마트폰 또는 DSLR 카메라만으로 3D 객체의 공간적으로 변화하는 표면 반사계 정보(SVBRDF)를 캡쳐하는 것은 어렵다. 기존 기술들은 평면 지오메트리로 제한되거나 이전에 스캔된 3D 지오메트리에 의존하므로 실용성이 제한적이며, 극복해야 할 몇 가지 기술적 과제가 존재한다. 카메라의 내장 플래시가 렌즈와 거의 같은 위치에 고정되어 위치하며, 이러한 점은 광-뷰 공간에서 샘플링 절차를 심각하게 방해한다. 또한, 근접-필드 플래시는 객체를 부분적으로 그리고 불균일하게 조명한다. 지오메트리 측면에서, 종래 멀티 뷰 스테레오 기법은 확산 반사만을 가정하므로 3D 재구성이 지나치게 부드럽게 진행된다. It is difficult to capture spatially changing surface reflectometer information (SVBRDF) of a 3D object with only one handheld camera, for example, a typical smartphone or DSLR camera. Existing technologies are limited to planar geometry or rely on previously scanned 3D geometry, so their practicality is limited, and there are some technical challenges to overcome. The camera's built-in flash is positioned fixed at about the same position as the lens, which seriously interferes with the sampling process in the light-view space. Also, the near-field flash illuminates the object partially and non-uniformly. In terms of geometry, the conventional multi-view stereo technique only assumes diffuse reflection, so 3D reconstruction proceeds too smoothly.
본 발명의 실시예들은, 일반적인 플래시가 장착된 카메라를 이용하여 특수 장비를 사용해야만 측정 가능하던 3차원 객체의 형상 정보와 표면 반사계 정보(BRDF)를 동시에 측정하는 것을 그 요지로 한다.Summary of the Invention Embodiments of the present invention are to measure shape information and surface reflectometer information (BRDF) of a 3D object that can be measured only by using special equipment using a camera equipped with a general flash.
즉, 본 발명은 고가의 전용 하드웨어에 대한 필요성을 제거하는 단순하면서도 강력한 프레임 워크를 제공함으로써, 플래시가 내장된 단일 카메라로 실제 3D 객체의 형상 정보와 SVBRDF 정보를 동시에 측정할 수 있다.That is, the present invention provides a simple yet powerful framework that eliminates the need for expensive dedicated hardware, so that the shape information and SVBRDF information of an actual 3D object can be measured simultaneously with a single camera with built-in flash.
이러한 본 발명은 확산 반사 가정을 제거하고 SVBRDF 정보를 활용함으로써 최첨단 멀티 뷰 스테레오 기술보다 더 정확한 고주파 세부 정보를 포함하는 고품질 3D 지오메트리 재구성을 제공할 수 있다.The present invention can provide a high-quality 3D geometry reconstruction including more accurate high-frequency details than cutting-edge multi-view stereo technology by eliminating diffuse reflection assumptions and utilizing SVBRDF information.
본 발명은 SVBRDFs, 음영 법선(shading normals) 및 3D 지오메트리의 공동 재구성을 다중 단계 역-렌더링 파이프 라인으로 공식화할 수 있으며, 기존의 멀티 뷰 3D 재구성 기술에 직접 적용할 수도 있다.The present invention can formulate co-reconstruction of SVBRDFs, shading normals, and 3D geometry into a multi-stage inverse-rendering pipeline, and can also be applied directly to existing multi-view 3D reconstruction techniques.
여기서, 공동 재구성은 점진적으로 3D 대 2D 대응을 향상시키는 다중 단계 예를 들어, 반복적이며 상호 교환적인 최적화 역-렌더링 파이프 라인에서 수행되어 SVBRDF와 3D 지오메트리 모두의 고품질 재구성을 유도할 수 있다.Here, co-reconstruction can be performed in a multi-step, eg, iterative and interactive optimization reverse-rendering pipeline that progressively enhances 3D to 2D correspondence, leading to high quality reconstruction of both SVBRDF and 3D geometry.
도 1은 본 발명의 일 실시예에 따른 3차원 객체 획득 방법에 대한 동작 흐름도를 나타낸 것이다.1 is a flowchart illustrating an operation of a 3D object acquisition method according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 3차원 객체 획득 방법은 인공조명이 켜진 상태에서 카메라에 의해 촬영된 3차원 객체에 대한 복수의 이미지를 수신한다(S110).Referring to FIG. 1, a method for acquiring a 3D object according to an embodiment of the present invention receives a plurality of images of a 3D object photographed by a camera while artificial lighting is turned on (S110).
여기서, 단계 S110은 서로 다른 두 가지의 노출에 의해 촬영된 복수의 이미지 예를 들어, 사진들을 수신할 수 있다.Here, step S110 may receive a plurality of images, for example, pictures, taken by two different exposures.
단계 S110에 의해 인공조명에 의해 촬영된 복수의 이미지가 수신되면, 수신된 복수의 이미지에 기초하여 3차원 객체에 대한 공간적으로 변화하는 표면 반사계 정보(SVBRDF)를 재구성한다(S120).When a plurality of images photographed by artificial lighting is received in step S110, spatially changing surface reflectometer information (SVBRDF) for a 3D object is reconstructed based on the received plurality of images (S120).
여기서, 단계 S120은 수신된 복수의 이미지에 기초하여 3차원 객체에 대한 기저 표면 반사계 정보(BRDF)를 추정하고, 추정된 기저 표면 반사계 정보와 공간적으로 변화하는 가중치 맵에 기초하여 SVBRDF를 재구성할 수 있다.Here, step S120 estimates the base surface reflectometer information (BRDF) for the 3D object based on the received plurality of images, and reconstructs the SVBRDF based on the estimated base surface reflectometer information and the spatially changing weight map. can do.
단계 S120에 의해 3차원 객체에 대한 SVBRDF가 재구성되면 재구성된 SVBRDF에 기초하여 3차원 객체에 대한 음영 법선을 추정하고, 추정된 음영 법선에 기초하여 3차원 객체에 대한 3차원 지오메트리를 획득한다(S130, S140).When the SVBRDF for the 3D object is reconstructed in step S120, the shadow normal for the 3D object is estimated based on the reconstructed SVBRDF, and the 3D geometry for the 3D object is obtained based on the estimated shadow normal (S130) , S140).
여기서, 단계 S140은 포아송(Poisson) 표면 재구성 기법을 이용하여 3차원 지오메트리를 획득할 수 있다.Here, step S140 may acquire a 3D geometry using a Poisson surface reconstruction technique.
단계 S140에 의해 3차원 지오메트리가 획득되면 오차가 수렴되는지 판단하고 오차가 수렴되지 않는 경우 업데이트 과정을 반복 수행함으로써, SVBRDF, 음영 법선 및 3차원 지오메트리를 업데이트한다(S150, S160).When the 3D geometry is obtained in step S140, it is determined whether the error converges, and if the error is not converged, the update process is repeatedly performed to update the SVBRDF, the shadow normal, and the 3D geometry (S150, S160).
비록, 도 1에 도시하진 않았지만, 본 발명의 실시예에 따른 방법은 멀티뷰 스테레오를 사용하여 복수의 이미지와 카메라의 포즈로부터 3차원 객체에 대한 3차원 포인트 클라우드를 획득하고, 3차원 포인트 클라우드와 포아송 표면 재구성 기법에 기초하여 3차원 객체에 대한 기저 메쉬를 생성하며, 기저 메쉬를 세분화하여 3차원 객체에 대한 초기 지오메트리를 획득하는 과정을 더 포함하고, 단계 S120은 복수의 이미지와 초기 지오메트리에 기초하여 SVBRDF를 재구성할 수 있다.Although not shown in FIG. 1, the method according to an embodiment of the present invention acquires a 3D point cloud for a 3D object from a plurality of images and poses of a camera using multiview stereo, and the 3D point cloud Based on the Poisson surface reconstruction technique, the method further includes generating a base mesh for the 3D object, and subdividing the base mesh to obtain initial geometry for the 3D object, and step S120 is based on the plurality of images and the initial geometry. SVBRDF can be reconstructed.
이러한 본 발명에 따른 방법에 대해 도 2 내지 도 5를 참조하여 상세히 설명하면 다음과 같다.The method according to the present invention will be described in detail with reference to FIGS. 2 to 5 as follows.
아래 표 1은 본 발명에서 사용되는 변수들을 정의한 것이다.Table 1 below defines the variables used in the present invention.
x p x p 3D position of p-th vertex, p = 1, . . . , P3D position of p-th vertex, p = 1,. . . , P
n p n p geometric normal of x p geometric normal of x p
n ~ p n to p shading normal of x p shading normal of x p
i p,k i p, k light direction of x p at k-th cameralight direction of x p at k-th camera
o p,k o p, k view direction of x p at k-th cameraview direction of x p at k-th camera
L(o p,k;x p)L (o p, k ; x p ) outgoing radiance from x p towards o p,k outgoing radiance from x p towards o p, k
L(-i p,k;x p)L (-i p, k ; x p ) incoming radiance at x p from -i p,k incoming radiance at x p from -i p, k
f(i,o;x,n)f (i, o; x, n) BRDF at xBRDF at x
f b(i,o)f b (i, o) b-th basis BRDF, b = 1, . . . , Bb-th basis BRDF, b = 1,. . . , B
ω p,b ω p, b blending weight of f b at x p blending weight of f b at x p
υ p,b υ p, b visibility of x p at I k visibility of x p at I k
F b F b set of basis BRDFs, {f b}set of basis BRDFs, {f b }
WW set of blending weights, {ω p,b}set of blending weights, {ω p, b }
NN set of shading normals, {set of shading normals, {
XX set of 3D points, {x p}set of 3D points, {x p }
도 2는 본 발명에 따른 3차원 객체 획득 방법의 개요를 설명하기 위한 일 예시도를 나타낸 것이다.Figure 2 shows an exemplary view for explaining the outline of the three-dimensional object acquisition method according to the present invention.
도 2에 도시된 바와 같이, 본 발명의 방법은 일반 카메라 예를 들어, 핸드헬드 카메라에 의해 촬영된 인공조명 이미지를 입력으로 사용한다.As shown in Fig. 2, the method of the present invention uses an artificial lighting image photographed by a general camera, for example, a handheld camera.
이 때, 입력은 동적 범위를 확장하기 위해 두 가지 서로 다른 노출로 촬영된 K 개의 인공조명 이미지 I={I k}의 세트로 구성될 수 있으며, 노출 변화를 고려하여 I k를 선형 래디언스(linear radiance) L k로 변환할 수 있다.At this time, the input can be composed of a set of K artificial light images I = {I k } taken with two different exposures to expand the dynamic range, and considering the change in exposure, I k is linear radiance (linear radiance) L k .
그런 다음, 본 발명은 표면 반사계 정보(BRDF) F b의 세트와 대응 가중치 맵 W로 정의되는 SVBRDF 정보 F, 음영 법선 N 및 3D 지오메트리 X를 획득함으로써, 공식화할 수 있다. 먼저, 본 발명은 초기화 단계에서 SfM(Structural From Motion), MVS(Multiview Stereo) 및 메쉬 재구성을 포함하는 상용 3D 재구성 기법을 이용하여 카메라의 외부 파라미터와 대략적인(rough) 기저(base) 지오메트리를 획득한다. 그런 다음, 본 발명은 반복적인 단계를 이용하여 복구된 3D 지오메트리를 향상시키면서 SVBRDF 정보를 동시적으로 재구성한다. 반복적인 단계는 W, F b 및 N에 대한 첫 번째 근사값을 획득하는 것을 목표로 하는 역-렌더링 단계(inverse rendering)로 시작한다.Then, the present invention can be formulated by acquiring a set of surface reflectometer information (BRDF) F b and SVBRDF information F defined by a corresponding weight map W, shaded normal N and 3D geometry X. First, the present invention acquires external parameters and rough base geometry of the camera using a commercial 3D reconstruction technique including SfM (Structural From Motion), MVS (Multiview Stereo), and mesh reconstruction in the initialization step. do. Then, the present invention reconstructs SVBRDF information simultaneously while improving the reconstructed 3D geometry using an iterative step. The iterative step begins with an inverse rendering step aimed at obtaining the first approximation for W, F b and N.
본 발명에 따른 방법은 SVBRDF 정보 F를 재구성하고, SVBRDF 정보에 의존하는 음영 법선 N을 추정하고, W, F b 및 N을 획득한 후 포아송(Poisson) 표면 재구성을 통해 음영 법선 N의 변형 입력을 이용하여 3D 지오메트리 X의 세부 정보를 업데이트함으로써, 재구성 시의 측광 정합성을 강제로 추가할 수 있다.The method according to the present invention reconstructs the SVBRDF information F, estimates the shadow normal N depending on the SVBRDF information, obtains W, F b and N, and then inputs the deformation input of the shadow normal N through Poisson surface reconstruction. By updating the details of 3D geometry X using, it is possible to forcibly add photometric consistency during reconstruction.
여기서, 본 발명은 미리 설정된 오차가 수렴될 때까지 역-렌더링 과정과 지오메트리 재구성 과정을 반복한다. Here, the present invention repeats the inverse-rendering process and the geometry reconstruction process until a predetermined error converges.
본 발명은 카메라에 대한 플래시의 위치와 카메라 광학 파라미터를 추정하기만 하면 되는데, 플래시의 위치와 카메라 광학 파라미터 추정은 한 번만 수행될 수 있다. 여기서, 본 발명은 여러 개의 크롬 볼(chrome ball) 이미지와 바둑판(checkerboard) 이미지를 사용할 수 있다.The present invention only needs to estimate the position of the flash relative to the camera and the camera optical parameters, and the position of the flash and the estimation of the camera optical parameters can be performed only once. Here, the present invention may use multiple chrome ball images and a checkerboard image.
이미지 형성 모델(image formation model)Image formation model
본 발명은 인공조명 사진 세트를 입력으로 캡쳐하기 위해, 플래시가 내장된 상용 카메라를 사용한다. 상용 카메라의 동적 범위는 플래시 조명 하에서 상세한 정반사를 포착하기에 불충분하기 때문에 노출 시간 Δt를 변경 예를 들어, 플래시 광량이 고정된 휴대폰의 경우 노출 시간을 변경하거나 또는 플래시 강도 Δg를 변경한다. 여기서, 플래시 강도는 DSLR 카메라의 EV 번호에 대응될 수 있다. 픽셀 위치 u에 대한 이미지 형성 모델은 아래 <수학식 1>과 같이 공식화될 수 있다.The present invention uses a commercial camera with a built-in flash to capture a set of artificial lighting photos as input. Since the dynamic range of commercial cameras is insufficient to capture detailed specular reflections under flash lighting, the exposure time Δt is changed, for example, for a mobile phone with a fixed amount of flash light, the exposure time or flash intensity Δg is changed. Here, the flash intensity may correspond to the EV number of the DSLR camera. The image forming model for the pixel position u can be formulated as <Equation 1> below.
[수학식 1][Equation 1]
Figure PCTKR2019013099-appb-img-000001
Figure PCTKR2019013099-appb-img-000001
여기서, I(u)는 캡쳐된 이미지를 의미하고, L(o; x)는 3D 지오메트리 상의 포인트 x로부터 뷰 방향 o로 방출되는 래디언스(outgoing radiance)를 의미할 수 있다.Here, I (u) means the captured image, and L (o; x) may mean the outgoing radiance emitted from the point x on the 3D geometry in the view direction o.
포인트 x에서의 캡쳐된 래디언스는 아래 <수학식 2>와 같은 반사 수학식으로 공식화될 수 있다.The radiance captured at the point x can be formulated with a reflection equation as shown in <Equation 2> below.
[수학식 2][Equation 2]
Figure PCTKR2019013099-appb-img-000002
Figure PCTKR2019013099-appb-img-000002
여기서, f(i,o;x,n)는 포인트 x에서의 반사 함수를 의미하고, n은 법선 벡터를 의미하며, L(-i;x)는 광 벡터(light vector) i에 대한 x에서의 입사광(incident light)을 의미할 수 있다.Here, f (i, o; x, n) means the reflection function at point x, n means the normal vector, and L (-i; x) at x for the light vector i It may mean the incident light (incident light).
대응성Responsiveness 찾기(finding correspondences) Finding correspondences
핸드헬드 셋업에서, 다중 노출에 대한 정보는 2D의 픽셀 u 단위가 아니라 3D의 포인트 x 단위로 저장된다. 따라서, 본 발명은 x와 u 사이의 지오메트릭 관계를 획득할 필요가 있다.In a handheld setup, information about multiple exposures is stored in 3D points x units, not in 2D pixel u units. Therefore, the present invention needs to obtain a geometric relationship between x and u.
먼저, 본 발명은 내부 파라미터를 획득할 수 있는 방법을 이용하여 카메라의 내부 파라미터를 획득한다. 여기서, 내부 파라미터를 획득하는 방법은 다양한 방법이 있을 수 있으며, 이러한 방법은 이 기술 분야에 종사하는 당업자에게 있어서 자명하기에 그 상세한 설명은 생략한다.First, the present invention acquires internal parameters of the camera using a method capable of acquiring internal parameters. Here, the method for acquiring the internal parameter may be various methods, and such a method is obvious to those skilled in the art, and detailed description thereof is omitted.
카메라의 내부 파라미터를 획득하는 단계에서, 카메라 픽셀 u∈R 2와 이에 대응하여 캡쳐된 표면 포인트 x∈R 3 사이의 초기 관계가 투시(perspective) 투영 행렬 π∈R 3×3로 산출된다. 사진이 어떤 지지 구조(supporting structure)없이 캡쳐되기 때문에 SfM을 이용하여 각 사진에 대한 표면 포인트와 카메라 사이의 외부 관계를 정의하는 회전/이동 변환(rotation/translation transformation) 행렬 [R|t]∈R 3 ×4을 획득한다. 또한, 본 발명은 자동 초점으로 인한 초점 호흡(focus breathing) 효과를 보정함으로써, 보다 정확한 지오메트릭 대응을 위해 SfM을 이용하여 각 사진(picture)의 초점 길이와 같은 내부 파라미터를 점진적으로 업데이트할 수 있다. 결과적인 내부 및 외부 파라미터는 [u,1] =π[R|t][x,1] 와 같이 상기 수학식 1의 픽셀 u와 포인트 x 사이의 지오메트릭 관계를 정의한다.In the step of obtaining the internal parameters of the camera, the initial relationship between the camera 2 and the pixel u∈R In response to the captured surface x∈R point 3 is calculated in a perspective (perspective) projection matrix π∈R 3 × 3. Rotation / translation transformation matrix [R | t] ∈R which defines the external relationship between the surface point and camera for each photo using SfM because the photo is captured without any supporting structure Obtain 3 × 4 . In addition, the present invention can gradually update internal parameters such as a focal length of each picture using SfM for more accurate geometric response by correcting a focus breathing effect due to autofocus. . The resulting internal and external parameters define the geometric relationship between pixel u and point x in Equation 1, as [u, 1] = π [R | t] [x, 1] .
초기 Early 지오메트리Geometry (initial geometry)(initial geometry)
본 발명은 캡쳐된 이미지와 카메라 포즈로부터 MVS를 사용하여 고밀도 3D 포인트 클라우드를 획득한다. 그러나, 이 초기 포인트 클라우드는 일반적으로 플래시 조명으로 인해 생성되는 정반사로 인해 심각한 고주파 노이즈가 발생하여 MVS 방법의 기본 확산 텍스처 가정을 위반한다. 따라서, 본 발명은 이 노이즈를 감소시키기 위하여 스크리닝된 포아송 표면 재구성을 사용하여 저해상도 메쉬 예를 들어, 2 7 보셀(voxel) 격자 메쉬를 생성한다. 그런 다음, 본 발명은 저해상도 메쉬를 세분하여 초기 지오메트리로 사용되는 더 정교한 메쉬(finer mesh) 예를 들어, 2 10 격자 메쉬를 획득한다. 초기 지오메트리의 높은 해상도에도 불구하고, 포아송 재구성 단계에서 노이즈와 함께 제거되기 때문에 미세한 기하학적 세부 사항이 누락될 수 있다. 따라서, 본 발명은 반복적인 지오메트리 업데이트 알고리즘을 이용하여 이러한 세부 사항을 복구한다.The present invention acquires a high density 3D point cloud using MVS from captured images and camera poses. However, this initial point cloud generally violates the basic diffusion texture assumptions of the MVS method due to the high frequency noise caused by the specular reflection generated by flash lighting. Thus, the present invention uses a Poisson surface reconstruction screened to reduce this noise to produce a low resolution mesh, eg 2 7 voxel grid mesh. Then, the present invention subdivides the low-resolution mesh to obtain a finer mesh, such as 2 10 grid mesh, used as the initial geometry. Despite the high resolution of the initial geometry, fine geometrical details may be missing because it is removed along with the noise in the Poisson reconstruction step. Thus, the present invention recovers these details using an iterative geometry update algorithm.
공간적으로 변화하는 반사와 법선(SPATIALLY-VARYING REFLECTANCE AND NORMALS)SPATIALLY-VARYING REFLECTANCE AND NORMALS
본 발명은 입력 사진으로부터 SVBRDF(W, F b)와 법선 정보(N)를 획득한다. K개 사진의 서로 다른 광/뷰 방향 i k와 o k로부터 캡쳐된 P 표면(정점) 포인트 세트 X={x p}가 주어지면, 캡쳐된 래디언스(radiance)를 L={L(o k;x p)}로 나타낼 수 있다. 본 발명은 목적 함수를 최소화하는 두 개의 미지수 {f(i p,k,o p,k;x p,n p),n p}의 세트를 찾는 것으로 상기 수학식 2의 이미지 형성 모델을 만족시키는 역-렌더링 문제를 아래 <수학식 3>과 같이 공식화할 수 있다.The present invention acquires SVBRDF (W, F b ) and normal information (N) from an input photo. Given a set of P surface (vertex) points X = {x p } captured from different light / view directions i k and o k of the K photos, the captured radiance is L = {L (o k ; x p )}. The present invention satisfies the image forming model of Equation 2 by finding a set of two unknowns {f (i p, k , o p, k ; x p , n p ), n p } that minimizes the objective function. The inverse-rendering problem can be formulated as <Equation 3> below.
[수학식 3][Equation 3]
Figure PCTKR2019013099-appb-img-000003
Figure PCTKR2019013099-appb-img-000003
여기서, υ p,k는 이미지 k의 정점 x p의 가시성 함수를 의미할 수 있다.Here, υ p, k may mean the visibility function of the vertex x p of the image k.
반사 및 음영을 인수 분해하는 역 렌더링 문제는 매우 부당하고(ill-posed) 미결정된(underdetermined) 문제이다. 본 발명은 렌더링 결과가 입력 이미지를 만족시킬 때까지 네 개의 미지 요소 W, F b, N 및 X를 업데이트하는 반복적인 최적화 방법을 이용한다. 또한, 본 발명은 오버피팅을 방지하기 위해, 입력 사진을 서로 다른 트레이닝 및 테스트 데이터 세트로 분리하여 사용하지 않는 데이터 세트로 최적화된 파라미터들을 테스트한다. 먼저, 본 발명은 SVBRDF의 전체 공간을 재구성하고, 이 정보를 사용하여 법선을 획득한다.The inverse rendering problem of factoring reflections and shading is a very ill-posed and underdetermined problem. The present invention uses an iterative optimization method that updates four unknown elements W, F b , N and X until the rendering result satisfies the input image. In addition, in order to prevent overfitting, the present invention separates the input picture into different training and test data sets to test optimized parameters with unused data sets. First, the present invention reconstructs the entire space of the SVBRDF, and obtains a normal using this information.
SVBRDFSVBRDF (F)재구성 (Reconstructing the  (F) Reconstructing the SVBRDFSVBRDF ))
SVBRDF F를 획득하기 위해, 본 발명은 기저 BRDF의 세트 F b={f b}를 추정하고, 공간적으로 변화하는 가중치 맵 W와 추정된 기저 BRDF의 세트를 혼합(blend)한다. 이 때, 재구성된 SVBRDF F는 아래 <수학식 4>와 같이 공식화될 수 있다.In order to obtain SVBRDF F, the present invention estimates the set F b = {f b } of the base BRDF, and blends the spatially varying weight map W and the estimated set of the base BRDF. At this time, the reconstructed SVBRDF F can be formulated as <Equation 4> below.
[수학식 4][Equation 4]
Figure PCTKR2019013099-appb-img-000004
Figure PCTKR2019013099-appb-img-000004
여기서, W={w p ,b}는 포인트 단위 혼합 가중치(per-point blending weights) 세트를 의미할 수 있다.Here, W = {w p , b } may mean a set of per-point blending weights.
플래시 사진 Flash pictures 셋업set up (Flash photography setup)(Flash photography setup)
BRDF를 획득하려면 도 3a에 도시된 바와 같이 θ h, θ d 및 φ d의 고밀도 샘플링이 필요하다. 이 샘플링은 일반적으로 추가 지원 하드웨어를 사용하여 수행된다. Fresnel 효과는 θ d=cos -1(h·i)에 강하게 의존하는 반면, 정반사는 θ h=cos -1(h·n)의 함수로 급격하게 변화한다. 여기서, h는 중간 벡터(halfway vector)를 의미할 수 있다.To obtain the BRDF, high-density sampling of θ h , θ d and φ d is required as shown in FIG. 3A. This sampling is usually done using additional supporting hardware. The Fresnel effect strongly depends on θ d = cos -1 (h · i), while the specular reflection changes rapidly as a function of θ h = cos -1 (h · n). Here, h may mean a halfway vector.
한편, 반사는 h 주변의 광 i의 방위각인 φ d를 따라 거의 일정하게 유지된다. 본 발명의 셋업에서 캡쳐된 데이터 세트에는 θ h 및 φ d 차원을 따라 고밀도 샘플링이 포함된다. 그러나, 도 3b에 도시된 바와 같이, 본 발명의 셋업에서 광과 카메라가 고정되어 있고 매우 가깝기 때문에 고밀도 샘플링은 약 ~5°에서 θ d에 대한 단일 샘플로 이어진다. 여기서, 각도 θ h=5˚는 단일 샷 캡쳐를 위한 최적의 각도이다. On the other hand, the reflection is kept almost constant along the azimuth angle φ d of the light i around h. The data set captured in the setup of the present invention includes high density sampling along the θ h and φ d dimensions. However, as shown in FIG. 3B, high-density sampling leads to a single sample for θ d at about ˜5 ° because the light and camera are fixed and very close in the setup of the present invention. Here, the angle θ h = 5 ° is an optimal angle for single shot capture.
반사 모델(Reflectance model)Reflectance model
본 발명은 정반사의 더 나은 표현을 위해 비-파라미터 정규 분포 함수(non-parametric normal distribution function, NDF) 항과 함께 Cook-Torrance(CT) 모델을 사용한다. 상술한 바와 같이, 본 발명은 θ h와 φ d 각도를 따라 고밀도 샘플링을 수행하는 Beckmann과 같은 분석 함수에 의존하지 않는다. 본 발명의 기저 반사 모델 f b는 아래 <수학식 5>와 같이 표현될 수 있다.The present invention uses a Cook-Torrance (CT) model with a non-parametric normal distribution function (NDF) term for better representation of specular reflection. As described above, the present invention does not rely on an analytical function such as Beckmann that performs high-density sampling along θ h and φ d angles. The base reflection model f b of the present invention can be expressed as <Equation 5> below.
[수학식 5][Equation 5]
Figure PCTKR2019013099-appb-img-000005
Figure PCTKR2019013099-appb-img-000005
여기서, ρ d와 ρ s는 확산과 반사 알베도(albedo)를 의미하고, D는 반사(specularity)에 대한 단변량(univariate) NDF 항을 의미하며, G는 지오메트릭 항을 의미하고, F는 Fresnel 항을 의미할 수 있다.Here, ρ d and ρ s denote diffusion and reflection albedo, D denotes a univariate NDF term for specularity, G denotes a geometric term, and F denotes Fresnel Term.
NDF는 비-파라메트릭 테이블 함수 D(θ h)∈R M로 표현된다. 본 발명은 M=90로 셋업함으로써, 각 요소가 각도의 제곱근 매핑을 사용하여 해당 θ h에 BRDF 값을 저장한다. 본 발명은 음영/마스킹 항 G에 V-groove 공동(cavity) 모델을 사용할 수 있다. 여기서, 본 발명은 셋업에서 Fresnel 효과를 관찰할 수 없으므로, F 항을 상수로 셋업할 수 있다. 실제로, 이 셋업은 최적화 과정에서 복잡성을 감소시키는 데 도움이 된다. 이 때, 이 근사가 Fresnel 항에 대해 일정한 굴절률(index of refraction, IOR) 값을 사용하는 것보다 효과적일 수 있다.NDF is represented by the non-parametric table function D (θ h ) ∈R M. In the present invention, by setting M = 90, each element stores the BRDF value in the corresponding θ h using the square root mapping of the angle. The present invention can use a V-groove cavity model for shading / masking term G. Here, since the present invention cannot observe the Fresnel effect in the setup, the F term can be set as a constant. In practice, this setup helps reduce complexity in the optimization process. At this time, this approximation may be more effective than using a constant index of refraction (IOR) value for the Fresnel term.
SVBRDFsSVBRDFs 재구성(Reconstructing  Reconstructing SVBRDFsSVBRDFs ))
본 발명은 상기 수학식 5에서의 기저 BRDF를 계수 벡터(coefficient vector) f b=[ρ dsFD(θ h)] ∈R M+1로 표현할 수 있다. 지오메트릭 팩터 G는 계수 벡터에서 제외된다. 본 발명은 상기 수학식 2로부터 캡쳐된 래디언스를 캡쳐된 반사 f ' p ,k로 변환한다. 샘플링된 θ h 각도 및 픽셀 당 관찰 지오메트릭 팩터 G/(4(n·i)(n·o))를 특정하는 측정 벡터 Φ p,k∈R M + 1와 캡쳐된 반사 f ' p ,k주어지면, 본 발명은 f ' p ,kp,kf p를 획득한다. 본 발명은
Figure PCTKR2019013099-appb-img-000006
를 근사화하기 위하여 기저 BRDFs f b와 공간 가중치 w p ,b를 혼합할 수 있다. 그런 다음, 본 발명은 기저 BRDFs 및 이와 대응되는 가중치를 재구성하기 위하여 상기 수학식 3을 아래 <수학식 6>과 같이 목적 함수로 재공식화할 수 있다.
In the present invention, the base BRDF in Equation 5 can be expressed as a coefficient vector f b = [ρ d , ρ s FD (θ h )] ∈R M + 1 . The geometric factor G is excluded from the coefficient vector. The invention converts the reflection f 'p, k captured the captured radiance from the equation (2). A measurement vector Φ p, k ∈R M + 1 specifying the sampled θ h angle and the observed geometrical factor per pixel G / (4 (n · i) (n · o)) and the captured reflection f ' p , k given, the present invention obtains f 'p, k = Φ p, f k p. The present invention
Figure PCTKR2019013099-appb-img-000006
The base BRDFs f b and the spatial weights w p , b can be mixed to approximate. Then, the present invention can reform Equation 3 as an objective function as shown in <Equation 6> below to reconstruct base BRDFs and corresponding weights.
[수학식 6][Equation 6]
Figure PCTKR2019013099-appb-img-000007
Figure PCTKR2019013099-appb-img-000007
확산과 정반사를 보다 안정적으로 분리하기 위해, 본 발명은 Beckmann 및 GGX와 같은 종래 분포 함수를 따라 D(θ h>60)를 0으로 고정할 수 있다. 또한, 본 발명은 D(θ h)에 음이 아닌 단조성(monotonicity) 제약 조건을 적용할 수 있다. 예를 들어, θ h가 증가함에 따라 D(θ h)가 단조적으로 감소할 수 있다. 강한 정반(specular) 피크를 보다 정확하게 재현하기 위해, 부드러움(smoothness) 제한을 두지 않는다. F b를 업데이트하기 위해, W를 고정으로 유지하면서 상기 수학식 6을 최소화한다. 이는 희소(sparse) 입력 데이터를 가지는 F b에서 2차 프로그래밍 문제(quadratic programming problem)가 된다. 여기서, 본 발명은 상용 희소 2차 프로그래밍 솔버(solver)를 사용할 수 있다.In order to separate diffusion and specular reflection more stably, the present invention can fix D (θ h > 60) to 0 following conventional distribution functions such as Beckmann and GGX. In addition, the present invention can apply a non-negative monotonicity constraint to D (θ h ). For example, D (θ h ) may decrease monotonically as θ h increases. In order to more accurately reproduce strong specular peaks, no softness limits are placed. In order to update F b , Equation 6 is minimized while W is fixed. This becomes a quadratic programming problem in F b with sparse input data. Here, the present invention may use a commercial rare secondary programming solver.
W 재구성(Reconstructing W)W Reconstructing W
먼저, 본 발명은 CIELAB 공간에서 Kmean을 사용하여 클러스터링하는 정점 당 중앙(median) 밝기 주변의 색상 관측치를 평균함으로써, 기저 BRDF F b의 확산 구성 요소 세트를 추정한다. 이로 인해, 초기 바이너리 레이블된 가중치 세트 W가 생성된다. 기저 BRDFs는 여전히 해결해야 할 문제이다. 일 예로, 애드혹(ad-hoc) 방식을 이용하여 기저의 수를 점진적으로 결정하고, 최적화가 수렴할 때까지 이를 증가시킨다. 여기서, 기저의 수는 이전 기술들을 이용하여 설정될 수 있으며, 기저의 수는 상황에 따라 달라질 수 있다.First, the present invention estimates the set of diffusion components of the base BRDF F b by averaging color observations around median brightness per vertex clustering using Kmean in CIELAB space. This produces an initial binary labeled weight set W. The underlying BRDFs are still a problem to be solved. As an example, an ad-hoc method is used to gradually determine the number of bases and increase it until the optimization converges. Here, the number of bases may be set using previous techniques, and the number of bases may vary depending on the situation.
그 다음 반복에서, 본 발명은 이전 최적화에서 추정된 F b를 사용하여 W를 업데이트한다. 상기 수학식 6의 고정된 F b를 이용하여 W를 업데이트하는 것은 각 포인트 x p에서 아래 <수학식 7>과 같이 목적 함수를 최소화하는 것과 동일하다.In the next iteration, the present invention updates W using F b estimated in the previous optimization. Updating W by using the fixed F b of Equation 6 is the same as minimizing the objective function as shown in Equation 7 below at each point x p .
[수학식 7][Equation 7]
Figure PCTKR2019013099-appb-img-000008
Figure PCTKR2019013099-appb-img-000008
Q∈R K +B의 k번째 행은 [f 1(i p,k,o p,k),...,f B(i p,k,o p,k)]이며, r∈R K의 k번째 요소는 L(o p,k;x p)/L(-i p,k;x p)/(n p·i p,k)이다. 여기서, 본 발명은 가시성 υ p,k와 추가적인 가중치 w p ,k=cos(θ i)sin(θ h)를 Q 및 r의 각 요소들에 적용한다. 여기서, θ i=cos -1(n p·i p,k)를 의미하고, θ h=cos -1(n p·h p,k)를 의미할 수 있다. 코사인 항은 그레이징 각(grazing angles)에서의 불안정한 관측을 보상하지만, 사인 항은 반사 관측으로의 바이어스(bias)을 방지한다. 상기 수학식 7의 최소화는 표준 2차 프로그래밍 문제이다. 여기서, 본 발명은 convex 2차 프로그래밍 솔버를 사용하여 이 문제를 해결할 수 있다.The kth row of Q∈R K + B is [f 1 (i p, k , o p, k ), ..., f B (i p, k , o p, k )], r∈R K The kth element of is L (o p, k ; x p ) / L (-i p, k ; x p ) / (n p · i p, k ). Here, the present invention applies visibility υ p, k and additional weights w p , k = cos (θ i ) sin (θ h ) to each element of Q and r. Here, θ i = cos -1 (n p · i p, k ) may be meant, and θ h = cos -1 (n p · h p, k ) may be referred to. The cosine term compensates for unstable observations at grazing angles, but the sine term prevents bias to reflection observations. Minimization of Equation 7 is a standard secondary programming problem. Here, the present invention can solve this problem by using the convex quadratic programming solver.
컬러(color)Color
본 발명은 컬러 기저 BRDF와 단색(monochromatic) 혼합 가중치를 사용한다. 본 발명은 F b를 업데이트할 때 각 컬러 채널을 독립적으로 최적화할 수 있으며, W 업데이트할 때 모든 컬러 채널을 사용하여 각 꼭지점(정점)의 혼합 가중치를 최적화할 수 있다.The present invention uses color based BRDF and monochromatic mixing weights. The present invention can independently optimize each color channel when updating F b , and optimize the mixing weight of each vertex (vertex) using all color channels when updating W.
법선(N) 재구성(Reconstructing Normals) Reconstructing Normals
본 발명은 기저 BRDFs F b={f b}와 혼합 가중치 W={w p ,b}를 획득하여 SVBRDFs F를 산출한다. 본 발명은 꼭지점 당 음영 법선 N={n ~ p}의 세트를 추정해야 한다. BRDFs를 사용하여 표면 법선을 예측하는 것은 매우 심각한 문제가 되므로, 본 발명은 반복적인 최적화 기법을 적용한다. 첫째, 본 발명은 이전 반복에서 업데이트된 현재 지오메트리로부터 초기 표면 법선 n p를 상기 수학식 3의 포인트 x p에서 BRDF f에 대한 입력 변수로 피드(feed)한다. 들어오고 나가는(incoming/outgoing) 래디언스, 들어오고 나가는 방향, 그리고 꼭지점의 반사가 모두 알려져 있기 때문에 아무런 제약 조건 없이 표준 선형 최소 제곱 회귀를 사용하여 음영 법선 n ~ p를 인수 분해할 수 있다. 포인트 x p에서의 지오메트릭 법선 n p는 음영 법선 n ~ p와 다르다. 최적화를 반복하면서 n p와 x p의 차이가 점차적으로 수렴된다. 그레이징 각과 미러-반사각에서의 관측은 신뢰성이 낮기 때문에 본 발명은 w p=cos(θ i)sin(θ h)와 같이 조명 각도를 고려하는 추가적인 가중치를 도입할 수 있다. 여기서, θ i=cos - 1(n·i)를 의미할 수 있으며, 사인 항은 잘못 정렬된 표면 법선과 이전 추정치의 정반사에 대한 잠재적 바이어스를 방지할 수 있다.The present invention calculates SVBRDFs F by acquiring base BRDFs F b = {f b } and mixing weights W = {w p , b }. The present invention should estimate the set of shaded normals N = {n - p } per vertex. Predicting surface normals using BRDFs is a very serious problem, so the present invention applies an iterative optimization technique. First, the present invention feeds the initial surface normal n p from the current geometry updated in the previous iteration as an input variable for BRDF f at point x p in Equation 3 above. Since the incoming / outgoing radiance, the incoming and outgoing directions, and the reflection of the vertices are all known, we can factor the shading normals n to p using standard linear least squares regression without any constraints. Geometric normal line at point x p n p is different from the normal shade n ~ p. The difference between n p and x p gradually converges while optimizing. Since the observation at the grazing angle and the mirror-reflection angle is not reliable, the present invention can introduce additional weights taking into account the illumination angle, such as w p = cos (θ i ) sin (θ h ). Here, θ i = cos - 1 (n · i) may be used, and the sine term may prevent potential bias for misaligned surface normals and specular reflection of previous estimates.
측광 일관성을 이용한 Using metering consistency 지오메트리Geometry 업데이트update
본 발명은 가중치 W, 기저 BRDFs F b 및 음영 법선 N을 추정한 후 음영 관측과 일치하는 지오메트리 X를 재구성한다. 도 4는 3차원 지오메트리를 업데이트하는 과정을 설명하기 위한 일 예시도를 나타낸 것이다. 도 4에 도시된 바와 같이, 3차원 지오메트리를 업데이트하는 과정은 초기 포인트 클라우드로부터 러프한 기저 지오메트리(또는 기저 메쉬)를 획득한 후 좀 더 미세한 메쉬로 세분한다. 그런 다음, 본 발명은 세분화된 메쉬를 이용하여 음영 법선을 추정한 후 추정 음영 법선을 이용하여 지오메트리를 업데이트한다. 여기서, 지오메트리 업데이트는 Nehab 방법과 스크리닝된 포아송 재구성 방법 중 적어도 하나의 방법을 이용하여 이루어질 수 있다. 두 가지 방법 모두 저주파 및 고주파 세부 정보를 보존할 수 있지만, Nehab의 방법은 표면 그래디언트를 대상 지오메트리로 직접 전송하는 반면, 포아송 방법은 coarse-to-fine 재구성을 사용한다. 음영 법선 N에는 고주파 노이즈가 포함되어 있다고 가정할 수 있고 Nehab의 방법에서 직접 전송은 이 노이즈를 전달하므로, 위와 같은 점은 구조화되지 않은 캡쳐 셋업의 중요한 차이이다. 따라서, 본 발명은 coarse-to-fine 방법의 보셀 격자에서 삼차원 2차(tri-quadratic) B-spline 기저 함수를 사용하여 암시적 표면을 재구성하도록 설계된 스크리닝된 포아송 방법을 이용하는 것이 바람직하다. 이로 인해, 노이즈가 포함된 표면 법선을 3D 지오메트리에 통합할 때 강건한 성능이 발휘된다.The present invention estimates the weight W, the base BRDFs F b and the shadow normal N, and then reconstructs the geometry X to match the shadow observation. 4 illustrates an exemplary diagram for explaining a process of updating a 3D geometry. As illustrated in FIG. 4, the process of updating the 3D geometry is obtained by obtaining a rough base geometry (or base mesh) from the initial point cloud and subdividing it into a finer mesh. Then, the present invention estimates the shadow normal using the subdivided mesh, and then updates the geometry using the estimated shadow normal. Here, the geometry update may be performed using at least one of a Nehab method and a screened Poisson reconstruction method. Both methods can preserve low and high frequency details, but Nehab's method transmits the surface gradient directly to the target geometry, while the Poisson method uses coarse-to-fine reconstruction. Shading normal N can be assumed to contain high frequency noise, and the direct transmission in Nehab's method carries this noise, so this is an important difference between unstructured capture setups. Accordingly, the present invention preferably uses a screened Poisson method designed to reconstruct an implicit surface using a three-dimensional tri-quadratic B-spline basis function in a coarse-to-fine method voxel lattice. This results in robust performance when integrating noise-containing surface normals into 3D geometry.
도 5는 본 발명의 구조화되지 않은 캡쳐 셋업에 대한 Nehab 방법과 스크리닝된 포아송 재구성 방법의 비교 결과에 대한 일 예시도를 나타낸 것으로, 도 5에 도시된 바와 같이 Nehab 방법의 결과는 구조화되지 않은 캡쳐 셋업에서 추정된 음영 법선의 고주파 노이즈를 포함하고 있는 반면, 스크리닝된 포아송 재구성 방법의 지오메트리는 coarse-to-fine 재구성을 통해 입력 노이즈를 강건하게 처리함으로써, 더 세밀한 세부 사항을 제공하는 것을 알 수 있다.FIG. 5 shows an exemplary diagram for a comparison result of the Nehab method and the screened Poisson reconstruction method for the unstructured capture setup of the present invention. As shown in FIG. 5, the result of the Nehab method is the unstructured capture setup While it contains the high frequency noise of the shadow normal estimated at, it can be seen that the geometry of the screened Poisson reconstruction method robustly processes the input noise through coarse-to-fine reconstruction, thereby providing more detailed details.
스크리닝된 포아송 재구성 방법은 입력 포인트 클라우드로부터 암시적 표면
Figure PCTKR2019013099-appb-img-000009
를 아래 <수학식 8>과 같이 재구성할 수 있다.
The screened Poisson reconstruction method implicitly surfaces from the input point cloud.
Figure PCTKR2019013099-appb-img-000009
Can be reconstructed as <Equation 8> below.
[수학식 8][Equation 8]
Figure PCTKR2019013099-appb-img-000010
Figure PCTKR2019013099-appb-img-000010
여기서, V:R 3->R 3는 음영 법선 N 세트로부터 파생된 벡터 필드를 의미하고, ▽χ(x p)는 암시적 스칼라 표면 함수의 그래디언트를 의미하며, χ:R 3->R,χ 2(x p)는 포인트 x p와 암시적인 표면 χ 사이의 제곱 거리를 의미하고, α는 정규화 항의 가중치를 의미할 수 있다.Here, V: R 3- > R 3 means a vector field derived from a set of shaded normals N, ▽ χ (x p ) means the gradient of the implicit scalar surface function, χ: R 3- > R, χ 2 (x p ) means the squared distance between the point x p and the implicit surface χ, and α can mean the weight of the normalization term.
본 발명은 초기 지오메트리의 신뢰도에 따라 α∈[0.1,4.0]를 결정한다. 암시적 표면 함수 χ를 이산화하기 위해, 각 차원에 대해 보셀 격자의 해상도를 2 9 또는 2 10로 셋업할 수 있다. 이 크기는 캡쳐된 물리적 객체에 대해 대략 0.1 ~ 0.2mm에 해당한다.The present invention determines α∈ [0.1,4.0] according to the reliability of the initial geometry. To discretize the implicit surface function χ, the resolution of the voxel grating can be set to 2 9 or 2 10 for each dimension. This size corresponds to approximately 0.1 to 0.2 mm for the captured physical object.
오리지널 알고리즘은 지오메트릭 법선을 사용하지만, 본 발명은 음영 법선 n ~ p를 활용하여 그래디언트가 n ~ p와 일치하는 암시적 표면
Figure PCTKR2019013099-appb-img-000011
를 찾는 것을 목표로 한다. 즉, 각 꼭지점마다 서로 다른 뷰 및 조명 방향이 주어지면 일관된 음영이 나타나야 한다. 암시적 함수가 결정되면, 본 발명은 마칭 큐브(marching cubes)를 적용하여 암시적 표면을 다각형 메쉬로 변환한다.
The original algorithm uses geometric normals, but the present invention utilizes shaded normals n to p to implicit surfaces whose gradients match n to p.
Figure PCTKR2019013099-appb-img-000011
Aim to seek. In other words, if different views and lighting directions are given for each vertex, a consistent shadow should appear. Once the implicit function is determined, the present invention converts the implicit surface to a polygonal mesh by applying marching cubes.
본 발명은 최적의 3D 지오메트리와 SVBRDF를 찾을 때까지 W, F b, N, X를 반복적으로 업데이트한다. 본 발명은 이전 메쉬와 새로운 X 사이의 Hausdorff 거리를 평가한다. 본 발명의 상기 수학식 3의 측광 차이의 테스트 RMS 오차가 증가하기 시작할 때까지 도 2에 도시된 전체 과정을 반복한다. 또한, 오버 피팅을 방지하기 위해, 본 발명은 캡쳐된 이미지를 9:1 비율로 트레이닝 및 테스트 그룹으로 무작위로 분리한다.The present invention repeatedly updates W, F b , N, and X until it finds the optimal 3D geometry and SVBRDF. The present invention evaluates the Hausdorff distance between the old mesh and the new X. The entire process shown in FIG. 2 is repeated until the test RMS error of the photometric difference of Equation 3 of the present invention starts to increase. In addition, to prevent overfitting, the present invention randomly separates captured images into training and test groups at a 9: 1 ratio.
이와 같이, 본 발명의 실시예에 따른 3차원 객체 획득 방법은 일반적인 플래시가 장착된 카메라를 이용하여 특수 장비를 사용해야만 측정 가능하던 3차원 객체의 형상 정보와 공간적으로 변화하는 표면 반사계 정보(SVBRDF)를 동시에 측정할 수 있다.As described above, the method for acquiring a 3D object according to an embodiment of the present invention uses the general flash-mounted camera to measure shape information of a 3D object and spatially changing surface reflectometer information (SVBRDF), which could only be measured using special equipment. ) Can be measured simultaneously.
또한, 본 발명의 실시예에 따른 3차원 객체 획득 방법은 특수한 장비에 의존하지 않고 고품질의 3차원 형상 정보와 SVBRDF를 측정할 수 있다. In addition, the 3D object acquisition method according to an embodiment of the present invention can measure high quality 3D shape information and SVBRDF without relying on special equipment.
즉, 본 발명의 실시예에 따른 3차원 객체 획득 방법은 입력으로 여러 개의 인공조명 사진을 사용하기 때문에 플래시가 내장된 단일 상용 카메라 예를 들어, 스마트폰 카메라만을 필요로 한다.That is, the method for acquiring a 3D object according to an embodiment of the present invention requires only a single commercial camera with a built-in flash, for example, a smartphone camera, because multiple artificial lighting photos are used as input.
상술한 바와 같이, 본 발명의 실시예에 따른 3차원 객체 획득 방법의 핵심은 SVBRDF, 음영 법선 및 3D 지오메트리의 새로운 공동 재구성으로, 공동 재구성은 점진적으로 3D 대 2D 대응을 향상시키는 다중 단계 예컨대, 반복적이며 상호 교환적인 최적화 역-렌더링 파이프 라인에서 수행되어 SVBRDF와 3D 지오메트리 모두의 고품질 재구성을 유도할 수 있다.As described above, the core of the 3D object acquisition method according to an embodiment of the present invention is a new co-reconstruction of SVBRDF, shading normals, and 3D geometry, and the co-reconfiguration is a multi-step e.g. iteratively enhancing 3D to 2D correspondence And can be performed in an interactive optimization inverse-rendering pipeline to induce high-quality reconstruction of both SVBRDF and 3D geometry.
나아가, 본 발명의 실시예들에 따른 방법은 카메라에 의해 촬영된 복수의 이미지들에 기초하여 3차원 객체에 대한 공간적으로 변화하는 표면 반사계 정보를 재구성하고, 이렇게 재구성된 공간적으로 변화하는 표면 반사계 정보를 기반으로 3차원 객체에 대한 3차원 지오메트리를 획득하는 것으로, 반드시 재구성된 공간적으로 변화하는 표면 반사계 정보를 이용하여 3차원 객체에 대한 음영 법선을 추정한 후 추정된 음영 법선에 기초하여 3차원 객체에 대한 3차원 지오메트리를 획득하는 것으로 한정되지 않는다. 즉, 본 발명의 다른 실시예에 따른 방법은 공간적으로 변화하는 표면 반사계 정보에 기초하여 3차원 객체에 대한 3차원 지오메트리를 획득할 수 있는 다양한 방법을 적용할 수 있다. 따라서, 본 발명의 다른 실시예에 따른 방법은 카메라에 의해 촬영된 복수의 이미지들에 기초하여 3차원 객체에 대한 공간적으로 변화하는 표면 반사계 정보를 재구성하고, 재구성된 공간적으로 변화하는 표면 반사계 정보에 기초하여 3차원 객체에 대한 3차원 지오메트리를 획득할 수 있다.Furthermore, the method according to embodiments of the present invention reconstructs spatially changing surface reflectometer information for a 3D object based on a plurality of images photographed by a camera, and thus reconstructed spatially changing surface reflection Acquiring 3D geometry for a 3D object based on system information, and estimating the shading normal for a 3D object using the reconstructed spatially changing surface reflectometer information, and then based on the estimated shading normal It is not limited to obtaining 3D geometry for a 3D object. That is, the method according to another embodiment of the present invention can be applied to a variety of methods for acquiring 3D geometry for a 3D object based on spatially changing surface reflectometer information. Accordingly, a method according to another embodiment of the present invention reconstructs spatially changing surface reflectometer information for a 3D object based on a plurality of images photographed by a camera, and reconstructed spatially changing surface reflectometer information Based on the information, it is possible to obtain 3D geometry for a 3D object.
나아가, 상술한 본 발명의 실시예들에 따른 방법에서 3차원 객체에 대한 공간적으로 변화하는 표면 반사계 정보를 재구성하는 기술적인 구성은 카메라에 의해 촬영된 복수의 이미지들에 의해서만 재구성되는 것으로 한정되지 않으며, 알고리즘의 경량화 및 속도를 개선시키기 위하여 추가적인 뎁스 정보 즉, 3차원 객체에 대한 뎁스 정보를 반영할 수도 있다. 예컨대, 본 발명의 실시예들에 따른 방법은 카메라에 의해 촬영된 복수의 이미지들 뿐만 아니라 3차원 객체에 대한 뎁스 정보에 기초하여 3차원 객체에 대한 공간적으로 변화하는 표면 반사계 정보를 재구성할 수 있다.Furthermore, in the method according to the embodiments of the present invention described above, the technical configuration of reconstructing spatially changing surface reflectometer information for a 3D object is not limited to being reconstructed only by a plurality of images photographed by a camera. In addition, additional depth information, that is, depth information for a 3D object may be reflected to improve the weight and speed of the algorithm. For example, the method according to embodiments of the present invention can reconstruct spatially changing surface reflectometer information for a 3D object based on depth information for a 3D object as well as a plurality of images photographed by a camera. have.
여기서, 3차원 객체에 대한 뎁스 정보는 뎁스 카메라를 이용하여 별도로 획득할 수도 있고, 다양한 측정 기법을 이용하여 획득할 수도 있다 예를 들어, 본 발명은 다중 시점 카메라를 이용하여 3차원 객체에 대한 뎁스 정보를 획득할 수도 있고, 스테레오 매칭을 이용하여 3차원 객체에 대한 뎁스 정보를 획득할 수도 있다. 물론, 본 발명에서 뎁스 정보를 획득하는 방법은 상술한 방법으로 한정되지 않으며, 본 발명에 적용할 수 있는 모든 방법을 이용할 수 있다.Here, the depth information for the 3D object may be obtained separately using a depth camera, or may be obtained using various measurement techniques. For example, the present invention uses a multi-view camera to depth a 3D object. Information may be obtained, or depth information on a 3D object may be obtained using stereo matching. Of course, the method for obtaining depth information in the present invention is not limited to the above-described method, and any method applicable to the present invention can be used.
이러한 뎁스 정보를 추가적으로 이용하여 3차원 객체에 대한 공간적으로 변화하는 표면 반사계 정보를 재구성하는 방법은 상술한 내용에 모두 적용할 수 있다.A method of reconstructing spatially changing surface reflectometer information for a 3D object by additionally using the depth information may be applied to all of the above-described contents.
도 6은 본 발명의 일 실시예에 따른 3차원 객체 획득 장치에 대한 구성을 나타낸 것으로, 도 1 내지 도 5의 방법을 수행하는 장치에 대한 개념적인 구성을 나타낸 것이다.6 illustrates a configuration of a 3D object acquisition device according to an embodiment of the present invention, and shows a conceptual configuration of a device performing the method of FIGS. 1 to 5.
도 6을 참조하면, 본 발명의 실시예에 따른 3차원 객체 획득 장치(600)는 수신부(610), 재구성부(620), 추정부(630) 및 획득부(640)를 포함한다.Referring to FIG. 6, a 3D object acquisition apparatus 600 according to an embodiment of the present invention includes a reception unit 610, a reconstruction unit 620, an estimation unit 630, and an acquisition unit 640.
수신부(610)는 카메라에 의해 촬영된 3차원 객체에 대한 복수의 이미지를 수신한다.The reception unit 610 receives a plurality of images of a 3D object photographed by a camera.
이 때, 수신부(610)는 인공조명이 켜진 상태에서 촬영된 3차원 객체에 대한 복수의 이미지를 수신할 수 있다.At this time, the receiving unit 610 may receive a plurality of images of the 3D object photographed with artificial lighting turned on.
재구성부(620)는 수신된 복수의 이미지에 기초하여 3차원 객체에 대한 공간적으로 변화하는 표면 반사계 정보를 재구성한다.The reconstruction unit 620 reconstructs spatially changing surface reflectometer information for a 3D object based on the received plurality of images.
이 때, 재구성부(620)는 복수의 이미지에 기초하여 3차원 객체에 대한 기저 표면 반사계 정보를 추정하고, 추정된 기저 표면 반사계 정보와 공간적으로 변화하는 가중치 맵에 기초하여 공간적으로 변화하는 표면 반사계 정보를 재구성할 수 있다.At this time, the reconstruction unit 620 estimates the base surface reflectometer information for the 3D object based on the plurality of images, and spatially changes based on the estimated base surface reflectometer information and the spatially changing weight map. The surface reflectometer information can be reconstructed.
이 때, 재구성부(620)는 카메라의 외부 파라미터와 복수의 이미지에 기초하여 3차원 객체의 기저 지오메트리를 획득하고, 복수의 이미지와 기저 지오메트리에 기초하여 공간적으로 변화하는 표면 반사계 정보를 재구성할 수 있다.At this time, the reconstruction unit 620 acquires the base geometry of the 3D object based on the camera's external parameters and a plurality of images, and reconstructs spatially changing surface reflectometer information based on the plurality of images and the base geometry. You can.
이 때, 재구성부(620)는 카메라에 대해 미리 설정된 이미지 형성 모델을 만족시키는 역 렌더링 기법을 이용하여 공간적으로 변화하는 표면 반사계 정보를 재구성할 수 있다.At this time, the reconstruction unit 620 may reconstruct spatially changing surface reflectometer information using an inverse rendering technique that satisfies a preset image forming model for the camera.
나아가, 재구성부(620)는 획득부(640)에 의해 획득된 3차원 지오메트리와 복수의 이미지에 기초하여 공간적으로 변화하는 표면 반사계 정보를 업데이트할 수 있다.Furthermore, the reconstruction unit 620 may update spatially changing surface reflectometer information based on the 3D geometry and a plurality of images acquired by the acquisition unit 640.
더 나아가, 재구성부(620)는 멀티뷰 스테레오를 사용하여 복수의 이미지와 카메라의 포즈로부터 3차원 객체에 대한 3차원 포인트 클라우드를 획득하고, 3차원 포인트 클라우드와 포아송 표면 재구성 기법에 기초하여 3차원 객체에 대한 기저 메쉬를 생성하며, 기저 메쉬를 세분화하여 3차원 객체에 대한 초기 지오메트리를 획득하고, 복수의 이미지와 상기 초기 지오메트리에 기초하여 공간적으로 변화하는 표면 반사계 정보를 재구성할 수 있다.Furthermore, the reconstruction unit 620 acquires a 3D point cloud for a 3D object from a pose of a plurality of images and cameras using multiview stereo, and 3D based on a 3D point cloud and a Poisson surface reconstruction technique It is possible to generate a base mesh for an object, to subdivide the base mesh to obtain initial geometry for a 3D object, and reconstruct spatially changing surface reflectometer information based on a plurality of images and the initial geometry.
추정부(630)는 재구성된 공간적으로 변화하는 표면 반사계 정보에 기초하여 3차원 객체에 대한 음영 법선을 추정한다.The estimator 630 estimates the shadow normal for the 3D object based on the reconstructed spatially changing surface reflectometer information.
이 때, 추정부(630)는 카메라에 대해 미리 설정된 이미지 형성 모델을 만족시키는 역 렌더링 기법을 이용하여 음영 법선을 추정할 수 있다.At this time, the estimator 630 may estimate the shadow normal using an inverse rendering technique that satisfies a preset image forming model for the camera.
나아가, 추정부(630)는 공간적으로 변화하는 표면 반사계 정보가 업데이트되는 경우 업데이트된 공간적으로 변화하는 표면 반사계 정보에 기초하여 음영 법선을 업데이트할 수 있다.Furthermore, when the spatially changing surface reflectometer information is updated, the estimator 630 may update the shading normal based on the updated spatially changing surface reflectometer information.
획득부(640)는 추정된 음영 법선과 포아송 표면 재구성 기법에 기초하여 3차원 지오메트리를 획득한다.The acquisition unit 640 acquires 3D geometry based on the estimated shadow normal and Poisson surface reconstruction technique.
이 때, 획득부(640)는 포아송 표면 재구성 기법을 이용하여 3차원 지오메트리를 획득할 수 있다.At this time, the acquisition unit 640 may acquire a 3D geometry using a Poisson surface reconstruction technique.
나아가, 획득부(640)는 음영 법선이 업데이트되는 경우 업데이트된 음영 법선에 기초하여 3차원 지오메트리를 업데이트할 수 있다.Furthermore, when the shadow normal is updated, the acquirer 640 may update the 3D geometry based on the updated shadow normal.
비록, 도 6의 장치에서 그 설명이 생략되었더라도, 도 6을 구성하는 각 구성 수단은 도 1 내지 도 5에서 설명한 모든 내용을 포함할 수 있으며, 이는 이 기술 분야에 종사하는 당업자에게 있어서 자명하다.Although the description is omitted in the apparatus of FIG. 6, each of the constituent elements constituting FIG. 6 may include all the contents described in FIGS. 1 to 5, which is apparent to those skilled in the art.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다.  또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다.  이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다.  예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다.  또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and / or combinations of hardware components and software components. For example, the devices and components described in the embodiments include, for example, a processor, controller, arithmetic logic unit (ALU), digital signal processor (micro signal processor), microcomputer, field programmable array (FPA), It may be implemented using one or more general purpose computers or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may run an operating system (OS) and one or more software applications running on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of understanding, a processing device may be described as one being used, but a person having ordinary skill in the art, the processing device may include a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that may include. For example, the processing device may include a plurality of processors or a processor and a controller. In addition, other processing configurations, such as parallel processors, are possible.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다.  소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다.  소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instruction, or a combination of one or more of these, and configure the processing device to operate as desired, or process independently or collectively You can command the device. Software and / or data may be interpreted by a processing device, or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. Can be embodied in The software may be distributed on networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다.  상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.  상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.  컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.  프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.  The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiments or may be known and usable by those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic media such as floptical disks. -Hardware devices specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language code that can be executed by a computer using an interpreter, etc., as well as machine language codes produced by a compiler.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다.  예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by a limited embodiment and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques are performed in a different order than the described method, and / or the components of the described system, structure, device, circuit, etc. are combined or combined in a different form from the described method, or other components Alternatively, even if replaced or substituted by equivalents, appropriate results can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (20)

  1. 카메라에 의해 촬영된 3차원 객체에 대한 복수의 이미지를 수신하는 단계;Receiving a plurality of images of a 3D object photographed by a camera;
    상기 수신된 복수의 이미지에 기초하여 상기 3차원 객체에 대한 공간적으로 변화하는 표면 반사계 정보를 재구성하는 단계;Reconstructing spatially changing surface reflectometer information for the 3D object based on the received plurality of images;
    상기 재구성된 공간적으로 변화하는 표면 반사계 정보에 기초하여 상기 3차원 객체에 대한 음영 법선을 추정하는 단계; 및Estimating a shadow normal for the 3D object based on the reconstructed spatially changing surface reflectometer information; And
    상기 추정된 음영 법선에 기초하여 상기 3차원 객체에 대한 3차원 지오메트리(geometry)를 획득하는 단계Obtaining 3D geometry for the 3D object based on the estimated shading normal
    를 포함하는 3차원 객체 획득 방법.3D object acquisition method comprising a.
  2. 제1항에 있어서,According to claim 1,
    상기 재구성하는 단계는The reconstructing step
    상기 수신된 복수의 이미지에 기초하여 상기 3차원 객체에 대한 기저 표면 반사계 정보를 추정하고, 상기 추정된 기저 표면 반사계 정보와 공간적으로 변화하는 가중치 맵에 기초하여 상기 공간적으로 변화하는 표면 반사계 정보를 재구성하는 것을 특징으로 하는 3차원 객체 획득 방법.Estimating base surface reflectometer information for the 3D object based on the received plurality of images, and spatially changing surface reflectometer based on the estimated base surface reflectometer information and a spatially changing weight map 3D object acquisition method characterized by reconstructing information.
  3. 제1항에 있어서,According to claim 1,
    상기 카메라의 외부 파라미터와 상기 복수의 이미지에 기초하여 상기 3차원 객체의 기저 지오메트리를 획득하는 단계Obtaining the base geometry of the 3D object based on the camera's external parameters and the plurality of images.
    를 더 포함하고,Further comprising,
    상기 재구성하는 단계는The reconstructing step
    상기 복수의 이미지와 상기 기저 지오메트리에 기초하여 상기 공간적으로 변화하는 표면 반사계 정보를 재구성하는 것을 특징으로 하는 3차원 객체 획득 방법.And reconstructing the spatially varying surface reflectometer information based on the plurality of images and the underlying geometry.
  4. 제1항에 있어서,According to claim 1,
    상기 재구성하는 단계와 상기 추정하는 단계는The reconstructing step and the estimating step are
    상기 카메라에 대해 미리 설정된 이미지 형성 모델을 만족시키는 역 렌더링(inverse rendering) 기법을 이용하여 상기 공간적으로 변화하는 표면 반사계 정보를 재구성하고, 상기 음영 법선을 추정하는 것을 특징으로 하는 3차원 객체 획득 방법.A method for acquiring a 3D object, characterized by reconstructing the spatially changing surface reflectometer information and estimating the shading normal using an inverse rendering technique that satisfies a preset image forming model for the camera. .
  5. 제1항에 있어서,According to claim 1,
    상기 획득하는 단계는The obtaining step
    포아송(Poisson) 표면 재구성 기법을 이용하여 상기 3차원 지오메트리를 획득하는 것을 특징으로 하는 3차원 객체 획득 방법.A method for acquiring a 3D object, characterized by acquiring the 3D geometry using a Poisson surface reconstruction technique.
  6. 제1항에 있어서,According to claim 1,
    상기 재구성하는 단계는The reconstructing step
    상기 획득된 3차원 지오메트리와 상기 복수의 이미지에 기초하여 상기 공간적으로 변화하는 표면 반사계 정보를 업데이트하고,Update the spatially changing surface reflectometer information based on the obtained 3D geometry and the plurality of images,
    상기 추정하는 단계는The estimating step
    상기 업데이트된 공간적으로 변화하는 표면 반사계 정보에 기초하여 상기 음영 법선을 업데이트하며,Update the shading normal based on the updated spatially changing surface reflectometer information,
    상기 획득하는 단계는The obtaining step
    상기 업데이트된 음영 법선에 기초하여 상기 3차원 지오메트리를 업데이트하는 것을 특징으로 하는 3차원 객체 획득 방법.And updating the 3D geometry based on the updated shading normal.
  7. 제1항에 있어서,According to claim 1,
    상기 수신하는 단계는The receiving step
    인공조명이 켜진 상태에서 촬영된 상기 3차원 객체에 대한 복수의 이미지를 수신하는 것을 특징으로 하는 3차원 객체 획득 방법.A method for acquiring a 3D object, characterized by receiving a plurality of images of the 3D object photographed while artificial lighting is on.
  8. 제1항에 있어서,According to claim 1,
    멀티뷰 스테레오를 사용하여 상기 복수의 이미지와 상기 카메라의 포즈로부터 상기 3차원 객체에 대한 3차원 포인트 클라우드를 획득하는 단계;Obtaining a 3D point cloud for the 3D object from the poses of the plurality of images and the camera using multiview stereo;
    상기 3차원 포인트 클라우드와 포아송 표면 재구성 기법에 기초하여 상기 3차원 객체에 대한 기저 메쉬를 생성하는 단계; 및Generating a base mesh for the 3D object based on the 3D point cloud and Poisson surface reconstruction technique; And
    상기 기저 메쉬를 세분화하여 상기 3차원 객체에 대한 초기 지오메트리를 획득하는 단계Subdividing the base mesh to obtain initial geometry for the 3D object
    를 더 포함하고,Further comprising,
    상기 재구성하는 단계는The reconstructing step
    상기 복수의 이미지와 상기 초기 지오메트리에 기초하여 상기 공간적으로 변화하는 표면 반사계 정보를 재구성하는 것을 특징으로 하는 3차원 객체 획득 방법.And reconstructing the spatially varying surface reflectometer information based on the plurality of images and the initial geometry.
  9. 인공 조명이 켜진 상태에서 카메라에 의해 촬영된 3차원 객체에 대한 복수의 이미지를 수신하는 단계; 및Receiving a plurality of images of a 3D object photographed by a camera while artificial lighting is on; And
    상기 수신된 복수의 이미지와 포아송 표면 재구성 기법에 기초하여 상기 3차원 객체에 대한 공간적으로 변화하는 표면 반사계 정보와 3차원 지오메트리를 획득하는 단계Obtaining spatially changing surface reflectometer information and 3D geometry for the 3D object based on the received plurality of images and Poisson surface reconstruction technique
    를 포함하는 3차원 객체 획득 방법.3D object acquisition method comprising a.
  10. 제9항에 있어서,The method of claim 9,
    상기 획득하는 단계는The obtaining step
    상기 수신된 복수의 이미지에 기초하여 상기 공간적으로 변화하는 표면 반사계 정보를 재구성하는 단계;Reconstructing the spatially changing surface reflectometer information based on the received plurality of images;
    상기 재구성된 공간적으로 변화하는 표면 반사계 정보에 기초하여 상기 3차원 객체에 대한 음영 법선을 추정하는 단계; 및Estimating a shadow normal for the 3D object based on the reconstructed spatially changing surface reflectometer information; And
    상기 추정된 음영 법선과 상기 포아송 표면 재구성 기법에 기초하여 상기 3차원 지오메트리를 획득하는 단계Obtaining the three-dimensional geometry based on the estimated shadow normal and the Poisson surface reconstruction technique
    를 포함하는 것을 특징으로 하는 3차원 객체 획득 방법.3D object acquisition method comprising a.
  11. 카메라에 의해 촬영된 3차원 객체에 대한 복수의 이미지를 수신하는 수신부;A receiver configured to receive a plurality of images of a 3D object photographed by a camera;
    상기 수신된 복수의 이미지에 기초하여 상기 3차원 객체에 대한 공간적으로 변화하는 표면 반사계 정보를 재구성하는 재구성부;A reconstruction unit reconstructing spatially changing surface reflectometer information for the 3D object based on the received plurality of images;
    상기 재구성된 공간적으로 변화하는 표면 반사계 정보에 기초하여 상기 3차원 객체에 대한 음영 법선을 추정하는 추정부; 및An estimator for estimating a shadow normal for the 3D object based on the reconstructed spatially changing surface reflectometer information; And
    상기 추정된 음영 법선에 기초하여 상기 3차원 객체에 대한 3차원 지오메트리를 획득하는 획득부An acquiring unit acquiring 3D geometry for the 3D object based on the estimated shadow normal
    를 포함하는 3차원 객체 획득 장치.3D object acquisition device comprising a.
  12. 제11항에 있어서,The method of claim 11,
    상기 재구성부는The reconstruction unit
    상기 수신된 복수의 이미지에 기초하여 상기 3차원 객체에 대한 기저 표면 반사계 정보를 추정하고, 상기 추정된 기저 표면 반사계 정보와 공간적으로 변화하는 가중치 맵에 기초하여 상기 공간적으로 변화하는 표면 반사계 정보를 재구성하는 것을 특징으로 하는 3차원 객체 획득 장치.Estimating base surface reflectometer information for the 3D object based on the received plurality of images, and spatially changing surface reflectometer based on the estimated base surface reflectometer information and a spatially changing weight map 3D object acquisition device, characterized in that to reconstruct the information.
  13. 제11항에 있어서,The method of claim 11,
    상기 재구성부는The reconstruction unit
    상기 카메라의 외부 파라미터와 상기 복수의 이미지에 기초하여 상기 3차원 객체의 기저 지오메트리를 획득하고, 상기 복수의 이미지와 상기 기저 지오메트리에 기초하여 상기 공간적으로 변화하는 표면 반사계 정보를 재구성하는 것을 특징으로 하는 3차원 객체 획득 장치.Based on the external parameters of the camera and the plurality of images, the basis geometry of the 3D object is obtained, and the spatially changing surface reflectometer information is reconstructed based on the plurality of images and the basis geometry. 3D object acquisition device.
  14. 제11항에 있어서,The method of claim 11,
    상기 재구성부와 상기 추정부는The reconstruction unit and the estimation unit
    상기 카메라에 대해 미리 설정된 이미지 형성 모델을 만족시키는 역 렌더링 기법을 이용하여 상기 공간적으로 변화하는 표면 반사계 정보를 재구성하고, 상기 음영 법선을 추정하는 것을 특징으로 하는 3차원 객체 획득 장치.3D object acquiring apparatus characterized by reconstructing the spatially changing surface reflectometer information and estimating the shading normal using an inverse rendering technique that satisfies a preset image forming model for the camera.
  15. 제11항에 있어서,The method of claim 11,
    상기 획득부는The acquisition unit
    포아송 표면 재구성 기법을 이용하여 상기 3차원 지오메트리를 획득하는 것을 특징으로 하는 3차원 객체 획득 장치.A device for acquiring 3D objects, characterized by acquiring the 3D geometry using a Poisson surface reconstruction technique.
  16. 제11항에 있어서,The method of claim 11,
    상기 재구성부는The reconstruction unit
    상기 획득된 3차원 지오메트리와 상기 복수의 이미지에 기초하여 상기 공간적으로 변화하는 표면 반사계 정보를 업데이트하고,Update the spatially changing surface reflectometer information based on the obtained 3D geometry and the plurality of images,
    상기 추정부는The estimation unit
    상기 업데이트된 공간적으로 변화하는 표면 반사계 정보에 기초하여 상기 음영 법선을 업데이트하며,Update the shading normal based on the updated spatially changing surface reflectometer information,
    상기 획득부는The acquisition unit
    상기 업데이트된 음영 법선에 기초하여 상기 3차원 지오메트리를 업데이트하는 것을 특징으로 하는 3차원 객체 획득 장치.And updating the 3D geometry based on the updated shadow normal.
  17. 제11항에 있어서,The method of claim 11,
    상기 수신부는The receiving unit
    인공조명이 켜진 상태에서 촬영된 상기 3차원 객체에 대한 복수의 이미지를 수신하는 것을 특징으로 하는 3차원 객체 획득 장치.A device for obtaining a 3D object, characterized by receiving a plurality of images of the 3D object taken while artificial lighting is on.
  18. 제11항에 있어서,The method of claim 11,
    상기 재구성부는The reconstruction unit
    멀티뷰 스테레오를 사용하여 상기 복수의 이미지와 상기 카메라의 포즈로부터 상기 3차원 객체에 대한 3차원 포인트 클라우드를 획득하고, 상기 3차원 포인트 클라우드와 포아송 표면 재구성 기법에 기초하여 상기 3차원 객체에 대한 기저 메쉬를 생성하며, 상기 기저 메쉬를 세분화하여 상기 3차원 객체에 대한 초기 지오메트리를 획득하고, 상기 복수의 이미지와 상기 초기 지오메트리에 기초하여 상기 공간적으로 변화하는 표면 반사계 정보를 재구성하는 것을 특징으로 하는 3차원 객체 획득 장치.Multi-view stereo is used to obtain a three-dimensional point cloud for the three-dimensional object from the plurality of images and the pose of the camera, and a basis for the three-dimensional object based on the three-dimensional point cloud and Poisson surface reconstruction technique Generating a mesh, subdividing the base mesh to obtain initial geometry for the 3D object, and reconstructing the spatially changing surface reflectometer information based on the plurality of images and the initial geometry. 3D object acquisition device.
  19. 카메라에 의해 촬영된 3차원 객체에 대한 복수의 이미지들을 수신하는 단계;Receiving a plurality of images of a 3D object photographed by a camera;
    상기 수신된 복수의 이미지들에 기초하여 상기 3차원 객체에 대한 공간적으로 변화하는 표면 반사계 정보를 재구성하는 단계; 및Reconstructing spatially changing surface reflectometer information for the 3D object based on the received plurality of images; And
    상기 재구성된 공간적으로 변화하는 표면 반사계 정보에 기초하여 상기 3차원 객체에 대한 3차원 지오메트리(geometry)를 획득하는 단계Obtaining 3D geometry for the 3D object based on the reconstructed spatially changing surface reflectometer information
    를 포함하는 3차원 객체 획득 방법.3D object acquisition method comprising a.
  20. 제19항에 있어서,The method of claim 19,
    상기 재구성하는 단계는The reconstructing step
    상기 수신된 복수의 이미지들과 상기 3차원 객체에 대한 뎁스 정보에 기초하여 상기 3차원 객체에 대한 공간적으로 변화하는 표면 반사계 정보를 재구성하는 것을 특징으로 하는 3차원 객체 획득 방법.And reconstructing spatially changing surface reflectometer information for the 3D object based on the received plurality of images and depth information for the 3D object.
PCT/KR2019/013099 2018-10-08 2019-10-07 Method for acquiring three-dimensional object by using artificial lighting photograph and device thereof WO2020076026A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP19813220.1A EP3664039B1 (en) 2018-10-08 2019-10-07 Method for acquiring three-dimensional object by using artificial lighting photograph and device thereof
US16/622,234 US11380056B2 (en) 2018-10-08 2019-10-07 3D object acquisition method and apparatus using artificial light photograph

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR20180119872 2018-10-08
KR10-2018-0119872 2018-10-08
KR10-2018-0173852 2018-12-31
KR20180173852 2018-12-31
KR10-2019-0120410 2019-09-30
KR1020190120410A KR102287472B1 (en) 2018-10-08 2019-09-30 Acquisition Method for 3D Objects Using Unstructured Flash Photography and Apparatus Therefor

Publications (1)

Publication Number Publication Date
WO2020076026A1 true WO2020076026A1 (en) 2020-04-16

Family

ID=70164981

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/013099 WO2020076026A1 (en) 2018-10-08 2019-10-07 Method for acquiring three-dimensional object by using artificial lighting photograph and device thereof

Country Status (1)

Country Link
WO (1) WO2020076026A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114255313A (en) * 2022-02-28 2022-03-29 深圳星坊科技有限公司 Three-dimensional reconstruction method and device for mirror surface object, computer equipment and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050066501A (en) * 2003-12-26 2005-06-30 한국전자통신연구원 Inverse rendering apparatus and method using filtered environment map
KR101495299B1 (en) * 2013-09-24 2015-02-24 한국과학기술원 Device for acquiring 3d shape, and method for acquiring 3d shape
KR20160147491A (en) * 2015-06-15 2016-12-23 한국전자통신연구원 Apparatus and method for 3D model generation
KR101865886B1 (en) * 2016-12-09 2018-06-08 한국과학기술원 Method and system for estimating surface geometry and reflectance
KR20180062959A (en) * 2016-12-01 2018-06-11 톰슨 라이센싱 Method for 3d reconstruction of an environment of a mobile device, corresponding computer program product and device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050066501A (en) * 2003-12-26 2005-06-30 한국전자통신연구원 Inverse rendering apparatus and method using filtered environment map
KR101495299B1 (en) * 2013-09-24 2015-02-24 한국과학기술원 Device for acquiring 3d shape, and method for acquiring 3d shape
KR20160147491A (en) * 2015-06-15 2016-12-23 한국전자통신연구원 Apparatus and method for 3D model generation
KR20180062959A (en) * 2016-12-01 2018-06-11 톰슨 라이센싱 Method for 3d reconstruction of an environment of a mobile device, corresponding computer program product and device
KR101865886B1 (en) * 2016-12-09 2018-06-08 한국과학기술원 Method and system for estimating surface geometry and reflectance

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3664039A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114255313A (en) * 2022-02-28 2022-03-29 深圳星坊科技有限公司 Three-dimensional reconstruction method and device for mirror surface object, computer equipment and storage medium

Similar Documents

Publication Publication Date Title
KR102287472B1 (en) Acquisition Method for 3D Objects Using Unstructured Flash Photography and Apparatus Therefor
Nam et al. Practical svbrdf acquisition of 3d objects with unstructured flash photography
WO2015188685A1 (en) Depth camera-based human-body model acquisition method and network virtual fitting system
CN109919911B (en) Mobile three-dimensional reconstruction method based on multi-view photometric stereo
WO2016145602A1 (en) Apparatus and method for focal length adjustment and depth map determination
US20120019651A1 (en) Installation of 3d inspection of electronic circuits
WO2016200013A1 (en) Optical device and depth information generating method
WO2020076026A1 (en) Method for acquiring three-dimensional object by using artificial lighting photograph and device thereof
US9036024B2 (en) Apparatus for optically inspecting electronic circuits
JP5799473B2 (en) Image capturing apparatus and image capturing method
JP5059503B2 (en) Image composition apparatus, image composition method, and image composition program
WO2020159223A1 (en) Method and device for imaging of lensless hyperspectral image
Mohan et al. Table-top computed lighting for practical digital photography
US20240062460A1 (en) Freestyle acquisition method for high-dimensional material
JP2015059849A (en) Method and device for measuring color and three-dimensional shape
CN109325912A (en) Reflective separation method and calibration split system based on polarised light light field
JP2009236696A (en) Three-dimensional image measurement method, measurement system, and measurement program for subject
WO2023287220A1 (en) Point cloud data transmission method, point cloud data transmission device, point cloud data reception method, and point cloud data reception device
WO2022203464A2 (en) Method for real-time omnidirectional stereo matching using multi-view fisheye lenses and system therefor
JP2013096784A (en) Surface characteristic measuring device and computer program
WO2020085758A1 (en) Method for determining inspection area and apparatus for inspecting external appearance by using same
Park et al. Projector compensation framework using differentiable rendering
KR101816781B1 (en) 3D scanner using photogrammetry and photogrammetry photographing for high-quality input data of 3D modeling
WO2022031022A1 (en) Method and device for acquiring three-dimensional data, and computer-readable storage medium storing program for performing method
CN114746716B (en) Shape restoration method and image measurement device

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2019813220

Country of ref document: EP

Effective date: 20191211

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19813220

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE