WO2024075972A1 - 3차원(3d) 모델을 생성하는 방법 및 전자 장치 - Google Patents

3차원(3d) 모델을 생성하는 방법 및 전자 장치 Download PDF

Info

Publication number
WO2024075972A1
WO2024075972A1 PCT/KR2023/012359 KR2023012359W WO2024075972A1 WO 2024075972 A1 WO2024075972 A1 WO 2024075972A1 KR 2023012359 W KR2023012359 W KR 2023012359W WO 2024075972 A1 WO2024075972 A1 WO 2024075972A1
Authority
WO
WIPO (PCT)
Prior art keywords
model
similarity
target
synthetic
basic
Prior art date
Application number
PCT/KR2023/012359
Other languages
English (en)
French (fr)
Inventor
신재욱
김동찬
변동남
황진영
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220183216A external-priority patent/KR20240049102A/ko
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US18/454,402 priority Critical patent/US20240119666A1/en
Publication of WO2024075972A1 publication Critical patent/WO2024075972A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces

Definitions

  • This disclosure relates to a method and electronic device for generating a three-dimensional model. More specifically, it relates to a method and electronic device for generating a 3D model using a 3D model database.
  • a method for generating a three-dimensional (3D) model may include generating a basic 3D model for an object based on at least one object image for the object.
  • the method of generating a 3D model may include determining a first target 3D model similar to the basic 3D model from a 3D model database in which a plurality of 3D models are stored.
  • the method of generating a 3D model may include generating a first synthetic 3D model based on the basic 3D model and the first target 3D model.
  • the method of generating a 3D model may include determining a first similarity between the first composite 3D model and the at least one object image.
  • the method of generating a 3D model may include determining a low similarity configuration between the first synthetic 3D model and the at least one object image based on the first similarity being less than or equal to a threshold value. there is.
  • the method of generating a 3D model may include determining, as a second target 3D model, a 3D model with high similarity to the first synthetic 3D model with respect to the configuration with low similarity among the 3D model database.
  • the method of generating a 3D model may include generating a second synthetic 3D model based on the first synthetic 3D model and the second target 3D model.
  • one or more computer-readable recording media storing a program for performing the above-described method are provided.
  • an electronic device for generating a three-dimensional (3D) model may include at least one processor.
  • the electronic device may include a memory that stores at least one instruction.
  • At least one processor may execute the at least one instruction to generate a basic 3D model for the object based on at least one object image.
  • at least one processor may determine a first target 3D model similar to the basic 3D model from a 3D model database in which a plurality of 3D models are stored.
  • At least one processor may execute the at least one instruction to generate a first synthetic 3D model based on the basic 3D model and the first target 3D model.
  • At least one processor may determine a first similarity between the first composite 3D model and the at least one object image by executing the at least one instruction. At least one processor, by executing the at least one instruction, determine a low similarity configuration between the first composite 3D model and the at least one object image based on the first similarity being less than or equal to a threshold. You can. By having at least one processor execute the at least one instruction, a 3D model with high similarity to the first synthetic 3D model with respect to the configuration with low similarity among the 3D model database may be determined as a second target 3D model. At least one processor may execute the at least one instruction to generate a second synthetic 3D model based on the first synthetic 3D model and the second target 3D model.
  • FIG. 1 is a diagram illustrating a method for generating a three-dimensional (3D) model according to an embodiment of the present disclosure.
  • FIG. 2 is a diagram illustrating a method for generating a three-dimensional (3D) model according to an embodiment of the present disclosure.
  • Figure 3 is a flowchart of a method for generating a 3D model according to an embodiment of the present disclosure.
  • Figure 4 is a diagram showing types of 3D models according to an embodiment of the present disclosure.
  • FIG. 5 is a diagram illustrating a process for generating a basic 3D model based on an object image according to an embodiment of the present disclosure.
  • Figure 6 is a diagram illustrating a process of classifying a 3D model into structural units according to an embodiment of the present disclosure.
  • Figure 7 is a diagram illustrating a process for determining similarity between 3D models according to an embodiment of the present disclosure.
  • Figure 8 is a diagram showing the deformation process of a 3D model according to an embodiment of the present disclosure.
  • FIG. 9A is a diagram illustrating a process for obtaining information for performing transformation on a 3D model according to an embodiment of the present disclosure.
  • FIG. 9B is a diagram illustrating a process for obtaining information for performing transformation on a 3D model according to an embodiment of the present disclosure.
  • Figure 10 is a diagram illustrating a process of merging a plurality of 3D models according to an embodiment of the present disclosure.
  • FIG. 11 is a diagram illustrating a process of comparing an object image and a synthetic 3D model according to an embodiment of the present disclosure.
  • Figure 12 is a diagram showing a process for complementing a configuration with low similarity according to an embodiment of the present disclosure.
  • Figure 13 is a diagram showing color information of a 3D model according to an embodiment of the present disclosure.
  • Figure 14 is a flowchart of a method for generating a synthetic 3D model according to an embodiment of the present disclosure.
  • Figure 15 is a block diagram showing the configuration of an electronic device according to an embodiment of the present disclosure.
  • FIG. 16 is a diagram illustrating a method for generating an avatar 3D model according to an embodiment of the present disclosure.
  • FIG. 17 is a diagram illustrating a method for generating an avatar 3D model according to an embodiment of the present disclosure.
  • FIG. 18 is a diagram illustrating a method for generating an interior 3D model according to an embodiment of the present disclosure.
  • FIG. 19A is a flowchart illustrating a spatial map according to an embodiment of the present disclosure.
  • FIG. 19B is a flowchart showing a spatial map according to an embodiment of the present disclosure.
  • FIG. 20A is a diagram illustrating a method of utilizing layers constituting a spatial map according to an embodiment of the present disclosure.
  • FIG. 20B is a diagram illustrating a method of utilizing layers constituting a spatial map according to an embodiment of the present disclosure.
  • FIG. 20C is a diagram illustrating a method of utilizing layers constituting a spatial map according to an embodiment of the present disclosure.
  • FIG. 20D is a diagram illustrating a method of utilizing layers constituting a spatial map according to an embodiment of the present disclosure.
  • the expression “at least one of a, b, or c” refers to “a”, “b”, “c”, “a and b”, “a and c”, “b and c”, “a, b and c”, or variations thereof.
  • a component when referred to as “connected” or “connected” to another component, it means that the component is directly connected or will be directly connected to the other component. However, unless there is a specific statement to the contrary, it should be understood that they may be connected or connected through another component in the middle.
  • components expressed as ' ⁇ unit (unit)', 'module', etc. are two or more components combined into one component, or one component is divided into more detailed functions. It may be differentiated into two or more.
  • each of the components described below may additionally perform some or all of the functions of other components in addition to the main functions that each component is responsible for, and some of the main functions of each component may be different from other components. Of course, it can also be performed exclusively by a component.
  • the processor may consist of one or multiple processors.
  • one or more processors may be a general-purpose processor such as a CPU, AP, or DSP (Digital Signal Processor), a graphics-specific processor such as a GPU or VPU (Vision Processing Unit), or an artificial intelligence-specific processor such as an NPU.
  • One or more processors control input data to be processed according to predefined operation rules or artificial intelligence models stored in memory.
  • the artificial intelligence dedicated processors may be designed with a hardware structure specialized for processing a specific artificial intelligence model.
  • Predefined operation rules or artificial intelligence models are characterized by being created through learning.
  • being created through learning means that the basic artificial intelligence model is learned using a large number of learning data by a learning algorithm, thereby creating a predefined operation rule or artificial intelligence model set to perform the desired characteristics (or purpose). It means burden.
  • This learning may be performed on the device itself that performs the artificial intelligence according to the present disclosure, or may be performed through a separate server and/or system. Examples of learning algorithms include supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but are not limited to the examples described above.
  • An artificial intelligence model may be composed of multiple neural network layers.
  • Each of the plurality of neural network layers has a plurality of weight values, and neural network calculation is performed through calculation between the calculation result of the previous layer and the plurality of weights.
  • Multiple weights of multiple neural network layers can be optimized by the learning results of the artificial intelligence model. For example, a plurality of weights may be updated so that loss or cost values obtained from the artificial intelligence model are reduced or minimized during the learning process.
  • DNN deep neural networks
  • CNN Convolutional Neural Network
  • DNN Deep Neural Network
  • RNN Recurrent Neural Network
  • RBM Restricted Boltzmann Machine
  • DBN Deep Belief Network
  • BNN Bidirectional Recurrent Deep Neural Network
  • DNN Deep Q-Networks
  • object image may mean an image containing an object of a 3D model to be created.
  • an electronic device may create a 3D model of a chair based on an object image of the chair.
  • “basic 3D model” may mean a 3D model for an object created based on an object image.
  • a basic 3D model may refer to a 3D model inferred based on an object image without referring to a 3D model database.
  • the basic 3D model may include information about the object included in the object image.
  • the object image is an image taken from the front of the object
  • the basic 3D model may include information about the front of the object.
  • the basic 3D model may include information about a plurality of different viewpoints of the object.
  • target 3D model may refer to a 3D model used to create a synthetic 3D model from a 3D model database.
  • an electronic device may use a target 3D model included in a 3D model database to supplement a basic 3D model or a synthetic 3D model.
  • the target 3D model may be a 3D model in which the number of information is more than a predetermined value.
  • the target 3D model may be a 3D model that contains sufficient information to represent an object by rendering.
  • “synthetic 3D model” may mean a 3D model generated based on a target 3D model.
  • an electronic device can generate a synthetic 3D model using a base 3D model and a target 3D model.
  • an electronic device can create a new synthetic 3D model using a parasitic synthetic 3D model and a target 3D model.
  • the electronic device may generate a synthetic 3D model by increasing the amount of information of the basic 3D model or the amount of information of the parasitic generated synthetic 3D model, based on the information of the target 3D model.
  • FIG. 1 is a diagram illustrating a method for generating a three-dimensional (3D) model according to an embodiment of the present disclosure.
  • the electronic device 100 may acquire an object image 110 related to an object 105 .
  • object image 110 related to an object 105 .
  • the electronic device 100 may acquire the object 105 by photographing it or receiving the object image 110 from the outside.
  • the electronic device 100 may acquire the object image 110 by photographing the object 105 from various angles.
  • the object image 110 may be a two-dimensional (2D) image or a three-dimensional (3D) image captured from the electronic device 100, or may be an image generated based on the 2D image captured from the electronic device 100. It can be a 3D image.
  • the object image 110 may be a 2D image including color information or a 3D image including color information and depth information.
  • the object image 110 may be a 2D image including color information such as an RGB image, or an image including color information and depth information such as an RGBD image, but is not limited thereto and may be an image in various color spaces. .
  • the electronic device 100 may generate a basic 3D model 120 based on the object image 110.
  • the basic 3D model 120 may be a 3D model inferred using the object image 110.
  • a method of generating a basic 3D model according to an embodiment of the present disclosure will be described with reference to FIG. 5.
  • the electronic device 100 may determine the first target 3D model 135-1 from the 3D model database 130.
  • the 3D model database 130 may be information about a 3D model stored in the electronic device 100 or an external electronic device.
  • the electronic device 100 may determine a 3D model similar to the basic 3D model 120 from the 3D model database 130 as the first target 3D model 135-1.
  • the electronic device 100 may generate a first synthetic 3D model 140 based on the basic 3D model 120 and the first target 3D model 135-1.
  • the electronic device 100 performs a transformation process on the first target 3D model 135-1 and synthesizes the transformed first target 3D model 135-1 and the basic 3D model 120, thereby performing the first synthesis.
  • a 3D model 140 can be created.
  • the electronic device 100 creates a 3D model by synthesizing the basic 3D model 120, which has little information about the 3D model (e.g., information about the 3D model, such as points and vertices) using the first target 3D model 135-1.
  • a first synthetic 3D model 140 containing a large amount of information can be created.
  • a process in which the electronic device 100 performs transformation and synthesis according to an embodiment of the present disclosure will be described with reference to FIGS. 8, 9A, 9B, and 10.
  • the electronic device 100 may determine the second target 3D model 135-2 from the 3D model database 130.
  • the electronic device 100 may determine a 3D model similar to the first composite 3D model 140 from the 3D model database 130 as the second target 3D model 135-2.
  • the electronic device 100 may classify the first composite 3D model 140 into a plurality of components.
  • the configuration of the first synthetic 3D model 140 may mean a set of points with similar characteristics among a plurality of points included in the first synthetic 3D model 140.
  • the configuration may include a backrest, seat, legs, and armrests, and points belonging to the same configuration exhibit similar characteristics and may be used in different configurations. The points that belong to each other may exhibit different characteristics.
  • the electronic device 100 compares the first synthetic 3D model 140 and the object image 110 to select a configuration that has a large difference from the object image 110 among a plurality of configurations classified from the first synthetic 3D model 140. You can decide.
  • the electronic device 100 selects a 3D model from the 3D model database 130 that includes a configuration similar to the configuration with a large difference from the object image 110 among the configurations of the first synthetic 3D model 140 as a second target 3D model ( 135-2).
  • the electronic device 100 creates an image between the first synthetic 3D model 140 and the object image 110 with respect to the armrest. Determining that the difference is large, the electronic device 100 may determine a 3D model with armrests similar to the armrests of the first composite 3D model 140 as the second target 3D model 135-2.
  • the electronic device 100 may generate a second composite 3D model by synthesizing the first composite 3D model 140 and the second target 3D model 135-2. According to an embodiment of the present disclosure, the process by which the electronic device 100 generates the second synthetic 3D model 150 has been described, but the process is repeated until the object image 110 and the synthetic 3D model satisfy a predetermined similarity. It can be performed by doing this.
  • the electronic device 100 can create a 3D model from a small number of object images by supplementing information about the 3D model using a 3D model stored in a database.
  • the electronic device 100 may use a 3D model stored in a database to generate a 3D model with a large amount of information from a 3D model with a small amount of information generated from a small number of object images.
  • a 3D model with a small amount of information may have a large difference from the target 3D model to be implemented when rendered, but a 3D model with a large amount of information may have a small difference from the target 3D model.
  • the number of images required for the electronic device 100 to generate a 3D model may be less than the number of images required in related technology.
  • FIG. 2 is a diagram illustrating a method for generating a three-dimensional model (3D model) according to an embodiment of the present disclosure.
  • the electronic device 100 includes a basic 3D model creation unit 210, a target 3D model determination unit 220, a synthetic 3D model creation unit 240, an image rendering unit 270, and an image comparison unit ( 280).
  • the electronic device 100 may further include a reference 3D model DB 230.
  • the basic 3D model generator 210 may generate a basic 3D model from an object image. Referring to FIG. 1 , the basic 3D model generator 210 may generate a basic 3D model 120 for an object based on the object image 110 .
  • the target 3D model determination unit 220 may determine a target 3D model similar to the basic 3D model among 3D models stored in the reference 3D model DB.
  • the synthetic 3D model generator 240 may generate a synthetic 3D model using a base 3D model and a target 3D model.
  • the 3D model transformation unit 250 may perform a transformation process on the target 3D model.
  • the 3D model merge unit 260 may merge the target 3D model and the basic 3D model.
  • the image rendering unit 270 may render a synthetic 3D model.
  • the image comparison unit 280 may determine the degree of similarity by comparing the object image and the composite image. If the object image and the composite image have a similarity greater than a predetermined level, the image comparison unit 280 may determine the composite 3D model as the final 3D model.
  • the image comparison unit 280 determines a target 3D model similar to the synthetic 3D model. You can.
  • the synthetic 3D model generator 240 may generate a new synthetic 3D model by synthesizing the determined target 3D model and a previously created synthetic 3D model. If the similarity between the synthetic 3D model and the object image is less than a predetermined similarity, the electronic device 100 may repeatedly perform the process of determining the target 3D model and generating the synthetic 3D model. According to an embodiment of the present disclosure, a method for the electronic device 100 to generate a synthetic 3D model will be described with reference to FIG. 3.
  • Figure 3 is a flowchart of a method for generating a 3D model according to an embodiment of the present disclosure.
  • the method 300 for creating a 3D model may begin with step 310.
  • the method 300 for generating a 3D model according to an embodiment of the present disclosure may be performed by an electronic device, but is not limited thereto, and some steps are performed by the electronic device 100 and some steps are performed by an external electronic device.
  • the device can perform.
  • the electronic device 100 may create a basic 3D model.
  • the electronic device 100 may generate a basic 3D model using an object image.
  • the electronic device 100 may generate a point cloud-based 3D model using an RGBD image.
  • the electronic device 100 may generate an RGBD image using a plurality of RGB images.
  • the electronic device 100 may determine a target 3D model.
  • the electronic device 100 may determine the 3D model most similar to the basic 3D model from the 3D model database as the target 3D model.
  • the electronic device 100 may determine a 3D model whose specific configuration is most similar to the basic 3D model as the target 3D model. For example, the electronic device 100 may determine the 3D model with the most similar armrest configuration of a chair as the target 3D model.
  • the electronic device 100 may generate a synthetic 3D model.
  • the electronic device 100 may generate a synthetic 3D model based on the basic 3D model and the target 3D model.
  • the electronic device 100 may perform transformation on the target 3D model and generate a synthetic 3D model.
  • the electronic device 100 determines whether the composite 3D model and the object image are similar.
  • the electronic device 100 may render a synthetic 3D model and modify the rendered synthetic 3D model to be similar to the pose of an object image.
  • the electronic device 100 may determine the degree of similarity based on the modified 3D model and the object image. If the electronic device 100 determines that they are not similar (e.g., the similarity is less than a predetermined value), the process proceeds to step 350. If the electronic device 100 determines that they are similar (e.g., the degree of similarity is greater than a predetermined value), the step ends.
  • the electronic device 100 may determine dissimilar areas between the composite 3D model and the object image.
  • the area may refer to the configuration of a synthetic 3D model.
  • the electronic device 100 may classify the composite 3D model into object configurations and determine the degree of similarity to the object image for each configuration.
  • the electronic device 100 may classify chairs into components such as backrests and armrests.
  • the electronic device 100 may determine that the composite 3D model and the object image are similar in chair configurations in terms of backrests but not similar in armrests.
  • the electronic device 100 determines dissimilar configurations between the composite 3D model and the object image and proceeds to step 320.
  • the electronic device 100 may determine a 3D model similar to the synthetic 3D model as the target 3D model.
  • the electronic device 100 may determine a 3D model including a configuration similar to the configuration of the synthetic 3D model as the target 3D model for the configuration of the synthetic 3D model that is determined to be not similar to the configuration of the object image. For example, for armrest configurations that are determined to be dissimilar, the electronic device 100 may determine a 3D model including an armrest configuration similar to the synthetic 3D model as the target 3D model. According to an embodiment of the present disclosure, when there are multiple configurations that are determined to be dissimilar, the electronic device 100 may determine a target 3D model for each configuration.
  • the electronic device 100 when there are a plurality of configurations determined to be dissimilar, the electronic device 100 creates one target 3D model including a configuration with the highest degree of similarity for the plurality of configurations determined to be dissimilar. You can decide.
  • the electronic device 100 may create a new synthetic 3D model using the previously created synthetic 3D model and the target 3D model.
  • the electronic device 100 may repeat steps 320 to 350 to generate a synthetic 3D model similar to an object image.
  • Figure 4 is a diagram showing the types of three-dimensional models (3D models) according to an embodiment of the present disclosure.
  • the type of 3D model may include a point cloud 405 or a mesh 410.
  • Point cloud 405 is digitized data that visually defines an object in 3D space.
  • point cloud 405 may include multiple points.
  • Each point may represent the coordinates of an external point of the object.
  • each point may represent one of the boundaries of an object.
  • Each point may include the external coordinate value of the object corresponding to the three-dimensional coordinate system.
  • each point can be expressed as a coordinate value of (x, y, z).
  • Each point may contain one or more attributes.
  • the attributes of each point may include geometry such as geographic location.
  • the properties of each point may include color, brightness, texture, motion, material properties, etc. Attributes other than geometric structure may be referred to as texture, and the texture represents various aspects and characteristics related to each point of the point cloud 405.
  • Mesh 410 is digitized data that visually defines an object in 3D space. As shown, the mesh 410 may include multiple points and connection relationships between the multiple points.
  • a pictorial depiction of the mesh 410 is defined as several polygonal or triangular-shaped interconnections of information between various points. For example, if various points are interconnected in a polygonal shape, it may be referred to as a polygon mesh. For example, if various points are interconnected in a triangle shape, it may be referred to as a triangular mesh.
  • Each polygon can contain various information, such as an attribute. Attributes can include geometry and texture. Textures include color reflections, motion, etc.
  • terrain data provides connection information between vertices, such as the adjacency of vertices, edges, and faces.
  • Geometric information provides the geometric position of each vertex in 3D space. Attribute information provides normal, color, and application-dependent information for each individual vertex.
  • the vertices of each polygon are similar to points in the point cloud 405.
  • Each polygon of mesh 410 represents the external surface of an object.
  • point cloud and mesh are described as examples among the types of 3D models, but are not limited thereto, and the 3D model generation method according to the present disclosure uses NURBS (Non-Uniform Rational B-spline) or sculpting. It can be performed using various types of 3D models, such as (Sculpting).
  • NURBS Non-Uniform Rational B-spline
  • sculpting can be performed using various types of 3D models, such as (Sculpting).
  • FIG. 5 is a diagram illustrating a process for generating a basic 3D model based on an object image according to an embodiment of the present disclosure.
  • the basic 3D model 530 may be created based on at least one object image 510.
  • the object image 510 and the basic 3D model 530 according to an embodiment of the present disclosure may respectively correspond to the object image 110 and the basic 3D model 120 of FIG. 1 .
  • the electronic device 100 may acquire depth information based on the object image 510.
  • the electronic device 100 may generate a depth information image 520 including depth information.
  • a depth information image may be a depth image that represents the depth information of each pixel as a pixel value.
  • the depth information image 520 may be part of the object image 510.
  • the depth information image 520 may refer to an image of depth information among the object images 510.
  • the depth information image 520 may be generated based on the object image 510.
  • the object image 510 is a two-dimensional image
  • depth information corresponding to the object image 510 can be estimated using a plurality of images, and the depth information image 520 is added to the estimated depth information. It can be created based on
  • the electronic device 100 may generate a basic 3D model 530 based on the depth information image 520.
  • the electronic device 100 can obtain 3D coordinate values at each point using depth information.
  • the electronic device 100 may generate a basic 3D model 530 based on the coordinate values of each point.
  • the basic 3D model 530 can be expressed in various ways, such as a point cloud or mesh. As the number of object images 510 increases, the number of points of the basic 3D model 530 increases, and the basic 3D model 530 can accurately represent the object.
  • Figure 6 is a diagram illustrating a process of classifying a 3D model into structural units according to an embodiment of the present disclosure.
  • the 3D model 600 may include a plurality of components 610, 620, 630, 640, and 650.
  • the 3D model 600 of a chair may include a backrest 610, a seat 620, legs 630, and armrests 640 and 650.
  • the 3D model 600 may be a basic 3D model, a target 3D model, or a synthetic 3D model.
  • the electronic device 100 may classify the 3D model 600 into a plurality of configurations 610, 620, 630, 640, and 650.
  • the electronic device 100 may classify the 3D model 600 into a plurality of configurations 610, 620, 630, 640, and 650 using an artificial intelligence model that classifies the 3D model into semantic units.
  • the artificial intelligence model may be trained to classify a plurality of points included in the 3D model according to their configuration.
  • the artificial intelligence model may be learned using training data including data with configuration labels for each point or cell unit of the 3D model.
  • the electronic device 100 may classify the 3D model 600 into a plurality of configurations 610, 620, 630, 640, and 650 based on clustering.
  • the electronic device 100 may perform a clustering algorithm that classifies information about each point or each cell unit of the 3D model into sets with similar characteristics.
  • a set of 3D models with similar characteristics may be referred to as a configuration of a 3D model.
  • the process of classifying the electronic device 100 into a plurality of configurations 610, 620, 630, 640, and 650 based on the 3D model 600 has been described, but the process is not limited thereto. It is also possible for the electronic device 100 to simultaneously create a 3D model based on an object image and classify it according to its configuration.
  • the electronic device 100 may classify the 3D model 600 into a plurality of configurations 610, 620, 630, 640, and 650, thereby identifying a configuration in the 3D model 600 that has low similarity to the object image.
  • the electronic device 100 can increase the similarity between the 3D model 600 and the object by supplementing information about the configuration of the 3D model 600 with low similarity.
  • the electronic device 100 may supplement information by increasing the amount of information about configurations of the 3D model 600 with low similarity.
  • Figure 7 is a diagram illustrating a process for determining similarity between 3D models according to an embodiment of the present disclosure.
  • the first 3D model 710 and the second 3D model 720 may each be one of a basic 3D model, a target 3D model, a synthetic 3D model, or a 3D model stored in a 3D model database.
  • the first 3D model 710 is a basic 3D model and the second 3D model 720 is a 3D model included in a 3D database.
  • the electronic device 100 may include a similarity determination unit 730.
  • the similarity determination unit 730 may determine the similarity 740 between the first 3D model 710 and the second 3D model 720.
  • the similarity determination unit 730 is based on at least one of an extrinsic parameter or an intrinsic parameter of the first 3D model 710 and the second 3D model 720.
  • Extrinsic parameters may include characteristics such as curvature or anisotropy of the 3D model.
  • the similarity determination unit 730 may determine the similarity by comparing the curvature of the first 3D model 710 and the curvature of the second 3D model 720.
  • the similarity determination unit 730 may determine the similarity based on the point positions included in the first 3D model 710 and the point positions of the second 3D model 720. For example, the similarity determination unit 730 determines the distance (e.g., Euclidean distance) between the first point included in the first 3D model 710 and the second point of the second 3D model 720 corresponding to the first point. ), the degree of similarity can be determined.
  • the second point may be a point whose location is most similar to the first point among the points included in the second 3D model 720.
  • the similarity determination unit 730 includes a first 3D model 710 and a second 3D model 720 including at least one of an extrinsic parameter or an intrinsic parameter. It may include an artificial intelligence model trained to predict the characteristics of . The artificial intelligence model may be trained to show a higher degree of similarity as the first 3D model 710 and the second 3D model 720 are similar.
  • the similarity determination unit 730 determines the similarity 740 by comparing the entire first 3D model 710 and the second 3D model 720 or a portion of the first 3D model 710 and the second 3D model 720.
  • the similarity 740 can be determined by comparing .
  • the similarity determination unit 730 may determine the similarity by comparing the 'armrest' configuration of the first 3D model 710 with the 'armrest' configuration of the second 3D model 720.
  • the electronic device 100 may determine the degree of similarity 740 with the first 3D model 710 by using a plurality of 3D models included in the 3D model database as the second 3D model 720 . Similarity can represent a value between 0 and 1, but is not limited to this and can be evaluated in various ways.
  • the similarity determination unit 730 may compare the first 3D model 710 and the second 3D model 720 and determine that the smaller the difference, the greater the similarity.
  • the electronic device 100 may determine the second 3D model 720 with the highest similarity 740 as the target 3D model. For example, among a plurality of 3D models (candidate 3D models) included in the 3D database, the first candidate 3D model with the highest degree of similarity may be determined as the target 3D model.
  • the electronic device 100 can supplement the small amount of data by using the most similar 3D model among previously generated 3D models. For example, the electronic device 100 may supplement the basic 3D model with little data (e.g., point information, vertex information, etc.) by increasing the amount of data using data included in the target 3D model.
  • the similarity determination unit 730 may be included in the target 3D model determination unit 220 of FIG. 2.
  • the target 3D model determination unit 220 may determine the target 3D model based on the similarity determined by the similarity determination unit 730.
  • a method for determining similarity has been described when the first 3D model 710 is a basic 3D model and the second 3D model 720 is a 3D model included in a 3D database. It is not limited, and the first 3D model 710 and the second 3D model 720 are not limited, such as when the first 3D model 710 is a synthetic 3D model and the second 3D model 720 is a 3D model included in a 3D database. ) can appear in various cases.
  • Figure 8 is a diagram showing the deformation process of a 3D model according to an embodiment of the present disclosure.
  • Deformation may refer to the process of changing the position of each point of the 3D model. For example, this means changing the coordinates (x0, y0, z0) of an arbitrary point in the 3D model to (x1, y1, z1).
  • the 3D model can achieve a similar effect as if rotation, translation, or scaling was performed on the 3D model.
  • offset may mean information about a change in position before and after transformation is performed. For example, if the coordinates (x0, y0, z0) of a random point in the 3D model are moved to (x1, y1, z1) by transformation, the offset is (x1-x0, y1-y0, z1-z0) ) can be expressed as a three-dimensional vector. Offsets can be determined individually for each point in the 3D model.
  • the 3D model 820 after transformation may be created by changing the positions of points included in the 3D model 810 before transformation.
  • the electronic device 100 can transform the 3D model 810.
  • the electronic device 100 may perform transformation on the target 3D model in order to synthesize the basic 3D model or synthetic 3D model and the target 3D model.
  • the electronic device 100 may transform the target 3D model 810 so that it is similar to the distribution between points of another 3D model (not shown). For example, when multiple 3D models have different sizes (e.g., points of one 3D model are contained in a cube of 640 x 640 x 640, and points of another 3D model are contained in a cube of 40 x 40 x 40). case), the intervals distributed between each point of a plurality of 3D models are different. In the above example, combining multiple 3D models may create a 3D model containing inaccurate information. Accordingly, the electronic device can modify the 3D model so that multiple 3D models correspond by performing a transformation process.
  • FIG. 9A is a diagram illustrating a process for obtaining information for performing transformation on a 3D model according to an embodiment of the present disclosure.
  • the offset 960 and configuration similarity 970 for the base 3D model 910 and the target 3D model 915 are calculated using the feature extraction units 930 and 935 and the configuration comparison unit 950. can be decided.
  • the electronic device 100 may include feature extraction units 930 and 935 and configuration comparison units 940a and 945a.
  • the 3D model merging unit 260 of FIG. 2 may include feature extraction units 930 and 935 and configuration comparison units 940a and 945a.
  • the process by which the electronic device 100 transforms the target 3D model 915 based on the basic 3D model 910 is described, but the electronic device 100 transforms the target 3D model based on the synthetic 3D model.
  • the process of transforming (915) can also be performed in the same way.
  • the target 3D model 915 may be a 3D model with the highest similarity to the basic 3D model 910 among the 3D model database. According to an embodiment of the present disclosure, the target 3D model 915 may be a 3D model with the highest similarity to all of the base 3D models 910.
  • the electronic device 100 may classify the basic 3D model 910 and the target 3D model 915 into a plurality of components 920a and 925a. Alternatively, the electronic device 100 may obtain a 3D model classified into a plurality of configurations 920a and 925a.
  • the feature extraction units 930 and 935 receive as input a basic 3D model 920a classified into a plurality of configurations and a target 3D model 925a classified into a plurality of configurations, and extract features 940a of each configuration of the basic 3D model. And the characteristics 945a of each configuration of the target 3D model can be output.
  • the feature extraction units 930 and 935 take as input a 3D model expressed as a point cloud or mesh classified into a plurality of configurations, and extract the features 940a of each configuration of the basic 3D model and each of the target 3D model.
  • a one-dimensional embedding vector related to the configuration feature 945a can be output.
  • the feature extraction units 930 and 935 may be implemented as a Convolutional Neural Network (CNN).
  • CNN Convolutional Neural Network
  • the configuration comparison unit 950 includes one configuration feature (e.g., part Sa) among the features 940a of the basic 3D model and one configuration feature (e.g., part Ta) among the features 945a of the target 3D model. Based on , the offset 960 and configuration similarity 970 can be output. According to an embodiment of the present disclosure, the configuration comparison unit 950 may additionally input a 3D model (e.g., a 3D model corresponding to part Sa) corresponding to one configuration of the basic 3D model. For example, when the basic 3D model is a point cloud, the configuration comparison unit 950 may obtain location information of points of the 3D model corresponding to one configuration of the basic 3D model 910. For example, when the basic 3D model is a mesh, the configuration comparison unit 950 may obtain location information and connection information between the points of the 3D model corresponding to one configuration of the basic 3D model 910. there is.
  • a 3D model e.g., a 3D model corresponding to part Sa
  • the configuration comparison unit 950
  • the configuration comparison unit 950 includes features of all configurations (e.g., parts Sa, Sb, Sc) of the base 3D model 910 and features of all configurations of the target 3D model 915 ( Example: parts Ta, Tb, Tc) can be compared. For example, in the case of FIG. 9, if the basic 3D model 910 and the target 3D model 915 each have three configurations, a total of nine configuration comparisons may be performed.
  • the offset 960 may be a vector for changing the target 3D model 920a to correspond to the basic 3D model 910.
  • the configuration comparison unit 950 may determine the configuration similarity 970 between the input 3D models.
  • the configuration similarity 970 may refer to the similarity between the configuration of the input basic 3D model 910 and the configuration of the target 3D model 920a. If the configuration of the input basic 3D model 910 corresponds to the configuration of the target 3D model 920a, the configuration similarity 970 may show a high value. For example, when both the input basic 3D model 910 and the target 3D model 920a represent armrests of a chair, the configuration similarity 970 may have a high value. If the configuration of the input basic 3D model 910 does not correspond to the configuration of the target 3D model 920a, the configuration similarity 970 may show a low value. For example, if the configuration of the input basic 3D model 910 is the armrest of a chair and the configuration of the target 3D model 920a is the backrest of a chair, the configuration similarity 970 may show a low value.
  • the electronic device 100 may not perform transformation. For example, when the configuration similarity 970 is a normalized value between 0 and 1 and the configuration similarity 970 is less than 0.5, the electronic device 100 is between the target 3D model 920a and the base 3D model 910. The transformation may not be performed.
  • the configuration comparison unit 950 determines the configuration similarity 970 for all configurations 940a of the base 3D model 910 and all configurations 945a of the target 3D model 915. By doing so, the electronic device 100 can determine a configuration for performing transformation on the target 3D model 915. For example, the electronic device 100 transforms the backrest configuration (Part Ta) of the target 3D model 915 into a basic 3D model based on the configuration similarity 970 of ⁇ Part Sa, Part Ta ⁇ being 0.5 or more. It can be decided to perform by referring to the backrest configuration (Part Sa) of (910).
  • the electronic device 100 may modify the backrest configuration (Part Ta) of the target 3D model 915 based on the configuration similarity 970 of ⁇ Part Sa, Part Tb ⁇ being less than 0.5 as a basic 3D model. It can be decided not to perform it by referring to the backrest configuration (Part Sb) of (910).
  • the electronic device 100 uses the feature extraction units 930 and 935 and the configuration comparison unit 950 to learn a plurality of 3D models and the offset and configuration similarity between the configurations of the plurality of models. You can train with the data set.
  • the feature extractors 930 and 935 may be implemented as a CNN
  • the configuration comparison unit 950 may be implemented as a Multi Layer Perceptron (MLP).
  • MLP Multi Layer Perceptron
  • FIG. 9B is a diagram illustrating a process for obtaining information for performing transformation on a 3D model according to an embodiment of the present disclosure.
  • some of the configurations of the base 3D model 910b and the target 3D model 915 may not be transformed.
  • the leg configuration is not transformed, and the 3D model corresponding to the legs of the basic 3D model 910b and the target 3D model 915 is It may not be input to the feature extraction units 930 and 935.
  • the process by which the electronic device 100 transforms the target 3D model 915 based on the basic 3D model 910b is described, but the electronic device 100 transforms the target 3D model based on the synthetic 3D model.
  • the process of transforming (915) can also be performed in the same way.
  • content that overlaps with FIG. 9A will be omitted.
  • the electronic device 100 may classify the basic 3D model 910 and the target 3D model 915 into a plurality of components 920a and 925a. Alternatively, the electronic device 100 may obtain a 3D model classified into a plurality of configurations 920a and 925a.
  • the feature extraction units 930 and 935 receive as input a basic 3D model 920a classified into a plurality of configurations and a target 3D model 925a classified into a plurality of configurations, and extract features 940a of each configuration of the basic 3D model. And the characteristics 945a of each configuration of the target 3D model can be output. However, a configuration that the electronic device 100 does not change may not be input to the feature extraction units 930 and 935.
  • the configuration comparison unit 950 compares the features of the configuration (e.g., parts Sa, Sb) corresponding to the target of modification of the basic 3D model 910 and the modification of the target 3D model 915.
  • the characteristics of the composition corresponding to the target e.g. part Ta, Tb
  • a total of four configuration comparisons may be performed, excluding one configuration for the chair.
  • the electronic device 100 can achieve the effect of reducing the amount of calculation by performing feature extraction and configuration comparison only for the configuration for which transformation is to be performed. If the previously created composite 3D model and the object image have a high degree of similarity in a specific configuration, the electronic device 100 may determine not to perform transformation on the corresponding configuration. The electronic device 100 may generate a 3D model for an object by preferentially supplementing configurations with low similarity.
  • Figure 10 is a diagram illustrating a process of merging a plurality of 3D models according to an embodiment of the present disclosure.
  • a synthetic 3D model 1030 may be created by merging the base 3D model 1010 and the target 3D model 1020. 10 is explained based on the basic 3D model 1010, but instead of the basic 3D model 1010, a synthetic 3D model 1030 may be generated based on a previously created synthetic 3D model.
  • the electronic device 100 may merge the base 3D model 1010 and the target 3D model 1020.
  • the synthetic 3D model 1030 may be created by combining information of the basic 3D model 1010 and information of the target 3D model 1020. For example, if the set of points included in the basic 3D model 1010 is A and the set of points included in the target 3D model 1020 is B, the set of points in the synthetic 3D model 1030 is A. It can be determined by the union B.
  • the target 3D model 1020 may have been transformed.
  • the electronic device 100 may perform transformation to change the target 3D model 1020 to correspond to the basic 3D model 1020.
  • the information amount of the target 3D model 1020 on which transformation has been performed may be the same as the information amount of the basic 3D model. For example, if the basic 3D model 1010 includes 3000 points, a modified target 3D model in which downsampling is performed by selecting 3000 points from the target 3D model exceeding 3000 points can be created. there is.
  • FIG. 11 is a diagram illustrating a process of comparing an object image and a synthetic 3D model according to an embodiment of the present disclosure.
  • the pose of the synthetic 3D model 1120 may be converted to correspond to the pose of the object image 1110.
  • “pose” may mean the direction in which an object exists in an image. For example, the right armrest appears in the object image 1110, but the right armrest is visible in the synthetic 3D model 1120, so the poses of the object image 1110 and the synthetic 3D model 1120 are different.
  • the electronic device 100 may include a pose determination unit 1130 and a pose conversion unit 1140.
  • the pose determination unit 1130 may determine the pose of the object image by receiving the object image 1110 and the composite 3D image as input.
  • the pose determination unit 1130 may use the object image 1110 to obtain the pose of the image.
  • the pose determination unit 1130 may obtain a 3D vector for the pose of the object.
  • the pose determination unit 1130 may use the object image 1110 and the synthetic 3D model 1120 to obtain the difference in pose.
  • the pose determination unit 1130 may obtain a 3D vector for converting the poses of the object image 1110 and the composite 3D model 1120 to be the same.
  • the pose converter 1140 may convert the pose of the synthetic 3D model 1120 to have the same pose as that of the object image 1110. By comparing the synthetic 3D model 1140 and the object image 1110, which have been converted to have the same pose, it can be clearly determined whether the synthetic 3D model 1120 and the object image 1110 are similar.
  • the electronic device 100 may determine the degree of similarity between the synthetic 3D model 1110 and the object image 1120.
  • the electronic device 100 may render a synthetic 3D model whose pose has been converted.
  • the electronic device 100 may determine the degree of similarity by comparing the rendered synthetic 3D model with the object image.
  • the electronic device 100 may determine the degree of similarity based on the difference between the rendered synthetic 3D model 1120 and the object image 1110.
  • the electronic device 100 may determine the degree of similarity based on the characteristics of the rendered synthetic 3D model 1120 and the characteristics of the object image 1110.
  • the electronic device 100 may extract features from the rendered synthetic 3D model 1120 and the object image 1110 and determine the degree of similarity by comparing the extracted features.
  • FIG. 11 illustrates a method of converting a pose based on an unrendered synthetic 3D model 1120, but the present invention is not limited thereto, and pose conversion can be performed using a rendered synthetic 3D model.
  • Figure 12 is a diagram showing a process for complementing a configuration with low similarity according to an embodiment of the present disclosure.
  • the electronic device 100 may determine a target 3D model 1220 to supplement information about the armrest from a previously generated synthetic 3D model 1210.
  • the electronic device 100 may determine the target 3D model 1220 by determining the similarity of the configuration to be supplemented. For example, the 3D model with the highest similarity in armrest configuration can be determined as the target 3D model. When judged overall, there may be more similar 3D models, but by judging only the similarity for a specific configuration, information about that configuration can be supplemented.
  • the electronic device 100 may separate the 3D model 1230 corresponding to the armrest of the target 3D model 1220.
  • the electronic device 100 may generate a synthetic 3D model 1240 using the previously created synthetic 3D model 1210 and the 3D model 1230 corresponding to the armrest.
  • Figure 13 is a diagram showing color information of a 3D model according to an embodiment of the present disclosure.
  • the object image 1310 is an image including color information.
  • the object image 1310 may be an RGB-D image.
  • the points of the basic 3D model 1320 are determined using the 3D position information of the object image 1310, and color information corresponding to each point can be obtained from the object image 1310.
  • the target 3D model 1330 may include location information.
  • the electronic device 100 is based on information about the location of the base 3D model 1320 and information about the location of the target 3D model 1330, at the location of the synthetic 3D model 1340.
  • Information about the color of the synthetic 3D model 1340 may be generated based on information about the color of the basic 3D model 1320.
  • Information about the location of the 3D model may mean location information of a point of the 3D model, and information about the color of the 3D model may mean location information of a point of the 3D model.
  • the composite 3D model 1340 may include points of the base 3D model 1320 and points of the target 3D model 1330. Points of the target 3D model among the synthetic 3D model 1340 may be determined from color information of points of the basic 3D model 1320. For example, points of the target 3D model among the synthetic 3D model 1340 may be generated through interpolation based on the location information and color information of the points of the basic 3D model 1320.
  • the electronic device 100 may generate a 3D model similar to an object image by determining color information of the composite 3D model 1340 from the basic 3D model 1320.
  • the location information and color information of the new synthetic 3D model can be determined using the location information and color information of the previously created synthetic 3D model and the location information of the target 3D model.
  • Figure 14 is a flowchart of a method for generating a synthetic 3D model according to an embodiment of the present disclosure.
  • the method 1400 for generating a composite 3D model may begin with step 1410.
  • the method 1400 of generating a synthetic 3D model according to an embodiment of the present disclosure may be performed by the electronic device 100.
  • the electronic device 100 may generate a basic 3D model for an object based on at least one object image.
  • the basic 3D model may include 3D information inferred based on the object image.
  • 3D information may include location information of points representing the boundaries of an object.
  • the electronic device 100 may determine a first target 3D model similar to the basic 3D model from a 3D model database in which a plurality of 3D models are stored.
  • the electronic device 100 identifies the type of object based on the object image
  • the 3D model database may be a 3D model database related to the type of the identified object.
  • the 3D model database may be a database about the 3D model of the chair.
  • the electronic device 100 may generate a first synthetic 3D model based on the basic 3D model and the first target 3D model.
  • the first synthetic 3D model may be created by merging the base 3D model and the first target 3D model.
  • the electronic device 100 may determine a first similarity between the first composite 3D model and at least one object image.
  • the electronic device 100 may determine the first similarity by comparing the rendered first synthetic 3D model and at least one object image.
  • the first similarity may be determined to be a value between 0 and 1.
  • the electronic device 100 may determine a configuration in which the similarity between the first synthetic 3D model and the object image is low based on the first similarity being less than or equal to the threshold.
  • the electronic device 100 may classify the synthetic 3D model into a plurality of configurations and determine the degree of similarity for each configuration.
  • the electronic device 100 determines a third low similarity configuration between the first composite 3D model and at least one object image for each of the plurality of classified configurations, and, among the plurality of configurations, the third configuration. 3
  • a configuration whose similarity is less than a predetermined value may be determined as the configuration with the low similarity.
  • the electronic device 100 determines the similarity between the first composite 3D model and at least one object image with respect to a plurality of configurations of the object “chair,” “armrests,” “backrests,” etc., and determines the similarity between the first composite 3D model and at least one object image for the plurality of configurations. By comparing each similarity (e.g., similarity for “armrest”, similarity for “backrest”) with a threshold value, a configuration with low similarity can be determined. More than one configuration with low similarity can be determined.
  • the electronic device 100 may determine a 3D model with high similarity to the first composite 3D model for the configuration with low similarity among the 3D model database as the second target 3D model.
  • the electronic device 100 is
  • the electronic device 100 may generate a second synthetic 3D model based on the first synthetic 3D model and the second target 3D model.
  • the electronic device 100 can classify the synthetic 3D model into a plurality of configurations to compensate for configurations that have low similarity to the object image due to insufficient information.
  • the electronic device 100 can be supplemented by using a 3D model database for each configuration, and thus a 3D model can be created using a small number of object images.
  • Figure 15 is a block diagram showing the configuration of an electronic device according to an embodiment of the present disclosure.
  • the electronic device 100 may include a memory 1510 and a processor 1520, but is not limited thereto, and additional general-purpose configurations may be added. .
  • the memory 1510 may store a program for processing and control of the processor 1520, and may store data input to or output from the electronic device 100.
  • the memory 1510 may store instructions, data structures, and program code that the processor 1520 can read. In the disclosed embodiments, operations performed by the processor 1520 may be implemented by executing instructions or codes of a program stored in the memory 1510.
  • the memory 1510 may be a flash memory type, a hard disk type, a multimedia card micro type, or a card type memory (for example, SD or XD). memory, etc.), and may include at least one of ROM (Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory, magnetic disk, and optical disk. It may include non-volatile memory, such as RAM (Random Access Memory) or SRAM (Static Random Access Memory).
  • the memory 1510 may store one or more instructions and/or programs that control the electronic device 100 that generates the 3D model to perform a task.
  • the memory 1510 includes a basic 3D model creation unit, a target 3D model determination unit, a synthetic 3D model creation unit, an image rendering unit, an image comparison unit, a similarity determination unit, a configuration comparison unit, a pose determination unit, and a pose conversion unit. etc. can be stored.
  • the processor 1520 may control operations or functions of the electronic device 100 to perform tasks by executing instructions or programmed software modules stored in the memory 1510.
  • the processor 1520 may be comprised of hardware components that perform arithmetic, logic, input/output operations, and signal processing.
  • the processor 1520 may control overall operations of the electronic device 100 to perform the task of generating synthetic 3D by executing one or more instructions stored in the memory 1510.
  • the processor 1520 includes, for example, a central processing unit, a microprocessor, a graphics processing unit, application specific integrated circuits (ASICs), and digital signal processing units (DSPs). Processors), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs), Field Programmable Gate Arrays (FPGAs), Application Processors, Neural Processing Units, or hardware specialized for processing artificial intelligence models. It may consist of at least one of the designed artificial intelligence processors, but is not limited to this. Each processor constituting the processor 1520 may be a dedicated processor for performing a certain function.
  • An artificial intelligence (AI) processor may use an artificial intelligence (AI) model to perform computation and control to process a task that the electronic device 100 is set to perform.
  • the AI processor may be manufactured in the form of a dedicated hardware chip for artificial intelligence (AI), or may be manufactured as part of a general-purpose processor (eg, CPU or application processor) or graphics-specific processor (eg, GPU) and used in the electronic device 100. It may be mounted on .
  • the processor 1520 may generate a basic 3D model for an object based on at least one object image by executing one or more instructions stored in the memory 1510.
  • the processor 1520 may determine a first target 3D model similar to the basic 3D model from a 3D model database in which a plurality of 3D models are stored by executing one or more instructions stored in the memory 1510.
  • the processor 1520 may generate a first synthetic 3D model based on the basic 3D model and the first target 3D model by executing one or more instructions stored in the memory 1510.
  • the processor 1520 may determine the first similarity between the first composite 3D model and at least one object image by executing one or more instructions stored in the memory 1510.
  • the processor 1520 executes one or more instructions stored in the memory 1510 to determine the similarity between the first synthetic 3D model and the at least one object image based on the first similarity being less than or equal to a threshold value. can be decided.
  • the processor 1520 may determine a 3D model with high similarity to the first composite 3D model for the configuration with low similarity among the 3D model database as the second target 3D model.
  • the processor 1520 may generate a second synthetic 3D model based on the first synthetic 3D model and the second target 3D model by executing one or more instructions stored in the memory 1510.
  • the processor 1520 may acquire depth information of at least one object image using at least one object image by executing one or more instructions stored in the memory 1510. At least one processor may execute at least one instruction to generate a basic 3D model including 3D position information about at least a portion of the object using at least one object image and the obtained depth information.
  • the processor 1520 may determine a second degree of similarity between at least one object image and a plurality of 3D models by executing one or more instructions stored in the memory 1510.
  • the processor 1520 may determine a 3D model with a second high similarity among a plurality of 3D models as the first target 3D model by executing one or more instructions stored in the memory 1510.
  • the processor 1520 may transform the target 3D model to correspond to the basic 3D model by executing one or more instructions stored in the memory 1510.
  • the processor 1520 may merge the base 3D model and the modified target 3D model by executing one or more instructions stored in the memory 1510.
  • the processor 1520 may classify the basic 3D model into a plurality of configurations for the object by executing one or more instructions stored in the memory 1510.
  • the processor 1520 executes one or more instructions stored in the memory 1510 to determine the similarity between the first composite 3D model and the at least one object image for each of the plurality of classified configurations. You can decide on a low configuration. By executing one or more instructions stored in the memory 1510, the processor 1520 may determine, among a plurality of configurations, a configuration whose third similarity is less than a predetermined value as a configuration with a low similarity.
  • the processor 1520 may render the first composite 3D model by executing one or more instructions stored in the memory 1510.
  • the processor 1520 may modify the pose of the rendered first synthetic 3D model to correspond to at least one object image by executing one or more instructions stored in the memory 1510.
  • the processor 1520 may determine a first similarity between the modified rendered first synthetic 3D model and the at least one object image by executing one or more instructions stored in the memory 1510.
  • the processor 1520 may identify the type of object based on at least one object image by executing one or more instructions stored in the memory 1510.
  • the processor 1520 executes one or more instructions stored in the memory 1510, so that the 3D model database may include 3D models related to types of objects.
  • the processor 1520 executes one or more instructions stored in the memory 1510, based on information about the location of the base 3D model and information about the location of the first target 3D model, Information regarding the location of the first synthetic 3D model may be generated.
  • the processor 1520 may generate information about the color of the first synthetic 3D model based on information about the color of the basic 3D model by executing one or more instructions stored in the memory 1510.
  • Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and non-volatile media, removable and non-removable media. Additionally, computer-readable media may include computer storage media and communication media. Computer storage media includes both volatile and non-volatile, removable and non-removable media implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules, or other data. Communication media typically may include computer readable instructions, data structures, or other data, such as modulated data signals, or program modules.
  • FIG. 16 is a diagram illustrating a method for generating an avatar 3D model according to an embodiment of the present disclosure.
  • the user avatar 3D model DB 1630 includes a user avatar 3D model created in the past.
  • the user avatar 3D model DB (1630) includes a user avatar 3D model created on June 3, 2019, a user avatar 3D model created on January 13, 20, and a user avatar 3D model created on April 9, 21. May include a user avatar 3D model.
  • the user avatar 3D model created on each date may be created to reflect the user's attire on that date.
  • the electronic device 100 may acquire a user image 1610.
  • the electronic device 100 may generate a synthetic avatar 3D model 1620 that reflects the user's clothing, based on the user image 1610.
  • the electronic device 100 according to an embodiment of the present disclosure generates a basic 3D model based on the user image 1610, and the target 3D model 1635 and the basic 3D model included in the user avatar 3D model 1630. You can create a synthetic avatar 3D model using .
  • the electronic device 100 may repeatedly create a synthetic 3D model using the target 3D model to compensate for dissimilar configurations.
  • the method of generating a synthetic 3D model in which the electronic device 100 complements a portion of the configuration has been described with reference to FIGS. 1 to 8, 9a, 9b, and 10 to 14, and will therefore be omitted.
  • the composition of the synthetic 3D model 1620 may include the user's appearance and the user's clothing. Additionally, more specifically, user clothing can be classified into tops, bottoms, shoes, etc.
  • the electronic device 100 can be used online, such as in the metaverse 1640, using a synthetic 3D model 1620.
  • the electronic device 100 may change the user's avatar within the metaverse using a composite 3D model 1630 that reflects the user's clothing.
  • FIG. 17 is a diagram illustrating a method for generating an avatar 3D model according to an embodiment of the present disclosure.
  • the user avatar 3D model DB 1730 includes a user avatar 3D model created in the past.
  • the user avatar 3D model DB 1730 may include user avatar 3D models created by various people.
  • the electronic device 100 may acquire a user image 1710.
  • the electronic device 100 may generate a synthetic avatar 3D model 1620 that reflects the user's appearance based on the user image 1710.
  • the electronic device 100 according to an embodiment of the present disclosure generates a basic 3D model based on the user image 1710, and the target 3D model 1735-1 included in the user avatar 3D model 1730 and the basic 3D model 1735-1.
  • a synthetic avatar 3D model (1720) can be created using the 3D model.
  • the electronic device 100 may generate a new synthetic 3D model 1740 using the new target 3D model 1735-2 to compensate for dissimilar configurations.
  • the method of generating a synthetic 3D model in which the electronic device 100 complements a portion of the configuration has been described with reference to FIGS. 1 to 14 and will therefore be omitted.
  • the composition of the synthetic 3D model 1720 may include the user's appearance and the user's clothing. Additionally, more specifically, the user's appearance can be classified into face, arms, legs, etc.
  • the electronic device 100 can be used online, such as in Metaverse, using a synthetic 3D model 1740.
  • the electronic device 100 can change the user's avatar in the metaverse using the synthetic 3D model 1740 that reflects the user's clothing.
  • FIG. 18 is a diagram illustrating a method for generating a 3D model of an indoor space according to an embodiment of the present disclosure.
  • the indoor space 3D model DB 1830 includes an interior 3D model created in the past.
  • the electronic device 100 may acquire an indoor space image 1810.
  • the electronic device 100 may generate a synthetic indoor space 3D model 1820 based on the indoor space image 1810.
  • the electronic device 100 according to an embodiment of the present disclosure generates a basic indoor space 3D model based on the indoor space image 1810 and a target indoor space 3D model 1835 included in the indoor space 3D model 1830. -1) and a basic indoor space 3D model can be used to create a synthetic indoor space 3D model (1820).
  • the electronic device 100 may generate a new synthetic indoor space 3D model 1840 using the new target indoor space 3D model 1835-2 to compensate for dissimilar configurations. For example, to supplement information about a picture frame included in an exterior wall, the electronic device 100 may use a 3D model of the target indoor space that includes a structure similar to the picture frame.
  • the method of generating a synthetic 3D model in which the electronic device 100 supplements a portion of the configuration has been described with reference to FIGS. 1 to 8, 9A, 9B, and 10 to 14, and will therefore be omitted.
  • the electronic device 100 can be utilized in IoT (Internet of Things) devices, etc. using the synthetic 3D model 1840.
  • the electronic device 100 may use the synthetic indoor space 3D model 1840 to perform tasks such as recommending furniture placement to the user or setting a path for a robot vacuum cleaner.
  • FIG. 19A is a flowchart illustrating a spatial map according to an embodiment of the present disclosure.
  • the spatial map may be composed of a base layer, a semantic map layer, and a real-time layer, but is not limited thereto, and layers may be added or subtracted depending on the characteristics of the task.
  • the base layer provides information about the basic structure of the entire space, including walls, columns, and passageways. By processing 3D point cloud data, matching the coordinate system, and storing the location, the base layer can provide 3D information in space, location information of objects, movement trajectory information, etc.
  • the base layer acts as a base map and geometric map.
  • the semantic map layer is a layer that provides semantic information on top of the base layer. Users can assign semantic information such as 'Room 1', 'Room 2', 'Restricted Access Zone', etc. to the basic structure of the entire space of the base layer and use it to perform tasks on electronic devices. For example, if the electronic device is a robot vacuum cleaner, the user can set semantic information in the semantic map layer so that only 'Room 2' is cleaned, or the robot cleaner does not clean the 'restricted access area'.
  • a real-time layer is a layer that provides information on at least one object in space.
  • Objects can include both static and dynamic objects.
  • a real-time layer may include a plurality of layers based on attribute information of an object and may have a hierarchical structure between the layers.
  • the real-time layer may include a first layer, a second layer, and a third layer, but is not limited thereto, and the number of layers may be added or subtracted depending on the classification criteria of the object's attribute information. there is. Looking at Figure 19a, it can be seen that the first layer includes a system closet and a built-in cabinet, the second layer includes a table and a sofa, and the third layer includes a chair.
  • FIG. 19B is a flowchart showing a spatial map according to an embodiment of the present disclosure.
  • FIG. 19B various examples of real-time layers including a plurality of layers based on object attribute information are shown.
  • the attribute information of an object may be information that can be classified by combining objective criteria such as the type, shape, size, height, etc. of the object or a plurality of criteria. Additionally, since the property information of an object may vary depending on the user and environment, the property information can be entered by labeling each object.
  • the first layer when the attribute information of an object is the object's mobility level (ML), the first layer includes an object corresponding to ML 1, and the second layer includes ML 2 and ML 3. Objects corresponding to are included, and the third layer may include objects corresponding to ML 4.
  • the mobility level of an object can be determined by applying objective characteristics of the object to predetermined classification criteria for evaluating mobility. For example, ML 1 is for objects that are not mobile, ML 2 is for objects that are mobile but mostly stay stationary, ML 3 is for objects that are mobile but move occasionally, and ML 4 is for objects that are mobile but often move. Each corresponds to an object.
  • the first layer when the attribute information of an object is the position movement cycle of the object, the first layer includes an object that has not moved its position within one month, and the second layer includes an object that has not moved its position within one month.
  • Objects that have moved location are included, and the third layer may include objects that have moved location within one week.
  • the position movement cycle may be different even for the same object depending on the user using the object or the environment in which the object is located.
  • the object 'A' may be an object frequently used by the first user, while it may be an object rarely used by the second user.
  • the object 'B' may be an object frequently used in the first place, while it may be an object rarely used in the second place.
  • the first layer when the attribute information of an object is the height at which the object is located, the first layer includes objects corresponding to 1 m or less, and the second layer includes objects corresponding to 1 m or more and 2 m or less. Objects are included, and the third layer may include objects exceeding 2m.
  • classification criteria for a plurality of layers included in a real-time layer may be defined by the user.
  • a user can create a space map that reflects the characteristics of a task by combining and setting attribute information of multiple types of objects for classification criteria.
  • objects located higher than 1 m such as lamps or picture frames on the wall. Therefore, the user directly sets the classification criteria to distinguish each layer, so that the first layer is ML 1 and includes objects located below 1 m, and the second layer is ML 2 or ML 3 and includes objects located below 1 m.
  • the third layer is ML 4, and objects located below 1m can be included.
  • FIG. 20A is a diagram illustrating a method of utilizing layers constituting a spatial map according to an embodiment of the present disclosure.
  • the spatial map used by each device may be different.
  • the electronic device may utilize the existing spatial map stored in the electronic device as is, but if there is a change in the space in which the task is to be performed, the spatial map may be updated to reflect the change.
  • the electronic device may update the existing spatial map by receiving a spatial map that already reflects changes in the space from at least one external device.
  • the electronic device can create a new spatial map based on an existing spatial map.
  • the electronic device can load an existing space map (hereinafter referred to as a first space map) that has been stored.
  • the first spatial map consists of a base layer, a first layer, a second layer, and a third layer.
  • the description will be made on the assumption that the first to third layers include objects according to the arbitrary classification criteria of FIG. 19B. If the first space map was created just a few minutes ago or there has been no change in the space since the first space map was used, the electronic device uses the first space map as is to obtain a new space map (hereinafter referred to as the second space map). And, the second spatial map can be used to perform a new task.
  • FIG. 20B is a diagram illustrating a method of utilizing layers constituting a spatial map according to an embodiment of the present disclosure.
  • the electronic device can load the stored first space map.
  • the object information of ML 4 that moves frequently is not needed, or if only object information that has not moved for more than a week is used, the base layer and the first layer among the layers constituting the first spatial map , and selecting the second layer or removing the third layer from the first spatial map to obtain the second spatial map.
  • FIG. 20C is a diagram illustrating a method of utilizing layers constituting a spatial map according to an embodiment of the present disclosure.
  • the electronic device can load the stored first space map.
  • the base layer and the first layer are selected among the layers constituting the first space map, or A second spatial map can be obtained by removing the second layer and the third layer from the first spatial map.
  • FIG. 20D is a diagram illustrating a method of utilizing layers constituting a spatial map according to an embodiment of the present disclosure.
  • the electronic device can load the stored first space map.
  • the base layer and the first layer among the layers constituting the first space map A second spatial map can be obtained by selecting one layer or removing the second and third layers from the first spatial map.
  • the electronic device may extract the second layer and the third layer from the spatial map received from the external device and reflect them in the second spatial map to obtain a third spatial map.
  • objects corresponding to ML 2, ML 3, and ML 4 may be detected using at least one sensor provided in the electronic device and reflected in the second space map to obtain a third space map.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory storage medium' simply means that it is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is semi-permanently stored in a storage medium and temporary storage media. It does not distinguish between cases where it is stored as .
  • a 'non-transitory storage medium' may include a buffer where data is temporarily stored.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • a computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store or between two user devices (e.g. smartphones). It may be distributed in person or online (e.g., downloaded or uploaded). In the case of online distribution, at least a portion of the computer program product (e.g., a downloadable app) is stored on a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server. It can be temporarily stored or created temporarily.
  • a machine-readable storage medium such as the memory of a manufacturer's server, an application store's server, or a relay server. It can be temporarily stored or created temporarily.
  • a method for generating a three-dimensional (3D) model may include generating a basic 3D model for an object based on at least one object image for the object.
  • the method of generating a 3D model may include determining a first target 3D model similar to the basic 3D model from a 3D model database in which a plurality of 3D models are stored.
  • the method of generating a 3D model may include generating a first synthetic 3D model based on the basic 3D model and the first target 3D model.
  • the method of generating a 3D model may include determining a first similarity between the first composite 3D model and the at least one object image.
  • the method of generating a 3D model may include determining a low similarity configuration between the first synthetic 3D model and the at least one object image based on the first similarity being less than or equal to a threshold value. there is.
  • the method of generating a 3D model may include determining, as a second target 3D model, a 3D model with high similarity to the first synthetic 3D model with respect to the configuration with low similarity among the 3D model database.
  • the method of generating a 3D model may include generating a second synthetic 3D model based on the first synthetic 3D model and the second target 3D model.
  • Generating a basic 3D model may include obtaining depth information of the at least one object image using the at least one object image.
  • Generating a basic 3D model may include generating the basic 3D model including 3D position information about at least a portion of the object using the at least one object image and the acquired depth information. there is.
  • Generating the first synthetic 3D model may include transforming the target 3D model to correspond to the basic 3D model. Generating the first synthetic 3D model may include merging the base 3D model and the modified target 3D model.
  • a 3D model generation method may include classifying the basic 3D model into a plurality of configurations for the object.
  • the step of determining the second target 3D model includes determining a third similarity between the first composite 3D model and the at least one object image for each of the plurality of classified configurations. May include steps. Determining the second target 3D model may include determining, among the plurality of configurations, a configuration in which the third similarity is less than a predetermined value as a configuration in which the similarity is lower.
  • Determining the first similarity may include rendering the first synthetic 3D model. Determining the first similarity may include modifying the pose of the rendered first synthetic 3D model to correspond to the at least one object image. Determining the first degree of similarity may include determining a first degree of similarity between the modified rendered first composite 3D model and the at least one object image.
  • a 3D model generation method may include identifying the type of the object based on the at least one object image.
  • the 3D model database may be a 3D model related to the type of object.
  • the step of generating the first synthetic 3D model includes: generating the first synthetic 3D model based on information about the location of the basic 3D model and information about the location of the first target 3D model; It may include generating information about the location of .
  • Generating the first synthetic 3D model may include generating information about the color of the first synthetic 3D model based on information about the color of the basic 3D model.
  • the synthetic 3D model may include at least one of a point cloud model, a polygon mesh model, a triangle mesh model, a Non-Uniform Rational B-spline (NURBS) model, or a sculpting model. there is.
  • NURBS Non-Uniform Rational B-spline
  • one or more computer-readable recording media storing a program for performing the above-described method are provided.
  • an electronic device for generating a three-dimensional (3D) model may include at least one processor.
  • the electronic device may include a memory that stores at least one instruction.
  • At least one processor may execute the at least one instruction to generate a basic 3D model for the object based on at least one object image.
  • at least one processor may determine a first target 3D model similar to the basic 3D model from a 3D model database in which a plurality of 3D models are stored.
  • At least one processor may execute the at least one instruction to generate a first synthetic 3D model based on the basic 3D model and the first target 3D model.
  • At least one processor may determine a first similarity between the first composite 3D model and the at least one object image by executing the at least one instruction. At least one processor, by executing the at least one instruction, determine a low similarity configuration between the first composite 3D model and the at least one object image based on the first similarity being less than or equal to a threshold. You can. By having at least one processor execute the at least one instruction, a 3D model with high similarity to the first synthetic 3D model with respect to the configuration with low similarity among the 3D model database may be determined as a second target 3D model. At least one processor may execute the at least one instruction to generate a second synthetic 3D model based on the first synthetic 3D model and the second target 3D model.
  • the at least one processor may obtain depth information of the at least one object image using the at least one object image by executing the at least one instruction. At least one processor executes the at least one instruction to generate the basic 3D model including three-dimensional position information about at least a portion of the object using the at least one object image and the obtained depth information. can do.
  • the at least one processor may determine a second degree of similarity between the at least one object image and the plurality of 3D models by executing the at least one instruction.
  • the 3D model with the second high similarity among the plurality of 3D models may be determined as the first target 3D model.
  • At least one processor may transform the target 3D model to correspond to the basic 3D model by executing the at least one instruction. At least one processor may execute the at least one instruction to merge the base 3D model and the modified target 3D model.
  • the at least one processor may classify the basic 3D model into a plurality of configurations for the object by executing the at least one instruction.
  • the at least one processor executes the at least one instruction, thereby, for each of the plurality of classified configurations, a first composite 3D model and the at least one object image.
  • 3 Similarity can be determined.
  • a configuration in which the third similarity is less than a predetermined value may be determined as the configuration with the low similarity.
  • the at least one processor may render the first composite 3D model by executing the at least one instruction.
  • at least one processor may modify the pose of the rendered first synthetic 3D model to correspond to the at least one object image.
  • At least one processor may execute the at least one instruction to determine a first similarity between the modified rendered first composite 3D model and the at least one object image.
  • the at least one processor may execute the at least one instruction to identify the type of the object based on the at least one object image.
  • the 3D model database may include a 3D model regarding the type of the object.
  • the at least one processor executes the at least one instruction, based on information about the location of the base 3D model and information about the location of the first target 3D model, Information regarding the location of the first synthetic 3D model may be generated.
  • at least one processor may generate information about the color of the first synthetic 3D model based on information about the color of the basic 3D model.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Abstract

적어도 하나의 객체 이미지에 기초하여, 객체에 대한 기초 3D 모델을 생성하고, 복수의 3D 모델이 저장된 3D 모델 데이터 베이스 중에서 기초 3D 모델과 유사한 제1 타겟 3D 모델을 결정하고, 기초 3D 모델과 제1 타겟 3D 모델에 기초하여, 제1 합성 3D 모델을 생성하고, 제1 합성 3D 모델과 적어도 하나의 객체 이미지의 제1 유사도를 결정하고, 제1 유사도가 임계 값보다 작거나 같은 것에 기초하여, 제1 합성 3D 모델과 적어도 하나의 객체 이미지 사이에 유사도가 낮은 구성을 결정하고, 3D 모델 데이터 베이스 중에서 유사도가 낮은 구성에 대하여 제1 합성 3D 모델과 유사도가 높은 3D 모델을 제2 타겟 3D 모델로 결정하고, 제1 합성 3D 모델과 제2 타겟 3D 모델에 기초하여, 제2 합성 3D 모델을 생성하는 3D 모델 생성 방법 및 3D 모델 생성 장치가 개시된다.

Description

3차원(3D) 모델을 생성하는 방법 및 전자 장치
본 개시는 3차원 모델을 생성하는 방법 및 전자 장치에 관한 것이다. 보다 구체적으로는, 3차원 모델 데이터 베이스를 이용하여 3차원 모델을 생성하는 방법 및 전자 장치에 관한 것이다.
증강 현실(Augmented Reality; AR), 가상 현실(Virtual Reality; VR) 및 메타 버스(Metaverse) 등에 대한 발전이 지속되면서, 3차원 공간 상에 객체를 표시하기 위한 3차원 모델을 생성하는 3D 모델링 기술이 대두되고 있다.
최근에는 컴퓨터 비전 분야의 비약적인 발전에 따라, 수십 장의 2차원 사진을 이용하여 3차원 모델을 생성하는 인공 지능 모델이 개발되고 있다. 이러한 인공 지능 모델은 소정의 위치에서 촬영된 수십 장의 사진을 이용하여 3차원 모델을 추론하도록 학습된다. 다만, 이러한 인공 지능 모델은 소정의 위치에서 촬영된 많은 이미지들이 필요하므로, 사용자의 편의를 위하여 적은 이미지를 이용한 3D 모델링 기술이 필요할 수 있다.
상기 정보는 본 개시의 이해를 돕기 위한 배경 정보로만 제공된다. 위의 내용 중 어느 것이 본 개시와 관련하여 선행 기술로 적용될 수 있는지 여부에 대해 어떠한 결정도 이루어지지 않으며 어떠한 주장도 이루어지지 않는다.
본 개시의 일 양태에 따르면, 3차원(3D) 모델을 생성하는 방법이 제공된다. 3차원 모델을 생성하는 방법은 객체에 대한 적어도 하나의 객체 이미지에 기초하여, 상기 객체에 대한 기초 3D 모델을 생성하는 단계를 포함할 수 있다. 3차원 모델을 생성하는 방법은 복수의 3D 모델이 저장된 3D 모델 데이터 베이스 중에서 상기 기초 3D 모델과 유사한 제1 타겟 3D 모델을 결정하는 단계를 포함할 수 있다. 3차원 모델을 생성하는 방법은 상기 기초 3D 모델과 상기 제1 타겟 3D 모델에 기초하여, 제1 합성 3D 모델을 생성하는 단계를 포함할 수 있다. 3차원 모델을 생성하는 방법은 상기 제1 합성 3D 모델과 상기 적어도 하나의 객체 이미지의 제1 유사도를 결정하는 단계를 포함할 수 있다. 3차원 모델을 생성하는 방법은 상기 제1 유사도가 임계 값보다 작거나 같은 것에 기초하여, 상기 제1 합성 3D 모델과 상기 적어도 하나의 객체 이미지 사이에 유사도가 낮은 구성을 결정하는 단계를 포함할 수 있다. 3차원 모델을 생성하는 방법은 상기 3D 모델 데이터 베이스 중에서 상기 유사도가 낮은 구성에 대하여 상기 제1 합성 3D 모델과 유사도가 높은 3D 모델을 제2 타겟 3D 모델로 결정하는 단계를 포함할 수 있다. 3차원 모델을 생성하는 방법은 상기 제1 합성 3D 모델과 상기 제2 타겟 3D 모델에 기초하여, 제2 합성 3D 모델을 생성하는 단계를 포함할 수 있다.
본 개시의 일 양태에 따라서, 전술한 방법을 수행하도록 하는 프로그램이 저장된 하나 이상의 컴퓨터로 읽을 수 있는 기록매체가 제공된다.
본 개시의 일 양태에 따라서 3차원(3D) 모델을 생성하는 전자 장치가 제공된다. 전자 장치는 적어도 하나의 프로세서를 포함할 수 있다. 전자 장치는 적어도 하나의 인스트럭션을 저장하는 메모리를 포함할 수 있다. 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 객체에 대한 적어도 하나의 객체 이미지에 기초하여, 상기 객체에 대한 기초 3D 모델을 생성할 수 있다. 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 복수의 3D 모델이 저장된 3D 모델 데이터 베이스 중에서 상기 기초 3D 모델과 유사한 제1 타겟 3D 모델을 결정할 수 있다. 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 기초 3D 모델과 상기 제1 타겟 3D 모델에 기초하여, 제1 합성 3D 모델을 생성할 수 있다. 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 제1 합성 3D 모델과 상기 적어도 하나의 객체 이미지의 제1 유사도를 결정할 수 있다. 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 제1 유사도가 임계 값보다 작거나 같은 것에 기초하여, 상기 제1 합성 3D 모델과 상기 적어도 하나의 객체 이미지 사이에 유사도가 낮은 구성을 결정할 수 있다. 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 3D 모델 데이터 베이스 중에서 상기 유사도가 낮은 구성에 대하여 상기 제1 합성 3D 모델과 유사도가 높은 3D 모델을 제2 타겟 3D 모델로 결정할 수 있다.적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 제1 합성 3D 모델과 상기 제2 타겟 3D 모델에 기초하여, 제2 합성 3D 모델을 생성할 수 있다.
도 1은 본 개시의 일 실시예에 따른 3차원(3D) 모델을 생성하는 방법을 나타내는 도면이다.
도 2는 본 개시의 일 실시예에 따른 3차원(3D) 모델을 생성하는 방법을 나타내는 도면이다.
도 3은 본 개시의 일 실시예에 따른 3차원 모델을 생성하는 방법에 관한 순서도이다.
도 4는 본 개시의 일 실시예에 따른 3차원 모델의 종류를 나타내는 도면이다.
도 5는 본 개시의 일 실시예에 따른 객체 이미지에 기초하여 기초 3D 모델을 생성하는 과정을 나타내는 도면이다.
도 6은 본 개시의 일 실시예에 따른 3D 모델을 구성 단위로 분류하는 과정을 나타내는 도면이다.
도 7은 본 개시의 일 실시예에 따른 3D 모델 사이의 유사도를 결정하는 과정을 나타내는 도면이다.
도 8은 본 개시의 일 실시예에 따른 3D 모델의 변형(Deformation) 과정을 나타내는 도면이다.
도 9a는 본 개시의 일 실시예에 따른 3D 모델에 대한 변형을 수행하기 위한 정보를 획득하는 과정을 나타내는 도면이다.
도 9b는 본 개시의 일 실시예에 따른 3D 모델에 대한 변형을 수행하기 위한 정보를 획득하는 과정을 나타내는 도면이다.
도 10은 본 개시의 일 실시예에 따른 복수의 3D 모델을 병합하는 과정을 나타내는 도면이다.
도 11은 본 개시의 일 실시예에 따른 객체 이미지와 합성 3D 모델을 비교하는 과정을 나타내는 도면이다.
도 12는 본 개시의 일 실시예에 따른 유사도가 낮은 구성을 보완하는 과정을 나타내는 도면이다.
도 13은 본 개시의 일 실시예에 따른 3D 모델의 색상 정보를 나타내는 도면이다.
도 14는 본 개시의 일 실시예에 따른 합성 3D 모델을 생성하는 방법에 관한 순서도이다.
도 15는 본 개시의 일 실시예에 전자 장치의 구성을 나타내는 블록도이다.
도 16은 본 개시의 일 실시예에 따른 아바타 3D 모델을 생성하는 방법을 나타내는 도면이다.
도 17은 본 개시의 일 실시예에 따른 아바타 3D 모델을 생성하는 방법을 나타내는 도면이다.
도 18은 본 개시의 일 실시예에 따른 인테리어 3D 모델을 생성하는 방법을 나타내는 도면이다.
도 19a는 본 개시의 일 실시예에 따른 공간 맵을 나타내는 흐름도이다.
도 19b는 본 개시의 일 실시예에 따른 공간 맵을 나타내는 흐름도이다.
도 20a는 본 개시의 일 실시예에 따른 공간 맵을 구성하는 레이어를 활용하는 방식을 나타내는 도면이다.
도 20b는 본 개시의 일 실시예에 따른 공간 맵을 구성하는 레이어를 활용하는 방식을 나타내는 도면이다.
도 20c는 본 개시의 일 실시예에 따른 공간 맵을 구성하는 레이어를 활용하는 방식을 나타내는 도면이다.
도 20d는 본 개시의 일 실시예에 따른 공간 맵을 구성하는 레이어를 활용하는 방식을 나타내는 도면이다.
본 개시에서, "a, b 또는 c 중 적어도 하나" 표현은 " a", " b", " c", "a 및 b", "a 및 c", "b 및 c", "a, b 및 c 모두", 혹은 그 변형들을 지칭할 수 있다.
본 개시에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 명세서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 또한, 본 명세서에서 사용되는 '제1' 또는 '제2' 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용할 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
본 개시는 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고, 이를 상세한 설명을 통해 설명하고자 한다. 그러나, 이는 본 개시의 실시 형태에 대해 한정하려는 것이 아니며, 본 개시는 여러 실시예들의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
실시예를 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제 1, 제 2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별 기호에 불과하다.
또한, 본 개시의 일 실시예에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.
또한, 본 개시의 일 실시예에서 '~부(유닛)', '모듈' 등으로 표현되는 구성요소는 2개 이상의 구성요소가 하나의 구성요소로 합쳐지거나 또는 하나의 구성요소가 보다 세분화된 기능별로 2개 이상으로 분화될 수도 있다. 또한, 이하에서 설명할 구성요소 각각은 자신이 담당하는 주기능 이외에도 다른 구성요소가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성요소 각각이 담당하는 주기능 중 일부 기능이 다른 구성요소에 의해 전담되어 수행될 수도 있음은 물론이다.
본 개시에 따른 인공지능과 관련된 기능은 프로세서와 메모리를 통해 동작된다. 프로세서는 하나 또는 복수의 프로세서로 구성될 수 있다. 이때, 하나 또는 복수의 프로세서는 CPU, AP, DSP(Digital Signal Processor) 등과 같은 범용 프로세서, GPU, VPU(Vision Processing Unit)와 같은 그래픽 전용 프로세서 또는 NPU와 같은 인공지능 전용 프로세서일 수 있다. 하나 또는 복수의 프로세서는, 메모리에 저장된 기 정의된 동작 규칙 또는 인공지능 모델에 따라, 입력 데이터를 처리하도록 제어한다. 또는, 하나 또는 복수의 프로세서가 인공지능 전용 프로세서인 경우, 인공지능 전용 프로세서는, 특정 인공지능 모델의 처리에 특화된 하드웨어 구조로 설계될 수 있다.
기 정의된 동작 규칙 또는 인공지능 모델은 학습을 통해 만들어진 것을 특징으로 한다. 여기서, 학습을 통해 만들어진다는 것은, 기본 인공지능 모델이 학습 알고리즘에 의하여 다수의 학습 데이터들을 이용하여 학습됨으로써, 원하는 특성(또는, 목적)을 수행하도록 설정된 기 정의된 동작 규칙 또는 인공지능 모델이 만들어짐을 의미한다. 이러한 학습은 본 개시에 따른 인공지능이 수행되는 기기 자체에서 이루어질 수도 있고, 별도의 서버 및/또는 시스템을 통해 이루어 질 수도 있다. 학습 알고리즘의 예로는, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)이 있으나, 전술한 예에 한정되지 않는다.
인공지능 모델은, 복수의 신경망 레이어들로 구성될 수 있다. 복수의 신경망 레이어들 각각은 복수의 가중치들(weight values)을 갖고 있으며, 이전(previous) 레이어의 연산 결과와 복수의 가중치들 간의 연산을 통해 신경망 연산을 수행한다. 복수의 신경망 레이어들이 갖고 있는 복수의 가중치들은 인공지능 모델의 학습 결과에 의해 최적화될 수 있다. 예를 들어, 학습 과정 동안 인공지능 모델에서 획득한 로스(loss) 값 또는 코스트(cost) 값이 감소 또는 최소화되도록 복수의 가중치들이 갱신될 수 있다. 인공 신경망은 심층 신경망(DNN:Deep Neural Network)를 포함할 수 있으며, 예를 들어, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크 (Deep Q-Networks) 등이 있으나, 전술한 예에 한정되지 않는다.
본 개시의 일 실시예에서 "객체 이미지"는 생성하려는 3D 모델의 객체가 포함된 이미지를 의미할 수 있다. 예를 들면, 전자 장치는 의자를 촬영한 객체 이미지에 기초하여, 의자에 관한 3D 모델을 생성할 수 있다.
본 개시의 일 실시예에서 "기초 3D 모델"은 객체 이미지에 기초하여 생성된 객체에 관한 3D 모델을 의미할 수 있다. 예를 들면, 기초 3D 모델은 3D 모델 데이터 베이스를 참조하지 않고, 객체 이미지에 기초하여 추론된 3D 모델을 의미할 수 있다. 기초 3D 모델은 객체 이미지에 포함된 객체에 관한 정보를 포함할 수 있다. 예를 들면, 객체 이미지가 객체의 정면에서 촬영된 이미지인 경우, 기초 3D 모델은 객체의 정면에 관한 정보를 포함할 수 있다. 복수의 객체 이미지가 객체에 대한 다른 복수의 시점에서 촬영된 이미지인 경우, 기초 3D 모델은 객체의 다른 복수의 시점에 관한 정보를 포함할 수 있다.
본 개시의 일 실시예에서 "타겟 3D 모델"은 3D 모델 데이터 베이스 중에서 합성 3D 모델을 생성하기 위하여 이용되는 3D 모델을 의미할 수 있다. 예를 들면, 전자 장치는 기초 3D 모델 혹은 합성 3D 모델을 보완하기 위하여 3D 모델 데이터 베이스에 포함된 타겟 3D 모델을 이용할 수 있다. 타겟 3D 모델은 정보의 수가 소정의 값 이상인 3D 모델일 수 있다. 예를 들면, 타겟 3D 모델은 렌더링하여 객체를 표현하기 충분한 정보를 포함하는 3D 모델일 수 있다.
본 개시의 일 실시예에서 "합성 3D 모델"은 타겟 3D 모델에 기초하여 생성된 3D 모델을 의미할 수 있다. 예를 들면, 전자 장치는 기초 3D 모델과 타겟 3D 모델을 이용하여 합성 3D 모델을 생성할 수 있다. 예를 들면, 전자 장치는 기생성된 합성 3D 모델과 타겟 3D 모델을 이용하여 새로운 합성 3D 모델을 생성할 수 있다. 전자 장치는 타겟 3D 모델의 정보에 기초하여, 기초 3D 모델의 정보의 양 또는 기생성된 합성 3D 모델의 정보의 양을 증가함으로써, 합성 3D 모델을 생성할 수 있다.
도 1은 본 개시의 일 실시예에 따른 3차원(3D) 모델을 생성하는 방법을 나타내는 도면이다.
도 1을 참조하면, 전자 장치(100)는 객체(105)에 관한 객체 이미지(110)를 획득할 수 있다. 3차원 모델의 종류는 다양한 방식이 존재하나, 설명의 편의를 위하여 포인트 클라우드 방식을 기준으로 설명하도록 한다. 3차원 모델의 종류는 도 3을 참조하여 설명하도록 한다.
전자 장치(100)는 객체(105)를 촬영하거나 객체 이미지(110)를 외부로부터 수신함으로써 획득할 수 있다. 예를 들면, 전자 장치(100)는 객체(105)를 다양한 각도에서 촬영함으로써 객체 이미지(110)를 획득할 수 있다. 예를 들면, 객체 이미지(110)는 전자 장치(100)로부터 촬영된 2차원(2D) 이미지 혹은 3차원(3D) 이미지일 수도 있고, 전자 장치(100)로부터 촬영된 2D 이미지에 기초하여 생성된 3D 이미지일 수 있다. 객체 이미지(110)는 색상 정보를 포함하는 2D 이미지 혹은 색상 정보 및 깊이 정보를 포함하는 3D 이미지일 수 있다. 예를 들면, 객체 이미지(110)는 RGB 이미지와 같은 색상 정보를 포함하는 2D 이미지 혹은 RGBD 이미지와 같은 색상 정보와 깊이 정보를 포함하는 이미지일 수 있지만, 이에 제한되지 않고 다양한 색상 공간 이미지일 수 있다.
본 개시의 일 실시예에 따른 전자 장치(100)는 객체 이미지(110)에 기초하여 기초 3D 모델(120)을 생성할 수 있다. 기초 3D 모델(120)은 객체 이미지(110)를 이용하여 추론된 3D 모델일 수 있다. 본 개시의 일 실시예에 따른 기초 3D 모델을 생성하는 방법은 도 5를 참조하여 설명하도록 한다.
본 개시의 일 실시예에 따른 전자 장치(100)는 3D 모델 데이터 베이스(130) 중에서 제1 타겟 3D 모델(135-1)을 결정할 수 있다. 3D 모델 데이터 베이스(130)는 전자 장치(100) 혹은 외부 전자 장치에 저장되어 있는 3D 모델에 관한 정보일 수 있다. 전자 장치(100)는 3D 모델 데이터 베이스(130) 중에서 기초 3D 모델(120)과 유사한 3D 모델을 제1 타겟 3D 모델(135-1)로 결정할 수 있다.
본 개시의 일 실시예에 따른 전자 장치(100)는 기초 3D 모델(120) 및 제1 타겟 3D 모델(135-1)에 기초하여, 제1 합성 3D 모델(140)을 생성할 수 있다. 전자 장치(100)는 제1 타겟 3D 모델(135-1)에 대하여 변형 과정을 수행하고, 변형된 제1 타겟 3D 모델(135-1)과 기초 3D 모델(120)을 합성함으로써, 제1 합성 3D 모델(140)을 생성할 수 있다. 전자 장치(100)는 3D 모델에 관한 정보(예: 포인트, 꼭지점 등 3D 모델에 관한 정보)가 적은 기초 3D 모델(120)을 제1 타겟 3D 모델(135-1)을 이용하여 합성함으로써 3D 모델에 관한 정보의 양이 많은 제1 합성 3D 모델(140)을 생성할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)가 변형 및 합성을 수행하는 과정은 도 8, 9a, 9b 및 도 10을 참조하여 설명한다.
본 개시의 일 실시예에 따른 전자 장치(100)는 3D 모델 데이터 베이스(130) 중에서 제2 타겟 3D 모델(135-2)을 결정할 수 있다. 전자 장치(100)는 3D 모델 데이터 베이스(130) 중에서 제1 합성 3D 모델(140)과 유사한 3D 모델을 제2 타겟 3D 모델(135-2)로 결정할 수 있다. 전자 장치(100)는 제1 합성 3D 모델(140)을 복수의 구성들로 분류할 수 있다. 예를 들면, 제1 합성 3D 모델(140)의 구성은 제1 합성 3D 모델(140)에 포함된 복수의 포인트들 중에서 유사한 특징을 갖는 포인트들의 집합을 의미할 수 있다. 예를 들면, 제1 합성 3D 모델(140)이 의자에 관한 3D 모델인 경우, 구성은 등받이, 좌판, 다리 및 팔걸이를 포함할 수 있으며, 같은 구성에 속한 포인트들은 유사한 특징을 나타내고, 다른 구성에 속한 포인트들은 서로 다른 특징을 나타낼 수 있다.
전자 장치(100)는 제1 합성 3D 모델(140)과 객체 이미지(110)를 비교함으로써 제1 합성 3D 모델(140)로부터 분류된 복수의 구성들 중에서 객체 이미지(110)와의 차이가 큰 구성을 결정할 수 있다. 전자 장치(100)는 3D 모델 데이터 베이스(130) 중에서 제1 합성 3D 모델(140)의 구성 중에서 객체 이미지(110)와의 차이가 큰 구성과 유사한 구성을 포함하는 3D 모델을 제2 타겟 3D 모델(135-2)로 결정할 수 있다. 예를 들면, 제1 합성 3D 모델(140)은 팔걸이에 대한 3D 모델 정보의 양이 부족하므로, 전자 장치(100)는 팔걸이에 대하여 제1 합성 3D 모델(140)과 객체 이미지(110) 사이의 차이가 크다고 결정하고, 전자 장치(100)는 제1 합성 3D 모델(140)의 팔걸이와 유사한 팔걸이를 가진 3D 모델을 제2 타겟 3D 모델(135-2)로 결정할 수 있다.
본 개시의 일 실시예에 따른 전자 장치(100)는 제1 합성 3D 모델(140)과 제2 타겟 3D 모델(135-2)을 합성함으로써, 제2 합성 3D 모델을 생성할 수 있다. 본 개시의 일 실시예에 따라, 전자 장치(100)가 제2 합성 3D 모델(150)이 생성하는 과정에 대하여 설명하였지만, 객체 이미지(110)와 합성 3D 모델이 소정의 유사도를 만족할 때까지 반복하여 수행될 수 있다.
전자 장치(100)는 데이터 베이스에 저장된 3D 모델을 이용하여 3D 모델에 관한 정보를 보완함으로써 적은 수의 객체 이미지로부터 3D 모델을 생성할 수 있다. 예를 들면, 전자 장치(100)는 데이터 베이스에 저장된 3D 모델을 이용하여 적은 수의 객체 이미지로부터 생성된 정보의 양이 적은 3D 모델로부터 정보의 양이 많은 3D 모델을 생성할 수 있다. 정보의 양이 적은 3D 모델은 렌더링되는 경우 구현하고자 하는 목표 3D 모델과 차이가 클 수 있으나, 정보의 양이 많은 3D 모델은 목표 3D 모델과 차이가 적을 수 있다. 전자 장치(100)가 3D 모델을 생성하기 위하여 필요한 이미지의 수가 관련 기술에서 필요한 이미지의 수보다 적을 수 있다.
도 2는 본 개시의 일 실시예에 따른 3차원 모델(3D 모델)을 생성하는 방법을 나타내는 도면이다.
도 2를 참조하면, 전자 장치(100)는 기초 3D 모델 생성부(210), 타겟 3D 모델 결정부(220), 합성 3D 모델 생성부(240), 이미지 렌더링부(270) 및 이미지 비교부(280)를 포함할 수 있다. 전자 장치(100)는 참조 3D 모델 DB(230)를 더 포함할 수 있다.
본 개시의 일 실시예에 따라, 기초 3D 모델 생성부(210)는 객체 이미지로부터 기초 3D 모델을 생성할 수 있다. 도 1을 참조하면, 기초 3D 모델 생성부(210)는 객체 이미지(110)에 기초하여, 객체에 관한 기초 3D 모델(120)을 생성할 수 있다.
본 개시의 일 실시예에 따라, 타겟 3D 모델 결정부(220)는 참조 3D 모델 DB에 저장된 3D 모델 중에서 기초 3D 모델과 유사한 타겟 3D 모델을 결정할 수 있다.
본 개시의 일 실시예에 따라, 합성 3D 모델 생성부(240)는 기초 3D 모델 및 타겟 3D 모델을 이용하여 합성 3D 모델을 생성할 수 있다. 3D 모델 변형부(250)는 타겟 3D 모델에 대한 변형 과정을 수행할 수 있다. 3D 모델 병합부(260)는 타겟 3D 모델과 기초 3D 모델을 병합(merge)할 수 있다.
본 개시의 일 실시예에 따라, 이미지 렌더링부(270)는 합성 3D 모델을 렌더링할 수 있다.
본 개시의 일 실시예에 따라, 이미지 비교부(280)는 객체 이미지와 합성 이미지를 비교하여 유사도를 판단할 수 있다. 이미지 비교부(280)는 객체 이미지와 합성 이미지가 소정의 유사도 이상인 경우, 합성 3D 모델을 최종 3D 모델로 결정할 수 있다.
본 개시의 일 실시예에 따라, 이미지 비교부(280)는 객체 이미지와 합성 이미지 사이의 유사도가 소정의 유사도 미만인 경우, 타겟 3D 모델 결정부(220)는 합성 3D 모델과 유사한 타겟 3D 모델을 결정할 수 있다. 합성 3D 모델 생성부(240)는 결정된 타겟 3D 모델과 이전에 생성된 합성 3D 모델을 합성함으로써 새로운 합성 3D 모델을 생성할 수 있다. 전자 장치(100)는 합성 3D 모델과 객체 이미지 사이의 유사도가 소정의 유사도 미만인 경우, 타겟 3D 모델을 결정하고 합성 3D 모델을 생성하는 과정을 반복적으로 수행할 수 있다. 본 개시의 일 실시예에 따라, 전자 장치(100)가 합성 3D 모델을 생성하는 방법은 도 3을 참조하여 설명한다.
도 3은 본 개시의 일 실시예에 따른 3차원 모델을 생성하는 방법에 관한 순서도이다.
도 3을 참조하면, 3D 모델을 생성하는 방법(300)은 단계 310으로 시작될 수 있다. 본 개시의 일 실시예에 따른, 3D 모델을 생성하는 방법(300)은 전자 장치에 의하여 수행될 수 있지만, 이에 제한되지 않고, 일부 단계는 전자 장치(100)가 수행하고, 일부 단계는 외부 전자 장치가 수행할 수 있다.
단계 310에서, 전자 장치(100)는 기초 3D 모델을 생성할 수 있다. 본 개시의 일 실시예에 따라, 전자 장치(100)는 객체 이미지를 이용하여 기초 3D 모델을 생성할 수 있다. 예를 들면, 전자 장치(100)는 RGBD 이미지를 이용하여 포인트 클라우드 기초 3D 모델을 생성할 수 있다. 본 개시의 일 실시예에 따라, 전자 장치(100)는 복수의 RGB 이미지를 이용하여 RGBD 이미지를 생성할 수 있다.
단계 320에서, 전자 장치(100)는 타겟 3D 모델을 결정할 수 있다. 전자 장치(100)는 3D 모델 데이터 베이스 중에서 기초 3D 모델과 가장 유사한 3D 모델을 타겟 3D 모델로 결정할 수 있다. 본 개시의 일 실시예에 따라, 전자 장치(100)는 기초 3D 모델의 특정 구성이 가장 유사한 3D 모델을 타겟 3D 모델로 결정할 수 있다. 예를 들면, 전자 장치(100)는 의자의 팔걸이 구성이 가장 유사한 3D 모델을 타겟 3D 모델로 결정할 수 있다.
단계 330에서, 전자 장치(100)는 합성 3D 모델을 생성할 수 있다. 전자 장치(100)는 기초 3D 모델과 타겟 3D 모델에 기초하여 합성 3D 모델을 생성할 수 있다. 전자 장치(100)는 타겟 3D 모델에 대한 변형을 수행하고, 합성 3D 모델을 생성할 수 있다.
단계 340에서, 전자 장치(100)는 합성 3D 모델과 객체 이미지가 유사한지 여부를 결정한다. 전자 장치(100)는 합성 3D 모델을 렌더링하고, 객체 이미지의 포즈와 유사하게 렌더링된 합성 3D 모델을 수정할 수 있다. 전자 장치(100)는 수정된 3D 모델과 객체 이미지에 기초하여 유사도를 결정할 수 있다. 만약, 전자 장치(100)가 유사하지 않다고 판단하는 경우(예: 유사도가 소정의 값 미만), 단계 350으로 진행한다. 만약, 전자 장치(100)가 유사하다고 판단하는 경우(예: 유사도가 소정의 값 이상), 단계를 종료한다.
단계 350에서, 전자 장치(100)는 합성 3D 모델과 객체 이미지 사이에 유사하지 않은 영역을 판단할 수 있다. 일 실시예에 따라, 영역은 합성 3D 모델의 구성을 의미할 수 있다. 전자 장치(100)는 합성 3D 모델을 객체의 구성들로 분류하고, 각 구성 별로 객체 이미지와의 유사도를 결정할 수 있다.
예를 들면, 전자 장치(100)는 의자를 등받이, 팔걸이 등의 구성들로 분류할 수 있다. 전자 장치(100)는 합성 3D 모델과 객체 이미지가 의자의 구성들 중에서 등받이는 유사하지만, 팔걸이는 유사하지 않다고 결정할 수 있다. 전자 장치(100)는 합성 3D 모델과 객체 이미지 사이에 유사하지 않은 구성을 결정하고, 단계 320으로 진행한다.
단계 320에서, 전자 장치(100)는 합성 3D 모델과 유사한 3D 모델을 타겟 3D 모델로 결정할 수 있다. 전자 장치(100)는 단계 350에서 객체 이미지의 구성과 유사하지 않다고 판단된 합성 3D 모델의 구성에 대하여, 합성 3D 모델의 구성과 유사한 구성을 포함하는 3D 모델을 타겟 3D 모델로 결정할 수 있다. 예를 들면, 전자 장치(100)는 유사하지 않다고 판단된 팔걸이 구성에 있어서, 합성 3D 모델과 유사한 팔걸이 구성을 포함하는 3D 모델을 타겟 3D 모델로 결정할 수 있다. 본 개시의 일 실시예에 따라, 유사하지 않다고 판단된 구성이 복수인 경우, 전자 장치(100)는 각 구성 별로 타겟 3D 모델을 결정할 수 있다. 본 개시의 일 실시예에 따라, 유사하지 않다고 판단된 구성이 복수인 경우, 전자 장치(100)는 유사하지 않다고 판단된 복수의 구성에 대하여 가장 유사도가 높은 구성을 포함하는 하나의 타겟 3D 모델을 결정할 수 있다. 단계 330에서, 전자 장치(100)는 이전에 생성된 합성 3D 모델과 타겟 3D 모델을 이용하여 새로운 합성 3D 모델을 생성할 수 있다. 전자 장치(100)는 단계 320 내지 단계 350을 반복하여, 객체 이미지와 유사한 합성 3D 모델을 생성할 수 있다.
도 4는 본 개시의 일 실시예에 따른 3차원 모델(3D 모델)의 종류를 나타내는 도면이다.
도 4를 참조하면, 3차원 모델의 종류는 포인트 클라우드(405) 혹은 메쉬(410)를 포함할 수 있다.
포인트 클라우드(405)는 한 객체를 3D 공간 안에 시각적으로 규정하는 디지털화된 데이터이다. 도시된 바와 같이, 포인트 클라우드(405)는 다수의 포인트들을 포함할 수 있다. 각각의 포인트는 객체의 외부 지점의 좌표를 나타낼 수 있다. 예를 들면, 각각의 포인트는 객체의 경계 중 한 지점을 의미할 수 있다. 각각의 포인트는 3차원 좌표계에 대응되는 객체의 외부 좌표 값을 포함할 수 있다. 예를 들면, 각각의 포인트는 (x, y, z)의 좌표 값으로 표현될 수 있다. 각각의 포인트는 하나 이상의 속성들을 포함할 수 있다. 예를 들면, 각각의 포인트의 속성들은 지리적 위치와 같은 기하학적 구조를 포함할 수 있다. 예를 들면, 각각의 포인트의 속성들은 컬러, 밝기, 텍스처, 모션, 재료 특성 등을 포함할 수 있다. 기하학적 구조 이외의 속성들을 텍스처라 칭할 수 있으며, 텍스처는 포인트 클라우드(405)의 각각의 포인트와 관련된 다양한 양태들과 특성들을 나타낸다.
메쉬(410)는 한 객체를 3D 공간 안에 시각적으로 규정하는 디지털화된 데이터이다. 도시된 바와 같이, 메쉬(410)는 다수의 점들과 다수의 점들 사이의 연결 관계를 포함할 수 있다.
메쉬(410)의 회화적 묘사는 다양한 점들 간 정보의 여러 다각형 또는 삼각형 모양의 상호연결로 정의된다. 예를 들면, 다양한 점들이 다각형 모양으로 상호 연결된 경우, 폴리곤 메쉬로 지칭될 수 있다. 예를 들면, 다양한 점들이 삼각형 모양으로 상호 연결된 경우, 삼각형 메쉬로 지칭될 수 있다. 각각의 다각형은 한 속성(attribute)과 같은 다양한 정보를 포함할 수 있다. 속성은 기하학적 구조와 텍스처를 포함할 수 있다. 텍스처는 컬러 반사, 모션 등을 포함한다. 예를 들면, 지형 데이터는 꼭지점들, 모서리들 및 면들의 인접성과 같은, 꼭지점들 간 연결 정보를 제공한다. 기하학적 정보는 각각의 꼭지점의 3D 공간 내에서의 기하학적 위치를 제공한다. 속성 정보는 각각의 개별 꼭지점에 대한 법선, 컬러, 및 응용 종속적인 정보를 제공한다. 각각의 다각형의 꼭지점들은 포인트 클라우드(405) 내 포인트들과 유사하다. 메쉬(410)의 각각의 다각형은 객체의 외부 표면을 나타낸다.
설명의 편의를 위하여, 3차원 모델의 종류 중에서 포인트 클라우드 및 메쉬를 예시로 설명하였지만, 이에 제한되지 않고, 본 개시에 따른 3차원 모델 생성 방법은 NURBS(Non-Uniform Rational B-spline) 또는 스컬핑(Sculpting) 등 다양한 방식의 3차원 모델 종류를 이용하여 수행될 수 있다.
도 5는 본 개시의 일 실시예에 따른 객체 이미지에 기초하여 기초 3D 모델을 생성하는 과정을 나타내는 도면이다.
도 5를 참조하면, 기초 3D 모델(530)은 적어도 하나의 객체 이미지(510)에 기초하여 생성될 수 있다. 본 개시의 일 실시예에 따른 객체 이미지(510) 및 기초 3D 모델(530)은 도 1의 객체 이미지(110) 및 기초 3D 모델(120)에 각각 대응될 수 있다.
본 개시의 일 실시예에 따른 전자 장치(100)는 객체 이미지(510)에 기초하여 깊이 정보를 획득할 수 있다. 전자 장치(100)는 깊이 정보를 포함하는 깊이 정보 이미지(520)를 생성할 수 있다. 예를 들면, 깊이 정보 이미지는 각 픽셀의 깊이 정보를 픽셀 값으로 나타내는 깊이 이미지(Depth Image)일 수 있다.
본 개시의 일 실시예에 따라, 깊이 정보 이미지(520)는 객체 이미지(510)의 일부일 수 있다. 예를 들면, 객체 이미지(510)가 RGBD 이미지인 경우, 깊이 정보 이미지(520)는 객체 이미지(510) 중에서 깊이 정보의 이미지를 의미할 수 있다. 본 개시의 일 실시예에 따라, 깊이 정보 이미지(520)는 객체 이미지(510)에 기초하여 생성될 수 있다. 예를 들면, 객체 이미지(510)가 2차원 이미지인 경우, 객체 이미지(510)에 대응하는 깊이 정보는 복수의 이미지를 이용하여 추정될 수 있고, 깊이 정보 이미지(520)는 추정된 깊이 정보에 기초하여 생성될 수 있다.
본 개시의 일 실시예에 따른 전자 장치(100)는 깊이 정보 이미지(520)에 기초하여 기초 3D 모델(530)을 생성할 수 있다. 전자 장치(100)는 깊이 정보를 이용하여, 각각의 포인트에서의 3차원 좌표 값을 획득할 수 있다. 전자 장치(100)는 각각의 포인트의 좌표 값에 기초하여 기초 3D 모델(530)을 생성할 수 있다. 기초 3D 모델(530)은 포인트 클라우드 혹은 메쉬 등 다양한 방식으로 표현될 수 있다. 객체 이미지(510)의 개수가 많을수록 기초 3D 모델(530)의 포인트의 수가 많아지고, 기초 3D 모델(530)이 객체를 정확하게 표현할 수 있다.
도 6은 본 개시의 일 실시예에 따른 3D 모델을 구성 단위로 분류하는 과정을 나타내는 도면이다.
도 6를 참조하면, 3D 모델(600)은 복수의 구성(610, 620, 630, 640, 650)을 포함할 수 있다. 의자에 관한 3D 모델(600)은 등받이(610), 좌판(620), 다리(630) 및 팔걸이(640, 650)를 포함할 수 있다. 3D 모델(600)은 기초 3D 모델, 타겟 3D 모델 또는 합성 3D 모델일 수 있다.
본 개시의 일 실시예에 따른 전자 장치(100)는 3D 모델(600)을 복수의 구성(610, 620, 630, 640, 650)으로 분류할 수 있다. 전자 장치(100)는, 3D 모델을 의미론적 단위로 분류하는 인공 지능 모델을 이용하여, 3D 모델(600)을 복수의 구성(610, 620, 630, 640, 650)으로 분류할 수 있다. 인공 지능 모델은 3D 모델이 입력 되면, 3D 모델에 포함된 복수의 포인트들을 구성에 따라 분류하도록 학습된 것일 수 있다. 인공 지능 모델은 3D 모델의 각 포인트 혹은 각 셀 단위에 대하여 구성 라벨이 지정된 데이터를 포함하는 학습 데이터를 이용하여 학습된 것일 수 있다.
전자 장치(100)는, 클러스터링에 기반하여, 3D 모델(600)을 복수의 구성(610, 620, 630, 640, 650)으로 분류할 수 있다. 전자 장치(100)는 3D 모델의 각 포인트 혹은 각 셀 단위에 대한 정보를 유사한 특징을 가진 집합으로 분류하는 클러스터링 알고리즘을 수행할 수 있다. 일 실시예에 따라, 3D 모델의 유사한 성격을 가진 집합은 3D 모델의 구성으로 지칭될 수 있다.
본 개시의 일 실시예에 따라, 전자 장치(100)가 3D 모델(600)에 기초하여 복수의 구성(610, 620, 630, 640, 650)으로 분류하는 과정을 설명하였지만, 이에 제한되지 않고, 전자 장치(100)가 객체 이미지에 기초하여, 3D 모델을 생성하고 구성에 따라 분류하는 동작을 동시에 수행하는 것도 가능하다.
전자 장치(100)는 3D 모델(600)을 복수의 구성(610, 620, 630, 640, 650)으로 분류함으로써, 3D 모델(600)에서 객체 이미지와 유사도가 낮은 구성을 식별할 수 있다. 전자 장치(100)는 3D 모델(600)의 유사도가 낮은 구성에 대한 정보를 보완함으로써, 3D 모델(600)과 객체 사이의 유사도를 높일 수 있다. 예를 들면, 전자 장치(100)는 3D 모델(600)의 유사도가 낮은 구성에 대한 정보의 양을 많게 함으로써 정보를 보완할 수 있다.
도 7은 본 개시의 일 실시예에 따른 3D 모델 사이의 유사도를 결정하는 과정을 나타내는 도면이다.
도 7을 참조하면, 제1 3D 모델(710), 제2 3D 모델(720)은 각각 기초 3D 모델, 타겟 3D 모델, 합성 3D 모델 또는 3D 모델 데이터 베이스에 저장된 3D 모델 중 하나일 수 있다. 설명의 편의를 위하여, 제1 3D 모델(710)은 기초 3D 모델이고, 제2 3D 모델(720)은 3D 데이터 베이스에 포함된 3D 모델인 경우를 가정한다.
전자 장치(100)는 유사도 결정부(730)를 포함할 수 있다. 유사도 결정부(730)는 제1 3D 모델(710)과 제2 3D 모델(720) 사이의 유사도(740)를 결정할 수 있다. 본 개시의 일 실시예에 따라, 유사도 결정부(730)는 제1 3D 모델(710)과 제2 3D 모델(720)의 외부 파라미터(extrinsic parameter) 또는 내부 파라미터(intrinsic parameter) 중 적어도 하나에 기초하여 유사도(740)를 결정할 수 있다. 외부 파라미터(extrinsic parameter)는 3D 모델의 곡률(Curvature) 또는 이방성(Anisotropy)과 같은 특성을 포함할 수 있다. 예를 들면, 유사도 결정부(730)는 제1 3D 모델(710)의 곡률과 제2 3D 모델(720)의 곡률을 비교함으로써, 유사도를 결정할 수 있다. 대안적으로 또는 추가적으로, 유사도 결정부(730)는 제1 3D 모델(710)에 포함된 포인트 위치와 제2 3D 모델(720)의 포인트 위치에 기초하여 유사도를 결정할 수 있다. 예를 들면, 유사도 결정부(730)는 제1 3D 모델(710)에 포함된 제1 포인트와 제1 포인트에 대응되는 제2 3D 모델(720)의 제2 포인트 사이의 거리(예: Euclidean distance)에 기초하여, 유사도를 판단할 수 있다, 제2 포인트는 제2 3D 모델(720)에 포함된 포인트 중에서 제1 포인트와 위치가 가장 유사한 포인트 일 수 있다.
대응되는 포인트 사이의 거리가 작을수록 유사도가 높게 결정될 수 있다.
본 개시의 일 실시예에 따라, 유사도 결정부(730)는 제1 3D 모델(710)과 외부 파라미터(extrinsic parameter) 또는 내부 파라미터(intrinsic parameter) 중 적어도 하나를 포함하는 제2 3D 모델(720)의 특성을 예측하도록 학습된 인공 지능 모델을 포함할 수 있다. 인공 지능 모델은 제1 3D 모델(710)과 제2 3D 모델(720)이 유사할수록 높은 유사도를 나타내도록 학습된 것일 수 있다.
유사도 결정부(730)는 제1 3D 모델(710)과 제2 3D 모델(720) 전체를 비교함으로써 유사도(740)를 결정하거나 제1 3D 모델(710)과 제2 3D 모델(720)의 일부를 비교함으로써 유사도(740)를 결정할 수 있다. 예를 들면, 유사도 결정부(730)는 제1 3D 모델(710)의 '팔걸이' 구성과 제2 3D 모델(720)의 '팔걸이' 구성을 비교함으로써 유사도를 결정할 수 있다.
전자 장치(100)는 3D 모델 데이터 베이스에 포함된 복수의 3D 모델을 제2 3D 모델(720)로 하여 제1 3D 모델(710)과의 유사도(740)를 결정할 수 있다. 유사도는 0~1 사이의 값을 나타낼 수 있지만, 이에 제한되지 않고, 다양한 방식으로 평가될 수 있다. 유사도 결정부(730)는 제1 3D 모델(710)과 제2 3D 모델(720)을 비교하여 차이가 적을수록 유사도가 크다고 결정할 수 있다.
본 개시의 일 실시예에 따라, 전자 장치(100)는 유사도(740)가 가장 높은 제2 3D 모델(720)을 타겟 3D 모델로 결정할 수 있다. 예를 들면, 3D 데이터 베이스에 포함된 복수의 3D 모델(후보 3D 모델) 중에서 유사도가 제일 높은 제1 후보 3D 모델을 타겟 3D 모델로 결정할 수 있다. 전자 장치(100)는 기 생성된 3D 모델 중에 가장 유사한 3D 모델을 이용하여 적은 데이터를 보완할 수 있다. 예를 들면, 전자 장치(100)는 데이터(예: 포인트 정보, 꼭지점 정보 등)가 적은 기초 3D 모델에 타겟 3D 모델에 포함된 데이터를 이용하여 데이터의 양을 증가함으로써 데이터를 보완할 수 있다.
본 개시의 일 실시예에 따라, 유사도 결정부(730)는 도 2의 타겟 3D 모델 결정부(220)에 포함될 수 있다. 타겟 3D 모델 결정부(220)는 유사도 결정부(730)에 의하여 결정된 유사도에 기초하여 타겟 3D 모델을 결정할 수 있다.
본 개시의 일 실시예에 따라, 제1 3D 모델(710)은 기초 3D 모델이고, 제2 3D 모델(720)은 3D 데이터 베이스에 포함된 3D 모델인 경우 유사도를 결정하는 방법을 설명하였지만, 이에 제한되지 않고, 제1 3D 모델(710)은 합성 3D 모델이고, 제2 3D 모델(720)은 3D 데이터 베이스에 포함된 3D 모델인 경우 등 제1 3D 모델(710) 및 제2 3D 모델(720)은 다양한 경우로 나타날 수 있다.
도 8은 본 개시의 일 실시예에 따른 3D 모델의 변형(Deformation) 과정을 나타내는 도면이다.
본 개시에서 "변형(Deformation)"은 3D 모델의 각 포인트의 위치를 변경하는 과정을 의미할 수 있다. 예를 들면, 3D 모델의 임의의 포인트의 좌표 (x0, y0, z0)를 (x1, y1, z1)으로 변경하는 것을 의미한다. 3D 모델에 대한 변형이 수행됨으로써, 3D 모델은 회전(rotation), 이동(translation) 또는 크기변환(scaling) 등이 수행된 것과 유사한 효과를 얻을 수 있다.
본 개시에서 "오프셋(offset)"은 변형이 수행되기 전과 후의 위치 변화에 대한 정보를 의미할 수 있다. 예를 들면, 3D 모델의 임의의 포인트의 좌표 (x0, y0, z0)가 변형에 의하여 (x1, y1, z1)로 이동한 경우, 오프 셋은 (x1-x0, y1-y0, z1-z0)의 3차원 벡터로 표현될 수 있다. 오프 셋은 3D 모델의 각 포인트에 대하여 개별적으로 결정될 수 있다.
도 8을 참조하면, 변형 후 3D 모델(820)은 변형 전 3D 모델(810)에 포함된 포인트들의 위치가 변경됨으로써 생성될 수 있다.
본 개시의 일 실시예에 따른, 전자 장치(100)는 3D 모델(810)을 변형할 수 있다. 예를 들면, 전자 장치(100)는 기초 3D 모델 혹은 합성 3D 모델과 타겟 3D 모델을 합성하기 위하여, 타겟 3D 모델에 대한 변형을 수행할 수 있다.
본 개시의 일 실시예에 따른 전자 장치(100)는 3D 모델(810)을 다른 3D 모델(미도시)의 포인트들 사이의 분포와 유사하도록 타겟 3D 모델을 변형할 수 있다. 예를 들면, 복수의 3D 모델의 사이즈가 다른 경우(예: 하나의 3D 모델의 포인트들은 640 x 640 x 640의 정육면체에 포함되고, 다른 3D 모델의 포인트들은 40 x 40 x 40의 정육면체에 포함되는 경우), 복수의 3D 모델의 각 포인트들 사이에 분포되어 있는 간격은 서로 다르다. 위의 예시에서, 복수의 3D 모델을 합성하면 부정확한 정보들이 포함된 3D 모델이 생성될 수 있다. 따라서, 전자 장치가 변형 과정을 수행함으로써 복수의 3D 모델이 대응되도록 3D 모델을 수정할 수 있다.
도 9a은 본 개시의 일 실시예에 따른 3D 모델에 대한 변형을 수행하기 위한 정보를 획득하는 과정을 나타내는 도면이다.
도 9a을 참조하면, 특징 추출부(930, 935) 및 구성 비교부(950)를 이용하여 기초 3D 모델(910) 및 타겟 3D 모델(915)에 대한 오프셋(960) 및 구성 유사도(970)가 결정될 수 있다. 전자 장치(100)는 특징 추출부(930, 935) 및 구성 비교부(940a, 945a)를 포함할 수 있다. 본 개시의 일 실시예에 따라, 도 2의 3D 모델 병합부(260)는 특징 추출부(930, 935) 및 구성 비교부(940a, 945a)를 포함할 수 있다.
설명의 편의를 위하여, 전자 장치(100)가 기초 3D 모델(910)에 기초하여 타겟 3D 모델(915)을 변형하는 과정을 설명하지만, 전자 장치(100)가 합성 3D 모델에 기초하여 타겟 3D 모델(915)을 변형하는 과정도 동일하게 수행될 수 있다.
타겟 3D 모델(915)은 3D 모델 데이터 베이스 중에서 기초 3D 모델(910)과 가장 유사도가 높은 3D 모델일 수 있다. 본 개시의 일 실시예에 따라, 타겟 3D 모델(915)은 기초 3D 모델(910) 전부와 가장 유사도가 높은 3D 모델일 수 있다.
전자 장치(100)는 기초 3D 모델(910) 및 타겟 3D 모델(915)을 복수의 구성(920a, 925a)으로 분류할 수 있다. 혹은, 전자 장치(100)는 복수의 구성(920a, 925a)으로 분류된 3D 모델을 획득할 수 있다.
특징 추출부(930, 935)는 복수의 구성으로 분류된 기초 3D 모델(920a) 및 복수의 구성으로 분류된 타겟 3D 모델(925a)을 입력으로 하여, 기초 3D 모델의 각 구성의 특징(940a) 및 타겟 3D 모델의 각 구성의 특징(945a)을 출력할 수 있다. 예를 들면, 특징 추출부(930, 935)는 복수의 구성으로 분류된 포인트 클라우드 혹은 메쉬로 표현된 3D 모델을 입력으로 하여, 기초 3D 모델의 각 구성의 특징(940a) 및 타겟 3D 모델의 각 구성의 특징(945a)에 관한 1차원 임베딩 벡터를 출력할 수 있다. 본 개시의 일 실시예에 따른 특징 추출부(930, 935)는 CNN(Convolutional Neural Network)으로 구현될 수 있다.
구성 비교부(950)는 기초 3D 모델의 특징들(940a) 중에서 하나의 구성의 특징(예: part Sa) 및 타겟 3D 모델의 특징들(945a) 중에서 하나의 구성의 특징(예: part Ta)에 기초하여 오프셋(960) 및 구성 유사도(970)를 출력할 수 있다. 본 개시의 일 실시예에 따라, 구성 비교부(950)는 기초 3D 모델의 하나의 구성에 대응되는 3D 모델 (예: part Sa에 대응되는 3D 모델)을 추가로 입력으로 할 수 있다. 예를 들면, 기초 3D 모델이 포인트 클라우드인 경우, 구성 비교부(950)는 기초 3D 모델(910)의 하나의 구성에 대응되는 3D 모델의 포인트들의 위치 정보를 획득할 수 있다. 예를 들면, 기초 3D 모델이 메쉬인 경우, 구성 비교부(950)는 기초 3D 모델(910)의 하나의 구성에 대응되는 3D 모델의 포인트들의 위치 정보 및 포인트들 사이의 연결 정보를 획득할 수 있다.
본 개시의 일 실시예에 따라, 구성 비교부(950)는 기초 3D 모델(910)의 모든 구성의 특징(예: part Sa, Sb, Sc) 및 타겟 3D 모델(915)의 모든 구성의 특징(예: part Ta, Tb, Tc)에 대하여 비교할 수 있다. 예를 들면, 도 9의 경우 기초 3D 모델(910) 및 타겟 3D 모델(915)의 구성이 각각 3개라면, 총 9번의 구성 비교가 수행될 수 있다.
오프셋(960)은 타겟 3D 모델(920a)을 기초 3D 모델(910)에 대응되도록 변경하기 위한 벡터일 수 있다.
구성 비교부(950)는 입력된 3D 모델 사이의 구성 유사도(970)를 결정할 수 있다. 구성 유사도(970)는 입력된 기초 3D 모델(910)의 구성과 타겟 3D 모델(920a)의 구성 사이의 유사도를 의미할 수 있다. 입력된 기초 3D 모델(910)의 구성이 타겟 3D 모델(920a)의 구성에 대응되면 구성 유사도(970)는 높은 값을 나타낼 수 있다. 예를 들면, 입력된 기초 3D 모델(910)의 구성과 타겟 3D 모델(920a)의 구성이 모두 의자의 팔걸이를 나타내는 경우, 구성 유사도(970)는 높은 값을 나타낼 수 있다. 입력된 기초 3D 모델(910)의 구성이 타겟 3D 모델(920a)의 구성에 대응되지 않으면 구성 유사도(970)는 낮은 값을 나타낼 수 있다. 예를 들면, 입력된 기초 3D 모델(910)의 구성은 의자의 팔걸이고, 타겟 3D 모델(920a)의 구성은 의자의 등받이인 경우, 구성 유사도(970)는 낮은 값을 나타낼 수 있다.
타겟 3D 모델(920a)과 기초 3D 모델(910) 사이의 구성 유사도(970)가 낮은 경우, 전자 장치(100)는 변형을 수행하지 않을 수 있다. 예를 들면, 구성 유사도(970)가 0부터 1 사이의 정규화된 값이고 구성 유사도(970)가 0.5 보다 작은 경우, 전자 장치(100)는 타겟 3D 모델(920a)과 기초 3D 모델(910) 사이의 변형을 수행하지 않을 수 있다.
본 개시의 일 실시예에 따라, 구성 비교부(950)가 기초 3D 모델(910)의 모든 구성(940a) 및 타겟 3D 모델(915)의 모든 구성(945a)에 대하여 구성 유사도(970)를 결정함으로써, 전자 장치(100)는 타겟 3D 모델(915)에 대한 변형을 수행하는 구성을 결정할 수 있다. 예를 들면, 전자 장치(100)는 {Part Sa, Part Ta}의 구성 유사도(970)가 0.5 이상인 것에 기초하여, 타겟 3D 모델(915)의 등받이 구성(Part Ta)에 대한 변형을 기초 3D 모델(910)의 등받이 구성(Part Sa)을 참조하여 수행하는 것으로 결정할 수 있다. 예를 들면, 전자 장치(100)는 {Part Sa, Part Tb}의 구성 유사도(970)가 0.5 미만인 것에 기초하여, 타겟 3D 모델(915)의 등받이 구성(Part Ta)에 대한 변형을 기초 3D 모델(910)의 등받이 구성(Part Sb)을 참조하여 수행하지 않는 것으로 결정할 수 있다.
본 개시의 일 실시예에 따른 전자 장치(100)는 특징 추출부(930, 935) 및 구성 비교부(950)를 복수의 3D 모델과 복수의 모델의 구성 사이의 오프셋 및 구성 유사도를 포함하는 학습 데이터 셋으로 훈련할 수 있다. 본 개시의 일 실시예에 따라, 특징 추출부(930, 935)는 CNN으로 구현되고, 구성 비교부(950)는 MLP(Multi Layer Perceptron)로 구현될 수 있다.
도 9b은 본 개시의 일 실시예에 따른 3D 모델에 대한 변형을 수행하기 위한 정보를 획득하는 과정을 나타내는 도면이다.
도 9b을 참조하면, 기초 3D 모델(910b) 및 타겟 3D 모델(915)의 구성 중 일부는 변형을 수행하지 않을 수 있다. 예를 들면, 기초 3D 모델(910b) 및 타겟 3D 모델(915)의 구성 중 다리 구성은 변형을 수행하지 않고, 기초 3D 모델(910b) 및 타겟 3D 모델(915)의 다리에 대응되는 3D 모델은 특징 추출부(930, 935)에 입력되지 않을 수 있다.
설명의 편의를 위하여, 전자 장치(100)가 기초 3D 모델(910b)에 기초하여 타겟 3D 모델(915)을 변형하는 과정을 설명하지만, 전자 장치(100)가 합성 3D 모델에 기초하여 타겟 3D 모델(915)을 변형하는 과정도 동일하게 수행될 수 있다. 설명의 편의를 위하여, 도 9a와 중복되는 내용은 생략하도록 한다.
전자 장치(100)는 기초 3D 모델(910) 및 타겟 3D 모델(915)을 복수의 구성(920a, 925a)으로 분류할 수 있다. 혹은, 전자 장치(100)는 복수의 구성(920a, 925a)으로 분류된 3D 모델을 획득할 수 있다.
특징 추출부(930, 935)는 복수의 구성으로 분류된 기초 3D 모델(920a) 및 복수의 구성으로 분류된 타겟 3D 모델(925a)을 입력으로 하여, 기초 3D 모델의 각 구성의 특징(940a) 및 타겟 3D 모델의 각 구성의 특징(945a)을 출력할 수 있다. 다만, 전자 장치(100)가 변형하지 않는 구성에 대하여는 특징 추출부(930, 935)에 입력되지 않을 수 있다.
본 개시의 일 실시예에 따라, 구성 비교부(950)는 기초 3D 모델(910)의 변형의 대상에 해당하는 구성의 특징(예: part Sa, Sb) 및 타겟 3D 모델(915)의 변형의 대상에 해당하는 구성의 특징(예: part Ta, Tb)에 대하여 비교할 수 있다. 예를 들면, 도 9의 경우 기초 3D 모델(910) 및 타겟 3D 모델(915)의 구성이 각각 3개라면, 의자에 관한 구성 1개씩을 제외하고 총 4번의 구성 비교가 수행될 수 있다.
본 개시의 일 실시예에 따른 전자 장치(100)가 변형을 수행하려는 구성에 대하여만 특징 추출 및 구성 비교를 수행함으로써 연산량이 줄어드는 효과를 얻을 수 있다. 이전에 생성된 합성 3D 모델과 객체 이미지가 특정 구성에 있어서 유사도가 높은 경우, 전자 장치(100)는 해당 구성에 대한 변형을 수행하지 않는 것으로 결정할 수 있다. 전자 장치(100)는 유사도가 낮은 구성에 대하여 우선적으로 보완하여 객체에 대한 3D 모델을 생성할 수 있다.
도 10은 본 개시의 일 실시예에 따른 복수의 3D 모델을 병합하는 과정을 나타내는 도면이다.
도 10을 참조하면, 기초 3D 모델(1010) 및 타겟 3D 모델(1020)을 병합함으로써, 합성 3D 모델(1030)이 생성될 수 있다. 도 10은 기초 3D 모델(1010)을 기초로 설명하지만, 기초 3D 모델(1010)을 대신하여 이전에 생성된 합성 3D 모델에 기초하여 합성 3D 모델(1030)을 생성할 수 있다.
본 개시의 일 실시예에 따라, 전자 장치(100)는 기초 3D 모델(1010)과 타겟 3D 모델(1020)을 병합할 수 있다. 합성 3D 모델(1030)은 기초 3D 모델(1010)의 정보와 타겟 3D 모델(1020)의 정보를 합침으로써 생성될 수 있다. 예를 들면, 기초 3D 모델(1010)에 포함된 포인트의 집합을 A라고 하고, 타겟 3D 모델(1020)에 포함된 포인트의 집합을 B라고 하면, 합성 3D 모델(1030)의 포인트의 집합은 A 합집합 B로 결정될 수 있다.
본 개시의 일 실시예에 따라, 타겟 3D 모델(1020)은 변형이 수행된 것일 수 있다. 전자 장치(100)는 기초 3D 모델(1020)에 대응되도록 타겟 3D 모델(1020)을 변경하는 변형을 수행할 수 있다. 변형이 수행된 타겟 3D 모델(1020)의 정보량은 기초 3D 모델과 정보량과 동일할 수 있다. 예를 들면, 기초 3D 모델(1010)이 3000개의 포인트들을 포함하는 경우, 3000개를 초과하는 타겟 3D 모델의 포인트들 중에서 3000개를 선택하는 다운샘플링이 수행된 변형된 타겟 3D 모델이 생성될 수 있다.
도 11은 본 개시의 일 실시예에 따른 객체 이미지와 합성 3D 모델을 비교하는 과정을 나타내는 도면이다.
도 11을 참조하면, 합성 3D 모델(1120)의 포즈가 객체 이미지(1110)의 포즈에 대응되도록 변환될 수 있다. 본 개시에서 "포즈(pose)"는 객체가 이미지 내에 존재하는 방향을 의미할 수 있다. 예를 들면, 객체 이미지(1110)는 이미지 내에 오른쪽 팔걸이가 나타나지만, 합성 3D 모델(1120)은 오른쪽 팔걸이가 보이므로, 객체 이미지(1110)와 합성 3D 모델(1120)의 포즈는 다르다.
본 개시의 일 실시예에 따른 전자 장치(100)는 포즈 결정부(1130) 및 포즈 변환부(1140)를 포함할 수 있다. 포즈 결정부(1130)는 객체 이미지(1110)와 합성 3D 이미지를 입력으로 하여, 객체 이미지의 포즈를 결정할 수 있다. 본 개시의 일 실시예에 따라 포즈 결정부(1130)는 객체 이미지(1110)를 이용하여, 이미지의 포즈를 획득할 수 있다. 예를 들면, 포즈 결정부(1130)는 객체의 포즈에 대한 3차원 벡터를 획득할 수 있다. 본 개시의 일 실시예에 따라 포즈 결정부(1130)는 객체 이미지(1110) 와 합성 3D 모델(1120)을 이용하여, 포즈의 차이를 획득할 수 있다. 예를 들면, 포즈 결정부(1130)는 객체 이미지(1110) 와 합성 3D 모델(1120)의 포즈가 동일하도록 변환하기 위한 3차원 벡터를 획득할 수 있다.
본 개시의 일 실시예에 따른 포즈 변환부(1140)는 객체 이미지(1110)와 동일한 포즈가 되도록 합성 3D 모델(1120)의 포즈를 변환할 수 있다. 포즈가 동일하도록 변환된 합성 3D 모델(1140)과 객체 이미지(1110)를 비교함으로써 합성 3D 모델(1120)과 객체 이미지(1110)가 유사한지 여부를 명확하게 결정할 수 있다.
본 개시의 일 실시예에 따른 전자 장치(100)는 합성 3D 모델(1110)과 객체 이미지(1120) 사이의 유사도를 결정할 수 있다. 전자 장치(100)는 포즈가 변환된 합성 3D 모델을 렌더링할 수 있다. 전자 장치(100)는 렌더링된 합성 3D 모델을 객체 이미지와 비교함으로써, 유사도를 결정할 수 있다. 예를 들면, 전자 장치(100)는 렌더링된 합성 3D 모델(1120)과 객체 이미지(1110) 사이의 차이에 기초하여, 유사도를 결정할 수 있다. 대안적으로 혹은 추가적으로, 전자 장치(100)는 렌더링된 합성 3D 모델(1120)의 특징과 객체 이미지(1110)의 특징에 기초하여 유사도를 결정할 수 있다. 예를 들면, 전자 장치(100)는 렌더링된 합성 3D 모델(1120)과 객체 이미지(1110)로부터 특징을 추출하고, 추출된 특징을 비교함으로써 유사도를 결정할 수 있다.
도 11은 렌더링되지 않은 합성 3D 모델(1120)에 기초하여 포즈를 변환하는 방법을 설명하였으나, 이에 제한되지 않고, 렌더링된 합성 3D 모델을 이용하여 포즈 변환이 수행될 수 있다.
도 12는 본 개시의 일 실시예에 따른 유사도가 낮은 구성을 보완하는 과정을 나타내는 도면이다.
도 12를 참조하면, 이전에 생성된 합성 3D 모델(1210)의 팔걸이에 대한 정보는 부족하므로, 객체 이미지와 비교하여 차이가 클 수 있다.
본 개시의 일 실시예에 따른 전자 장치(100)는 이전에 생성된 합성 3D 모델(1210) 중에서 팔걸이에 대한 정보를 보완하기 위하여 타겟 3D 모델(1220)을 결정할 수 있다. 전자 장치(100)는 보완하기 위한 구성에 대한 유사도 판단에 의하여 타겟 3D 모델(1220)을 결정할 수 있다. 예를 들면, 팔걸이 구성에 대한 유사도가 제일 높은 3D 모델을 타겟 3D 모델로 결정할 수 있다. 전체적으로 판단하면 더 유사한 3D 모델이 존재할 수 있지만, 특정 구성에 대한 유사도만 판단함으로써, 해당 구성에 대한 정보를 보완할 수 있다.
전자 장치(100)는 타겟 3D 모델(1220)의 팔걸이에 대응되는 3D 모델(1230)을 분리할 수 있다. 전자 장치(100)는 이전에 생성된 합성 3D 모델(1210)과 팔걸이에 대응되는 3D 모델(1230)을 이용하여, 합성 3D 모델(1240)을 생성할 수 있다.
도 13은 본 개시의 일 실시예에 따른 3D 모델의 색상 정보를 나타내는 도면이다.
도 13을 참조하면, 객체 이미지(1310)는 색상 정보를 포함하는 이미지다. 예를 들면, 객체 이미지(1310)는 RGB-D 이미지일 수 있다. 기초 3D 모델(1320)은 객체 이미지(1310)의 3차원 위치 정보를 이용하여 포인트가 결정되고, 각 포인트에 대응되는 색상 정보를 객체 이미지(1310)로부터 획득할 수 있다. 타겟 3D 모델(1330)은 위치 정보를 포함할 수 있다.
본 개시의 일 실시예에 따른 전자 장치(100)는 기초 3D 모델(1320)의 위치에 관한 정보 및 타겟 3D 모델(1330)의 위치에 관한 정보에 기초하여, 합성 3D 모델(1340)의 위치에 관한 정보를 생성하고, 기초 3D 모델(1320)의 색상에 관한 정보에 기초하여, 합성 3D 모델(1340)의 색상에 관한 정보를 생성할 수 있다. 3D 모델의 위치에 관한 정보는 3D 모델의 포인트의 위치 정보를 의미하고, 3D 모델의 색상에 관한 정보는 3D 모델의 포인트의 위치 정보를 의미할 수 있다.
합성 3D 모델(1340)은 기초 3D 모델(1320)의 포인트들과 타겟 3D 모델(1330)의 포인트들을 포함할 수 있다. 합성 3D 모델(1340) 중 타겟 3D 모델의 포인트들은 기초 3D 모델(1320)의 포인트들의 색상 정보로부터 결정될 수 있다. 예를 들면, 합성 3D 모델(1340) 중 타겟 3D 모델의 포인트들은 기초 3D 모델(1320)의 포인트들의 위치 정보 및 색상 정보에 기초하여 보간을 통해 생성될 수 있다. 전자 장치(100)는 합성 3D 모델(1340)의 색상 정보는 기초 3D 모델(1320)로부터 결정됨으로써, 객체 이미지와 유사한 3D 모델을 생성할 수 있다.
도 13은 기초 3D 모델(1320)인 경우로 설명하였지만, 이에 제한되지 않고, 합성 3D 모델인 경우에도 동일하게 이해될 수 있다. 즉, 이전에 생성된 합성 3D 모델의 위치 정보 및 색상 정보와 타겟 3D 모델의 위치 정보를 이용하여, 새로운 합성 3D 모델의 위치 정보 및 색상 정보가 결정될 수 있다.
도 14는 본 개시의 일 실시예에 따른 합성 3D 모델을 생성하는 방법에 관한 순서도이다.
도 14을 참조하면, 합성 3D 모델을 생성하는 방법(1400)은 단계 1410으로 시작될 수 있다. 본 개시의 일 실시예에 따른, 합성 3D 모델을 생성하는 방법(1400)은 전자 장치(100)에 의하여 수행될 수 있다.
단계 1410에서, 전자 장치(100)는 적어도 하나의 객체 이미지에 기초하여, 객체에 대한 기초 3D 모델을 생성할 수 있다. 기초 3D 모델은 객체 이미지에 기초하여 추론된 3차원 정보를 포함할 수 있다. 3차원 정보는 객체의 경계를 나타내는 포인트의 위치 정보를 포함할 수 있다.
단계 1420에서, 전자 장치(100)는 복수의 3D 모델이 저장된 3D 모델 데이터 베이스 중에서 기초 3D 모델과 유사한 제1 타겟 3D 모델을 결정할 수 있다. 본 개시의 일 실시예에 따라, 전자 장치(100)는 객체 이미지에 기초하여, 객체의 종류를 식별하고, 3D 모델 데이터 베이스는 식별된 객체의 종류에 관한 3D 모델 데이터 베이스일 수 있다. 예를 들면, 전자 장치(100)가 객체를 의자로 식별한 경우, 3D 모델 데이터 베이스는 의자 3D 모델에 관한 데이터 베이스일 수 있다.
단계 1430에서, 전자 장치(100)는 기초 3D 모델과 제1 타겟 3D 모델에 기초하여, 제1 합성 3D 모델을 생성할 수 있다. 제1 합성 3D 모델은 기초 3D 모델과 제1 타겟 3D 모델을 병합함으로써 생성될 수 있다.
단계 1440에서, 전자 장치(100)는 제1 합성 3D 모델과 적어도 하나의 객체 이미지의 제1 유사도를 결정할 수 있다. 전자 장치(100)는 렌더링된 제1 합성 3D 모델과 적어도 하나의 객체 이미지를 비교함으로써 제1 유사도를 결정할 수 있다. 예를 들면, 제1 유사도는 0 내지 1 사이의 값으로 결정될 수 있다.
단계 1450에서, 전자 장치(100)는 제1 유사도가 임계 값보다 작거나 같은 것에 기초하여, 제1 합성 3D 모델과 객체 이미지 사이의 유사도가 낮은 구성을 결정할 수 있다. 전자 장치(100)는 합성 3D 모델을 복수의 구성으로 분류하고, 각 구성 별로 유사도를 결정할 수 있다. 일 실시예에 따라, 전자 장치(100)는 분류된 복수의 구성 각각에 대하여, 제1 합성 3D 모델과 적어도 하나의 객체 이미지 사이의 제3 유사도가 낮은 구성을 결정하고, 복수의 구성 중에서, 제3 유사도가 소정의 값보다 작은 구성을 상기 유사도가 낮은 구성으로 결정할 수 있다. 예를 들면, 전자 장치(100)는 객체 "의자"의 복수의 구성 "팔걸이", "등받이" 등에 대하여 제1 합성 3D 모델과 적어도 하나의 객체 이미지 사이의 유사도를 결정하고, 복수의 구성에 대한 유사도 각각(예: "팔걸이"에 대한 유사도, "등받이"에 대한 유사도)을 임계 값과 비교하여, 유사도가 낮은 구성을 결정할 수 있다. 유사도가 낮은 구성은 하나 이상으로 결정될 수 있다.
단계 1460에서, 전자 장치(100)는 3D 모델 데이터 베이스 중에서 상기 유사도가 낮은 구성에 대하여 상기 제1 합성 3D 모델과 유사도가 높은 3D 모델을 제2 타겟 3D 모델로 결정할 수 있다. 전자 장치(100)는
단계 1470에서, 전자 장치(100)는 제1 합성 3D 모델과 제2 타겟 3D 모델에 기초하여, 제2 합성 3D 모델을 생성할 수 있다. 전자 장치(100)는 합성 3D 모델을 복수의 구성으로 분류하여, 정보량이 부족하여 객체 이미지와 유사도가 낮은 구성에 대한 보완을 할 수 있다. 전자 장치(100)는 구성 별로 3D 모델 데이터 베이스를 이용하여 보완할 수 있고, 따라서 적은 수의 객체 이미지를 이용하여 3D 모델을 생성할 수 있다.
도 15는 본 개시의 일 실시예에 따른 전자 장치의 구성을 나타내는 블록도이다.
도 15를 참조하면, 본 개시의 일 실시예에 따른 전자 장치(100)는 메모리(1510)와 프로세서(1520)를 포함할 수 있으나, 이에 한정되는 것은 아니며, 범용적인 구성이 더 추가될 수 있다.
일 실시예에 따른 메모리(1510)는, 프로세서(1520)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 전자 장치(100)로 입력되거나 혹은 전자 장치(100)로부터 출력되는 데이터를 저장할 수 있다. 메모리(1510)는 프로세서(1520)가 판독할 수 있는 명령어들, 데이터 구조, 및 프로그램 코드(program code)가 저장될 수 있다. 개시된 실시예들에서, 프로세서(1520)가 수행하는 동작들은 메모리(1510)에 저장된 프로그램의 명령어들 또는 코드들을 실행함으로써 구현될 수 있다.
일 실시예에 따른 메모리(1510)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등)를 포함할 수 있으며, 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나를 포함하는 비 휘발성 메모리 및 램(RAM, Random Access Memory) 또는 SRAM(Static Random Access Memory)과 같은 휘발성 메모리를 포함할 수 있다.
일 실시예에 따른 메모리(1510)는 3D 모델을 생성하는 전자 장치(100)가 태스크를 수행할 수 있도록 제어하는 하나 이상의 인스트럭션 및/또는 프로그램을 저장할 수 있다. 예를 들어, 메모리(1510)에는 기초 3D 모델 생성부, 타겟 3D 모델 결정부, 합성 3D 모델 생성부, 이미지 렌더링부, 이미지 비교부, 유사도 결정부, 구성 비교부, 포즈 결정부, 포즈 변환부 등이 저장될 수 있다.
일 실시예에 따른 프로세서(1520)는 메모리(1510)에 저장된 명령어들이나 프로그램화된 소프트웨어 모듈을 실행함으로써, 전자 장치(100)가 태스크를 수행할 수 있도록 동작이나 기능을 제어할 수 있다. 프로세서(1520)는 산술, 로직 및 입출력 연산과 시그널 프로세싱을 수행하는 하드웨어 구성 요소로 구성될 수 있다. 프로세서(1520)는 메모리(1510)에 저장된 하나 이상의 인스트럭션(instructions)을 실행함으로써, 전자 장치(100)가 합성 3D를 생성하는 태스크를 수행하는 전반적인 동작들을 제어할 수 있다.
일 실시예에 따른 프로세서(1520)는 예를 들어, 중앙 처리 장치(Central Processing Unit), 마이크로 프로세서(microprocessor), 그래픽 처리 장치(Graphic Processing Unit), ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 애플리케이션 프로세서(Application Processor), 신경망 처리 장치(Neural Processing Unit) 또는 인공지능 모델의 처리에 특화된 하드웨어 구조로 설계된 인공지능 전용 프로세서 중 적어도 하나로 구성될 수 있으나, 이에 제한되는 것은 아니다. 프로세서(1520)를 구성하는 각 프로세서는 소정의 기능을 수행하기 위한 전용 프로세서일 수 있다.
일 실시예에 따른 인공 지능(AI; artificial intelligence) 프로세서는, 인공지능(AI) 모델을 이용하여, 전자 장치(100)가 수행하도록 설정된 태스크의 처리를 위해, 연산 및 제어를 수행할 수 있다. AI 프로세서는, 인공 지능(AI)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전자 장치(100)에 탑재될 수도 있다.
본 개시의 일 실시예에 따르면 프로세서(1520)는 메모리(1510)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 적어도 하나의 객체 이미지에 기초하여, 객체에 대한 기초 3D 모델을 생성할 수 있다. 프로세서(1520)는 메모리(1510)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 복수의 3D 모델이 저장된 3D 모델 데이터 베이스 중에서 기초 3D 모델과 유사한 제1 타겟 3D 모델을 결정할 수 있다. 프로세서(1520)는 메모리(1510)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 기초 3D 모델과 제1 타겟 3D 모델에 기초하여, 제1 합성 3D 모델을 생성할 수 있다. 프로세서(1520)는 메모리(1510)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 제1 합성 3D 모델과 적어도 하나의 객체 이미지의 제1 유사도를 결정할 수 있다. 프로세서(1520)는 메모리(1510)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 제1 유사도가 임계 값보다 작거나 같은 것에 기초하여, 제1 합성 3D 모델과 상기 적어도 하나의 객체 이미지 사이에 유사도가 낮은 구성을 결정할 수 있다. 프로세서(1520)는 상기 3D 모델 데이터 베이스 중에서 상기 유사도가 낮은 구성에 대하여 상기 제1 합성 3D 모델과 유사도가 높은 3D 모델을 제2 타겟 3D 모델로 결정할 수 있다. 프로세서(1520)는 메모리(1510)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 제1 합성 3D 모델과 제2 타겟 3D 모델에 기초하여, 제2 합성 3D 모델을 생성할 수 있다.
본 개시의 일 실시예에 따라서, 프로세서(1520)는 메모리(1510)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 적어도 하나의 객체 이미지를 이용하여, 적어도 하나의 객체 이미지의 깊이 정보를 획득할 수 있다. 적어도 하나의 프로세서가 적어도 하나의 인스트럭션을 실행함으로써, 적어도 하나의 객체 이미지 및 획득된 깊이 정보를 이용하여, 객체의 적어도 일부에 관한 3차원 위치 정보를 포함하는 기초 3D 모델을 생성할 수 있다.
본 개시의 일 실시예에 따라서, 프로세서(1520)는 메모리(1510)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 적어도 하나의 객체 이미지와 복수의 3D 모델 사이의 제2 유사도를 결정할 수 있다. 프로세서(1520)는 메모리(1510)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 복수의 3D 모델 중에서 제2 유사도가 높은 3D 모델을 제1 타겟 3D 모델로 결정할 수 있다.
본 개시의 일 실시예에 따라서, 프로세서(1520)는 메모리(1510)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 타겟 3D 모델을 기초 3D 모델에 대응되도록 변형을 수행할 수 있다. 프로세서(1520)는 메모리(1510)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 기초 3D 모델과 변형된 타겟 3D 모델을 병합할 수 있다.
본 개시의 일 실시예에 따라서, 프로세서(1520)는 메모리(1510)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 기초 3D 모델을 객체에 대한 복수의 구성으로 분류할 수 있다.
본 개시의 일 실시예에 따라서, 프로세서(1520)는 메모리(1510)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 분류된 복수의 구성 각각에 대하여제1 합성 3D 모델과 적어도 하나의 객체 이미지 사이의 유사도가 낮은 구성을 결정할 수 있다. 프로세서(1520)는 메모리(1510)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 복수의 구성 중에서, 제3 유사도가 소정의 값보다 작은 구성을 유사도가 낮은 구성으로 결정할 수 있다.
본 개시의 일 실시예에 따라서, 프로세서(1520)는 메모리(1510)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 제1 합성 3D 모델을 렌더링할 수 있다. 프로세서(1520)는 메모리(1510)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 렌더링된 제1 합성 3D 모델의 포즈를 적어도 하나의 객체 이미지에 대응되도록 수정할 수 있다. 프로세서(1520)는 메모리(1510)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 수정된 렌더링된 제1 합성 3D 모델과 적어도 하나의 객체 이미지 사이의 제1 유사도를 결정할 수 있다.
본 개시의 일 실시예에 따라서, 프로세서(1520)는 메모리(1510)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 적어도 하나의 객체 이미지에 기초하여, 객체의 종류를 식별할 수 있다. 프로세서(1520)는 메모리(1510)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 3D 모델 데이터 베이스는 객체의 종류에 관한 3D 모델을 포함할 수 있다.
본 개시의 일 실시예에 따라, 프로세서(1520)는 메모리(1510)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 기초 3D 모델의 위치에 관한 정보 및 제1 타겟 3D 모델의 위치에 관한 정보에 기초하여, 제1 합성 3D 모델의 위치에 관한 정보를 생성할 수 있다. 프로세서(1520)는 메모리(1510)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 기초 3D 모델의 색상에 관한 정보에 기초하여, 제1 합성 3D 모델의 색상에 관한 정보를 생성할 수 있다.
한편, 본 개시의 실시예들은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스 될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독 가능 매체는 컴퓨터 저장 매체 및 통신 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독 가능 명령어, 데이터 구조, 또는 프로그램 모듈과 같은 변조된 데이터 신호의 기타 데이터를 포함할 수 있다.
도 16은 본 개시의 일 실시예에 따른 아바타 3D 모델을 생성하는 방법을 나타내는 도면이다.
도 16을 참조하면, 사용자 아바타 3D 모델 DB(1630)는 과거에 생성된 사용자 아바타 3D 모델을 포함한다. 예를 들면, 사용자 아바타 3D 모델 DB(1630)는 19년 6월 3일에 생성된 사용자 아바타 3D 모델, 20년 1월 13일에 생성된 사용자 아바타 3D 모델 및 21년 4월 9일에 생성된 사용자 아바타 3D 모델을 포함할 수 있다. 각 날짜에 생성된 사용자 아바타 3D 모델은 해당 날짜의 사용자 착장을 반영하여 생성된 것일 수 있다.
본 개시의 일 실시예에 따른 전자 장치(100)는 사용자 이미지(1610)를 획득할 수 있다. 전자 장치(100)는 사용자 이미지(1610)에 기초하여, 사용자의 착장이 반영된 합성 아바타 3D 모델(1620)을 생성할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 사용자 이미지(1610)에 기초하여, 기초 3D 모델을 생성하고, 사용자 아바타 3D 모델(1630)에 포함된 타겟 3D 모델(1635)과 기초 3D 모델을 이용하여 합성 아바타 3D 모델을 생성할 수 있다.
전자 장치(100)는 유사하지 않은 구성을 보완하기 위하여 반복적으로 타겟 3D 모델을 이용하여 합성 3D 모델을 생성할 수 있다. 전자 장치(100)가 구성의 일부를 보완한 합성 3D 모델을 생성하는 방법은 도 1 내지 8, 9a, 9b 및 도 10 내지 도 14를 참조하여 설명하였으므로 생략하도록 한다. 본 개시의 일 실시예에 따라, 합성 3D 모델(1620)의 구성은 사용자 외모 및 사용자 착장을 포함할 수 있다. 또한, 보다 구체적으로 사용자 착장은 상의, 하의, 신발 등으로 분류될 수 있다.
전자 장치(100)는 합성 3D 모델(1620)을 이용하여 메타버스(1640) 등 온라인에서 활용할 수 있다. 예를 들면, 전자 장치(100)는 사용자의 착장이 반영된 합성 3D 모델(1630)을 이용하여 메타버스 내에서의 사용자 아바타를 변경할 수 있다.
도 17은 본 개시의 일 실시예에 따른 아바타 3D 모델을 생성하는 방법을 나타내는 도면이다.
도 17을 참조하면, 사용자 아바타 3D 모델 DB(1730)는 과거에 생성된 사용자 아바타 3D 모델을 포함한다. 본 개시의 일 실시예에 따라, 사용자 아바타 3D 모델 DB(1730)는 다양한 사람들에 의하여 생성된 사용자 아바타 3D 모델을 포함할 수 있다.
본 개시의 일 실시예에 따른 전자 장치(100)는 사용자 이미지(1710)를 획득할 수 있다. 전자 장치(100)는 사용자 이미지(1710)에 기초하여, 사용자의 외관이 반영된 합성 아바타 3D 모델(1620)을 생성할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 사용자 이미지(1710)에 기초하여, 기초 3D 모델을 생성하고, 사용자 아바타 3D 모델(1730)에 포함된 타겟 3D 모델(1735-1)과 기초 3D 모델을 이용하여 합성 아바타 3D 모델(1720)을 생성할 수 있다.
전자 장치(100)는 유사하지 않은 구성을 보완하기 위하여 새로운 타겟 3D 모델(1735-2)을 이용하여 새로운 합성 3D 모델(1740)을 생성할 수 있다. 전자 장치(100)가 구성의 일부를 보완한 합성 3D 모델을 생성하는 방법은 도 1 내지 도 14를 참조하여 설명하였으므로 생략하도록 한다. 본 개시의 일 실시예에 따라, 합성 3D 모델(1720)의 구성은 사용자 외모 및 사용자 착장을 포함할 수 있다. 또한, 보다 구체적으로 사용자 외모는 얼굴, 팔, 다리 등으로 분류될 수 있다.
전자 장치(100)는 합성 3D 모델(1740)을 이용하여 메타버스 등 온라인에서 활용할 수 있다. 예를 들면, 전자 장치(100)는 사용자의 착장이 반영된 합성 3D 모델(1740)을 이용하여 메타버스 내에서의 사용자 아바타를 변경할 수 있다.
도 18은 본 개시의 일 실시예에 따른 실내 공간 3D 모델을 생성하는 방법을 나타내는 도면이다.
도 18을 참조하면, 실내 공간 3D 모델 DB(1830)는 과거에 생성된 인테리어 3D 모델을 포함한다.
본 개시의 일 실시예에 따른 전자 장치(100)는 실내 공간 이미지(1810)를 획득할 수 있다. 전자 장치(100)는 실내 공간 이미지(1810)에 기초하여, 합성 실내 공간 3D 모델(1820)을 생성할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 실내 공간 이미지(1810)에 기초하여, 기초 실내 공간 3D 모델을 생성하고, 실내 공간 3D 모델(1830)에 포함된 타겟 실내 공간 3D 모델(1835-1)과 기초 실내 공간 3D 모델을 이용하여 합성 실내 공간 3D 모델(1820)을 생성할 수 있다.
전자 장치(100)는 유사하지 않은 구성을 보완하기 위하여 새로운 타겟 실내 공간 3D 모델(1835-2)을 이용하여 새로운 합성 실내 공간 3D 모델(1840)을 생성할 수 있다. 예를 들면, 외벽에 포함된 액자에 관한 정보를 보완하기 위하여, 전자 장치(100)는 액자와 유사한 구성을 포함하는 타겟 실내 공간 3D 모델을 이용할 수 있다. 전자 장치(100)가 구성의 일부를 보완한 합성 3D 모델을 생성하는 방법은 도 1 내지 도 8, 도 9a, 도 9b 및 도 10 내지 도 14를 참조하여 설명하였으므로 생략하도록 한다.
전자 장치(100)는 합성 3D 모델(1840)을 이용하여 IoT(Internet of Things) 장치 등에서 활용할 수 있다. 예를 들면, 전자 장치(100)는 합성 실내 공간 3D 모델(1840)을 이용하여 사용자에게 가구 배치를 추천하거나, 로봇 청소기의 경로를 설정하는 등의 태스크를 수행할 수 있다.
도 19a는 본 개시의 일 실시예에 따른 공간 맵을 나타내는 흐름도이다.
도 19a를 참조하면, 공간 맵과 공간 맵을 구성하는 복수의 레이어들 간의 계층적 구조를 나타내고 있다. 도 19a에 도시된 바와 같이, 공간 맵은 베이스 레이어, 시맨틱 맵 레이어, 실시간 레이어로 구성될 수 있으나, 이에 한정되는 것은 아니며, 태스크의 특성에 따라 레이어가 가감될 수 있다.
베이스 레이어는 벽, 기둥, 통로 등 공간 전체의 기본 구조에 관한 정보를 제공한다. 3차원 포인트 클라우드 데이터를 처리하여, 좌표계를 정합하고, 위치를 저장함으로써, 베이스 레이어는 공간의 3차원 정보, 객체의 위치 정보, 이동 궤적 정보 등을 제공할 수 있다. 베이스 레이어는 베이스 맵과 지오메트릭 맵의 역할을 수행한다.
시멘틱 맵 레이어는 베이스 레이어 위에 시멘틱 정보를 제공하는 레이어이다. 사용자는 베이스 레이어의 공간 전체의 기본 구조에 'Room 1', 'Room 2', '접근 제한 구역' 등과 같은 시멘틱 정보를 부여하여, 전자 장치의 태스크 수행에 활용할 수 있다. 예를 들어, 전자 장치가 로봇 청소기인 경우, 사용자는 'Room 2'만 청소하게 하거나, '접근 제한 구역'은 로봇 청소기가 청소하지 않도록, 시멘틱 맵 레이어에 시멘틱 정보를 설정할 수 있다.
실시간 레이어는 공간 내의 적어도 하나의 객체 정보를 제공하는 레이어이다. 객체는 정적 객체와 동적 객체 모두 포함될 수 있다. 본 개시에서 실시간 레이어는 객체의 속성 정보에 기초한 복수의 레이어들을 포함할 수 있으며, 레이어들 간의 계층적 구조를 가질 수 있다. 도 19a에 도시된 바와 같이, 실시간 레이어는 제1 레이어, 제2 레이어, 제3 레이어를 포함할 수 있으나, 이에 한정되는 것은 아니며, 객체의 속성 정보의 분류 기준에 따라 레이어의 개수가 가감될 수 있다. 도 19a를 보면, 제1 레이어에는 시스템 옷장, 붙박이 장이 포함되고, 제2 레이어에는 테이블과 소파가 포함되고, 제3 레이어에는 의자가 포함됨을 알 수 있다.
도 19b는 본 개시의 일 실시예에 따른 공간 맵을 나타내는 흐름도이다.
도 19b를 참조하면, 객체의 속성 정보에 기초한 복수의 레이어들을 포함하는 실시간 레이어의 다양한 예를 나타내고 있다.
객체의 속성 정보는 객체의 종류, 형상, 사이즈, 높이 등과 같은 객관적인 기준이나 복수의 기준을 조합하여 분류될 수 있는 정보일 수 있다. 또한, 객체의 속성 정보는 사용자 및 환경에 따라 달라질 수 있으므로, 객체 별로 레이블링하여 속성 정보를 입력해 둘 수있다.
본 개시의 일 실시예에 따르면, 객체의 속성 정보가 객체의 이동성 레벨(ML, Mobability Level)인 경우, 제1 레이어에는 ML 1에 해당하는 객체가 포함되고, 제2 레이어에는 ML 2와 ML 3에 해당하는 객체가 포함되며, 제3 레이어에는 ML 4에 해당하는 객체가 포함될 수 있다. 객체의 이동성 레벨은 객체의 객관적인 특징을 이동성을 평가하는 소정의 분류 기준에 적용함으로써 정해질 수 있다. 예를 들어, ML 1은 이동이 불가능한 객체, ML 2는 이동이 가능하지만, 주로 고정된 상태로 있는 객체, ML 3는 이동이 가능하지만, 가끔 이동하는 객체, ML 4는 이동 가능하며, 자주 이동하는 객체에 각각 대응된다.
본 개시의 일 실시예에 따르면, 객체의 속성 정보가 객체의 위치 이동 주기(Position Movement Cycle)인 경우, 제1 레이어에는 1개월 내로 위치 이동이 없었던 객체가 포함되고, 제2 레이어에는 1개월 내로 위치 이동이 있었던 객체가 포함되며, 제3 레이어에는 1주일 내로 위치 이동이 있었던 객체가 포함될 수 있다. 객체의 객관적 특징에 기초하여 분류되는 이동성 레벨과 달리, 위치 이동 주기는 객체를 사용하는 사용자나 객체가 위치하는 환경에 따라 동일한 객체라 하더라도, 위치 이동 주기는 다를 수 있다. 예를 들어, 'A'라는 객체는 제1 사용자가 자주 사용되는 객체인 반면, 제2 사용자는 거의 사용되지 않는 객체일 수 있다. 'B'라는 객체는 제1 장소에서는 자주 사용되는 객체인 반면, 제2 장소에서는 거의 사용되지 않는 객체일 수 있다.
본 개시의 일 실시예에 따르면, 객체의 속성 정보가 객체가 위치하는 높이(Height)인 경우, 제1 레이어에는 1m 이하에 해당하는 객체가 포함되고, 제2 레이어에는 1m 이상 2m 이하에 해당하는 객체가 포함되며, 제3 레이어에는 2m를 초과하는 객체가 포함될 수 있다.
본 개시의 일 실시예에 따르면, 실시간 레이어에 포함되는 복수의 레이어들의 분류 기준은 사용자에 의해 정의될 수 있다. 예를 들어, 사용자는 분류 기준에 대해 복수의 종류의 객체의 속성 정보를 조합하여 설정해둠으로써, 태스크의 특성을 반영한 공간 맵을 생성할 수 있다. 예를 들어, 로봇 청소기의 경우, 일반적으로 50cm 높이보다 아래에서 이동하기 때문에 1m 보다 높은 곳에 위치하는 객체들, 예를 들어, 전등이나 벽에 걸린 액자 등은 고려할 필요가 없다. 따라서, 사용자는 각 레이어를 구분하는 분류 기준을 직접 설정하여, 제1 레이어는 ML 1이고 1m 이하에 위치하는 객체가 포함되고, 제2 레이어는 ML 2 또는 ML 3이고 1m 이하에 위치하는 객체가 포함되며, 제3 레이어는 ML 4이고 1m 이하에 위치하는 객체가 포함되도록 할 수 있다.
도 20a는 본 개시의 일 실시예에 따른 공간 맵을 구성하는 레이어를 활용하는 방식을 나타내는 도면이다.
전자 장치와 IoT 기기들의 종류나 태스크의 특성에 따라, 각 장치에서 이용되는 공간 맵이 서로 다를 수 있다. 전자 장치는 전자 장치에 저장된 기존의 공간 맵을 그대로 활용할 수도 있지만, 태스크를 수행할 공간에 변화가 생긴 경우, 해당 변화를 반영하기 위해 공간 맵을 업데이트할 수 있다. 전자 장치는 공간에 생긴 변화를 이미 반영하고 있는 공간 맵을 적어도 하나의 외부 장치로부터 수신하여, 기존의 공간 맵을 업데이트 할 수 있다. 전자 장치는 기존의 공간 맵을 기초로, 새로운 공간 맵을 생성할 수 있다.
도 20a를 보면, 전자 장치는 저장되어 있던 기존의 공간 맵(이하, 제1 공간 맵)을 불러올 수 있다. 제1 공간 맵은 베이스 레이어, 제1 레이어, 제2 레이어, 및 제3 레이어로 구성되어 있다. 이하, 설명의 편의상, 제1 레이어 내지 제3 레이어가 도 19b의 임의의 분류 기준에 따라 객체를 포함하는 것을 전제로 설명한다. 제1 공간 맵이 불과 몇분 전에 생성되었거나 제1 공간 맵이 이용된 후로 공간 내에 변화가 없는 경우, 전자 장치는 제1 공간 맵을 그대로 활용하여, 새로운 공간 맵(이하, 제2 공간 맵)을 획득하고, 새로운 태스크를 수행하는데 제2 공간 맵을 이용할 수 있다.
도 20b는 본 개시의 일 실시예에 따른 공간 맵을 구성하는 레이어를 활용하는 방식을 나타내는 도면이다.
도 20b를 보면, 전자 장치는 저장되어 있던 제1 공간 맵을 불러올 수 있다. 전자 장치가 태스크를 수행함에 있어서, 자주 이동하는 ML 4의 객체 정보는 필요하지 않거나, 1주일 이상 이동이 없었던 객체 정보만 이용하는 경우, 제1 공간 맵을 구성하는 레이어들 중에 베이스 레이어, 제1 레이어, 및 제2 레이어를 선별하거나 제1 공간 맵에서 제3 레이어를 제거하여, 제2 공간 맵을 획득할 수 있다.
도 20c는 본 개시의 일 실시예에 따른 공간 맵을 구성하는 레이어를 활용하는 방식을 나타내는 도면이다.
도 20c를 보면, 전자 장치는 저장되어 있던 제1 공간 맵을 불러올 수 있다. 전자 장치가 새로운 태스크를 수행함에 있어서, ML 1의 객체 정보만 필요하거나, 1개월 이상 이동이 없었던 객체 정보만 이용하는 경우, 제1 공간 맵을 구성하는 레이어들 중에 베이스 레이어 및 제1 레이어를 선별하거나 제1 공간 맵에서 제2 레이어와 제3 레이어를 제거하여, 제2 공간 맵을 획득할 수 있다.
도 20d는 본 개시의 일 실시예에 따른 공간 맵을 구성하는 레이어를 활용하는 방식을 나타내는 도면이다.
도 20d를 보면, 전자 장치는 저장되어 있던 제1 공간 맵을 불러올 수 있다. 전자 장치가 새로운 태스크를 수행함에 있어서, 이동이 가능한 ML 2, ML 3, 및 ML 4에 해당하는 객체들의 최신 정보를 반영할 필요가 경우, 제1 공간 맵을 구성하는 레이어들 중에 베이스 레이어 및 제1 레이어를 선별하거나 제1 공간 맵에서 제2 레이어와 제3 레이어를 제거하여, 제2 공간 맵을 획득할 수 있다. 이후, 전자 장치는 외부 장치로부터 수신된 공간 맵에서 제2 레이어와 제3 레이어를 추출하여, 제2 공간 맵에 반영하여, 제3 공간 맵을 획득할 수 있다. 또는, 전자 장치에 구비된 적어도 하나의 센서를 이용하여, ML 2, ML 3, 및 ML 4에 해당하는 객체들을 검출하여, 제2 공간 맵에 반영하여, 제3 공간 맵을 획득할 수 있다.
기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
본 개시의 일 양태에 따르면, 3차원(3D) 모델을 생성하는 방법이 제공된다. 3차원 모델을 생성하는 방법은 객체에 대한 적어도 하나의 객체 이미지에 기초하여, 상기 객체에 대한 기초 3D 모델을 생성하는 단계를 포함할 수 있다. 3차원 모델을 생성하는 방법은 복수의 3D 모델이 저장된 3D 모델 데이터 베이스 중에서 상기 기초 3D 모델과 유사한 제1 타겟 3D 모델을 결정하는 단계를 포함할 수 있다. 3차원 모델을 생성하는 방법은 상기 기초 3D 모델과 상기 제1 타겟 3D 모델에 기초하여, 제1 합성 3D 모델을 생성하는 단계를 포함할 수 있다. 3차원 모델을 생성하는 방법은 상기 제1 합성 3D 모델과 상기 적어도 하나의 객체 이미지의 제1 유사도를 결정하는 단계를 포함할 수 있다. 3차원 모델을 생성하는 방법은 상기 제1 유사도가 임계 값보다 작거나 같은 것에 기초하여, 상기 제1 합성 3D 모델과 상기 적어도 하나의 객체 이미지 사이에 유사도가 낮은 구성을 결정하는 단계를 포함할 수 있다. 3차원 모델을 생성하는 방법은 상기 3D 모델 데이터 베이스 중에서 상기 유사도가 낮은 구성에 대하여 상기 제1 합성 3D 모델과 유사도가 높은 3D 모델을 제2 타겟 3D 모델로 결정하는 단계를 포함할 수 있다. 3차원 모델을 생성하는 방법은 상기 제1 합성 3D 모델과 상기 제2 타겟 3D 모델에 기초하여, 제2 합성 3D 모델을 생성하는 단계를 포함할 수 있다.
본 개시의 일 실시예에 따른 기초 3D 모델을 생성하는 단계는 상기 적어도 하나의 객체 이미지를 이용하여, 상기 적어도 하나의 객체 이미지의 깊이 정보를 획득하는 단계를 포함할 수 있다. 기초 3D 모델을 생성하는 단계는 상기 적어도 하나의 객체 이미지 및 상기 획득된 깊이 정보를 이용하여, 상기 객체의 적어도 일부에 관한 3차원 위치 정보를 포함하는 상기 기초 3D 모델을 생성하는 단계를 포함할 수 있다.
본 개시의 일 실시예에 따른 제1 타겟 3D 모델을 결정하는 단계는 상기 적어도 하나의 객체 이미지와 상기 복수의 3D 모델 사이의 제2 유사도를 결정하는 단계를 포함할 수 있다. 제1 타겟 3D 모델을 결정하는 단계는 상기 복수의 3D 모델 중에서 상기 제2 유사도가 높은 3D 모델을 상기 제1 타겟 3D 모델로 결정하는 단계를 포함할 수 있다.
본 개시의 일 실시예에 따른 상기 제1 합성 3D 모델을 생성하는 단계는 상기 타겟 3D 모델을 상기 기초 3D 모델에 대응되도록 변형을 수행하는 단계를 포함할 수 있다. 상기 제1 합성 3D 모델을 생성하는 단계는 상기 기초 3D 모델과 상기 변형된 타겟 3D 모델을 병합하는 단계를 포함할 수 있다.
본 개시의 일 실시예에 따른 3차원 모델 생성 방법은 상기 기초 3D 모델을 상기 객체에 대한 복수의 구성으로 분류하는 단계를 포함할 수 있다.
본 개시의 일 실시예에 따른 상기 제2 타겟 3D 모델을 결정하는 단계는 상기 분류된 복수의 구성 각각에 대하여,상기 제1 합성 3D 모델과 상기 적어도 하나의 객체 이미지 사이의 제3 유사도를 결정하는 단계를 포함할 수 있다. 상기 제2 타겟 3D 모델을 결정하는 단계는 상기 복수의 구성 중에서, 상기 제3 유사도가 소정의 값보다 작은 구성을 상기 유사도가 낮은 구성으로 결정하는 단계를 포함할 수 있다.
본 개시의 일 실시예에 따른 상기 제1 유사도를 결정하는 단계는 상기 제1 합성 3D 모델을 렌더링하는 단계를 포함할 수 있다. 상기 제1 유사도를 결정하는 단계는 상기 렌더링된 제1 합성 3D 모델의 포즈를 상기 적어도 하나의 객체 이미지에 대응되도록 수정하는 단계를 포함할 수 있다. 상기 제1 유사도를 결정하는 단계는 상기 수정된 렌더링된 제1 합성 3D 모델과 상기 적어도 하나의 객체 이미지 사이의 제1 유사도를 결정하는 단계를 포함할 수 있다.
본 개시의 일 실시예에 따른 3차원 모델 생성 방법은 상기 적어도 하나의 객체 이미지에 기초하여, 상기 객체의 종류를 식별하는 단계를 포함할 수 있다. 상기 3D 모델 데이터 베이스는 상기 객체의 종류에 관한 3D 모델일 수 있다.
본 개시의 일 실시예에 따른 상기 제1 합성 3D 모델을 생성하는 단계는 상기 기초 3D 모델의 위치에 관한 정보 및 상기 제1 타겟 3D 모델의 위치에 관한 정보에 기초하여, 상기 제1 합성 3D 모델의 위치에 관한 정보를 생성하는 단계를 포함할 수 있다. 상기 제1 합성 3D 모델을 생성하는 단계는 상기 기초 3D 모델의 색상에 관한 정보에 기초하여, 상기 제1 합성 3D 모델의 색상에 관한 정보를 생성하는 단계를 포함할 수 있다.
본 개시의 일 실시예에 따른 상기 합성 3D 모델은 포인트 클라우드 모델, 폴리곤 메시 모델, 삼각형 메시 모델, NURBS(Non-Uniform Rational B-spline) 모델 또는 스컬핑(Sculpting) 모델 중 적어도 하나를 포함할 수 있다.
본 개시의 일 양태에 따라서, 전술한 방법을 수행하도록 하는 프로그램이 저장된 하나 이상의 컴퓨터로 읽을 수 있는 기록매체가 제공된다.
본 개시의 일 양태에 따라서 3차원(3D) 모델을 생성하는 전자 장치가 제공된다. 전자 장치는 적어도 하나의 프로세서를 포함할 수 있다. 전자 장치는 적어도 하나의 인스트럭션을 저장하는 메모리를 포함할 수 있다. 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 적어도 하나의 객체 이미지에 기초하여, 객체에 대한 기초 3D 모델을 생성할 수 있다. 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 복수의 3D 모델이 저장된 3D 모델 데이터 베이스 중에서 상기 기초 3D 모델과 유사한 제1 타겟 3D 모델을 결정할 수 있다. 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 기초 3D 모델과 상기 제1 타겟 3D 모델에 기초하여, 제1 합성 3D 모델을 생성할 수 있다. 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 제1 합성 3D 모델과 상기 적어도 하나의 객체 이미지의 제1 유사도를 결정할 수 있다. 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 제1 유사도가 임계 값보다 작거나 같은 것에 기초하여, 상기 제1 합성 3D 모델과 상기 적어도 하나의 객체 이미지 사이에 유사도가 낮은 구성을 결정할 수 있다. 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 3D 모델 데이터 베이스 중에서 상기 유사도가 낮은 구성에 대하여 상기 제1 합성 3D 모델과 유사도가 높은 3D 모델을 제2 타겟 3D 모델로 결정할 수 있다. 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 제1 합성 3D 모델과 상기 제2 타겟 3D 모델에 기초하여, 제2 합성 3D 모델을 생성할 수 있다.
본 개시의 일 실시예에 따라서, 상기 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 적어도 하나의 객체 이미지를 이용하여, 상기 적어도 하나의 객체 이미지의 깊이 정보를 획득할 수 있다. 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 적어도 하나의 객체 이미지 및 상기 획득된 깊이 정보를 이용하여, 상기 객체의 적어도 일부에 관한 3차원 위치 정보를 포함하는 상기 기초 3D 모델을 생성할 수 있다.
본 개시의 일 실시예에 따라서, 상기 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 적어도 하나의 객체 이미지와 상기 복수의 3D 모델 사이의 제2 유사도를 결정할 수 있다. 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 복수의 3D 모델 중에서 상기 제2 유사도가 높은 3D 모델을 상기 제1 타겟 3D 모델로 결정할 수 있다.
본 개시의 일 실시예에 따라서, 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 타겟 3D 모델을 상기 기초 3D 모델에 대응되도록 변형을 수행할 수 있다. 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 기초 3D 모델과 상기 변형된 타겟 3D 모델을 병합할 수 있다.
본 개시의 일 실시예에 따라서, 상기 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 기초 3D 모델을 상기 객체에 대한 복수의 구성으로 분류할 수 있다.
본 개시의 일 실시예에 따라서, 상기 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 분류된 복수의 구성 각각에 대하여, 상기 제1 합성 3D 모델과 상기 적어도 하나의 객체 이미지 사이의 제3 유사도를 결정할 수 있다. 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 복수의 구성 중에서, 상기 제3 유사도가 소정의 값보다 작은 구성을 상기 유사도가 낮은 구성으로 결정할 수 있다.
본 개시의 일 실시예에 따라서, 상기 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 제1 합성 3D 모델을 렌더링할 수 있다. 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 렌더링된 제1 합성 3D 모델의 포즈를 상기 적어도 하나의 객체 이미지에 대응되도록 수정할 수 있다. 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 수정된 렌더링된 제1 합성 3D 모델과 상기 적어도 하나의 객체 이미지 사이의 제1 유사도를 결정할 수 있다.
본 개시의 일 실시예에 따라서, 상기 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 적어도 하나의 객체 이미지에 기초하여, 상기 객체의 종류를 식별할 수 있다. 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 3D 모델 데이터 베이스는 상기 객체의 종류에 관한 3D 모델을 포함할 수 있다.
본 개시의 일 실시예에 따라, 상기 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 기초 3D 모델의 위치에 관한 정보 및 상기 제1 타겟 3D 모델의 위치에 관한 정보에 기초하여, 상기 제1 합성 3D 모델의 위치에 관한 정보를 생성할 수 있다. 적어도 하나의 프로세서가 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 기초 3D 모델의 색상에 관한 정보에 기초하여, 상기 제1 합성 3D 모델의 색상에 관한 정보를 생성할 수 있다.

Claims (15)

  1. 3차원(3D) 모델을 생성하는 방법에 있어서,
    적어도 하나의 객체 이미지에 기초하여, 객체에 대한 기초 3D 모델을 생성하는 단계(1410);
    복수의 3D 모델이 저장된 3D 모델 데이터 베이스 중에서 상기 기초 3D 모델과 유사한 제1 타겟 3D 모델을 결정하는 단계(1420);
    상기 기초 3D 모델과 상기 제1 타겟 3D 모델에 기초하여, 제1 합성 3D 모델을 생성하는 단계(1430);
    상기 제1 합성 3D 모델과 상기 적어도 하나의 객체 이미지의 제1 유사도를 결정하는 단계(1440);
    상기 제1 유사도가 임계 값보다 작거나 같은 것에 기초하여, 상기 제1 합성 3D 모델과 상기 적어도 하나의 객체 이미지 사이에 유사도가 낮은 구성을 결정하는 단계(1450);
    상기 3D 모델 데이터 베이스 중에서 상기 유사도가 낮은 구성에 대하여 상기 제1 합성 3D 모델과 유사도가 높은 3D 모델을 제2 타겟 3D 모델로 결정하는 단계(1460); 및
    상기 제1 합성 3D 모델과 상기 제2 타겟 3D 모델에 기초하여, 제2 합성 3D 모델을 생성하는 단계(1470)를 포함하는, 3차원 모델 생성 방법.
  2. 제1항에 있어서,
    상기 기초 3D 모델을 생성하는 단계는,
    상기 적어도 하나의 객체 이미지를 이용하여, 상기 적어도 하나의 객체 이미지의 깊이 정보를 획득하는 단계; 및
    상기 적어도 하나의 객체 이미지 및 상기 획득된 깊이 정보를 이용하여, 상기 객체의 적어도 일부에 관한 3차원 위치 정보를 포함하는 상기 기초 3D 모델을 생성하는 단계를 포함하는, 3차원 모델 생성 방법.
  3. 제1항 내지 제2항 중 어느 한 항에 있어서,
    상기 제1 타겟 3D 모델을 결정하는 단계는,
    상기 기초 3D 모델과 상기 복수의 3D 모델 사이의 제2 유사도를 결정하는 단계; 및
    상기 복수의 3D 모델 중에서 상기 제2 유사도가 높은 3D 모델을 상기 제1 타겟 3D 모델로 결정하는 단계를 포함하는, 3차원 모델 생성 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 제1 합성 3D 모델을 생성하는 단계는,
    상기 타겟 3D 모델을 상기 기초 3D 모델에 대응되도록 변형을 수행하는 단계; 및
    상기 기초 3D 모델과 상기 변형된 타겟 3D 모델을 병합하는 단계를 포함하는, 3차원 모델 생성 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 기초 3D 모델을 상기 객체에 대한 복수의 구성으로 분류하는 단계를 더 포함하는, 3차원 모델 생성 방법.
  6. 제5항에 있어서,
    상기 유사도가 낮은 구성을 결정하는 단계는,
    상기 분류된 복수의 구성 각각에 대하여, 상기 제1 합성 3D 모델과 상기 적어도 하나의 객체 이미지 사이의 제3 유사도를 결정하는 단계; 및
    상기 복수의 구성 중에서, 상기 제3 유사도가 소정의 값보다 작은 구성을 상기 유사도가 낮은 구성으로 결정하는 단계를 포함하는, 3차원 모델 생성 방법.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서,
    상기 제1 유사도를 결정하는 단계는,
    상기 제1 합성 3D 모델을 렌더링하는 단계;
    상기 렌더링된 제1 합성 3D 모델의 포즈를 상기 적어도 하나의 객체 이미지에 대응되도록 수정하는 단계; 및
    상기 수정된 렌더링된 제1 합성 3D 모델과 상기 적어도 하나의 객체 이미지 사이의 제1 유사도를 결정하는 단계를 포함하는, 3차원 모델 생성 방법.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서,
    상기 적어도 하나의 객체 이미지에 기초하여, 상기 객체의 종류를 식별하는 단계를 더 포함하고,
    상기 3D 모델 데이터 베이스는 상기 객체의 종류에 관한 3D 모델을 포함하는 것을 특징으로 하는, 3차원 모델 생성 방법.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서,
    상기 제1 합성 3D 모델을 생성하는 단계는,
    상기 기초 3D 모델의 위치에 관한 정보 및 상기 제1 타겟 3D 모델의 위치에 관한 정보에 기초하여, 상기 제1 합성 3D 모델의 위치에 관한 정보를 생성하는 단계; 및
    상기 기초 3D 모델의 색상에 관한 정보에 기초하여, 상기 제1 합성 3D 모델의 색상에 관한 정보를 생성하는 단계를 포함하는, 3차원 모델 생성 방법.
  10. 제1항 내지 제9항 중 어느 한 항에 있어서,
    상기 합성 3D 모델은 포인트 클라우드 모델, 폴리곤 메시 모델, 삼각형 메시 모델, NURBS(Non-Uniform Rational B-spline) 모델 또는 스컬핑(Sculpting) 모델 중 적어도 하나를 포함하는, 3차원 모델 생성 방법.
  11. 3차원(3D) 모델을 생성하는 전자 장치에 있어서,
    적어도 하나의 프로세서(1520); 및
    적어도 하나의 인스트럭션을 저장하는 메모리(1510)를 포함하고,
    상기 적어도 하나의 프로세서(1520)가 상기 적어도 하나의 인스트럭션을 실행함으로써,
    적어도 하나의 객체 이미지에 기초하여, 객체에 대한 기초 3D 모델을 생성하고,
    복수의 3D 모델이 저장된 3D 모델 데이터 베이스 중에서 상기 기초 3D 모델과 유사한 제1 타겟 3D 모델을 결정하고,
    상기 기초 3D 모델과 상기 제1 타겟 3D 모델에 기초하여, 제1 합성 3D 모델을 생성하고,
    상기 제1 합성 3D 모델과 상기 적어도 하나의 객체 이미지의 제1 유사도를 결정하고,
    상기 제1 유사도가 임계 값보다 작거나 같은 것에 기초하여, 상기 제1 합성 3D 모델과 상기 적어도 하나의 객체 이미지 사이에 유사도가 낮은 구성을 결정하고,
    상기 3D 모델 데이터 베이스 중에서 상기 유사도가 낮은 구성에 대하여 상기 제1 합성 3D 모델과 유사도가 높은 3D 모델을 제2 타겟 3D 모델로 결정하고,
    상기 제1 합성 3D 모델과 상기 제2 타겟 3D 모델에 기초하여, 제2 합성 3D 모델을 생성하는, 전자 장치.
  12. 제11항에 있어서,
    상기 적어도 하나의 프로세서(1520)가 상기 적어도 하나의 인스트럭션을 실행함으로써,
    상기 적어도 하나의 객체 이미지를 이용하여, 상기 적어도 하나의 객체 이미지의 깊이 정보를 획득하고,
    상기 적어도 하나의 객체 이미지 및 상기 획득된 깊이 정보를 이용하여, 상기 객체의 적어도 일부에 관한 3차원 위치 정보를 포함하는 상기 기초 3D 모델을 생성하는, 전자 장치.
  13. 제11항 내지 제12항 중 어느 한 항에 있어서,
    상기 적어도 하나의 프로세서(1520)가 상기 적어도 하나의 인스트럭션을 실행함으로써,
    상기 적어도 하나의 객체 이미지와 상기 복수의 3D 모델 사이의 제2 유사도를 결정하고,
    상기 복수의 3D 모델 중에서 상기 제2 유사도가 높은 3D 모델을 상기 제1 타겟 3D 모델로 결정하는, 전자 장치.
  14. 제11항 내지 제13항 중 어느 한 항에 있어서,
    상기 적어도 하나의 프로세서(1520)가 상기 적어도 하나의 인스트럭션을 실행함으로써,
    상기 타겟 3D 모델을 상기 기초 3D 모델에 대응되도록 변형을 수행하고,
    상기 기초 3D 모델과 상기 변형된 타겟 3D 모델을 병합하는, 전자 장치.
  15. 제1항 내지 제10항 중 어느 한 항의 방법을 수행하도록 하는 프로그램이 저장된 하나 이상의 컴퓨터로 읽을 수 있는 기록매체.
PCT/KR2023/012359 2022-10-07 2023-08-21 3차원(3d) 모델을 생성하는 방법 및 전자 장치 WO2024075972A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/454,402 US20240119666A1 (en) 2022-10-07 2023-08-23 Method and electronic device for generating three-dimensional (3d) model

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2022-0129036 2022-10-07
KR20220129036 2022-10-07
KR1020220183216A KR20240049102A (ko) 2022-10-07 2022-12-23 3차원(3d) 모델을 생성하는 방법 및 전자 장치
KR10-2022-0183216 2022-12-23

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/454,402 Continuation US20240119666A1 (en) 2022-10-07 2023-08-23 Method and electronic device for generating three-dimensional (3d) model

Publications (1)

Publication Number Publication Date
WO2024075972A1 true WO2024075972A1 (ko) 2024-04-11

Family

ID=90608565

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/012359 WO2024075972A1 (ko) 2022-10-07 2023-08-21 3차원(3d) 모델을 생성하는 방법 및 전자 장치

Country Status (1)

Country Link
WO (1) WO2024075972A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101906431B1 (ko) * 2017-07-20 2018-10-11 네이버랩스 주식회사 2d 이미지 인식에 기반한 3d 모델링 방법 및 그 시스템
KR20190112428A (ko) * 2018-03-26 2019-10-07 한국전자통신연구원 통합 3d 객체모델 생성 및 의미론적 스타일전이 장치 및 방법
KR20200056905A (ko) * 2018-11-15 2020-05-25 삼성전자주식회사 3d 모델 정렬 방법 및 장치
KR20210078813A (ko) * 2019-12-19 2021-06-29 엘지전자 주식회사 이미지를 합성하는 인공 지능 장치 및 그 방법
KR20220024517A (ko) * 2019-06-17 2022-03-03 아리엘 에이아이, 인크. 2차원 이미지들로부터의 3차원의 장면 재구성

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101906431B1 (ko) * 2017-07-20 2018-10-11 네이버랩스 주식회사 2d 이미지 인식에 기반한 3d 모델링 방법 및 그 시스템
KR20190112428A (ko) * 2018-03-26 2019-10-07 한국전자통신연구원 통합 3d 객체모델 생성 및 의미론적 스타일전이 장치 및 방법
KR20200056905A (ko) * 2018-11-15 2020-05-25 삼성전자주식회사 3d 모델 정렬 방법 및 장치
KR20220024517A (ko) * 2019-06-17 2022-03-03 아리엘 에이아이, 인크. 2차원 이미지들로부터의 3차원의 장면 재구성
KR20210078813A (ko) * 2019-12-19 2021-06-29 엘지전자 주식회사 이미지를 합성하는 인공 지능 장치 및 그 방법

Similar Documents

Publication Publication Date Title
WO2020032354A1 (en) Method, storage medium and apparatus for converting 2d picture set to 3d model
EP3908943A1 (en) Method, apparatus, electronic device and computer readable storage medium for image searching
WO2022019670A1 (ko) 이미지 데이터베이스 분석 기반 상품 추천 장치 및 방법
WO2020096403A1 (en) Textured neural avatars
WO2020242170A1 (en) Electronic device and controlling method thereof
Kawai et al. Diminished reality based on image inpainting considering background geometry
WO2020096368A1 (en) Image resynthesis using forward warping, gap discriminators, and coordinate-based inpainting
US20200051298A1 (en) Virtual make-up apparatus and virtual make-up method
WO2016110007A1 (zh) 基于三维点云的三维人脸识别装置和方法
CN111971713A (zh) 使用图像和时间跟踪神经网络进行的3d面部捕获和修改
WO2018040099A1 (zh) 一种基于灰度和深度信息的三维人脸重建方法
WO2015188685A1 (zh) 基于深度相机的人体模型获取方法及网络虚拟试衣系统
US20130113789A1 (en) Information processing apparatus, display control method, and program
WO2014079327A1 (zh) 信息推送方法和系统、数字电视接收终端及计算机存储介质
WO2019000462A1 (zh) 人脸图像处理方法、装置、存储介质及电子设备
WO2020019671A1 (zh) 一种乳腺肿块检测与分类系统、计算机可读存储介质
US11159717B2 (en) Systems and methods for real time screen display coordinate and shape detection
WO2021133053A1 (ko) 전자 장치 및 그의 제어 방법
WO2021006622A1 (en) Electronic apparatus and controlling method thereof
WO2024075972A1 (ko) 3차원(3d) 모델을 생성하는 방법 및 전자 장치
WO2019190142A1 (en) Method and device for processing image
EP3707678A1 (en) Method and device for processing image
WO2021034006A1 (en) Method and apparatus for rigging 3d scanned human models
WO2021221394A1 (ko) 이미지 증강을 위한 방법 및 전자 장치
KR100602739B1 (ko) 재귀적 제어선 정합을 이용한 반자동 필드 기반 영상 변형방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23875042

Country of ref document: EP

Kind code of ref document: A1