KR102674699B1 - Deep learning-based 3D modeling object visualization apparatus and method - Google Patents
Deep learning-based 3D modeling object visualization apparatus and method Download PDFInfo
- Publication number
- KR102674699B1 KR102674699B1 KR1020210179458A KR20210179458A KR102674699B1 KR 102674699 B1 KR102674699 B1 KR 102674699B1 KR 1020210179458 A KR1020210179458 A KR 1020210179458A KR 20210179458 A KR20210179458 A KR 20210179458A KR 102674699 B1 KR102674699 B1 KR 102674699B1
- Authority
- KR
- South Korea
- Prior art keywords
- modeling object
- detailed
- modeling
- light
- deep learning
- Prior art date
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 50
- 238000012800 visualization Methods 0.000 title claims abstract description 26
- 238000000034 method Methods 0.000 title abstract description 10
- 238000009877 rendering Methods 0.000 claims abstract description 13
- 230000002950 deficient Effects 0.000 claims description 11
- 238000007794 visualization technique Methods 0.000 claims description 7
- 238000013506 data mapping Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 7
- 239000000463 material Substances 0.000 description 7
- 230000007547 defect Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 239000002184 metal Substances 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 239000002023 wood Substances 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Image Generation (AREA)
Abstract
딥러닝 기반 3D 모델링 객체 가시화 장치 및 방법이 제공된다. 설정부는 3D 모델링 객체를 3D 배경 공간에 배치하고, 3D 배경 공간의 빛 속성을 설정하고, 딥러닝 학습부는 3D 모델링 객체의 메타데이터와 3D 배경 공간의 빛 속성을 딥러닝 알고리즘에 적용하여 빛 속성에 따라 폴리곤 및 텍스처를 자동으로 조절하는 추론 모델을 생성하고, 렌더링부는 생성된 추론 모델에 의해 추론되는 폴리곤 및 텍스처가 적용된 3D 모델링 객체를 렌더링하며, 가시화부는 렌더링된 3D 모델링 객체가 배치된 3D 배경 공간을 가시화할 수 있다.A deep learning-based 3D modeling object visualization device and method are provided. The setting unit places the 3D modeling object in the 3D background space and sets the light properties of the 3D background space, and the deep learning learning unit applies the metadata of the 3D modeling object and the light properties of the 3D background space to a deep learning algorithm to determine the light properties. It creates an inference model that automatically adjusts polygons and textures accordingly, the rendering unit renders 3D modeling objects with polygons and textures inferred by the generated inference model, and the visualization unit creates a 3D background space where the rendered 3D modeling objects are placed. can be visualized.
Description
본 발명은 딥러닝 기반 3D 모델링 객체 가시화 장치 및 방법에 관한 것으로서, 보다 상세하게는, 빛에 따라 3D 객체에 적용할 폴리곤과 텍스처를 자동으로 추론 및 적용하여 가시화할 수 있는 딥러닝 기반 3D 모델링 객체 가시화 장치 및 방법에 관한 것이다.The present invention relates to a deep learning-based 3D modeling object visualization device and method. More specifically, a deep learning-based 3D modeling object that can be visualized by automatically inferring and applying polygons and textures to be applied to 3D objects according to light. It relates to a visualization device and method.
최근 가상현실 또는 증강현실을 이용한 다양한 응용분야가 각광받으면서 빠르면서 정확한 3D 모델 생성이 요구되고 있다. Recently, as various application fields using virtual reality or augmented reality have been in the spotlight, fast and accurate 3D model creation is required.
일반적으로 3D 가상객체를 제작하기 위해서는 작업자가 물리적 객체의 재질, 색상, 크기 등 다양한 속성을 분석하고, 3D 가상객체를 개별적으로 그리고 수동으로 모델링한다. 이 때 작업자는 모델링을 위해 물리적 객체의 재질, 색상, 크기 등을 고려하여 폴리곤과 텍스처를 추가로 제작해야 한다. 따라서, 기존 방식으로 3D 가상객체를 제작하는 경우 많은 시간과 비용을 필요로 한다. Typically, to create a 3D virtual object, workers analyze various properties of the physical object, such as material, color, and size, and model the 3D virtual object individually and manually. At this time, the operator must create additional polygons and textures for modeling, taking into account the material, color, and size of the physical object. Therefore, producing 3D virtual objects using existing methods requires a lot of time and money.
또한, 폴리곤은 형태를 구성하는 점(Vertex), 선(Edge), 면(Polygon)의 집합으로 구성된 다면체이며, 매우 직관적으로 구성되어 있다. 하지만, 곡선의 표현이 부족하기 때문에 계단 현상(Aliasing)이 발생하여 폴리곤으로 곡선을 표현하려면 폴리곤의 개수를 늘려야 하므로 높은 하드웨어(그래픽 카드) 성능을 요구하게 된다. 특히, 폴리곤의 집합체인 메시(Mesh) 생성 시 하드웨어의 제약과 디자인 컨셉에 따라 최적화를 고려한 모델링 작업을 해야 한다.In addition, a polygon is a polyhedron composed of a set of points (vertex), lines (edge), and faces (polygon) that make up the shape, and is structured very intuitively. However, because the expression of curves is insufficient, aliasing occurs, and to express curves with polygons, the number of polygons must be increased, which requires high hardware (graphics card) performance. In particular, when creating a mesh, which is a collection of polygons, modeling work must be done considering optimization according to hardware constraints and design concepts.
전술한 문제점을 해결하기 위하여 본 발명이 이루고자 하는 기술적 과제는, 빛에 따라 3D 객체에 적용할 폴리곤과 텍스처를 자동으로 추론 및 적용하여 가시화할 수 있는 딥러닝 기반 3D 모델링 객체 가시화 장치 및 방법을 제시하는 데 있다.In order to solve the above-mentioned problems, the technical problem to be achieved by the present invention is to present a deep learning-based 3D modeling object visualization device and method that can automatically infer and apply polygons and textures to be applied to 3D objects according to light and visualize them. There is something to do.
본 발명의 해결과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.
전술한 기술적 과제를 해결하기 위한 수단으로서, 본 발명의 실시 예에 따르면, 딥러닝 기반 3D 모델링 객체 가시화 장치는, 3D 모델링 객체를 3D 배경 공간에 배치하고, 상기 3D 배경 공간의 빛 속성을 설정하는 설정부; 상기 3D 모델링 객체의 메타데이터와 상기 3D 배경 공간의 빛 속성을 딥러닝 알고리즘에 적용하여 빛 속성에 따라 폴리곤 및 텍스처를 자동으로 조절하는 추론 모델을 생성하는 딥러닝 학습부; 상기 생성된 추론 모델에 의해 추론되는 폴리곤 및 텍스처가 적용된 3D 모델링 객체를 렌더링하는 렌더링부; 및 상기 렌더링된 3D 모델링 객체가 배치된 3D 배경 공간을 가시화하는 가시화부;를 포함할 수 있다.As a means to solve the above-described technical problem, according to an embodiment of the present invention, a deep learning-based 3D modeling object visualization device places a 3D modeling object in a 3D background space and sets light properties of the 3D background space. Setting section; A deep learning learning unit that generates an inference model that automatically adjusts polygons and textures according to light properties by applying metadata of the 3D modeling object and light properties of the 3D background space to a deep learning algorithm; A rendering unit that renders a 3D modeling object to which polygons and textures inferred by the generated inference model are applied; and a visualization unit that visualizes a 3D background space where the rendered 3D modeling object is placed.
상기 딥러닝 학습부는, 상기 3D 모델링 객체를 다수의 세부 객체로 분류하는 분류부; 상기 분류부에서 분류된 각 세부 객체의 메타데이터와 상기 3D 배경 공간의 빛 속성을 포함하는 배경데이터를 상기 딥러닝 알고리즘 기반으로 학습하여 각 세부 객체 별로 추론 모델을 생성하는 추론 모델 생성부; 및 각 세부 객체 별로 생성되는 추론 모델을 이용하여, 빛 속성에 따라 세부 객체 별로 적용할 폴리곤 및 텍스처 정보를 추론 및 적용하는 적용부;를 포함할 수 있다.The deep learning learning unit includes a classification unit that classifies the 3D modeling object into a plurality of detailed objects; an inference model generator for generating an inference model for each detailed object by learning background data including metadata of each detailed object classified by the classification unit and light properties of the 3D background space based on the deep learning algorithm; and an application unit that infers and applies polygon and texture information to be applied to each detailed object according to light properties, using an inference model generated for each detailed object.
상기 분류부는, 상기 다수의 세부 객체들의 오류 여부를 판단하여 정상 객체와 결함 객체로 구분하고, 상기 추론 모델 생성부는, 상기 3D 모델링 객체에 결함 객체가 불포함된 경우, 추론 모델을 생성할 수 있다.The classification unit determines whether there are errors in the plurality of detailed objects and classifies them into normal objects and defective objects, and the inference model creation unit may generate an inference model when the 3D modeling object does not include a defective object.
상기 적용부는, 상기 세부 객체 별로 생성되는 추론 모델을 이용하여, 현재 설정된 빛 속성에 따라 폴리곤의 텐션값과 개수, 텍스처를 추론 및 적용할 수 있다.The application unit may infer and apply the tension value, number, and texture of the polygon according to the currently set light properties, using the inference model generated for each detailed object.
상기 설정부는, 상기 3D 배경 공간에 적용할 빛의 세기, 굵기 및 색온도 중 적어도 하나를 포함하는 빛 속성을 설정할 수 있다.The setting unit may set light properties including at least one of light intensity, thickness, and color temperature to be applied to the 3D background space.
상기 3D 모델링 객체의 메타데이터는 질감, 크기 및 세부 속성 정보를 포함하고, 상기 세부 속성 정보는, 빛의 세기, 빛의 굵기, 빛의 방향 및 빛의 색온도에 따라 3D 모델링 객체의 세부 객체 별로 적용할 폴리곤의 텐션과 개수, 텍스처 정보를 매핑한 데이터이다.The metadata of the 3D modeling object includes texture, size, and detailed attribute information, and the detailed attribute information is applied to each detailed object of the 3D modeling object according to the intensity of light, thickness of light, direction of light, and color temperature of light. This is data that maps the tension, number, and texture information of the polygons to be processed.
한편, 본 발명의 다른 실시 예에 따르면, 딥러닝 기반 3D 모델링 객체 가시화 방법은, (A) 전자장치가, 3D 모델링 객체를 3D 배경 공간에 배치하고, 상기 3D 배경 공간의 빛 속성을 설정하는 단계; (B) 상기 전자장치가, 상기 3D 모델링 객체의 메타데이터와 상기 3D 배경 공간의 빛 속성을 딥러닝 알고리즘에 적용하여 빛 속성에 따라 폴리곤 및 텍스처를 자동으로 조절하는 추론 모델을 생성하는 단계; (C) 상기 전자장치가, 상기 생성된 추론 모델에 의해 추론되는 폴리곤 및 텍스처가 적용된 3D 모델링 객체를 렌더링하는 단계; 및 (D) 상기 전자장치가, 상기 렌더링된 3D 모델링 객체가 배치된 3D 배경 공간을 가시화하는 단계;를 포함할 수 있다.Meanwhile, according to another embodiment of the present invention, a deep learning-based 3D modeling object visualization method includes the steps of: (A) an electronic device, placing a 3D modeling object in a 3D background space and setting light properties of the 3D background space; ; (B) generating, by the electronic device, an inference model that automatically adjusts polygons and textures according to light properties by applying metadata of the 3D modeling object and light properties of the 3D background space to a deep learning algorithm; (C) rendering, by the electronic device, a 3D modeling object to which polygons and textures inferred by the generated inference model are applied; and (D) visualizing, by the electronic device, a 3D background space where the rendered 3D modeling object is placed.
상기 (B) 단계는, (B1) 상기 3D 모델링 객체를 다수의 세부 객체로 분류하는 단계; (B2) 상기 (B1)단계에서 분류된 각 세부 객체의 메타데이터와 상기 3D 배경 공간의 빛 속성을 포함하는 배경데이터를 상기 딥러닝 알고리즘 기반으로 학습하여 각 세부 객체 별로 추론 모델을 생성하는 단계; 및 (B3) 상기 (B2) 단계에서 각 세부 객체 별로 생성되는 추론 모델을 이용하여, 빛 속성에 따라 세부 객체 별로 적용할 폴리곤 및 텍스처 정보를 추론 및 적용하는 단계;를 포함할 수 있다.Step (B) includes: (B1) classifying the 3D modeling object into a plurality of detailed objects; (B2) generating an inference model for each detailed object by learning background data including metadata of each detailed object classified in step (B1) and light properties of the 3D background space based on the deep learning algorithm; And (B3) using the inference model generated for each detailed object in step (B2), inferring and applying polygon and texture information to be applied to each detailed object according to light properties.
상기 (B1) 단계는, 상기 다수의 세부 객체들의 오류 여부를 판단하여 정상 객체와 결함 객체로 구분하고, 상기 (B2) 단계는, 상기 3D 모델링 객체에 결함 객체가 불포함된 경우, 추론 모델을 생성할 수 있다.In the step (B1), the plurality of detailed objects are judged to have errors and are classified into normal objects and defective objects, and in the step (B2), when the 3D modeling object does not include a defective object, an inference model is generated. can do.
상기 (A) 단계는, 상기 3D 배경 공간에 적용할 빛의 세기, 굵기 및 색온도 중 적어도 하나를 포함하는 빛 속성을 설정할 수 있다.In step (A), light properties including at least one of light intensity, thickness, and color temperature to be applied to the 3D background space may be set.
본 발명에 따르면, 3D 모델링 객체의 폴리곤과 텍스처 정보를 빛의 속성에 따라 자동으로 추론함으로써, 사용자는 3D 모델링 객체를 빛 속성이 변경될 때마다 폴리곤의 텐션 또는 개수와 텍스처를 수동으로 선택하는 번거로움을 해소할 수 있다. According to the present invention, by automatically inferring the polygon and texture information of a 3D modeling object according to the light properties, the user avoids the inconvenience of manually selecting the tension or number of polygons and the texture of the 3D modeling object every time the light property changes. The feeling can be relieved.
본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.
도 1은 본 발명의 실시 예에 따른 딥러닝 기반 3D 모델링 객체 가시화 장치(100)를 도시한 블록도,
도 2는 3D 모델링 객체를 딥러닝 학습하여 렌더링하는 일련의 동작을 보여주는 개념도,
도 3은 도 1에 도시된 프로세서(150)를 기능적으로 도시한 블록도,
도 4는 3D 모델링 객체의 메시를 설명하기 위한 예시도, 그리고,
도 5는 본 발명의 실시 예에 따른 딥러닝 기반 3D 모델링 객체 가시화 방법을 개략적으로 도시한 흐름도이다.1 is a block diagram showing a deep learning-based 3D modeling
Figure 2 is a conceptual diagram showing a series of operations for rendering 3D modeling objects by learning deep learning.
Figure 3 is a block diagram functionally showing the
Figure 4 is an example diagram for explaining the mesh of a 3D modeling object, and
Figure 5 is a flowchart schematically showing a deep learning-based 3D modeling object visualization method according to an embodiment of the present invention.
이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시 예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시 예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시 예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.The above objects, other objects, features and advantages of the present invention will be easily understood through the following preferred embodiments related to the attached drawings. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosed content will be thorough and complete and so that the spirit of the present invention can be sufficiently conveyed to those skilled in the art.
어떤 경우에는, 발명을 기술하는 데 있어서 흔히 알려졌으면서 발명과 크게 관련 없는 부분들은 본 발명을 설명하는 데 있어 별 이유 없이 혼돈이 오는 것을 막기 위해 기술하지 않음을 미리 언급해 둔다.In some cases, it is mentioned in advance that when describing the invention, parts that are commonly known but are not significantly related to the invention are not described in order to prevent confusion without any reason in explaining the invention.
본 명세서에서 제1구성요소가 제2구성요소 상(ON)에서 동작 또는 실행된다고 언급될 때, 제1구성요소는 제2구성요소가 동작 또는 실행되는 환경에서 동작 또는 실행되거나 또는 제2구성요소와 직접 또는 간접적으로 상호 작용을 통해서 동작 또는 실행되는 것으로 이해되어야 할 것이다.In this specification, when it is mentioned that a first component is operating or executing on a second component (ON), the first component is operating or executing in an environment in which the second component is operating or executing, or is operating or executing on the second component. It should be understood as operating or executing through direct or indirect interaction with.
어떤 구성요소, 장치, 또는 시스템이 프로그램 또는 소프트웨어로 이루어진 구성요소를 포함한다고 언급되는 경우, 명시적인 언급이 없더라도, 그 구성요소, 장치, 또는 시스템은 그 프로그램 또는 소프트웨어가 실행 또는 동작하는데 필요한 하드웨어(예를 들면, 메모리, CPU 등)나 다른 프로그램 또는 소프트웨어(예를 들면 운영체제나 하드웨어를 구동하는데 필요한 드라이버 등)를 포함하는 것으로 이해되어야 할 것이다.When a component, device, or system is said to contain a component consisting of a program or software, even if explicitly stated, that component, device, or system refers to the hardware (hardware) necessary for the program or software to run or operate. For example, memory, CPU, etc.) or other programs or software (for example, drivers necessary to run an operating system or hardware, etc.).
또한, 어떤 구성요소가 구현됨에 있어서 특별한 언급이 없다면, 그 구성요소는 소프트웨어, 하드웨어, 또는 소프트웨어 및 하드웨어 어떤 형태로도 구현될 수 있는 것으로 이해되어야 할 것이다.Additionally, unless otherwise specified, it should be understood that the component may be implemented in any form of software, hardware, or both software and hardware.
또한, 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.Additionally, the terms used in this specification are for describing embodiments and are not intended to limit the present invention. As used herein, singular forms also include plural forms, unless specifically stated otherwise in the context. As used in the specification, 'comprises' and/or 'comprising' does not exclude the presence or addition of one or more other elements.
또한, 본 명세서에서 '부', '장치' 등의 용어는 하드웨어 및 해당 하드웨어에 의해 구동되거나 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 지칭하는 것으로 의도될 수 있다. 예를 들어, 여기서 하드웨어는 CPU 또는 다른 프로세서(processor)를 포함하는 데이터 처리 기기일 수 있다. 또한, 하드웨어에 의해 구동되는 소프트웨어는 실행중인 프로세스, 객체(object), 실행파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다.Additionally, in this specification, terms such as 'unit' and 'device' may be intended to refer to the functional and structural combination of hardware and software driven by or for driving the hardware. For example, the hardware here may be a data processing device including a CPU or other processor. Additionally, software driven by hardware may refer to a running process, object, executable, thread of execution, program, etc.
또한, 상기 용어들은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것이 아님은 본 발명의 기술분야의 평균적 전문가에게는 용이하게 추론될 수 있다.In addition, the above terms may mean a logical unit of hardware resources for executing a predetermined code and the predetermined code, and do not necessarily mean a physically connected code or one type of hardware. It can be easily inferred by an average expert in the technical field.
이하, 본 발명에서 실시하고자 하는 구체적인 기술내용에 대해 첨부도면을 참조하여 상세하게 설명하기로 한다.Hereinafter, specific technical details to be implemented in the present invention will be described in detail with reference to the accompanying drawings.
도 1 및 도 2에 도시된 각각의 구성은 기능 및 논리적으로 분리될 수도 있음을 나타내는 것이며, 반드시 각각의 구성이 별도의 물리적 장치로 구분되거나 별도의 코드로 작성됨을 의미하는 것은 아님을 본 발명의 기술분야의 평균적 전문가는 용이하게 추론할 수 있을 것이다.Each configuration shown in FIGS. 1 and 2 indicates that it may be functionally and logically separated, and does not necessarily mean that each configuration is divided into a separate physical device or written in a separate code. The average expert in the technical field will be able to infer easily.
도 1은 본 발명의 실시 예에 따른 딥러닝 기반 3D 모델링 객체 가시화 장치(100)를 도시한 블록도이고, 도 2는 3D 모델링 객체를 딥러닝 학습하여 렌더링하는 일련의 동작을 보여주는 개념도이다. Figure 1 is a block diagram showing a deep learning-based 3D modeling
도 1을 참조하면, 본 발명의 실시 예에 따른 딥러닝 기반 3D 모델링 객체 가시화 장치(100)는 사용자 인터페이스부(110), 표시부(120), 저장부(130), 메모리(140) 및 프로세서(150)를 포함할 수 있다.Referring to FIG. 1, the deep learning-based 3D modeling
사용자 인터페이스부(110)는 사용자와 딥러닝 기반 3D 모델링 객체 가시화 장치(100) 간의 인터페이싱 경로를 제공하며, 사용자로부터 명령을 입력받아 프로세서(150)로 전달할 수 있다. 예를 들어, 사용자 인터페이스부(110)는 사용자 명령에 따라, 3D로 가시화할 3D 모델링 객체를 선택하고, 3D 모델링 객체를 배치할 3D 배경 공간을 선택하여 프로세서(150)로 전달할 수 있다. 사용자 인터페이스부(110)는 마우스, 키보드, 터치패널 등을 예로 들 수 있다. The
표시부(120)는 사용자 인터페이스부(110)의 사용자 명령에 따른 프로세서(150)의 프로세싱 결과를 표시할 수 있다. 일 예로, 표시부(120)는 3D 모델링 객체가 배치된 3D 배경 공간, 3D 배경 공간에 배치할 3D 모델링 객체, 3D 배경 공간에 배치된 3D 가상화 객체를 표시할 수 있다. The
저장부(130)에는 3D 모델링 객체를 배치할 다수의 3D 배경 공간, 즉, 배경 이미지가 저장될 수 있다. 3D 배경 공간은 예를 들어 공원이거나, 고층 빌딩과 도로가 있는 도시이거나, 강변일 수 있으며, 이는 일 예로 이에 한정되지 않는다. The
또한, 저장부(130)에는 딥러닝 기반 3D 모델링 객체 가시화 장치(100)에서 딥러닝할 대상, 즉, 가상의 3D 모델링 객체와 3D 모델링 객체의 메타데이터가 다수의 배경데이터마다 저장될 수 있다. Additionally, the
보다 자세히는, 저장부(130)에는 3D 모델링 객체를 이루는 다수의 세부 객체들 별로 메타데이터가 저장될 수 있다. 예를 들어, 도 2에 도시된 3D 모델링 객체는 주택으로서, 지붕, 창문, 현관, 벽, 기둥 등 다수의 세부 객체들을 포함한다. 이러한 경우 저장부(130)에는 지붕, 창문, 현관, 벽, 기둥 등의 세부 객체 별로 메타데이터가 저장되되 다수의 배경데이터마다 매핑저장될 수 있다. More specifically, metadata may be stored in the
배경데이터는 3D 배경 공간에 적용할(또는, 설정할) 빛의 세기와 빛의 굵기를 기본 정보로서 포함하고, 빛의 방향들과 빛의 색온도들을 부가 정보로서 더 포함할 수도 있다. 배경데이터의 개수는 빛의 세기, 굵기, 방향 또는 색온도의 조합에 따라 조정가능하다.Background data includes the intensity and thickness of light to be applied (or set) to the 3D background space as basic information, and may further include directions of light and color temperatures of light as additional information. The number of background data can be adjusted according to the combination of light intensity, thickness, direction, or color temperature.
3D 모델링 객체의 메타데이터는 배경데이터에 따라 3D 모델링 객체의 세부 객체 별로 적용할 폴리곤의 텐션과 개수, 텍스처 정보를 매핑한 데이터로서, 3D 모델링 객체를 가시화하는데 필요한 속성 정보를 포함한다. The metadata of a 3D modeling object is data that maps the tension, number, and texture information of polygons to be applied to each detailed object of the 3D modeling object according to the background data, and includes attribute information necessary to visualize the 3D modeling object.
빛의 세기는 3D 모델링 객체를 배치할 3D 배경 공간에 설정되는 빛의 세기로서, 예를 들어 1~12단계로 정의될 수 있다. 숫자가 커질수록 빛은 밝아질 수 있다.The intensity of light is the intensity of light set in the 3D background space where the 3D modeling object is to be placed, and can be defined as levels 1 to 12, for example. The larger the number, the brighter the light can be.
빛의 굵기는 3D 배경 공간에 설정되는 빛의 굵기로서, 예를 들어, 1~10단계로 정의될 수 있다. 숫자가 커질수록 빛은 강해질 수 있다. The thickness of light is the thickness of light set in the 3D background space and can be defined, for example, in levels 1 to 10. The larger the number, the stronger the light can be.
빛의 방향은 빛의 입사 방향 또는 입사각으로서 일 예로, 0~360° 내에서 10° 단위 또는 30° 단위 등 사용자에 의해 지정된 단위로 설정될 수 있다. The direction of light is the incident direction or incident angle of light and can be set in units specified by the user, such as 10° or 30° units within 0 to 360°.
빛의 색온도는 빛의 색상을 나타내는 정보로서 전구색, 주광색, 주백색 등으로 정의될 수 있다. 빛의 색온도는 3D 배경 공간이 실내인지 또는 실외인지에 따라 다르게 설정될 수 있다. The color temperature of light is information representing the color of light and can be defined as bulb color, daylight color, daylight white, etc. The color temperature of light can be set differently depending on whether the 3D background space is indoors or outdoors.
폴리곤의 텐션은, 3D 모델링 객체를 이루는 각 세부 객체에 적용할 폴리곤의 크기이다. 폴리곤의 텐션은 동일한 세부 객체일지라도 빛의 세기, 굵기, 방향, 색온도에 따라 다른 값이 설정될 수 있다. 예를 들어, 3D 배경 공간에 설정된 빛의 세기와 굵기 중 적어도 하나가 약하여 어두운 경우, 빛이 20° 방향에서 입사한다면, 지붕의 저면은 세밀하게 표현되지 않아도 되므로 최대 세부 객체와 동일한 크기의 폴리곤을 사용하도록 설정될 수 있다. Polygon tension is the size of the polygon to be applied to each detailed object that makes up a 3D modeling object. Even for the same detailed object, the tension of a polygon can be set to different values depending on the intensity, thickness, direction, and color temperature of the light. For example, if at least one of the light intensity and thickness set in the 3D background space is weak and dark, and the light is incident from a 20° direction, the bottom of the roof does not need to be expressed in detail, so a polygon of the same size as the maximum detail object is used. Can be set to use.
폴리곤의 개수는 폴리곤의 텐션을 고려하여 각 서브 객체에 적용할 폴리곤 개수이다. The number of polygons is the number of polygons to be applied to each sub-object considering the tension of the polygon.
텍스처는 서브 객체의 폴리곤에 적용할 색상, 명도, 질감 정보 중 적어도 하나를 포함할 수 있다. 텍스처의 색상은 RGB가 0~255의 범위에서 설정되고, 명도는 0(검정)~10(흰색)의 범위 중 하나가 설정될 수 있다. 질감은 서브 객체의 소재 정보일 수 있다. 소재는 목재, 금속, 플라스틱, 돌, 유리 등 다양하다.The texture may include at least one of color, brightness, and texture information to be applied to the polygon of the sub-object. The color of the texture can be set in the RGB range of 0 to 255, and the brightness can be set in the range of 0 (black) to 10 (white). Texture may be material information of a sub-object. Materials vary, including wood, metal, plastic, stone, and glass.
[표 1]은 배경데이터 중 빛의 세기와 빛의 굵기가 1이고, 빛 방향이 45°인 경우, 각 세부 객체에 설정된 메타데이터의 일 예이다.[Table 1] is an example of metadata set for each detailed object when the light intensity and light thickness among the background data are 1 and the light direction is 45°.
명도: 7Color: (85, 20, 0)
Brightness: 7
명도: 8Color: (202, 0, 0)
Brightness: 8
[표 2]는 배경데이터 중 빛의 세기는 2, 빛의 굵기 1, 빛 방향이 90°인 경우, 각 세부 객체에 설정된 메타데이터의 일 예이다.[Table 2] is an example of metadata set for each detailed object when the light intensity is 2, the light thickness is 1, and the light direction is 90° among the background data.
(cm)size
(cm)
텐션polygon
tension
명도: 7Color: (100, 20, 0)
Brightness: 7
명도: 5Color: (20, 204, 255)
Brightness: 5
[표 1] 및 [표 2]를 참조하면, 동일한 세부 객체라도 빛의 세기, 굵기, 방향 등 배경데이터에 따라 폴리곤과 텍스처가 다르게 설정되는 것을 알 수 있다. 따라서, 세부 객체의 메타데이터는 배경데이터(빛의 세기, 굵기, 방향, 색온도 등)의 조합에 의해 생성되는 경우의 수에 따라 변경될 수 있다. Referring to [Table 1] and [Table 2], you can see that even for the same detailed object, polygons and textures are set differently depending on background data such as light intensity, thickness, and direction. Accordingly, the metadata of a detailed object may be changed depending on the number of cases generated by a combination of background data (light intensity, thickness, direction, color temperature, etc.).
메모리(140)는 휘발성 메모리 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(140)에는 예를 들어, 딥러닝 기반 3D 모델링 객체 가시화 장치(100)가 제공하는 동작, 기능 등을 구현 및/또는 제공하기 위하여, 구성요소들(110~150)에 관계된 명령 또는 데이터, 하나 이상의 프로그램 및/또는 소프트웨어, 운영체제 등이 저장될 수 있다.
메모리(140)에 저장되는 프로그램은 배경데이터의 디폴트값과 3D 모델링 객체의 메타데이터를 딥러닝하여 3D 모델링 객체의 폴리곤과 텍스처를 빛의 속성에 따라 자동으로 추론할 수 있는 추론 모델을 생성하는 머신러닝 알고리즘을 포함할 수 있다.The program stored in the
또한, 메모리(140)에는 추론 모델에 의해 생성되는 폴리곤과 텍스처를 이용하여 3D 모델링 객체를 렌더링 및 가시화하는 렌더링 프로그램이 저장될 수 있다.Additionally, the
프로세서(150)는 메모리(140)에 저장된 하나 이상의 프로그램을 실행하여 딥러닝 기반 3D 모델링 객체 가시화 장치(100)의 전반적인 동작을 제어한다. The
예를 들어, 프로세서(150)는 메모리(140)에 저장된 머신러닝 알고리즘을 실행하여 3D 모델링 객체의 폴리곤과 텍스처를 빛의 속성에 따라 자동으로 추론하는 추론 모델을 생성하고, 렌더링 프로그램을 실행하여 3D 모델링 객체를 렌더링한 후 3D 배경 공간에 배치하여 표시되도록 처리할 수 있다.For example, the
도 3은 도 1에 도시된 프로세서(150)를 기능적으로 도시한 블록도이다.FIG. 3 is a functional block diagram of the
도 3을 참조하면, 프로세서(150)는 설정부(152), 딥러닝 학습부(154), 렌더링부(156) 및 가시화부(158)를 포함할 수 있다.Referring to FIG. 3, the
설정부(152)는 사용자가 사용자 인터페이스부(110)를 조작하여 3D 모델링 객체와 3D 배경 공간을 선택하면, 선택된 3D 배경 공간 중 사용자가 지정한 위치에 3D 모델링 객체를 배치하고, 사용자에 의해 선택되는 3D 배경 공간에 적용할 빛 속성을 설정할 수 있다. When the user operates the
사용자가 3D 배경 공간의 빛 속성 설정을 요청하면, 설정부(152)는 설정가능한 빛의 세기와 굵기 범위, 빛의 방향, 색온도를 보여주는 설정 메뉴(미도시)를 생성하여 표시부(120)에 표시할 수 있다. 사용자는 설정 메뉴(미도시)를 통해 3D 배경 공간에 적용할 빛의 세기와 굵기를 필수적으로 선택하고, 빛의 방향과 색온도는 생략하거나 추가로 선택할 수 있다. 이는 메타데이터 중 폴리곤과 텍스처는 빛의 속성 중 빛의 세기와 굵기의 영향을 가장 많이 받기 때문이다. 설정부(152)는 3D 배경 공간에 설정된 빛 속성을 배경데이터의 디폴트로서 메모리(140)에 저장할 수 있다.When a user requests setting the light properties of a 3D background space, the
딥러닝 학습부(154)는 선택된 3D 모델링 객체의 메타데이터와 설정된 3D 배경 공간의 빛 속성(즉, 배경데이터)을 딥러닝 알고리즘에 적용 및 학습하여 빛 속성에 따라 폴리곤 및 텍스처를 자동으로 추론할 수 있는 추론 모델을 생성할 수 있다. The deep
딥러닝 학습부(154)는 분류부(154a), 추론 모델 생성부(154b) 및 적용부(154c)를 포함할 수 있다. The deep
분류부(154a)는 3D 모델링 객체를 다수의 세부 객체로 분류할 수 있다. 이 때, 분류부(154a)는 다수의 세부 객체들의 오류 여부를 판단하여 정상 객체와 결함 객체로 구분할 수 있다. The
자세히 설명하면, 분류부(154a)는 3D 모델링 객체를 이루는 각 세부 객체의 좌표를 추출하여 픽셀단위 이미지로 분할한 후 메모리(140)에 저장할 수 있다. 분류부(154a)는 3D 가상객체의 기하학적 분석기법 즉, 입력된 3D 모델링 객체의 분류(Classification), 구성 요소(Parsing/Segmentation), 서브 객체 간 상관 관계(Correspondence) 정보를 추출하는 과정을 거쳐 3D 모델링 객체를 세부 객체들로 세분화하여 분류 및 카테고리화(Categorize)할 수 있다. 3D 모델링 객체가 집인 경우 세부 객체는 지붕, 창문, 출입문, 벽, 바닥, 기둥, 계단 등을 포함할 수 있다. In detail, the
또한, 분류부(154a)는 이러한 분류 동작에서 세부 객체들을 결함이 없는 정상적인 구성 요소(정상 객체)와 결함이 있는 구성 요소(결함 객체)로 분리한 후, 결함의 종류에 따라 정렬하거나, 에지(edge)가 없는 세부 객체(또는 3D 모델링 객체)를 다른 카테고리에 할당하는 등 세부 객체들을 서로 다른 클래스에 할당할 수 있다. In addition, in this classification operation, the
예를 들어, 분류부(154a)는 집을 3D 모델링 객체로 모델링하는 작업에서 3D 집에 문제가 발생하지는 않았는지, 또는 3차원으로 모델링된 집의 일부가 부서졌거나, 누락되었는지를 확인하는 작업을 수행하여 Categorize를 진행할 수 있다. For example, in the task of modeling a house as a 3D modeling object, the
상술한 결함이 있는 3D 모델링 객체를 추출하는 동작은, 잘못 제작된 가상화 모델(즉, 3D 모델링 객체)이 머신러닝 알고리즘 학습/분석과정에서 메타데이터의 값이 잘못 해석될 수 있는 오류를 최소화하기 위함이다. 일 예로, 창문의 변(edge)이 하나 누락된 경우, 폴리곤의 색상은 창문과 연결된 다른 세부 객체로 연결되어 빛 퍼짐 현상이 발생하거나 세부 객체를 명확히 구분할 수 없게 된다.The operation of extracting 3D modeling objects with defects described above is to minimize errors in which incorrectly created virtualization models (i.e., 3D modeling objects) may cause metadata values to be misinterpreted during the machine learning algorithm learning/analysis process. am. For example, if one edge of a window is missing, the color of the polygon is connected to another detailed object connected to the window, resulting in light spreading or the detailed object being unable to be clearly distinguished.
분류부(154a)는 결함 객체가 없는 경우, 도 4와 같이 3D 모델링 객체의 메시(Mesh)를 하나의 클래스에 할당할 수 있다. 이를 통해 분류부(154a)는 3D 모델링 객체의 정점(Vertex), 폴리곤(Polygon) 및 변(Edge)등으로 이루어진 다수의 3D 세부 객체들의 분류 및 식별작업을 수행할 수 있다.If there is no defective object, the
추론 모델 생성부(154b)는 분류부(154a)에서 3D 모델링 객체에 결함 객체가 불포함된 경우, 추론 모델을 생성할 수 있다. The inference
추론 모델 생성부(154b)는 분류부(154a)에서 분류된 각 세부 객체의 메타데이터와 설정부(152)에서 설정된 3D 배경 공간의 빛 속성(즉, 배경데이터의 디폴트)와 3D 배경 공간에 있는 배경 객체(예를 들어, 공원의 나무, 가로등, 건물 등)를 딥러닝 알고리즘 기반으로 학습하여 각 세부 객체 별로 추론 모델을 생성할 수 있다. 배경 객체는 생략될 수도 있다.The inference
추론 모델은 이후 사용자가 빛 속성을 변경하면 변경된 빛 속성에 따라 3D 모델링 객체에 적용할 폴리곤의 텐션과 개수, 텍스처를 세부 객체 별로 자동으로 추론할 수 있는 AI 모델이다. 이는 동일한 빛 속성에서도 세부 객체의 재질, 세부 객체가 구비된 위치 등에 따라 세부 객체들에 적용될 폴리곤과 텍스처는 상이할 수 있기 때문이다. The inference model is an AI model that can automatically infer the tension, number, and texture of polygons to be applied to the 3D modeling object for each detailed object according to the changed light properties when the user changes the light properties. This is because even with the same light properties, the polygons and textures applied to the detailed objects may be different depending on the material of the detailed object, the location where the detailed object is located, etc.
또한, 추론 모델 생성부(154b)는 사용자가 3D 모델링 객체를 3D 배경 공간에 배치한 위치(X, Y, Z)를 레이블 정보로 이용하여 추론 모델을 생성하는 학습을 반복적으로 수행할 수 있다. 자세히 설명하면, 사용자는 추론 모델이 생성되면, 3D 모델링 객체의 메타데이터를 정정하거나, 3D 모델링 객체가 3D 배경 공간에 배치되는 위치를 변경한 후 다시 추론 모델을 생성하거나 또는 업데이트하도록 요청할 수 있다. Additionally, the
예를 들어, 표시부(120)에 가시화된 3D 가상화 객체의 추론 결과가, 사용자가 원한 결과와 다른 경우, 사용자는 3D 모델링 객체의 메타데이터를 정정한 후 3D 모델링 객체를 3D 배경 공간에 재배치할 수 있다. 분류부(154a)는 재배치된 3D 모델링 객체를 세부 객체로 분류하고, 오류 여부를 판단하며, 추론 모델 생성부(154b)는 재배치된 3D 모델링 객체의 위치를 레이블링한 후 추론 모델을 재생성하거나 업데이트할 수 있다. For example, if the inference result of the 3D virtualized object visualized on the
적용부(154c)는 각 세부 객체 별로 생성되는 추론 모델을 이용하여, 빛 속성에 따라 세부 객체 별로 적용할 폴리곤 및 텍스처 정보를 추론하여 세부 객체에 적용할 수 있다. 처음 추론 모델이 생성되면, 적용부(154c)는 설정부(152)에서 디폴트로 설정되는 빛 속성에 해당하는 폴리곤의 텐션과 개수, 텍스처를 세부 객체 별로 추론할 수 있다. The
또한, 추론 모델이 생성된 후 사용자가 3D 배경 공간에 적용할 빛 속성을 설정 메뉴(미도시)에서 변경하면, 설정부(152)는 빛 속성을 변경된 값으로 재설정하고, 적용부(154c)는 세부 객체 별로 생성된 추론 모델을 이용하여, 현재 설정된 빛 속성에 따라 폴리곤의 텐션값과 개수, 텍스처를 추론 및 적용할 수 있다. In addition, after the inference model is created, if the user changes the light properties to be applied to the 3D background space in the settings menu (not shown), the
렌더링부(156)는 적용부(154c)에서 추론 모델에 의해 추론된 폴리곤 및 텍스처가 적용된 각 세부 객체, 즉, 3D 모델링 객체를 렌더링하여 3D 가상화 객체를 생성할 수 있다. The
가시화부(158)는 생성된 3D 가상화 객체를 3D 배경 공간에 배치한 후 가시화처리하여 도2와 같이 표시부(120)에 표시할 수 있다.The
상술한 본 발명의 실시 예에 의하면, 딥러닝 알고리즘으로 3D 모델링 객체의 특성(메타데이터)을 추출 및 분류하고, 추론 모델을 생성하여 반복적인 학습을 통해 빛의 세기와 굵기에 맞게 폴리곤의 면을 부드럽게 만들 수 있는 메시의 텐션 값을 자동으로 생성하고, 폴리곤의 수를 자동으로 조절하며, 3D 모델링 객체의 속성에 맞는 색상과 질감의 텍스처로 자동 매핑하여 최적의 3D 가상화 객체로 렌더링할 수 있다. According to the above-described embodiment of the present invention, the characteristics (metadata) of 3D modeling objects are extracted and classified using a deep learning algorithm, an inference model is created, and the face of the polygon is adjusted according to the intensity and thickness of light through repeated learning. It automatically generates the tension value of the mesh that can be made soft, automatically adjusts the number of polygons, and automatically maps the color and texture to a texture that matches the properties of the 3D modeling object to render it as an optimal 3D virtualization object.
또한, 상술한 본 발명의 실시 예에 의하면, 사용자가 도 2에 도시된 3D 모델링 객체를 선택하여도 3D 배경 공간이 변경되면, 딥러닝 기반 3D 모델링 객체 가시화 장치(100)는 변경된 3D 배경 공간에서 3D 모델링 객체의 폴리곤과 텍스처를 빛 속성에 따라 추론하기 위한 추론 모델을 다시 생성할 수 있다. In addition, according to the above-described embodiment of the present invention, if the 3D background space changes even if the user selects the 3D modeling object shown in FIG. 2, the deep learning-based 3D modeling
도 5는 본 발명의 실시 예에 따른 딥러닝 기반 3D 모델링 객체 가시화 방법을 개략적으로 도시한 흐름도이다.Figure 5 is a flowchart schematically showing a deep learning-based 3D modeling object visualization method according to an embodiment of the present invention.
도 5에 도시된 딥러닝 기반 3D 모델링 객체 가시화 방법을 수행하는 전자장치는 도 1 내지 도 4를 참조하여 설명한 딥러닝 기반 3D 모델링 객체 가시화 장치(100)일 수 있다. 따라서, 딥러닝 기반 3D 모델링 객체 가시화 방법의 자세한 설명은 생략한다. The electronic device that performs the deep learning-based 3D modeling object visualization method shown in FIG. 5 may be the deep learning-based 3D modeling
도 5를 참조하면, 전자장치(100)는 사용자 인터페이스부(110)를 통해 선택되는 3D 모델링 객체를 3D 배경 공간에 배치하여 표시부(120)에 표시할 수 있다(S510).Referring to FIG. 5 , the
전자장치(100)는 사용자 인터페이스부(110)를 통해 설정 메뉴에서 선택되는 3D 배경 공간의 빛 속성을 배경데이터의 디폴트로서 설정할 수 있다(S520). 빛 속성은 3D 배경 공간에 적용할 빛의 세기와 굵기, 빛 방향, 색상(또는 색온도)를 포함할 수 있다. The
전자장치(100)는 S510단계에서 선택되는 3D 모델링 객체의 메타데이터를 저장부(130)에서 읽어와 3D 배경 공간의 빛 속성과 함께 메모리(140) 또는 별도의 저장매체(미도시)에 저장할 수 있다(S530).The
전자장치(100)는 S510단계에서 선택된 3D 모델링 객체를 다수의 세부 객체로 분류할 수 있다(S540).The
전자장치(100)는 S540단계에서 분류된 각 세부 객체의 메타데이터와 S520단계에서 설정된 3D 배경 공간의 빛 속성을 포함하는 배경데이터를 딥러닝 알고리즘 기반으로 학습하여 각 세부 객체 별로 추론 모델을 생성할 수 있다(S550, S560). The
전자장치(100)는 S560단계에서 각 세부 객체 별로 생성되는 추론 모델을 이용하여, 빛 속성에 따라 세부 객체 별로 적용할 폴리곤의 텐션값과 개수, 그리고 텍스처 정보를 추론한 후 추론된 폴리곤 및 텍스처를 해당하는 세부 객체에 적용할 수 있다(S570).The
전자장치(100)는 S570단계에서 추론된 폴리곤 및 텍스처가 적용된 3D 모델링 객체를 렌더링하여 3D 가상화 객체를 생성할 수 있다(S580).The
전자장치(100)는 S580단계에서 렌더링된 3D 모델링 객체를 3D 배경 공간에 배치 및 가시화처리하여 표시부(120)에 표시할 수 있다(S590). The
사용자가 표시부(120)에 3D 가상화 객체가 표시된 후, 3D 모델링 객체의 메타데이터 중 일부를 정정하거나, 3D 모델링 객체가 3D 배경 공간에 배치되는 위치를 변경 요청하면, 전자장치(100)는 상술한 동작을 반복수행하여 추론 모델을 다시 생성하거나 또는 이전에 생성된 추론 모델을 업데이트할 수도 있다. After the 3D virtualized object is displayed on the
이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽어지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다.In the above, even though all the components constituting the embodiment of the present invention have been described as being combined or operated in combination, the present invention is not necessarily limited to this embodiment. That is, as long as it is within the scope of the purpose of the present invention, all of the components may be operated by selectively combining one or more of them. In addition, although all of the components may be implemented as a single independent hardware, a program module in which some or all of the components are selectively combined to perform some or all of the combined functions in one or more pieces of hardware. It may also be implemented as a computer program with . The codes and code segments that make up the computer program can be easily deduced by a person skilled in the art of the present invention. Such a computer program can be stored in a computer-readable storage medium and read and executed by a computer, thereby implementing embodiments of the present invention.
한편, 이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시 예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서, 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주하여야 할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Meanwhile, although the preferred embodiments have been described and illustrated to illustrate the technical idea of the present invention, the present invention is not limited to the configuration and operation as shown and described, and does not deviate from the scope of the technical idea. Without limitation, those skilled in the art will understand that many changes and modifications can be made to the present invention. Accordingly, all such appropriate changes, modifications and equivalents should be considered to fall within the scope of the present invention. Therefore, the true scope of technical protection of the present invention should be determined by the technical spirit of the attached registration claims.
100: 딥러닝 기반 3D 모델링 객체 가시화 장치
110: 사용자 인터페이스부 120: 표시부
130: 저장부 140: 메모리
150: 프로세서 152: 설정부
154: 딥러닝 학습부 156: 렌더링부
158: 가시화부100: Deep learning-based 3D modeling object visualization device
110: user interface unit 120: display unit
130: storage unit 140: memory
150: Processor 152: Setting unit
154: Deep learning learning unit 156: Rendering unit
158: Visualization department
Claims (11)
상기 3D 모델링 객체의 메타데이터와 상기 3D 배경 공간의 빛 속성을 딥러닝 알고리즘에 적용하여 빛 속성에 따라 폴리곤 및 텍스처를 자동으로 조절하는 추론 모델을 생성하는 딥러닝 학습부;
상기 생성된 추론 모델에 의해 추론되는 폴리곤 및 텍스처가 적용된 3D 모델링 객체를 렌더링하는 렌더링부; 및
상기 렌더링된 3D 모델링 객체가 배치된 3D 배경 공간을 가시화하는 가시화부;를 포함하되,
상기 딥러닝 학습부는
상기 3D 모델링 객체를 이루는 각 세부 객체의 좌표를 추출하여 픽셀단위 이미지로 분할하여 메모리에 저장하고 3D 모델링 객체의 분류, 구성요소, 서브 객체간 상관관계 정보를 추출하여 세부 객체들로 분류 및 카테고리화 하는 분류부;
상기 분류부에서 분류된 각 세부 객체의 메타데이터와 상기 3D 배경 공간의 빛 속성을 포함하는 배경데이터를 상기 딥러닝 알고리즘 기반으로 학습하여 각 세부 객체 별로 추론 모델을 생성하는 추론 모델 생성부; 및
각 세부 객체 별로 생성되는 추론 모델을 이용하여, 동일한 세부 객체에 대해 빛의 세기, 굵기, 방향, 색온도에 따라 세부 객체 별로 적용할 폴리곤 텐션값과 개수 및 폴리곤에 적용할 색상, 명도, 질감 정보 중 하나를 포함하는 텍스처 정보를 추론 및 적용하는 적용부;
를 포함하는 것을 특징으로 하는 딥러닝 기반 3D 모델링 객체 가시화 장치.
a setting unit that places a 3D modeling object in a 3D background space and sets light properties of the 3D background space;
A deep learning learning unit that generates an inference model that automatically adjusts polygons and textures according to light properties by applying metadata of the 3D modeling object and light properties of the 3D background space to a deep learning algorithm;
A rendering unit that renders a 3D modeling object to which polygons and textures inferred by the generated inference model are applied; and
A visualization unit that visualizes the 3D background space in which the rendered 3D modeling object is placed,
The deep learning department
Extract the coordinates of each detailed object that makes up the 3D modeling object, divide it into a pixel-unit image and store it in memory, classify and categorize the 3D modeling object into detailed objects by extracting correlation information between classification, components, and sub-objects. a classification unit that does;
an inference model generator for generating an inference model for each detailed object by learning background data including metadata of each detailed object classified by the classification unit and light properties of the 3D background space based on the deep learning algorithm; and
Using the inference model created for each detailed object, the polygon tension value and number to be applied to each detailed object and the color, brightness, and texture information to be applied to the polygon according to the light intensity, thickness, direction, and color temperature for the same detailed object. an application unit that infers and applies texture information including one;
A deep learning-based 3D modeling object visualization device comprising a.
상기 분류부는,
상기 다수의 세부 객체들의 오류 여부를 판단하여 정상 객체와 결함 객체로 구분하고,
상기 추론 모델 생성부는,
상기 3D 모델링 객체에 결함 객체가 불포함된 경우, 추론 모델을 생성하는 것을 특징으로 하는 딥러닝 기반 3D 모델링 객체 가시화 장치.
According to paragraph 1,
The classification department,
Determine whether there are errors in the plurality of detailed objects and classify them into normal objects and defective objects,
The inference model generator,
A deep learning-based 3D modeling object visualization device that generates an inference model when the 3D modeling object does not include a defective object.
상기 설정부는,
상기 3D 배경 공간에 적용할 빛의 세기, 굵기 및 색온도 중 적어도 하나를 포함하는 빛 속성을 설정하는 것을 특징으로 하는 딥러닝 기반 3D 모델링 객체 가시화 장치.
According to paragraph 1,
The settings section,
A deep learning-based 3D modeling object visualization device, characterized in that setting light properties including at least one of light intensity, thickness, and color temperature to be applied to the 3D background space.
상기 3D 모델링 객체의 메타데이터는 질감, 크기 및 세부 속성 정보를 포함하고,
상기 세부 속성 정보는,
빛의 세기, 빛의 굵기, 빛의 방향 및 빛의 색온도에 따라 3D 모델링 객체의 세부 객체 별로 적용할 폴리곤의 텐션과 개수, 텍스처 정보를 매핑한 데이터인 것을 특징으로 하는 딥러닝 기반 3D 모델링 객체 가시화 장치.
According to paragraph 1,
The metadata of the 3D modeling object includes texture, size, and detailed attribute information,
The detailed attribute information is,
Deep learning-based 3D modeling object visualization, characterized in that it is data that maps the tension, number, and texture information of polygons to be applied to each detailed object of the 3D modeling object according to the intensity of light, thickness of light, direction of light, and color temperature of light. Device.
(B1) 상기 3D 모델링 객체를 각 세부 객체의 좌표를 추출하여 픽셀단위 이미지로 분할하여 메모리에 저장하고 3D 모델링 객체의 분류, 구성요소, 서브 객체간 상관관계 정보를 추출하여 세부 객체들로 분류 및 카테고리화 하는 분류하는 단계;
(B2) 상기 (B1)단계에서 분류된 각 세부 객체의 질감, 크기 및 빛의 세기, 굵기, 방향 및 색온도에 따라 3D 모델링 객체의 세부 객체 별로 적용할 폴리곤의 텐션과 개수, 폴리곤에 적용할 색상, 명도, 질감 정보 중 하나를 포함하는 텍스처, 명도 정보 중 적어도 하나를 매핑한 데이터를 포함하는 메타데이터와 상기 3D 배경 공간의 빛 속성을 포함하는 배경데이터를 딥러닝 알고리즘 기반으로 학습하여 각 세부 객체 별로 추론 모델을 생성하는 단계; 및
(B3) 상기 (B2) 단계에서 각 세부 객체 별로 생성되는 추론 모델을 이용하여, 빛 속성에 따라 세부 객체 별로 적용할 폴리곤 및 텍스처 정보를 추론 및 적용하는 단계;
(C) 상기 전자장치가, 상기 생성된 추론 모델에 의해 추론되는 폴리곤 및 텍스처가 적용된 3D 모델링 객체를 렌더링하는 단계; 및
(D) 상기 전자장치가, 상기 렌더링된 3D 모델링 객체가 배치된 3D 배경 공간을 가시화하는 단계;
를 포함하는 딥러닝 기반 3D 모델링 객체 가시화 방법.
(A) placing, by an electronic device, a 3D modeling object in a 3D background space and setting light properties including at least one of light intensity, thickness, and color temperature to be applied to the 3D background space;
(B1) Extract the coordinates of each detailed object from the 3D modeling object, divide it into pixel-unit images and store them in memory, extract the correlation information between classification, components, and sub-objects of the 3D modeling object, and classify it into detailed objects. The step of classifying into categories;
(B2) The tension and number of polygons to be applied to each detailed object of the 3D modeling object, and the color to be applied to the polygon, according to the texture, size, light intensity, thickness, direction, and color temperature of each detailed object classified in step (B1) above. , texture containing one of brightness and texture information, metadata containing data mapping at least one of brightness information, and background data containing light properties of the 3D background space are learned based on a deep learning algorithm to create each detailed object. generating a separate inference model; and
(B3) using the inference model generated for each detailed object in step (B2), inferring and applying polygon and texture information to be applied to each detailed object according to light properties;
(C) rendering, by the electronic device, a 3D modeling object to which polygons and textures inferred by the generated inference model are applied; and
(D) visualizing, by the electronic device, a 3D background space where the rendered 3D modeling object is placed;
Deep learning-based 3D modeling object visualization method including.
상기 (B1) 단계는,
상기 다수의 세부 객체들의 오류 여부를 판단하여 정상 객체와 결함 객체로 구분하고,
상기 (B2) 단계는,
상기 3D 모델링 객체에 결함 객체가 불포함된 경우, 추론 모델을 생성하는 것을 특징으로 하는 딥러닝 기반 3D 모델링 객체 가시화 방법.
In clause 7,
In step (B1),
Determine whether there are errors in the plurality of detailed objects and classify them into normal objects and defective objects,
In step (B2),
A deep learning-based 3D modeling object visualization method, characterized in that generating an inference model when the 3D modeling object does not include a defective object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210179458A KR102674699B1 (en) | 2021-12-15 | 2021-12-15 | Deep learning-based 3D modeling object visualization apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210179458A KR102674699B1 (en) | 2021-12-15 | 2021-12-15 | Deep learning-based 3D modeling object visualization apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230090578A KR20230090578A (en) | 2023-06-22 |
KR102674699B1 true KR102674699B1 (en) | 2024-06-14 |
Family
ID=86989036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210179458A KR102674699B1 (en) | 2021-12-15 | 2021-12-15 | Deep learning-based 3D modeling object visualization apparatus and method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102674699B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101817753B1 (en) * | 2016-12-28 | 2018-01-11 | (주)앤미디어 | PTM making system with improved shape of 3D model and method using the same |
JP2021508869A (en) * | 2017-12-22 | 2021-03-11 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Multi-step block mesh simplification |
KR102291162B1 (en) * | 2020-12-01 | 2021-08-20 | 주식회사 딥노이드 | Apparatus and method for generating virtual data for artificial intelligence learning |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101586010B1 (en) | 2014-04-28 | 2016-01-15 | (주)에프엑스기어 | Apparatus and method for physical simulation of cloth for virtual fitting based on augmented reality |
KR101792250B1 (en) * | 2017-02-23 | 2017-11-02 | 주식회사 비즈모델라인 | Method for Providing Adaptive Augmented Reality to Real World |
KR102559202B1 (en) * | 2018-03-27 | 2023-07-25 | 삼성전자주식회사 | Method and apparatus for 3d rendering |
-
2021
- 2021-12-15 KR KR1020210179458A patent/KR102674699B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101817753B1 (en) * | 2016-12-28 | 2018-01-11 | (주)앤미디어 | PTM making system with improved shape of 3D model and method using the same |
JP2021508869A (en) * | 2017-12-22 | 2021-03-11 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Multi-step block mesh simplification |
KR102291162B1 (en) * | 2020-12-01 | 2021-08-20 | 주식회사 딥노이드 | Apparatus and method for generating virtual data for artificial intelligence learning |
Also Published As
Publication number | Publication date |
---|---|
KR20230090578A (en) | 2023-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hughes | Computer graphics: principles and practice | |
US7170510B2 (en) | Method and apparatus for indicating a usage context of a computational resource through visual effects | |
US20210232634A1 (en) | Quantified euler analysis | |
US8988433B2 (en) | Systems and methods for primitive intersection in ray tracing | |
EP1946273A1 (en) | Sketching reality | |
JPH02287776A (en) | Method for adopting hierarchical display list in global rendering | |
KR20120054750A (en) | Method and apparatus for selective display | |
CN112991377A (en) | Keying algorithm based on opencv and shader fusion technology | |
CN111124119A (en) | Building model presenting and interacting method based on virtual reality technology | |
WO2023159595A1 (en) | Method and device for constructing and configuring three-dimensional space scene model, and computer program product | |
CN111724462A (en) | Three-dimensional rendering method in Chrome browser | |
Agnello et al. | Virtual reality for historical architecture | |
KR102486770B1 (en) | Control method of electronic apparatus for automatically generating virtual object based on building information | |
KR102674699B1 (en) | Deep learning-based 3D modeling object visualization apparatus and method | |
EP2801971A1 (en) | A method of and system for rendering an image | |
JP2001134633A (en) | Electronic drawing viewer | |
CN113360151B (en) | UI data set automatic generation method and system for RPA system | |
CN115730157A (en) | Method and system for rapidly displaying lines of dwg drawing in Web | |
Krebs | Basics cad | |
US10963205B2 (en) | Augmented reality state room | |
CN114861612A (en) | Text labeling method and device | |
JP4585298B2 (en) | Drawing method and apparatus | |
KR20000068191A (en) | Fast processing of image primitives | |
US8601398B2 (en) | Data-driven interface for managing materials | |
JP2022017691A (en) | Image processing device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |