KR102674699B1 - Deep learning-based 3D modeling object visualization apparatus and method - Google Patents

Deep learning-based 3D modeling object visualization apparatus and method Download PDF

Info

Publication number
KR102674699B1
KR102674699B1 KR1020210179458A KR20210179458A KR102674699B1 KR 102674699 B1 KR102674699 B1 KR 102674699B1 KR 1020210179458 A KR1020210179458 A KR 1020210179458A KR 20210179458 A KR20210179458 A KR 20210179458A KR 102674699 B1 KR102674699 B1 KR 102674699B1
Authority
KR
South Korea
Prior art keywords
modeling object
detailed
modeling
light
deep learning
Prior art date
Application number
KR1020210179458A
Other languages
Korean (ko)
Other versions
KR20230090578A (en
Inventor
안신원
Original Assignee
주식회사 와플랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 와플랩 filed Critical 주식회사 와플랩
Priority to KR1020210179458A priority Critical patent/KR102674699B1/en
Publication of KR20230090578A publication Critical patent/KR20230090578A/en
Application granted granted Critical
Publication of KR102674699B1 publication Critical patent/KR102674699B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Image Generation (AREA)

Abstract

딥러닝 기반 3D 모델링 객체 가시화 장치 및 방법이 제공된다. 설정부는 3D 모델링 객체를 3D 배경 공간에 배치하고, 3D 배경 공간의 빛 속성을 설정하고, 딥러닝 학습부는 3D 모델링 객체의 메타데이터와 3D 배경 공간의 빛 속성을 딥러닝 알고리즘에 적용하여 빛 속성에 따라 폴리곤 및 텍스처를 자동으로 조절하는 추론 모델을 생성하고, 렌더링부는 생성된 추론 모델에 의해 추론되는 폴리곤 및 텍스처가 적용된 3D 모델링 객체를 렌더링하며, 가시화부는 렌더링된 3D 모델링 객체가 배치된 3D 배경 공간을 가시화할 수 있다.A deep learning-based 3D modeling object visualization device and method are provided. The setting unit places the 3D modeling object in the 3D background space and sets the light properties of the 3D background space, and the deep learning learning unit applies the metadata of the 3D modeling object and the light properties of the 3D background space to a deep learning algorithm to determine the light properties. It creates an inference model that automatically adjusts polygons and textures accordingly, the rendering unit renders 3D modeling objects with polygons and textures inferred by the generated inference model, and the visualization unit creates a 3D background space where the rendered 3D modeling objects are placed. can be visualized.

Description

딥러닝 기반 3D 모델링 객체 가시화 장치 및 방법{Deep learning-based 3D modeling object visualization apparatus and method}Deep learning-based 3D modeling object visualization apparatus and method}

본 발명은 딥러닝 기반 3D 모델링 객체 가시화 장치 및 방법에 관한 것으로서, 보다 상세하게는, 빛에 따라 3D 객체에 적용할 폴리곤과 텍스처를 자동으로 추론 및 적용하여 가시화할 수 있는 딥러닝 기반 3D 모델링 객체 가시화 장치 및 방법에 관한 것이다.The present invention relates to a deep learning-based 3D modeling object visualization device and method. More specifically, a deep learning-based 3D modeling object that can be visualized by automatically inferring and applying polygons and textures to be applied to 3D objects according to light. It relates to a visualization device and method.

최근 가상현실 또는 증강현실을 이용한 다양한 응용분야가 각광받으면서 빠르면서 정확한 3D 모델 생성이 요구되고 있다. Recently, as various application fields using virtual reality or augmented reality have been in the spotlight, fast and accurate 3D model creation is required.

일반적으로 3D 가상객체를 제작하기 위해서는 작업자가 물리적 객체의 재질, 색상, 크기 등 다양한 속성을 분석하고, 3D 가상객체를 개별적으로 그리고 수동으로 모델링한다. 이 때 작업자는 모델링을 위해 물리적 객체의 재질, 색상, 크기 등을 고려하여 폴리곤과 텍스처를 추가로 제작해야 한다. 따라서, 기존 방식으로 3D 가상객체를 제작하는 경우 많은 시간과 비용을 필요로 한다. Typically, to create a 3D virtual object, workers analyze various properties of the physical object, such as material, color, and size, and model the 3D virtual object individually and manually. At this time, the operator must create additional polygons and textures for modeling, taking into account the material, color, and size of the physical object. Therefore, producing 3D virtual objects using existing methods requires a lot of time and money.

또한, 폴리곤은 형태를 구성하는 점(Vertex), 선(Edge), 면(Polygon)의 집합으로 구성된 다면체이며, 매우 직관적으로 구성되어 있다. 하지만, 곡선의 표현이 부족하기 때문에 계단 현상(Aliasing)이 발생하여 폴리곤으로 곡선을 표현하려면 폴리곤의 개수를 늘려야 하므로 높은 하드웨어(그래픽 카드) 성능을 요구하게 된다. 특히, 폴리곤의 집합체인 메시(Mesh) 생성 시 하드웨어의 제약과 디자인 컨셉에 따라 최적화를 고려한 모델링 작업을 해야 한다.In addition, a polygon is a polyhedron composed of a set of points (vertex), lines (edge), and faces (polygon) that make up the shape, and is structured very intuitively. However, because the expression of curves is insufficient, aliasing occurs, and to express curves with polygons, the number of polygons must be increased, which requires high hardware (graphics card) performance. In particular, when creating a mesh, which is a collection of polygons, modeling work must be done considering optimization according to hardware constraints and design concepts.

국내 공개특허 10-2015-0124208호Domestic Public Patent No. 10-2015-0124208

전술한 문제점을 해결하기 위하여 본 발명이 이루고자 하는 기술적 과제는, 빛에 따라 3D 객체에 적용할 폴리곤과 텍스처를 자동으로 추론 및 적용하여 가시화할 수 있는 딥러닝 기반 3D 모델링 객체 가시화 장치 및 방법을 제시하는 데 있다.In order to solve the above-mentioned problems, the technical problem to be achieved by the present invention is to present a deep learning-based 3D modeling object visualization device and method that can automatically infer and apply polygons and textures to be applied to 3D objects according to light and visualize them. There is something to do.

본 발명의 해결과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

전술한 기술적 과제를 해결하기 위한 수단으로서, 본 발명의 실시 예에 따르면, 딥러닝 기반 3D 모델링 객체 가시화 장치는, 3D 모델링 객체를 3D 배경 공간에 배치하고, 상기 3D 배경 공간의 빛 속성을 설정하는 설정부; 상기 3D 모델링 객체의 메타데이터와 상기 3D 배경 공간의 빛 속성을 딥러닝 알고리즘에 적용하여 빛 속성에 따라 폴리곤 및 텍스처를 자동으로 조절하는 추론 모델을 생성하는 딥러닝 학습부; 상기 생성된 추론 모델에 의해 추론되는 폴리곤 및 텍스처가 적용된 3D 모델링 객체를 렌더링하는 렌더링부; 및 상기 렌더링된 3D 모델링 객체가 배치된 3D 배경 공간을 가시화하는 가시화부;를 포함할 수 있다.As a means to solve the above-described technical problem, according to an embodiment of the present invention, a deep learning-based 3D modeling object visualization device places a 3D modeling object in a 3D background space and sets light properties of the 3D background space. Setting section; A deep learning learning unit that generates an inference model that automatically adjusts polygons and textures according to light properties by applying metadata of the 3D modeling object and light properties of the 3D background space to a deep learning algorithm; A rendering unit that renders a 3D modeling object to which polygons and textures inferred by the generated inference model are applied; and a visualization unit that visualizes a 3D background space where the rendered 3D modeling object is placed.

상기 딥러닝 학습부는, 상기 3D 모델링 객체를 다수의 세부 객체로 분류하는 분류부; 상기 분류부에서 분류된 각 세부 객체의 메타데이터와 상기 3D 배경 공간의 빛 속성을 포함하는 배경데이터를 상기 딥러닝 알고리즘 기반으로 학습하여 각 세부 객체 별로 추론 모델을 생성하는 추론 모델 생성부; 및 각 세부 객체 별로 생성되는 추론 모델을 이용하여, 빛 속성에 따라 세부 객체 별로 적용할 폴리곤 및 텍스처 정보를 추론 및 적용하는 적용부;를 포함할 수 있다.The deep learning learning unit includes a classification unit that classifies the 3D modeling object into a plurality of detailed objects; an inference model generator for generating an inference model for each detailed object by learning background data including metadata of each detailed object classified by the classification unit and light properties of the 3D background space based on the deep learning algorithm; and an application unit that infers and applies polygon and texture information to be applied to each detailed object according to light properties, using an inference model generated for each detailed object.

상기 분류부는, 상기 다수의 세부 객체들의 오류 여부를 판단하여 정상 객체와 결함 객체로 구분하고, 상기 추론 모델 생성부는, 상기 3D 모델링 객체에 결함 객체가 불포함된 경우, 추론 모델을 생성할 수 있다.The classification unit determines whether there are errors in the plurality of detailed objects and classifies them into normal objects and defective objects, and the inference model creation unit may generate an inference model when the 3D modeling object does not include a defective object.

상기 적용부는, 상기 세부 객체 별로 생성되는 추론 모델을 이용하여, 현재 설정된 빛 속성에 따라 폴리곤의 텐션값과 개수, 텍스처를 추론 및 적용할 수 있다.The application unit may infer and apply the tension value, number, and texture of the polygon according to the currently set light properties, using the inference model generated for each detailed object.

상기 설정부는, 상기 3D 배경 공간에 적용할 빛의 세기, 굵기 및 색온도 중 적어도 하나를 포함하는 빛 속성을 설정할 수 있다.The setting unit may set light properties including at least one of light intensity, thickness, and color temperature to be applied to the 3D background space.

상기 3D 모델링 객체의 메타데이터는 질감, 크기 및 세부 속성 정보를 포함하고, 상기 세부 속성 정보는, 빛의 세기, 빛의 굵기, 빛의 방향 및 빛의 색온도에 따라 3D 모델링 객체의 세부 객체 별로 적용할 폴리곤의 텐션과 개수, 텍스처 정보를 매핑한 데이터이다.The metadata of the 3D modeling object includes texture, size, and detailed attribute information, and the detailed attribute information is applied to each detailed object of the 3D modeling object according to the intensity of light, thickness of light, direction of light, and color temperature of light. This is data that maps the tension, number, and texture information of the polygons to be processed.

한편, 본 발명의 다른 실시 예에 따르면, 딥러닝 기반 3D 모델링 객체 가시화 방법은, (A) 전자장치가, 3D 모델링 객체를 3D 배경 공간에 배치하고, 상기 3D 배경 공간의 빛 속성을 설정하는 단계; (B) 상기 전자장치가, 상기 3D 모델링 객체의 메타데이터와 상기 3D 배경 공간의 빛 속성을 딥러닝 알고리즘에 적용하여 빛 속성에 따라 폴리곤 및 텍스처를 자동으로 조절하는 추론 모델을 생성하는 단계; (C) 상기 전자장치가, 상기 생성된 추론 모델에 의해 추론되는 폴리곤 및 텍스처가 적용된 3D 모델링 객체를 렌더링하는 단계; 및 (D) 상기 전자장치가, 상기 렌더링된 3D 모델링 객체가 배치된 3D 배경 공간을 가시화하는 단계;를 포함할 수 있다.Meanwhile, according to another embodiment of the present invention, a deep learning-based 3D modeling object visualization method includes the steps of: (A) an electronic device, placing a 3D modeling object in a 3D background space and setting light properties of the 3D background space; ; (B) generating, by the electronic device, an inference model that automatically adjusts polygons and textures according to light properties by applying metadata of the 3D modeling object and light properties of the 3D background space to a deep learning algorithm; (C) rendering, by the electronic device, a 3D modeling object to which polygons and textures inferred by the generated inference model are applied; and (D) visualizing, by the electronic device, a 3D background space where the rendered 3D modeling object is placed.

상기 (B) 단계는, (B1) 상기 3D 모델링 객체를 다수의 세부 객체로 분류하는 단계; (B2) 상기 (B1)단계에서 분류된 각 세부 객체의 메타데이터와 상기 3D 배경 공간의 빛 속성을 포함하는 배경데이터를 상기 딥러닝 알고리즘 기반으로 학습하여 각 세부 객체 별로 추론 모델을 생성하는 단계; 및 (B3) 상기 (B2) 단계에서 각 세부 객체 별로 생성되는 추론 모델을 이용하여, 빛 속성에 따라 세부 객체 별로 적용할 폴리곤 및 텍스처 정보를 추론 및 적용하는 단계;를 포함할 수 있다.Step (B) includes: (B1) classifying the 3D modeling object into a plurality of detailed objects; (B2) generating an inference model for each detailed object by learning background data including metadata of each detailed object classified in step (B1) and light properties of the 3D background space based on the deep learning algorithm; And (B3) using the inference model generated for each detailed object in step (B2), inferring and applying polygon and texture information to be applied to each detailed object according to light properties.

상기 (B1) 단계는, 상기 다수의 세부 객체들의 오류 여부를 판단하여 정상 객체와 결함 객체로 구분하고, 상기 (B2) 단계는, 상기 3D 모델링 객체에 결함 객체가 불포함된 경우, 추론 모델을 생성할 수 있다.In the step (B1), the plurality of detailed objects are judged to have errors and are classified into normal objects and defective objects, and in the step (B2), when the 3D modeling object does not include a defective object, an inference model is generated. can do.

상기 (A) 단계는, 상기 3D 배경 공간에 적용할 빛의 세기, 굵기 및 색온도 중 적어도 하나를 포함하는 빛 속성을 설정할 수 있다.In step (A), light properties including at least one of light intensity, thickness, and color temperature to be applied to the 3D background space may be set.

본 발명에 따르면, 3D 모델링 객체의 폴리곤과 텍스처 정보를 빛의 속성에 따라 자동으로 추론함으로써, 사용자는 3D 모델링 객체를 빛 속성이 변경될 때마다 폴리곤의 텐션 또는 개수와 텍스처를 수동으로 선택하는 번거로움을 해소할 수 있다. According to the present invention, by automatically inferring the polygon and texture information of a 3D modeling object according to the light properties, the user avoids the inconvenience of manually selecting the tension or number of polygons and the texture of the 3D modeling object every time the light property changes. The feeling can be relieved.

본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명의 실시 예에 따른 딥러닝 기반 3D 모델링 객체 가시화 장치(100)를 도시한 블록도,
도 2는 3D 모델링 객체를 딥러닝 학습하여 렌더링하는 일련의 동작을 보여주는 개념도,
도 3은 도 1에 도시된 프로세서(150)를 기능적으로 도시한 블록도,
도 4는 3D 모델링 객체의 메시를 설명하기 위한 예시도, 그리고,
도 5는 본 발명의 실시 예에 따른 딥러닝 기반 3D 모델링 객체 가시화 방법을 개략적으로 도시한 흐름도이다.
1 is a block diagram showing a deep learning-based 3D modeling object visualization device 100 according to an embodiment of the present invention.
Figure 2 is a conceptual diagram showing a series of operations for rendering 3D modeling objects by learning deep learning.
Figure 3 is a block diagram functionally showing the processor 150 shown in Figure 1;
Figure 4 is an example diagram for explaining the mesh of a 3D modeling object, and
Figure 5 is a flowchart schematically showing a deep learning-based 3D modeling object visualization method according to an embodiment of the present invention.

이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시 예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시 예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시 예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.The above objects, other objects, features and advantages of the present invention will be easily understood through the following preferred embodiments related to the attached drawings. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosed content will be thorough and complete and so that the spirit of the present invention can be sufficiently conveyed to those skilled in the art.

어떤 경우에는, 발명을 기술하는 데 있어서 흔히 알려졌으면서 발명과 크게 관련 없는 부분들은 본 발명을 설명하는 데 있어 별 이유 없이 혼돈이 오는 것을 막기 위해 기술하지 않음을 미리 언급해 둔다.In some cases, it is mentioned in advance that when describing the invention, parts that are commonly known but are not significantly related to the invention are not described in order to prevent confusion without any reason in explaining the invention.

본 명세서에서 제1구성요소가 제2구성요소 상(ON)에서 동작 또는 실행된다고 언급될 때, 제1구성요소는 제2구성요소가 동작 또는 실행되는 환경에서 동작 또는 실행되거나 또는 제2구성요소와 직접 또는 간접적으로 상호 작용을 통해서 동작 또는 실행되는 것으로 이해되어야 할 것이다.In this specification, when it is mentioned that a first component is operating or executing on a second component (ON), the first component is operating or executing in an environment in which the second component is operating or executing, or is operating or executing on the second component. It should be understood as operating or executing through direct or indirect interaction with.

어떤 구성요소, 장치, 또는 시스템이 프로그램 또는 소프트웨어로 이루어진 구성요소를 포함한다고 언급되는 경우, 명시적인 언급이 없더라도, 그 구성요소, 장치, 또는 시스템은 그 프로그램 또는 소프트웨어가 실행 또는 동작하는데 필요한 하드웨어(예를 들면, 메모리, CPU 등)나 다른 프로그램 또는 소프트웨어(예를 들면 운영체제나 하드웨어를 구동하는데 필요한 드라이버 등)를 포함하는 것으로 이해되어야 할 것이다.When a component, device, or system is said to contain a component consisting of a program or software, even if explicitly stated, that component, device, or system refers to the hardware (hardware) necessary for the program or software to run or operate. For example, memory, CPU, etc.) or other programs or software (for example, drivers necessary to run an operating system or hardware, etc.).

또한, 어떤 구성요소가 구현됨에 있어서 특별한 언급이 없다면, 그 구성요소는 소프트웨어, 하드웨어, 또는 소프트웨어 및 하드웨어 어떤 형태로도 구현될 수 있는 것으로 이해되어야 할 것이다.Additionally, unless otherwise specified, it should be understood that the component may be implemented in any form of software, hardware, or both software and hardware.

또한, 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.Additionally, the terms used in this specification are for describing embodiments and are not intended to limit the present invention. As used herein, singular forms also include plural forms, unless specifically stated otherwise in the context. As used in the specification, 'comprises' and/or 'comprising' does not exclude the presence or addition of one or more other elements.

또한, 본 명세서에서 '부', '장치' 등의 용어는 하드웨어 및 해당 하드웨어에 의해 구동되거나 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 지칭하는 것으로 의도될 수 있다. 예를 들어, 여기서 하드웨어는 CPU 또는 다른 프로세서(processor)를 포함하는 데이터 처리 기기일 수 있다. 또한, 하드웨어에 의해 구동되는 소프트웨어는 실행중인 프로세스, 객체(object), 실행파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다.Additionally, in this specification, terms such as 'unit' and 'device' may be intended to refer to the functional and structural combination of hardware and software driven by or for driving the hardware. For example, the hardware here may be a data processing device including a CPU or other processor. Additionally, software driven by hardware may refer to a running process, object, executable, thread of execution, program, etc.

또한, 상기 용어들은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것이 아님은 본 발명의 기술분야의 평균적 전문가에게는 용이하게 추론될 수 있다.In addition, the above terms may mean a logical unit of hardware resources for executing a predetermined code and the predetermined code, and do not necessarily mean a physically connected code or one type of hardware. It can be easily inferred by an average expert in the technical field.

이하, 본 발명에서 실시하고자 하는 구체적인 기술내용에 대해 첨부도면을 참조하여 상세하게 설명하기로 한다.Hereinafter, specific technical details to be implemented in the present invention will be described in detail with reference to the accompanying drawings.

도 1 및 도 2에 도시된 각각의 구성은 기능 및 논리적으로 분리될 수도 있음을 나타내는 것이며, 반드시 각각의 구성이 별도의 물리적 장치로 구분되거나 별도의 코드로 작성됨을 의미하는 것은 아님을 본 발명의 기술분야의 평균적 전문가는 용이하게 추론할 수 있을 것이다.Each configuration shown in FIGS. 1 and 2 indicates that it may be functionally and logically separated, and does not necessarily mean that each configuration is divided into a separate physical device or written in a separate code. The average expert in the technical field will be able to infer easily.

도 1은 본 발명의 실시 예에 따른 딥러닝 기반 3D 모델링 객체 가시화 장치(100)를 도시한 블록도이고, 도 2는 3D 모델링 객체를 딥러닝 학습하여 렌더링하는 일련의 동작을 보여주는 개념도이다. Figure 1 is a block diagram showing a deep learning-based 3D modeling object visualization device 100 according to an embodiment of the present invention, and Figure 2 is a conceptual diagram showing a series of operations for rendering a 3D modeling object by deep learning learning.

도 1을 참조하면, 본 발명의 실시 예에 따른 딥러닝 기반 3D 모델링 객체 가시화 장치(100)는 사용자 인터페이스부(110), 표시부(120), 저장부(130), 메모리(140) 및 프로세서(150)를 포함할 수 있다.Referring to FIG. 1, the deep learning-based 3D modeling object visualization device 100 according to an embodiment of the present invention includes a user interface unit 110, a display unit 120, a storage unit 130, a memory 140, and a processor ( 150) may be included.

사용자 인터페이스부(110)는 사용자와 딥러닝 기반 3D 모델링 객체 가시화 장치(100) 간의 인터페이싱 경로를 제공하며, 사용자로부터 명령을 입력받아 프로세서(150)로 전달할 수 있다. 예를 들어, 사용자 인터페이스부(110)는 사용자 명령에 따라, 3D로 가시화할 3D 모델링 객체를 선택하고, 3D 모델링 객체를 배치할 3D 배경 공간을 선택하여 프로세서(150)로 전달할 수 있다. 사용자 인터페이스부(110)는 마우스, 키보드, 터치패널 등을 예로 들 수 있다. The user interface unit 110 provides an interfacing path between the user and the deep learning-based 3D modeling object visualization device 100, and can receive commands from the user and transmit them to the processor 150. For example, the user interface unit 110 may select a 3D modeling object to be visualized in 3D, select a 3D background space in which to place the 3D modeling object, and transmit the selection to the processor 150 according to a user command. Examples of the user interface unit 110 include a mouse, keyboard, and touch panel.

표시부(120)는 사용자 인터페이스부(110)의 사용자 명령에 따른 프로세서(150)의 프로세싱 결과를 표시할 수 있다. 일 예로, 표시부(120)는 3D 모델링 객체가 배치된 3D 배경 공간, 3D 배경 공간에 배치할 3D 모델링 객체, 3D 배경 공간에 배치된 3D 가상화 객체를 표시할 수 있다. The display unit 120 may display a processing result of the processor 150 according to a user command of the user interface unit 110. As an example, the display unit 120 may display a 3D background space in which a 3D modeling object is placed, a 3D modeling object to be placed in the 3D background space, and a 3D virtualization object placed in the 3D background space.

저장부(130)에는 3D 모델링 객체를 배치할 다수의 3D 배경 공간, 즉, 배경 이미지가 저장될 수 있다. 3D 배경 공간은 예를 들어 공원이거나, 고층 빌딩과 도로가 있는 도시이거나, 강변일 수 있으며, 이는 일 예로 이에 한정되지 않는다. The storage unit 130 may store a plurality of 3D background spaces, that is, background images, in which 3D modeling objects are to be placed. The 3D background space may be, for example, a park, a city with high-rise buildings and roads, or a riverside, but this is not limited to examples.

또한, 저장부(130)에는 딥러닝 기반 3D 모델링 객체 가시화 장치(100)에서 딥러닝할 대상, 즉, 가상의 3D 모델링 객체와 3D 모델링 객체의 메타데이터가 다수의 배경데이터마다 저장될 수 있다. Additionally, the storage unit 130 may store objects to be deep-learned in the deep learning-based 3D modeling object visualization device 100, that is, virtual 3D modeling objects and metadata of the 3D modeling objects for each plurality of background data.

보다 자세히는, 저장부(130)에는 3D 모델링 객체를 이루는 다수의 세부 객체들 별로 메타데이터가 저장될 수 있다. 예를 들어, 도 2에 도시된 3D 모델링 객체는 주택으로서, 지붕, 창문, 현관, 벽, 기둥 등 다수의 세부 객체들을 포함한다. 이러한 경우 저장부(130)에는 지붕, 창문, 현관, 벽, 기둥 등의 세부 객체 별로 메타데이터가 저장되되 다수의 배경데이터마다 매핑저장될 수 있다. More specifically, metadata may be stored in the storage unit 130 for each of the multiple detailed objects that make up the 3D modeling object. For example, the 3D modeling object shown in FIG. 2 is a house and includes a number of detailed objects such as a roof, windows, entrance, walls, and pillars. In this case, metadata is stored in the storage unit 130 for each detailed object such as a roof, window, entrance, wall, and pillar, and may be mapped and stored for each plurality of background data.

배경데이터는 3D 배경 공간에 적용할(또는, 설정할) 빛의 세기와 빛의 굵기를 기본 정보로서 포함하고, 빛의 방향들과 빛의 색온도들을 부가 정보로서 더 포함할 수도 있다. 배경데이터의 개수는 빛의 세기, 굵기, 방향 또는 색온도의 조합에 따라 조정가능하다.Background data includes the intensity and thickness of light to be applied (or set) to the 3D background space as basic information, and may further include directions of light and color temperatures of light as additional information. The number of background data can be adjusted according to the combination of light intensity, thickness, direction, or color temperature.

3D 모델링 객체의 메타데이터는 배경데이터에 따라 3D 모델링 객체의 세부 객체 별로 적용할 폴리곤의 텐션과 개수, 텍스처 정보를 매핑한 데이터로서, 3D 모델링 객체를 가시화하는데 필요한 속성 정보를 포함한다. The metadata of a 3D modeling object is data that maps the tension, number, and texture information of polygons to be applied to each detailed object of the 3D modeling object according to the background data, and includes attribute information necessary to visualize the 3D modeling object.

빛의 세기는 3D 모델링 객체를 배치할 3D 배경 공간에 설정되는 빛의 세기로서, 예를 들어 1~12단계로 정의될 수 있다. 숫자가 커질수록 빛은 밝아질 수 있다.The intensity of light is the intensity of light set in the 3D background space where the 3D modeling object is to be placed, and can be defined as levels 1 to 12, for example. The larger the number, the brighter the light can be.

빛의 굵기는 3D 배경 공간에 설정되는 빛의 굵기로서, 예를 들어, 1~10단계로 정의될 수 있다. 숫자가 커질수록 빛은 강해질 수 있다. The thickness of light is the thickness of light set in the 3D background space and can be defined, for example, in levels 1 to 10. The larger the number, the stronger the light can be.

빛의 방향은 빛의 입사 방향 또는 입사각으로서 일 예로, 0~360° 내에서 10° 단위 또는 30° 단위 등 사용자에 의해 지정된 단위로 설정될 수 있다. The direction of light is the incident direction or incident angle of light and can be set in units specified by the user, such as 10° or 30° units within 0 to 360°.

빛의 색온도는 빛의 색상을 나타내는 정보로서 전구색, 주광색, 주백색 등으로 정의될 수 있다. 빛의 색온도는 3D 배경 공간이 실내인지 또는 실외인지에 따라 다르게 설정될 수 있다. The color temperature of light is information representing the color of light and can be defined as bulb color, daylight color, daylight white, etc. The color temperature of light can be set differently depending on whether the 3D background space is indoors or outdoors.

폴리곤의 텐션은, 3D 모델링 객체를 이루는 각 세부 객체에 적용할 폴리곤의 크기이다. 폴리곤의 텐션은 동일한 세부 객체일지라도 빛의 세기, 굵기, 방향, 색온도에 따라 다른 값이 설정될 수 있다. 예를 들어, 3D 배경 공간에 설정된 빛의 세기와 굵기 중 적어도 하나가 약하여 어두운 경우, 빛이 20° 방향에서 입사한다면, 지붕의 저면은 세밀하게 표현되지 않아도 되므로 최대 세부 객체와 동일한 크기의 폴리곤을 사용하도록 설정될 수 있다. Polygon tension is the size of the polygon to be applied to each detailed object that makes up a 3D modeling object. Even for the same detailed object, the tension of a polygon can be set to different values depending on the intensity, thickness, direction, and color temperature of the light. For example, if at least one of the light intensity and thickness set in the 3D background space is weak and dark, and the light is incident from a 20° direction, the bottom of the roof does not need to be expressed in detail, so a polygon of the same size as the maximum detail object is used. Can be set to use.

폴리곤의 개수는 폴리곤의 텐션을 고려하여 각 서브 객체에 적용할 폴리곤 개수이다. The number of polygons is the number of polygons to be applied to each sub-object considering the tension of the polygon.

텍스처는 서브 객체의 폴리곤에 적용할 색상, 명도, 질감 정보 중 적어도 하나를 포함할 수 있다. 텍스처의 색상은 RGB가 0~255의 범위에서 설정되고, 명도는 0(검정)~10(흰색)의 범위 중 하나가 설정될 수 있다. 질감은 서브 객체의 소재 정보일 수 있다. 소재는 목재, 금속, 플라스틱, 돌, 유리 등 다양하다.The texture may include at least one of color, brightness, and texture information to be applied to the polygon of the sub-object. The color of the texture can be set in the RGB range of 0 to 255, and the brightness can be set in the range of 0 (black) to 10 (white). Texture may be material information of a sub-object. Materials vary, including wood, metal, plastic, stone, and glass.

[표 1]은 배경데이터 중 빛의 세기와 빛의 굵기가 1이고, 빛 방향이 45°인 경우, 각 세부 객체에 설정된 메타데이터의 일 예이다.[Table 1] is an example of metadata set for each detailed object when the light intensity and light thickness among the background data are 1 and the light direction is 45°.

배경데이터background data 메타데이터metadata 빛 세기light intensity 빛 굵기thickness of light 빛 방향light direction 세부객체Detailed object 재질(질감)Material (texture) 크기(cm)Size (cm) 폴리곤 텐션polygon tension 폴리곤 개수number of polygons 텍스처texture 1One 1One 45°45° 창문1window 1 유리glass 30 X 5030X50 창문1과 동일Same as window 1 1One 색상: (85, 20, 0)
명도: 7
Color: (85, 20, 0)
Brightness: 7
현관entrance 금속metal 150X200150X200 현관의 1/41/4 of the vestibule 44 색상: (202, 0, 0)
명도: 8
Color: (202, 0, 0)
Brightness: 8
벽1wall 1 목재wood 300X400300X400 벽1의 1/101/10 of wall 1 1010 색상: (20, 94, 25)명도: 5Color: (20, 94, 25) Brightness: 5

[표 2]는 배경데이터 중 빛의 세기는 2, 빛의 굵기 1, 빛 방향이 90°인 경우, 각 세부 객체에 설정된 메타데이터의 일 예이다.[Table 2] is an example of metadata set for each detailed object when the light intensity is 2, the light thickness is 1, and the light direction is 90° among the background data.

배경데이터background data 메타데이터metadata 빛 세기light intensity 빛 굵기thickness of light 빛 방향light direction 세부객체Detailed object 재질(질감)Material (texture) 크기
(cm)
size
(cm)
폴리곤
텐션
polygon
tension
폴리곤 개수number of polygons 텍스처texture
22 1One 90°90° 창문1window 1 유리glass 30 X 5030X50 창문1의 1/21/2 of window 1 22 색상: (100, 20, 0)
명도: 7
Color: (100, 20, 0)
Brightness: 7
현관entrance 금속metal 150X200150X200 현관과 동일Same as the entrance 1One 색상: (255, 0, 0)명도: 8Color: (255, 0, 0) Brightness: 8 벽1wall 1 목재wood 300X400300X400 벽1의 1/21/2 of wall 1 22 색상: (20, 204, 255)
명도: 5
Color: (20, 204, 255)
Brightness: 5

[표 1] 및 [표 2]를 참조하면, 동일한 세부 객체라도 빛의 세기, 굵기, 방향 등 배경데이터에 따라 폴리곤과 텍스처가 다르게 설정되는 것을 알 수 있다. 따라서, 세부 객체의 메타데이터는 배경데이터(빛의 세기, 굵기, 방향, 색온도 등)의 조합에 의해 생성되는 경우의 수에 따라 변경될 수 있다. Referring to [Table 1] and [Table 2], you can see that even for the same detailed object, polygons and textures are set differently depending on background data such as light intensity, thickness, and direction. Accordingly, the metadata of a detailed object may be changed depending on the number of cases generated by a combination of background data (light intensity, thickness, direction, color temperature, etc.).

메모리(140)는 휘발성 메모리 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(140)에는 예를 들어, 딥러닝 기반 3D 모델링 객체 가시화 장치(100)가 제공하는 동작, 기능 등을 구현 및/또는 제공하기 위하여, 구성요소들(110~150)에 관계된 명령 또는 데이터, 하나 이상의 프로그램 및/또는 소프트웨어, 운영체제 등이 저장될 수 있다.Memory 140 may include volatile memory and/or non-volatile memory. The memory 140 includes, for example, commands or data related to the components 110 to 150 in order to implement and/or provide operations, functions, etc. provided by the deep learning-based 3D modeling object visualization device 100, One or more programs and/or software, operating systems, etc. may be stored.

메모리(140)에 저장되는 프로그램은 배경데이터의 디폴트값과 3D 모델링 객체의 메타데이터를 딥러닝하여 3D 모델링 객체의 폴리곤과 텍스처를 빛의 속성에 따라 자동으로 추론할 수 있는 추론 모델을 생성하는 머신러닝 알고리즘을 포함할 수 있다.The program stored in the memory 140 is a machine that deep learns the default values of the background data and the metadata of the 3D modeling object to create an inference model that can automatically infer the polygon and texture of the 3D modeling object according to the properties of light. May include a learning algorithm.

또한, 메모리(140)에는 추론 모델에 의해 생성되는 폴리곤과 텍스처를 이용하여 3D 모델링 객체를 렌더링 및 가시화하는 렌더링 프로그램이 저장될 수 있다.Additionally, the memory 140 may store a rendering program that renders and visualizes 3D modeling objects using polygons and textures generated by the inference model.

프로세서(150)는 메모리(140)에 저장된 하나 이상의 프로그램을 실행하여 딥러닝 기반 3D 모델링 객체 가시화 장치(100)의 전반적인 동작을 제어한다. The processor 150 executes one or more programs stored in the memory 140 to control the overall operation of the deep learning-based 3D modeling object visualization device 100.

예를 들어, 프로세서(150)는 메모리(140)에 저장된 머신러닝 알고리즘을 실행하여 3D 모델링 객체의 폴리곤과 텍스처를 빛의 속성에 따라 자동으로 추론하는 추론 모델을 생성하고, 렌더링 프로그램을 실행하여 3D 모델링 객체를 렌더링한 후 3D 배경 공간에 배치하여 표시되도록 처리할 수 있다.For example, the processor 150 executes a machine learning algorithm stored in the memory 140 to generate an inference model that automatically infers the polygons and textures of a 3D modeling object according to the properties of light, and executes a rendering program to create a 3D model. After rendering modeling objects, they can be processed to be displayed by placing them in the 3D background space.

도 3은 도 1에 도시된 프로세서(150)를 기능적으로 도시한 블록도이다.FIG. 3 is a functional block diagram of the processor 150 shown in FIG. 1.

도 3을 참조하면, 프로세서(150)는 설정부(152), 딥러닝 학습부(154), 렌더링부(156) 및 가시화부(158)를 포함할 수 있다.Referring to FIG. 3, the processor 150 may include a setting unit 152, a deep learning learning unit 154, a rendering unit 156, and a visualization unit 158.

설정부(152)는 사용자가 사용자 인터페이스부(110)를 조작하여 3D 모델링 객체와 3D 배경 공간을 선택하면, 선택된 3D 배경 공간 중 사용자가 지정한 위치에 3D 모델링 객체를 배치하고, 사용자에 의해 선택되는 3D 배경 공간에 적용할 빛 속성을 설정할 수 있다. When the user operates the user interface unit 110 and selects a 3D modeling object and a 3D background space, the setting unit 152 places the 3D modeling object at a location designated by the user among the selected 3D background spaces, and places the 3D modeling object in the location selected by the user. You can set the light properties to be applied to the 3D background space.

사용자가 3D 배경 공간의 빛 속성 설정을 요청하면, 설정부(152)는 설정가능한 빛의 세기와 굵기 범위, 빛의 방향, 색온도를 보여주는 설정 메뉴(미도시)를 생성하여 표시부(120)에 표시할 수 있다. 사용자는 설정 메뉴(미도시)를 통해 3D 배경 공간에 적용할 빛의 세기와 굵기를 필수적으로 선택하고, 빛의 방향과 색온도는 생략하거나 추가로 선택할 수 있다. 이는 메타데이터 중 폴리곤과 텍스처는 빛의 속성 중 빛의 세기와 굵기의 영향을 가장 많이 받기 때문이다. 설정부(152)는 3D 배경 공간에 설정된 빛 속성을 배경데이터의 디폴트로서 메모리(140)에 저장할 수 있다.When a user requests setting the light properties of a 3D background space, the setting unit 152 creates a setting menu (not shown) showing the settable light intensity and thickness range, light direction, and color temperature and displays it on the display unit 120. can do. The user essentially selects the intensity and thickness of light to be applied to the 3D background space through the settings menu (not shown), and can omit or additionally select the light direction and color temperature. This is because polygons and textures among metadata are most affected by the intensity and thickness of light among the properties of light. The setting unit 152 may store the light properties set in the 3D background space in the memory 140 as default background data.

딥러닝 학습부(154)는 선택된 3D 모델링 객체의 메타데이터와 설정된 3D 배경 공간의 빛 속성(즉, 배경데이터)을 딥러닝 알고리즘에 적용 및 학습하여 빛 속성에 따라 폴리곤 및 텍스처를 자동으로 추론할 수 있는 추론 모델을 생성할 수 있다. The deep learning learning unit 154 applies and learns the metadata of the selected 3D modeling object and the light properties (i.e., background data) of the set 3D background space to a deep learning algorithm to automatically infer polygons and textures according to the light properties. A capable inference model can be created.

딥러닝 학습부(154)는 분류부(154a), 추론 모델 생성부(154b) 및 적용부(154c)를 포함할 수 있다. The deep learning training unit 154 may include a classification unit 154a, an inference model creation unit 154b, and an application unit 154c.

분류부(154a)는 3D 모델링 객체를 다수의 세부 객체로 분류할 수 있다. 이 때, 분류부(154a)는 다수의 세부 객체들의 오류 여부를 판단하여 정상 객체와 결함 객체로 구분할 수 있다. The classification unit 154a may classify 3D modeling objects into multiple detailed objects. At this time, the classification unit 154a may determine whether there are errors in a number of detailed objects and classify them into normal objects and defective objects.

자세히 설명하면, 분류부(154a)는 3D 모델링 객체를 이루는 각 세부 객체의 좌표를 추출하여 픽셀단위 이미지로 분할한 후 메모리(140)에 저장할 수 있다. 분류부(154a)는 3D 가상객체의 기하학적 분석기법 즉, 입력된 3D 모델링 객체의 분류(Classification), 구성 요소(Parsing/Segmentation), 서브 객체 간 상관 관계(Correspondence) 정보를 추출하는 과정을 거쳐 3D 모델링 객체를 세부 객체들로 세분화하여 분류 및 카테고리화(Categorize)할 수 있다. 3D 모델링 객체가 집인 경우 세부 객체는 지붕, 창문, 출입문, 벽, 바닥, 기둥, 계단 등을 포함할 수 있다. In detail, the classification unit 154a may extract the coordinates of each detailed object constituting the 3D modeling object, divide the coordinates into pixel-unit images, and store them in the memory 140. The classification unit 154a performs a 3D virtual object geometric analysis technique, that is, a process of extracting classification, components (Parsing/Segmentation), and correlation information between sub-objects of the input 3D modeling object. Modeling objects can be classified and categorized by subdividing them into detailed objects. If the 3D modeling object is a house, detailed objects may include roofs, windows, doors, walls, floors, pillars, stairs, etc.

또한, 분류부(154a)는 이러한 분류 동작에서 세부 객체들을 결함이 없는 정상적인 구성 요소(정상 객체)와 결함이 있는 구성 요소(결함 객체)로 분리한 후, 결함의 종류에 따라 정렬하거나, 에지(edge)가 없는 세부 객체(또는 3D 모델링 객체)를 다른 카테고리에 할당하는 등 세부 객체들을 서로 다른 클래스에 할당할 수 있다. In addition, in this classification operation, the classification unit 154a separates detailed objects into normal components without defects (normal objects) and components with defects (defective objects), and then sorts them according to the type of defect or edges ( Detailed objects can be assigned to different classes, such as assigning detailed objects (or 3D modeling objects) without edges to different categories.

예를 들어, 분류부(154a)는 집을 3D 모델링 객체로 모델링하는 작업에서 3D 집에 문제가 발생하지는 않았는지, 또는 3차원으로 모델링된 집의 일부가 부서졌거나, 누락되었는지를 확인하는 작업을 수행하여 Categorize를 진행할 수 있다. For example, in the task of modeling a house as a 3D modeling object, the classification unit 154a performs the task of checking whether a problem has occurred in the 3D house or whether a part of the 3D modeled house is broken or missing. You can proceed with Categorization.

상술한 결함이 있는 3D 모델링 객체를 추출하는 동작은, 잘못 제작된 가상화 모델(즉, 3D 모델링 객체)이 머신러닝 알고리즘 학습/분석과정에서 메타데이터의 값이 잘못 해석될 수 있는 오류를 최소화하기 위함이다. 일 예로, 창문의 변(edge)이 하나 누락된 경우, 폴리곤의 색상은 창문과 연결된 다른 세부 객체로 연결되어 빛 퍼짐 현상이 발생하거나 세부 객체를 명확히 구분할 수 없게 된다.The operation of extracting 3D modeling objects with defects described above is to minimize errors in which incorrectly created virtualization models (i.e., 3D modeling objects) may cause metadata values to be misinterpreted during the machine learning algorithm learning/analysis process. am. For example, if one edge of a window is missing, the color of the polygon is connected to another detailed object connected to the window, resulting in light spreading or the detailed object being unable to be clearly distinguished.

분류부(154a)는 결함 객체가 없는 경우, 도 4와 같이 3D 모델링 객체의 메시(Mesh)를 하나의 클래스에 할당할 수 있다. 이를 통해 분류부(154a)는 3D 모델링 객체의 정점(Vertex), 폴리곤(Polygon) 및 변(Edge)등으로 이루어진 다수의 3D 세부 객체들의 분류 및 식별작업을 수행할 수 있다.If there is no defective object, the classification unit 154a may assign the mesh of the 3D modeling object to one class as shown in FIG. 4. Through this, the classification unit 154a can perform classification and identification of multiple 3D detailed objects consisting of vertices, polygons, and edges of 3D modeling objects.

추론 모델 생성부(154b)는 분류부(154a)에서 3D 모델링 객체에 결함 객체가 불포함된 경우, 추론 모델을 생성할 수 있다. The inference model creation unit 154b may generate an inference model when the 3D modeling object in the classification unit 154a does not include a defect object.

추론 모델 생성부(154b)는 분류부(154a)에서 분류된 각 세부 객체의 메타데이터와 설정부(152)에서 설정된 3D 배경 공간의 빛 속성(즉, 배경데이터의 디폴트)와 3D 배경 공간에 있는 배경 객체(예를 들어, 공원의 나무, 가로등, 건물 등)를 딥러닝 알고리즘 기반으로 학습하여 각 세부 객체 별로 추론 모델을 생성할 수 있다. 배경 객체는 생략될 수도 있다.The inference model creation unit 154b generates the metadata of each detailed object classified in the classification unit 154a, the light properties of the 3D background space (i.e., default background data) set in the setting unit 152, and the light properties in the 3D background space. By learning background objects (for example, trees in a park, street lights, buildings, etc.) based on a deep learning algorithm, an inference model can be created for each detailed object. Background objects may be omitted.

추론 모델은 이후 사용자가 빛 속성을 변경하면 변경된 빛 속성에 따라 3D 모델링 객체에 적용할 폴리곤의 텐션과 개수, 텍스처를 세부 객체 별로 자동으로 추론할 수 있는 AI 모델이다. 이는 동일한 빛 속성에서도 세부 객체의 재질, 세부 객체가 구비된 위치 등에 따라 세부 객체들에 적용될 폴리곤과 텍스처는 상이할 수 있기 때문이다. The inference model is an AI model that can automatically infer the tension, number, and texture of polygons to be applied to the 3D modeling object for each detailed object according to the changed light properties when the user changes the light properties. This is because even with the same light properties, the polygons and textures applied to the detailed objects may be different depending on the material of the detailed object, the location where the detailed object is located, etc.

또한, 추론 모델 생성부(154b)는 사용자가 3D 모델링 객체를 3D 배경 공간에 배치한 위치(X, Y, Z)를 레이블 정보로 이용하여 추론 모델을 생성하는 학습을 반복적으로 수행할 수 있다. 자세히 설명하면, 사용자는 추론 모델이 생성되면, 3D 모델링 객체의 메타데이터를 정정하거나, 3D 모델링 객체가 3D 배경 공간에 배치되는 위치를 변경한 후 다시 추론 모델을 생성하거나 또는 업데이트하도록 요청할 수 있다. Additionally, the inference model generator 154b may repeatedly perform learning to generate an inference model using the position (X, Y, Z) where the user places the 3D modeling object in the 3D background space as label information. In detail, once the inference model is created, the user may request to correct the metadata of the 3D modeling object or change the position where the 3D modeling object is placed in the 3D background space and then create or update the inference model again.

예를 들어, 표시부(120)에 가시화된 3D 가상화 객체의 추론 결과가, 사용자가 원한 결과와 다른 경우, 사용자는 3D 모델링 객체의 메타데이터를 정정한 후 3D 모델링 객체를 3D 배경 공간에 재배치할 수 있다. 분류부(154a)는 재배치된 3D 모델링 객체를 세부 객체로 분류하고, 오류 여부를 판단하며, 추론 모델 생성부(154b)는 재배치된 3D 모델링 객체의 위치를 레이블링한 후 추론 모델을 재생성하거나 업데이트할 수 있다. For example, if the inference result of the 3D virtualized object visualized on the display unit 120 is different from the result desired by the user, the user may correct the metadata of the 3D modeling object and then rearrange the 3D modeling object in the 3D background space. there is. The classification unit 154a classifies the relocated 3D modeling object into detailed objects and determines whether there is an error, and the inference model creation unit 154b labels the location of the relocated 3D modeling object and then regenerates or updates the inference model. You can.

적용부(154c)는 각 세부 객체 별로 생성되는 추론 모델을 이용하여, 빛 속성에 따라 세부 객체 별로 적용할 폴리곤 및 텍스처 정보를 추론하여 세부 객체에 적용할 수 있다. 처음 추론 모델이 생성되면, 적용부(154c)는 설정부(152)에서 디폴트로 설정되는 빛 속성에 해당하는 폴리곤의 텐션과 개수, 텍스처를 세부 객체 별로 추론할 수 있다. The application unit 154c may use an inference model generated for each detailed object to infer polygon and texture information to be applied to each detailed object according to light properties and apply them to the detailed object. When the inference model is first created, the application unit 154c can infer the tension, number, and texture of polygons corresponding to the light properties set as default in the setting unit 152 for each detailed object.

또한, 추론 모델이 생성된 후 사용자가 3D 배경 공간에 적용할 빛 속성을 설정 메뉴(미도시)에서 변경하면, 설정부(152)는 빛 속성을 변경된 값으로 재설정하고, 적용부(154c)는 세부 객체 별로 생성된 추론 모델을 이용하여, 현재 설정된 빛 속성에 따라 폴리곤의 텐션값과 개수, 텍스처를 추론 및 적용할 수 있다. In addition, after the inference model is created, if the user changes the light properties to be applied to the 3D background space in the settings menu (not shown), the setting unit 152 resets the light properties to the changed values, and the application unit 154c Using the inference model created for each detailed object, the tension value, number, and texture of polygons can be inferred and applied according to the currently set light properties.

렌더링부(156)는 적용부(154c)에서 추론 모델에 의해 추론된 폴리곤 및 텍스처가 적용된 각 세부 객체, 즉, 3D 모델링 객체를 렌더링하여 3D 가상화 객체를 생성할 수 있다. The rendering unit 156 may generate a 3D virtualized object by rendering each detailed object to which the polygon and texture inferred by the inference model in the application unit 154c are applied, that is, a 3D modeling object.

가시화부(158)는 생성된 3D 가상화 객체를 3D 배경 공간에 배치한 후 가시화처리하여 도2와 같이 표시부(120)에 표시할 수 있다.The visualization unit 158 can place the generated 3D virtual object in the 3D background space, visualize it, and display it on the display unit 120 as shown in FIG. 2 .

상술한 본 발명의 실시 예에 의하면, 딥러닝 알고리즘으로 3D 모델링 객체의 특성(메타데이터)을 추출 및 분류하고, 추론 모델을 생성하여 반복적인 학습을 통해 빛의 세기와 굵기에 맞게 폴리곤의 면을 부드럽게 만들 수 있는 메시의 텐션 값을 자동으로 생성하고, 폴리곤의 수를 자동으로 조절하며, 3D 모델링 객체의 속성에 맞는 색상과 질감의 텍스처로 자동 매핑하여 최적의 3D 가상화 객체로 렌더링할 수 있다. According to the above-described embodiment of the present invention, the characteristics (metadata) of 3D modeling objects are extracted and classified using a deep learning algorithm, an inference model is created, and the face of the polygon is adjusted according to the intensity and thickness of light through repeated learning. It automatically generates the tension value of the mesh that can be made soft, automatically adjusts the number of polygons, and automatically maps the color and texture to a texture that matches the properties of the 3D modeling object to render it as an optimal 3D virtualization object.

또한, 상술한 본 발명의 실시 예에 의하면, 사용자가 도 2에 도시된 3D 모델링 객체를 선택하여도 3D 배경 공간이 변경되면, 딥러닝 기반 3D 모델링 객체 가시화 장치(100)는 변경된 3D 배경 공간에서 3D 모델링 객체의 폴리곤과 텍스처를 빛 속성에 따라 추론하기 위한 추론 모델을 다시 생성할 수 있다. In addition, according to the above-described embodiment of the present invention, if the 3D background space changes even if the user selects the 3D modeling object shown in FIG. 2, the deep learning-based 3D modeling object visualization device 100 displays in the changed 3D background space. You can re-create an inference model to infer the polygons and textures of 3D modeling objects based on light properties.

도 5는 본 발명의 실시 예에 따른 딥러닝 기반 3D 모델링 객체 가시화 방법을 개략적으로 도시한 흐름도이다.Figure 5 is a flowchart schematically showing a deep learning-based 3D modeling object visualization method according to an embodiment of the present invention.

도 5에 도시된 딥러닝 기반 3D 모델링 객체 가시화 방법을 수행하는 전자장치는 도 1 내지 도 4를 참조하여 설명한 딥러닝 기반 3D 모델링 객체 가시화 장치(100)일 수 있다. 따라서, 딥러닝 기반 3D 모델링 객체 가시화 방법의 자세한 설명은 생략한다. The electronic device that performs the deep learning-based 3D modeling object visualization method shown in FIG. 5 may be the deep learning-based 3D modeling object visualization device 100 described with reference to FIGS. 1 to 4 . Therefore, detailed description of the deep learning-based 3D modeling object visualization method is omitted.

도 5를 참조하면, 전자장치(100)는 사용자 인터페이스부(110)를 통해 선택되는 3D 모델링 객체를 3D 배경 공간에 배치하여 표시부(120)에 표시할 수 있다(S510).Referring to FIG. 5 , the electronic device 100 may place a 3D modeling object selected through the user interface unit 110 in the 3D background space and display it on the display unit 120 (S510).

전자장치(100)는 사용자 인터페이스부(110)를 통해 설정 메뉴에서 선택되는 3D 배경 공간의 빛 속성을 배경데이터의 디폴트로서 설정할 수 있다(S520). 빛 속성은 3D 배경 공간에 적용할 빛의 세기와 굵기, 빛 방향, 색상(또는 색온도)를 포함할 수 있다. The electronic device 100 may set the light properties of the 3D background space selected in the settings menu as default background data through the user interface unit 110 (S520). Light properties may include the intensity and thickness of light to be applied to the 3D background space, light direction, and color (or color temperature).

전자장치(100)는 S510단계에서 선택되는 3D 모델링 객체의 메타데이터를 저장부(130)에서 읽어와 3D 배경 공간의 빛 속성과 함께 메모리(140) 또는 별도의 저장매체(미도시)에 저장할 수 있다(S530).The electronic device 100 can read the metadata of the 3D modeling object selected in step S510 from the storage unit 130 and store it in the memory 140 or a separate storage medium (not shown) along with the light properties of the 3D background space. There is (S530).

전자장치(100)는 S510단계에서 선택된 3D 모델링 객체를 다수의 세부 객체로 분류할 수 있다(S540).The electronic device 100 may classify the 3D modeling object selected in step S510 into a plurality of detailed objects (S540).

전자장치(100)는 S540단계에서 분류된 각 세부 객체의 메타데이터와 S520단계에서 설정된 3D 배경 공간의 빛 속성을 포함하는 배경데이터를 딥러닝 알고리즘 기반으로 학습하여 각 세부 객체 별로 추론 모델을 생성할 수 있다(S550, S560). The electronic device 100 learns background data including the metadata of each detailed object classified in step S540 and the light properties of the 3D background space set in step S520 based on a deep learning algorithm to create an inference model for each detailed object. (S550, S560).

전자장치(100)는 S560단계에서 각 세부 객체 별로 생성되는 추론 모델을 이용하여, 빛 속성에 따라 세부 객체 별로 적용할 폴리곤의 텐션값과 개수, 그리고 텍스처 정보를 추론한 후 추론된 폴리곤 및 텍스처를 해당하는 세부 객체에 적용할 수 있다(S570).The electronic device 100 uses the inference model generated for each detailed object in step S560 to infer the tension value and number of polygons to be applied to each detailed object and texture information according to light properties, and then uses the inferred polygon and texture. It can be applied to the corresponding detailed object (S570).

전자장치(100)는 S570단계에서 추론된 폴리곤 및 텍스처가 적용된 3D 모델링 객체를 렌더링하여 3D 가상화 객체를 생성할 수 있다(S580).The electronic device 100 may generate a 3D virtualized object by rendering the 3D modeling object to which the polygons and textures inferred in step S570 are applied (S580).

전자장치(100)는 S580단계에서 렌더링된 3D 모델링 객체를 3D 배경 공간에 배치 및 가시화처리하여 표시부(120)에 표시할 수 있다(S590). The electronic device 100 may arrange and visualize the 3D modeling object rendered in step S580 in the 3D background space and display it on the display unit 120 (S590).

사용자가 표시부(120)에 3D 가상화 객체가 표시된 후, 3D 모델링 객체의 메타데이터 중 일부를 정정하거나, 3D 모델링 객체가 3D 배경 공간에 배치되는 위치를 변경 요청하면, 전자장치(100)는 상술한 동작을 반복수행하여 추론 모델을 다시 생성하거나 또는 이전에 생성된 추론 모델을 업데이트할 수도 있다. After the 3D virtualized object is displayed on the display unit 120, when the user requests to correct some of the metadata of the 3D modeling object or change the location where the 3D modeling object is placed in the 3D background space, the electronic device 100 performs the above-described You can repeat the operation to re-create the inference model or update a previously created inference model.

이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽어지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다.In the above, even though all the components constituting the embodiment of the present invention have been described as being combined or operated in combination, the present invention is not necessarily limited to this embodiment. That is, as long as it is within the scope of the purpose of the present invention, all of the components may be operated by selectively combining one or more of them. In addition, although all of the components may be implemented as a single independent hardware, a program module in which some or all of the components are selectively combined to perform some or all of the combined functions in one or more pieces of hardware. It may also be implemented as a computer program with . The codes and code segments that make up the computer program can be easily deduced by a person skilled in the art of the present invention. Such a computer program can be stored in a computer-readable storage medium and read and executed by a computer, thereby implementing embodiments of the present invention.

한편, 이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시 예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서, 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주하여야 할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Meanwhile, although the preferred embodiments have been described and illustrated to illustrate the technical idea of the present invention, the present invention is not limited to the configuration and operation as shown and described, and does not deviate from the scope of the technical idea. Without limitation, those skilled in the art will understand that many changes and modifications can be made to the present invention. Accordingly, all such appropriate changes, modifications and equivalents should be considered to fall within the scope of the present invention. Therefore, the true scope of technical protection of the present invention should be determined by the technical spirit of the attached registration claims.

100: 딥러닝 기반 3D 모델링 객체 가시화 장치
110: 사용자 인터페이스부 120: 표시부
130: 저장부 140: 메모리
150: 프로세서 152: 설정부
154: 딥러닝 학습부 156: 렌더링부
158: 가시화부
100: Deep learning-based 3D modeling object visualization device
110: user interface unit 120: display unit
130: storage unit 140: memory
150: Processor 152: Setting unit
154: Deep learning learning unit 156: Rendering unit
158: Visualization department

Claims (11)

3D 모델링 객체를 3D 배경 공간에 배치하고, 상기 3D 배경 공간의 빛 속성을 설정하는 설정부;
상기 3D 모델링 객체의 메타데이터와 상기 3D 배경 공간의 빛 속성을 딥러닝 알고리즘에 적용하여 빛 속성에 따라 폴리곤 및 텍스처를 자동으로 조절하는 추론 모델을 생성하는 딥러닝 학습부;
상기 생성된 추론 모델에 의해 추론되는 폴리곤 및 텍스처가 적용된 3D 모델링 객체를 렌더링하는 렌더링부; 및
상기 렌더링된 3D 모델링 객체가 배치된 3D 배경 공간을 가시화하는 가시화부;를 포함하되,
상기 딥러닝 학습부는
상기 3D 모델링 객체를 이루는 각 세부 객체의 좌표를 추출하여 픽셀단위 이미지로 분할하여 메모리에 저장하고 3D 모델링 객체의 분류, 구성요소, 서브 객체간 상관관계 정보를 추출하여 세부 객체들로 분류 및 카테고리화 하는 분류부;
상기 분류부에서 분류된 각 세부 객체의 메타데이터와 상기 3D 배경 공간의 빛 속성을 포함하는 배경데이터를 상기 딥러닝 알고리즘 기반으로 학습하여 각 세부 객체 별로 추론 모델을 생성하는 추론 모델 생성부; 및
각 세부 객체 별로 생성되는 추론 모델을 이용하여, 동일한 세부 객체에 대해 빛의 세기, 굵기, 방향, 색온도에 따라 세부 객체 별로 적용할 폴리곤 텐션값과 개수 및 폴리곤에 적용할 색상, 명도, 질감 정보 중 하나를 포함하는 텍스처 정보를 추론 및 적용하는 적용부;
를 포함하는 것을 특징으로 하는 딥러닝 기반 3D 모델링 객체 가시화 장치.
a setting unit that places a 3D modeling object in a 3D background space and sets light properties of the 3D background space;
A deep learning learning unit that generates an inference model that automatically adjusts polygons and textures according to light properties by applying metadata of the 3D modeling object and light properties of the 3D background space to a deep learning algorithm;
A rendering unit that renders a 3D modeling object to which polygons and textures inferred by the generated inference model are applied; and
A visualization unit that visualizes the 3D background space in which the rendered 3D modeling object is placed,
The deep learning department
Extract the coordinates of each detailed object that makes up the 3D modeling object, divide it into a pixel-unit image and store it in memory, classify and categorize the 3D modeling object into detailed objects by extracting correlation information between classification, components, and sub-objects. a classification unit that does;
an inference model generator for generating an inference model for each detailed object by learning background data including metadata of each detailed object classified by the classification unit and light properties of the 3D background space based on the deep learning algorithm; and
Using the inference model created for each detailed object, the polygon tension value and number to be applied to each detailed object and the color, brightness, and texture information to be applied to the polygon according to the light intensity, thickness, direction, and color temperature for the same detailed object. an application unit that infers and applies texture information including one;
A deep learning-based 3D modeling object visualization device comprising a.
삭제delete 제1항에 있어서,
상기 분류부는,
상기 다수의 세부 객체들의 오류 여부를 판단하여 정상 객체와 결함 객체로 구분하고,
상기 추론 모델 생성부는,
상기 3D 모델링 객체에 결함 객체가 불포함된 경우, 추론 모델을 생성하는 것을 특징으로 하는 딥러닝 기반 3D 모델링 객체 가시화 장치.
According to paragraph 1,
The classification department,
Determine whether there are errors in the plurality of detailed objects and classify them into normal objects and defective objects,
The inference model generator,
A deep learning-based 3D modeling object visualization device that generates an inference model when the 3D modeling object does not include a defective object.
삭제delete 제1항에 있어서,
상기 설정부는,
상기 3D 배경 공간에 적용할 빛의 세기, 굵기 및 색온도 중 적어도 하나를 포함하는 빛 속성을 설정하는 것을 특징으로 하는 딥러닝 기반 3D 모델링 객체 가시화 장치.
According to paragraph 1,
The settings section,
A deep learning-based 3D modeling object visualization device, characterized in that setting light properties including at least one of light intensity, thickness, and color temperature to be applied to the 3D background space.
제1항에 있어서,
상기 3D 모델링 객체의 메타데이터는 질감, 크기 및 세부 속성 정보를 포함하고,
상기 세부 속성 정보는,
빛의 세기, 빛의 굵기, 빛의 방향 및 빛의 색온도에 따라 3D 모델링 객체의 세부 객체 별로 적용할 폴리곤의 텐션과 개수, 텍스처 정보를 매핑한 데이터인 것을 특징으로 하는 딥러닝 기반 3D 모델링 객체 가시화 장치.
According to paragraph 1,
The metadata of the 3D modeling object includes texture, size, and detailed attribute information,
The detailed attribute information is,
Deep learning-based 3D modeling object visualization, characterized in that it is data that maps the tension, number, and texture information of polygons to be applied to each detailed object of the 3D modeling object according to the intensity of light, thickness of light, direction of light, and color temperature of light. Device.
(A) 전자장치가, 3D 모델링 객체를 3D 배경 공간에 배치하고, 상기 3D 배경 공간에 적용할 빛의 세기, 굵기 및 색온도 중 적어도 하나를 포함하는 빛 속성을 설정하는 단계;
(B1) 상기 3D 모델링 객체를 각 세부 객체의 좌표를 추출하여 픽셀단위 이미지로 분할하여 메모리에 저장하고 3D 모델링 객체의 분류, 구성요소, 서브 객체간 상관관계 정보를 추출하여 세부 객체들로 분류 및 카테고리화 하는 분류하는 단계;
(B2) 상기 (B1)단계에서 분류된 각 세부 객체의 질감, 크기 및 빛의 세기, 굵기, 방향 및 색온도에 따라 3D 모델링 객체의 세부 객체 별로 적용할 폴리곤의 텐션과 개수, 폴리곤에 적용할 색상, 명도, 질감 정보 중 하나를 포함하는 텍스처, 명도 정보 중 적어도 하나를 매핑한 데이터를 포함하는 메타데이터와 상기 3D 배경 공간의 빛 속성을 포함하는 배경데이터를 딥러닝 알고리즘 기반으로 학습하여 각 세부 객체 별로 추론 모델을 생성하는 단계; 및
(B3) 상기 (B2) 단계에서 각 세부 객체 별로 생성되는 추론 모델을 이용하여, 빛 속성에 따라 세부 객체 별로 적용할 폴리곤 및 텍스처 정보를 추론 및 적용하는 단계;
(C) 상기 전자장치가, 상기 생성된 추론 모델에 의해 추론되는 폴리곤 및 텍스처가 적용된 3D 모델링 객체를 렌더링하는 단계; 및
(D) 상기 전자장치가, 상기 렌더링된 3D 모델링 객체가 배치된 3D 배경 공간을 가시화하는 단계;
를 포함하는 딥러닝 기반 3D 모델링 객체 가시화 방법.
(A) placing, by an electronic device, a 3D modeling object in a 3D background space and setting light properties including at least one of light intensity, thickness, and color temperature to be applied to the 3D background space;
(B1) Extract the coordinates of each detailed object from the 3D modeling object, divide it into pixel-unit images and store them in memory, extract the correlation information between classification, components, and sub-objects of the 3D modeling object, and classify it into detailed objects. The step of classifying into categories;
(B2) The tension and number of polygons to be applied to each detailed object of the 3D modeling object, and the color to be applied to the polygon, according to the texture, size, light intensity, thickness, direction, and color temperature of each detailed object classified in step (B1) above. , texture containing one of brightness and texture information, metadata containing data mapping at least one of brightness information, and background data containing light properties of the 3D background space are learned based on a deep learning algorithm to create each detailed object. generating a separate inference model; and
(B3) using the inference model generated for each detailed object in step (B2), inferring and applying polygon and texture information to be applied to each detailed object according to light properties;
(C) rendering, by the electronic device, a 3D modeling object to which polygons and textures inferred by the generated inference model are applied; and
(D) visualizing, by the electronic device, a 3D background space where the rendered 3D modeling object is placed;
Deep learning-based 3D modeling object visualization method including.
삭제delete 제7항에 있어서,
상기 (B1) 단계는,
상기 다수의 세부 객체들의 오류 여부를 판단하여 정상 객체와 결함 객체로 구분하고,
상기 (B2) 단계는,
상기 3D 모델링 객체에 결함 객체가 불포함된 경우, 추론 모델을 생성하는 것을 특징으로 하는 딥러닝 기반 3D 모델링 객체 가시화 방법.
In clause 7,
In step (B1),
Determine whether there are errors in the plurality of detailed objects and classify them into normal objects and defective objects,
In step (B2),
A deep learning-based 3D modeling object visualization method, characterized in that generating an inference model when the 3D modeling object does not include a defective object.
삭제delete 삭제delete
KR1020210179458A 2021-12-15 2021-12-15 Deep learning-based 3D modeling object visualization apparatus and method KR102674699B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210179458A KR102674699B1 (en) 2021-12-15 2021-12-15 Deep learning-based 3D modeling object visualization apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210179458A KR102674699B1 (en) 2021-12-15 2021-12-15 Deep learning-based 3D modeling object visualization apparatus and method

Publications (2)

Publication Number Publication Date
KR20230090578A KR20230090578A (en) 2023-06-22
KR102674699B1 true KR102674699B1 (en) 2024-06-14

Family

ID=86989036

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210179458A KR102674699B1 (en) 2021-12-15 2021-12-15 Deep learning-based 3D modeling object visualization apparatus and method

Country Status (1)

Country Link
KR (1) KR102674699B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101817753B1 (en) * 2016-12-28 2018-01-11 (주)앤미디어 PTM making system with improved shape of 3D model and method using the same
JP2021508869A (en) * 2017-12-22 2021-03-11 マジック リープ, インコーポレイテッドMagic Leap,Inc. Multi-step block mesh simplification
KR102291162B1 (en) * 2020-12-01 2021-08-20 주식회사 딥노이드 Apparatus and method for generating virtual data for artificial intelligence learning

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101586010B1 (en) 2014-04-28 2016-01-15 (주)에프엑스기어 Apparatus and method for physical simulation of cloth for virtual fitting based on augmented reality
KR101792250B1 (en) * 2017-02-23 2017-11-02 주식회사 비즈모델라인 Method for Providing Adaptive Augmented Reality to Real World
KR102559202B1 (en) * 2018-03-27 2023-07-25 삼성전자주식회사 Method and apparatus for 3d rendering

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101817753B1 (en) * 2016-12-28 2018-01-11 (주)앤미디어 PTM making system with improved shape of 3D model and method using the same
JP2021508869A (en) * 2017-12-22 2021-03-11 マジック リープ, インコーポレイテッドMagic Leap,Inc. Multi-step block mesh simplification
KR102291162B1 (en) * 2020-12-01 2021-08-20 주식회사 딥노이드 Apparatus and method for generating virtual data for artificial intelligence learning

Also Published As

Publication number Publication date
KR20230090578A (en) 2023-06-22

Similar Documents

Publication Publication Date Title
Hughes Computer graphics: principles and practice
US7170510B2 (en) Method and apparatus for indicating a usage context of a computational resource through visual effects
US20210232634A1 (en) Quantified euler analysis
US8988433B2 (en) Systems and methods for primitive intersection in ray tracing
EP1946273A1 (en) Sketching reality
JPH02287776A (en) Method for adopting hierarchical display list in global rendering
KR20120054750A (en) Method and apparatus for selective display
CN112991377A (en) Keying algorithm based on opencv and shader fusion technology
CN111124119A (en) Building model presenting and interacting method based on virtual reality technology
WO2023159595A1 (en) Method and device for constructing and configuring three-dimensional space scene model, and computer program product
CN111724462A (en) Three-dimensional rendering method in Chrome browser
Agnello et al. Virtual reality for historical architecture
KR102486770B1 (en) Control method of electronic apparatus for automatically generating virtual object based on building information
KR102674699B1 (en) Deep learning-based 3D modeling object visualization apparatus and method
EP2801971A1 (en) A method of and system for rendering an image
JP2001134633A (en) Electronic drawing viewer
CN113360151B (en) UI data set automatic generation method and system for RPA system
CN115730157A (en) Method and system for rapidly displaying lines of dwg drawing in Web
Krebs Basics cad
US10963205B2 (en) Augmented reality state room
CN114861612A (en) Text labeling method and device
JP4585298B2 (en) Drawing method and apparatus
KR20000068191A (en) Fast processing of image primitives
US8601398B2 (en) Data-driven interface for managing materials
JP2022017691A (en) Image processing device and program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant