KR20220170589A - Depth map image generation method and computing device therefor - Google Patents
Depth map image generation method and computing device therefor Download PDFInfo
- Publication number
- KR20220170589A KR20220170589A KR1020210081608A KR20210081608A KR20220170589A KR 20220170589 A KR20220170589 A KR 20220170589A KR 1020210081608 A KR1020210081608 A KR 1020210081608A KR 20210081608 A KR20210081608 A KR 20210081608A KR 20220170589 A KR20220170589 A KR 20220170589A
- Authority
- KR
- South Korea
- Prior art keywords
- depth map
- image
- map image
- training
- neural network
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 33
- 238000012549 training Methods 0.000 claims abstract description 142
- 238000013528 artificial neural network Methods 0.000 claims abstract description 89
- 230000009466 transformation Effects 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 18
- 230000004044 response Effects 0.000 claims description 4
- 230000001131 transforming effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 31
- 238000004364 calculation method Methods 0.000 description 19
- 238000003384 imaging method Methods 0.000 description 11
- 238000005457 optimization Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 241000404883 Pisa Species 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
본 출원은 깊이 맵 이미지 생성 방법 및 그를 위한 컴퓨팅 장치에 관한 것이다.The present application relates to a method for generating a depth map image and a computing device therefor.
근래에 들어서는 실제 공간에 대응되는 온라인 상의 가상 공간을 제공받음으로써, 사용자가 직접 실제 공간에 방문하지 않고서도 실제 공간에 있는 듯한 체험이 가능한 가상공간 구현기술이 개발되고 있다. In recent years, virtual space realization technology has been developed that allows users to experience as if they are in a real space without directly visiting the real space by being provided with an online virtual space corresponding to the real space.
이러한 가상공간을 구현하기 위해서는, 구현하고자 하는 실제 공간을 대상으로 촬영된 평면 이미지를 획득하고, 이를 기초로 입체적인 가상 이미지를 생성하여 가상 공간을 제공하는 과정이 필요하다. In order to implement such a virtual space, it is necessary to acquire a plane image photographed for a real space to be implemented, and create a three-dimensional virtual image based on this to provide the virtual space.
이러한 종래 기술의 경우, 평면 이미지를 기초로 가상 이미지를 제공하나, 종래의 가상 공간에서는 거리 정보를 알 수 없어 실체감 및 입체적 정보가 결여되어 있는 한계가 있다.In the case of such a prior art, a virtual image is provided based on a flat image, but there is a limit in that a sense of reality and three-dimensional information are lacking because distance information is not known in a conventional virtual space.
본 출원의 일 기술적 측면은 상기한 종래 기술의 문제점을 해결하기 위한 것으로, 본 출원에 개시되는 일 실시예에 따르면, 가상 공간에 대하여 거리 정보를 제공하는 것을 목적으로 한다.One technical aspect of the present application is to solve the above problems of the prior art, and, according to an embodiment disclosed in the present application, aims to provide distance information with respect to a virtual space.
본 출원에 개시되는 일 실시예에 따르면, 하나의 RGB 이미지와 그에 대한 거리 맵 이미지를 이용하여 다양한 학습 데이터 셋을 생성하는 것을 목적으로 한다.According to an embodiment disclosed in the present application, an object is to generate various learning data sets using one RGB image and a distance map image for the RGB image.
본 출원에 개시되는 일 실시예에 따르면, 뉴럴 네트워크 모델을 이용하여 학습을 기반으로 RBG 이미지로부터 깊이 맵 이미지를 생성하는 것을 목적으로 한다.According to an embodiment disclosed in the present application, an object is to generate a depth map image from an RBG image based on learning using a neural network model.
본 출원의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The tasks of the present application are not limited to the tasks mentioned above, and other tasks not mentioned will be clearly understood by those skilled in the art from the description below.
본 출원의 일 기술적 측면은 컴퓨팅 장치를 제안한다. 상기 컴퓨팅 장치는, 하나 이상의 인스트럭션을 저장하는 메모리; 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 뉴럴 네트워크를 이용하여 학습 RGB 이미지에 대한 추정 깊이 맵 이미지를 생성하고, 구형 변환을 기반으로 산출된, 학습 깊이 맵 이미지 -상기 학습 깊이 맵 이미지는 상기 학습 RGB 이미지에 매치되고 깊이 정보를 가짐- 및 상기 추정 깊이 맵 이미지 간의 차이를 기초로 상기 뉴럴 네트워크를 트레이닝 할 수 있다.One technical aspect of the present application proposes a computing device. The computing device includes a memory for storing one or more instructions; and a processor that executes the one or more instructions stored in the memory, by executing the one or more instructions, the processor generates an estimated depth map image for the training RGB image using a neural network, and performs a spherical transform. The neural network may be trained based on a difference between the training depth map image calculated based on the training depth map image, which matches the training RGB image and has depth information, and the estimated depth map image.
본 출원의 다른 일 기술적 측면은 컴퓨팅 장치를 제안한다. 상기 컴퓨팅 장치는 RGB 이미지와 깊이 맵 이미지를 이용하여 구형 가상 이미지를 생성하는 컴퓨팅 장치로서, 하나 이상의 인스트럭션을 저장하는 메모리, 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 뉴럴 네트워크를 이용하여 질의 RGB 이미지에 대한 추정 깊이 맵 이미지를 생성하고, 상기 질의 RGB 이미지와 상기 추정 깊이 맵 이미지를 이용하여 상기 구형 가상 이미지 - 상기 구형 가상 이미지는 가상 이미지에 포함된 적어도 하나의 지점에 대한 거리 정보를 포함하고, 상기 거리 정보는 상기 추정 깊이 맵을 기초로 결정됨- 를 생성할 수 있다.Another technical aspect of the present application proposes a computing device. The computing device is a computing device that generates a spherical virtual image using an RGB image and a depth map image, and includes a memory for storing one or more instructions, and a processor for executing the one or more instructions stored in the memory, wherein the processor generates an estimated depth map image for the query RGB image using a neural network by executing the one or more instructions, and the spherical virtual image - the spherical virtual image using the query RGB image and the estimated depth map image. Include distance information about at least one point included in the virtual image, and the distance information is determined based on the estimated depth map.
본 출원의 다른 일 기술적 측면은 깊이 맵 이미지 생성 방법을 제안한다. 상기 깊이 맵 이미지 생성 방법은, 컴퓨팅 장치에서 수행되는 깊이 맵 이미지 생성 방법으로서, 뉴럴 네트워크를 이용하여 학습 RGB 이미지에 대한 추정 깊이 맵을 생성하는 동작 및 구형 변환을 기반으로 산출된, 학습 깊이 맵 -상기 학습 깊이 맵은 상기 학습 RGB 이미지에 매치되고 깊이 정보를 가짐- 및 상기 추정 깊이 맵 간의 차이를 기초로 상기 뉴럴 네트워크를 트레이닝 하는 동작을 포함할 수 있다.Another technical aspect of the present application proposes a method for generating a depth map image. The method for generating a depth map image is a method for generating a depth map image performed in a computing device, and a learning depth map calculated based on an operation of generating an estimated depth map for a training RGB image using a neural network and a spherical transformation- The training depth map may include training the neural network based on a difference between the learning depth map matched to the training RGB image and having depth information and the estimated depth map.
본 출원의 다른 일 기술적 측면은 저장 매체를 제안한다. 상기 저장 매체는, 컴퓨터 판독 가능한 인스트럭션들(instructions)을 저장하고 있는 저장 매체이다. 상기 인스트럭션들은, 컴퓨팅 장치에 의해 실행될 때, 상기 컴퓨팅 장치로 하여금, 뉴럴 네트워크를 이용하여 학습 RGB 이미지에 대한 추정 깊이 맵을 생성하는 동작 및 구형 변환을 기반으로 산출된, 학습 깊이 맵 -상기 학습 깊이 맵은 상기 학습 RGB 이미지에 매치되고 깊이 정보를 가짐- 및 상기 추정 깊이 맵 간의 차이를 기초로 상기 뉴럴 네트워크를 트레이닝 하는 동작을 수행하도록 할 수 있다.Another technical aspect of the present application proposes a storage medium. The storage medium is a storage medium storing computer readable instructions. The instructions, when executed by a computing device, cause the computing device to generate an estimated depth map for a training RGB image using a neural network, and a learning depth map calculated based on a spherical transform - the learning depth. An operation of training the neural network may be performed based on a difference between a map matched to the training RGB image and having depth information and the estimated depth map.
상기한 과제의 해결 수단은, 본 출원의 특징을 모두 열거한 것은 아니다. 본 출원의 과제 해결을 위한 다양한 수단들은 이하의 상세한 설명의 구체적인 실시형태를 참조하여 보다 상세하게 이해될 수 있을 것이다.The means for solving the problems described above do not enumerate all the features of the present application. Various means for solving the problems of the present application will be understood in more detail with reference to specific embodiments of the detailed description below.
본 출원에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.According to the present application, there are one or more of the following effects.
본 출원에 개시되는 일 실시예에 따르면, 가상 공간에 대하여 거리 정보를 제공할 수 있는 효과가 있다.According to an embodiment disclosed in the present application, there is an effect of providing distance information with respect to a virtual space.
본 출원에 개시되는 일 실시예에 따르면, 하나의 RGB 이미지와 그에 대한 거리 맵 이미지를 이용하여 다수의 학습 데이터 셋을 생성할 수 있는 효과가 있다.According to an embodiment disclosed in the present application, there is an effect of generating a plurality of training data sets using one RGB image and a distance map image thereof.
본 출원에 개시되는 일 실시예에 따르면, 뉴럴 네트워크 모델을 이용하여 학습을 기반으로 RBG 이미지로부터 깊이 맵 이미지를 생성할 수 있으며, 이를 이용하여, RGB 이미지만으로도 깊이 정보를 포함하는 가상 공간을 제공할 수 있는 효과가 있다.According to an embodiment disclosed in the present application, a depth map image may be generated from an RBG image based on learning using a neural network model, and a virtual space including depth information may be provided using only the RGB image. There are possible effects.
본 출원에 개시되는 일 실시예에 따르면, 뉴럴 네트워크의 학습을 위하여 사용되는 로스(Loss)를 산출함에 있어서, 다수의 함수를 조합적으로 사용함으로써, 로스 범위를 최소한으로 감소시킬 수 있는 효과가 있다.According to an embodiment disclosed in the present application, in calculating a loss used for learning a neural network, by using a plurality of functions in combination, the loss range can be reduced to a minimum. .
본 출원의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present application are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.
도 1은 본 출원에 개시되는 일 실시예에 따른 깊이 맵 이미지를 기반으로 하여 구형 가상 이미지를 제공하는 시스템을 설명하기 위한 하나의 예시 도면이다.
도 2는 본 출원에 개시되는 일 실시예에 따른 컴퓨팅 장치를 설명하는 블록 구성도이다.
도 3은 본 출원에 개시되는 일 실시예에 따른 학습 데이터 생성 아키텍처를 설명하는 도면이다.
도 4는 본 출원에 개시되는 일 실시예에 따른 등장방형 투영 이미지와, 그를 이용하여 생성된 구형 가상 이미지를 도시하는 도면이다.
도 5는 본 출원에 개시되는 일 실시예에 따른 학습 데이터가 생성되는 방법을 설명하는 도면이다.
도6은 일 예에 따른 기초 RGB 및 기초 깊이 맵을 기초로 다량의 학습 데이터 셋을 생성하는 예를 설명하기 위한 도면이다.
도 7은 본 출원에 개시되는 일 실시예에 따른 뉴럴 네트워크 아키텍처의 일예를 설명하는 도면이다.
도 8은 본 출원에 개시되는 일 실시예에 따른 뉴럴 네트워크 아키텍처의 다른 일 예를 설명하는 도면이다.
도 9는 본 출원에 개시되는 일 실시예에 따른 뉴럴 네트워크를 이용한 트레이닝 방법을 설명하는 도면이다.
도 10은 본 출원에 개시되는 일 실시예에 따른 등장방형 투영 이미지와, 그를 이용하여 생성된 구형 가상 이미지 간의 차이를 예시하는 도면이다.
도 11은 본 출원에 개시되는 일 실시예에 따른 트레이닝 모듈에 의한 트레이닝 방법을 설명하는 도면이다.
도 12는 본 출원에 개시되는 일 실시예에 따른 로스 산출 방법을 설명하는 도면이다.
도 13은 일 예에 따른 학습 RGB, 학습 깊이 맵, 추정 깊이 맵 및 추정 깊이 맵과 학습 깊이 맵 간의 차이 이미지를 도시하는 도면이다.
도 14는 본 출원에 개시되는 일 실시예에 따른 구형 가상 이미지 생성 아키텍처를 설명하는 도면이다.
도 15는 본 출원에 개시되는 일 실시예에 따른 구형 가상 이미지를 사용자에게 제공하는 방법을 설명하는 도면이다.
도 16은 본 출원에 개시되는 일 실시예에 따른 구형 변환을 설명하기 위한 도면이다. 1 is an exemplary diagram for explaining a system for providing a spherical virtual image based on a depth map image according to an embodiment disclosed in the present application.
2 is a block diagram illustrating a computing device according to an exemplary embodiment disclosed in the present application.
3 is a diagram illustrating an architecture for generating learning data according to an embodiment disclosed in the present application.
4 is a diagram illustrating an equirectangular projection image and a spherical virtual image generated using the equirectangular projection image according to an embodiment disclosed in the present application.
5 is a diagram explaining a method of generating learning data according to an embodiment disclosed in the present application.
6 is a diagram for explaining an example of generating a large amount of training data sets based on basic RGB and basic depth maps according to an example.
7 is a diagram for explaining an example of a neural network architecture according to an embodiment disclosed in the present application.
8 is a diagram for explaining another example of a neural network architecture according to an embodiment disclosed in the present application.
9 is a diagram explaining a training method using a neural network according to an embodiment disclosed in the present application.
10 is a diagram illustrating a difference between an equirectangular projection image according to an embodiment disclosed in the present application and a spherical virtual image generated using the same.
11 is a diagram explaining a training method using a training module according to an embodiment disclosed in the present application.
12 is a diagram explaining a loss calculation method according to an embodiment disclosed in the present application.
13 is a diagram illustrating a learning RGB, a learning depth map, an estimated depth map, and a difference image between the estimated depth map and the learning depth map according to an example.
14 is a diagram illustrating an architecture for generating a spherical virtual image according to an embodiment disclosed in the present application.
15 is a diagram explaining a method of providing a spherical virtual image to a user according to an embodiment disclosed in the present application.
16 is a diagram for explaining spherical transformation according to an embodiment disclosed in the present application.
이하, 첨부된 도면을 참조하여 본 출원의 바람직한 실시 형태들을 설명한다. Hereinafter, preferred embodiments of the present application will be described with reference to the accompanying drawings.
그러나, 본 출원의 실시형태는 여러 가지 다른 형태로 변형될 수 있으며, 본 출원의 범위가 이하 설명하는 실시 형태로 한정되는 것은 아니다. 또한, 본 출원의 실시형태는 당해 기술분야에서 평균적인 지식을 가진 자에게 본 출원을 더욱 완전하게 설명하기 위해서 제공되는 것이다. However, the embodiments of the present application may be modified in many different forms, and the scope of the present application is not limited to the embodiments described below. In addition, the embodiments of the present application are provided to more completely explain the present application to those skilled in the art.
본 출원의 다양한 실시 예들 및 이에 사용된 용어들은 본 출원에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 출원에서, "A 또는 B", "A 및 B 중 적어도 하나","A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나" 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예를 들어, 중요성 또는 순서)에서 한정하지 않는다. 어떤(예를 들어, 제 1) 구성요소가 다른(예를 들어, 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드", "커넥티드" 또는 "연결된" 이라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.Various embodiments of the present application and terms used therein are not intended to limit the technical features described in the present application to specific embodiments, and should be understood to include various modifications, equivalents, or substitutes of the embodiments. In connection with the description of the drawings, like reference numbers may be used for like or related elements. The singular form of a noun corresponding to an item may include one item or a plurality of items, unless the relevant context clearly dictates otherwise. In this application, "A or B", "at least one of A and B", "at least one of A or B", "A, B or C", "at least one of A, B and C" and "A, Each of the phrases such as "at least one of B or C" may include any one of the items listed together in the corresponding one of the phrases, or all possible combinations thereof. Terms such as "first", "second", or "first" or "second" may simply be used to distinguish that component from other corresponding components, and may refer to that component in other aspects (e.g., importance or order). A (e.g., first) component is "coupled" to another (e.g., second) component, with or without the terms "functionally" or "communicatively". When referred to as "connected" or "connected", it means that the certain component can be connected to the other component directly or through a third component.
본 출원에서 사용된 용어 "모듈"은 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.The term "module" used in this application means a unit that processes at least one function or operation, which may be implemented as software or a combination of hardware and software.
본 출원의 다양한 실시 예들은 기기(machine)(예를 들어, 사용자 단말(100)이나 컴퓨팅 장치(300))에 의해 읽을 수 있는 저장 매체(storage medium)에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예를 들어, 프로그램)로서 구현될 수 있다. 예를 들면, 프로세서(301)는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 장치가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예를 들어, 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present application are software (eg,
실시 예에 따르면, 본 출원에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예를 들어, compact disc read only memory (CDROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예를 들어, 플레이 스토어™)를 통해 또는 두개의 사용자 장치들(예를 들어, 스마트폰들) 간에 직접, 온라인으로 배포(예를 들어, 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to embodiments, methods according to various embodiments disclosed in this application may be included in and provided in a computer program product. Computer program products may be traded between sellers and buyers as commodities. A computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CDROM)), or through an application store (eg Play Store™) or on two user devices. It can be distributed (eg, downloaded or uploaded) online, directly between (eg, smart phones). In the case of online distribution, at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.
다양한 실시 예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예를 들어, 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시 예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예를 들어, 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (eg, module or program) of the components described above may include singular or plural entities. According to various embodiments, one or more components or operations among the aforementioned components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by a corresponding component of the plurality of components prior to the integration. . According to various embodiments, operations performed by modules, programs, or other components are executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations are executed in a different order, omitted, or , or one or more other operations may be added.
본 출원의 실시형태를 설명하기 위하여 다양한 순서도가 개시되고 있으나, 이는 각 단계의 설명의 편의를 위한 것으로, 반드시 순서도의 순서에 따라 각 단계가 수행되는 것은 아니다. 즉, 순서도에서의 각 단계는, 서로 동시에 수행되거나, 순서도에 따른 순서대로 수행되거나, 또는 순서도에서의 순서와 반대의 순서로도 수행될 수 있다. Although various flow charts have been disclosed to describe the embodiments of the present application, this is for convenience of explanation of each step, and each step is not necessarily performed in the order of the flowchart. That is, each step in the flowchart may be performed simultaneously with each other, in an order according to the flowchart, or in an order reverse to that in the flowchart.
도 1은 본 출원에 개시되는 일 실시예에 따른 깊이 맵 이미지를 기반으로 하여 구형 가상 이미지를 제공하는 시스템을 설명하기 위한 하나의 예시 도면이다.1 is an exemplary diagram for explaining a system for providing a spherical virtual image based on a depth map image according to an embodiment disclosed in the present application.
깊이 맵 이미지를 기반으로 하여 구형 가상 이미지를 제공하는 시스템(10)은 사용자 단말기(100), 이미지 취득 장치(200) 및 컴퓨팅 장치(300)를 포함할 수 있다. The
사용자 단말기(100)는 사용자가 컴퓨팅 장치(300)에 접근하기 위하여 사용 가능한 전자 기기로서, 예를 들어, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 퍼스널 컴퓨터(PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등을 포괄한다. 그러나, 그 외에도 사용자 단말기(100)는 VR(Virtual Reality), AR(Augmented Reality)에 사용되는 전자 기기를 포함할 수 있다.The
이미지 취득 장치(200)는 구형 가상 이미지를 생성하는데 사용되는, RGB 이미지 및/또는 깊이 맵 이미지를 생성하는 장치이다. The
도시된 예에서, 이미지 취득 장치(200)는 거리측정 장치(210) 및 촬상 장치(220)로 구분되어 도시되어 있으나, 이는 예시적인 것으로서, 하나의 이미지 취득 장치(200)를 이용하여 거리 측정 및 촬상을 수행할 수도 있다.In the illustrated example, the
촬상 장치(220)는 촬영 기능을 가진 휴대용 전자 기기로서, 피사 영역 -즉, RGB 이미지에 촬상된 영역-에 대하여 색으로 표현되는 RGB 이미지를 생성한다.The
즉, 본 출원 명세서에서, RGB 이미지는 색으로 표현되는 이미지를 모두 포괄하는 것으로서, 특정한 표현 방식으로 제한하는 것은 아니다. 따라서, CMYK(Cyan Magenta Yellow Key)로 표현되는 이미지 또한 본 출원 명세서에서는 RGB 이미지로 통칭하여 설명한다.That is, in the specification of the present application, an RGB image encompasses all images expressed in color, and is not limited to a specific expression method. Therefore, images expressed in CMYK (Cyan Magenta Yellow Key) are also collectively referred to as RGB images in the present application.
촬상 장치(220)는, 예를 들어, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), PDA(personal digital assistants), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 촬영 디바이스(wearable device, 예를 들어, 글래스형 단말기 (smart glass)) 등을 포괄한다.The
거리측정 장치(210)는 피사 영역에 대하여 깊이 정보를 생성하여 깊이 맵 이미지를 생성할 수 있는 장치이다.The
본 출원 명세서에서, 깊이 맵 이미지는 피사 공간에 대하여 깊이 정보를 포함하는 이미지를 포괄한다. 즉, 깊이 맵 이미지는, 촬영된 피사 공간의 각 지점에 대하여, 촬상 지점에서 각 지점까지의 거리 정보로 표현되는 이미지를 의미한다.In the present application specification, a depth map image encompasses an image including depth information with respect to a subject space. That is, the depth map image refers to an image represented by distance information from an imaging point to each point with respect to each point in the photographed subject space.
거리측정 장치(210)는, 거리 측정을 위한 소정의 센서, 예컨대, 라이다 센서, 적외선 센서, 초음파 센서 등을 포함할 수 있다. 또는, 거리 측정 촬상 장치(220)는 센서를 대체하여 거리 정보를 측정할 수 있는 스테레오 카메라(stereo camera), 스테레오스코픽 카메라(stereoscopic camera), 3D 깊이 카메라(3D, depth camera) 등을 포함할 수 있다.The
촬상 장치(220)에 의하여 생성된 이미지는 기초 RGB 이미지라 하고, 거리 측정 장치(210)에 의하여 생성된 이미지는 기초 깊이 맵 이미지라 한다. 촬상 장치(220)에 의하여 생성된 기초 RGB 이미지와 거리 측정 장치(210)에 의하여 생성된 기초 깊이 맵 이미지는 동일한 피사 영역에 대하여 동일한 조건(예컨대, 해상도 등)을 대상으로 생성되므로, 서로 1:1로 매칭된다. An image generated by the
컴퓨팅 장치(300)는 기초 RGB 이미지와 기초 깊이 맵 이미지를 전달받아, 학습을 진행할 수 있다. 여기서 기초 RGB 이미지와 기초 깊이 맵 이미지를 전달은 네트워크를 통해 전달될 수 있다.The
컴퓨팅 장치(300)는 진행된 학습을 기반으로 구형 가상 이미지를 생성할 수 있다. 또한, 컴퓨팅 장치(300)는, 생성된 구형 가상 이미지를 사용자 단말(100)에 제공하게 된다. 여기에서, 구형 가상 이미지 제공은 다양한 형태로 이루어질 수 있으며, 일 예로 사용자 단말(100)에서 구동되도록 구형 가상 이미지를 제공하거나, 또는 다른 예로, 컴퓨팅 장치(300)에서 구현된 구형 가상 이미지에 대한 사용자의 인터페이스를 제공하는 것을 포함한다.The
컴퓨팅 장치(300)에서 사용자 단말(100)로의 구형 가상 이미지 제공 또한 네트워크를 통해 제공될 수 있다.The provision of a spherical virtual image from the
컴퓨팅 장치(300)는 기초 RGB 이미지와 기초 깊이 맵 이미지를 변환하여, 다수의 학습 RGB 이미지와 학습 깊이 맵 이미지를 생성할 수 있다. 이는, 구형 가상 이미지를 사용하는 특징적인 환경을 이용한 것으로, 기초 RGB 이미지와 기초 깊이 맵 이미지를 구형화 한 후 약간의 조정을 통하여 다수의 학습 RGB 이미지와 학습 깊이 맵 이미지를 생성할 수 있다.The
이하, 도 2 내지 도 15를 참조하여, 구형 가상 이미지를 제공하는 시스템(10)를 구성하는 구성요소들의 다양한 실시예들에 대하여 설명한다.Hereinafter, various embodiments of components constituting the
도 2는 본 출원에 개시되는 일 실시예에 따른 컴퓨팅 장치를 설명하는 블록 구성도이다.2 is a block diagram illustrating a computing device according to an exemplary embodiment disclosed in the present application.
컴퓨팅 장치(300)는 프로세서(301), 메모리(302) 및 통신부(303)를 포함할 수 있다.The
프로세서(301)는 컴퓨팅 장치(300)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(301)는, 메모리(302)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 본 개시서에 기재된 컴퓨팅 장치(300)의 기능을 수행할 수 있다.The
프로세서(301)는 촬상 장치(220)로부터 전달된 기초 RGB 이미지 및 거리측정 장치(210)로부터 입력된 기초 깊이 맵 이미지를 기반으로, 구형 가상 이미지를 생성할 수 있다. The
프로세서(301)는, 기초 RGB 이미지 및 기초 깊이 맵 이미지를 기초로 다양한 학습 데이터를 생성하는 학습 데이터 생성 모듈(310), 학습 데이터를 기초로 학습을 진행하는 뉴럴 네트워크 모듈(320), 추정 깊이 맵과 학습 깊이 맵을 비교하여 뉴럴 네트워크 모듈(320)을 트레이닝하는 트레이닝 모듈(330) 및 구형 가상 이미지를 생성하여 피사 영역의 거리 정보 등을 사용자 단말기에 제공하는 가상 이미지 제공 모듈(340)을 포함할 수 있다.The
학습 데이터 생성 모듈(310)은 기초 RGB 이미지 및 기초 깊이 맵 이미지를 구형 변환하고, 이를 조정하여 복수의 학습 데이터, 즉, 학습 RGB 이미지 및 학습 깊이 맵 이미지를 생성할 수 있다.The training
예를 들어, 학습 데이터 생성 모듈(310)은 촬상 장치(220)로부터 전달된 기초 RGB 이미지 및 거리측정 장치(210)로부터 전달된 기초 깊이 맵 이미지를 구형 변환할 수 있다. 이렇게 변환된 이미지는 구형 이미지의 여러 축을 기초로 회전 각도를 변경하면서 다양한 학습 데이터를 획득할 수 있다. 이때, 학습 RGB 이미지는, 학습을 위하여 뉴럴 네트워크 모듈(320)에 제공되는 RGB 이미지를 지칭하고, 학습 깊이 맵 이미지는, 학습을 위하여 뉴럴 네트워크 모듈(320)에 제공되는 깊이 맵 이미지를 지칭한다. 따라서, 학습 RGB 이미지는 기초 RGB 이미지로부터 생성된 이미지, 학습 깊이 맵 이미지는 기초 깊이 맵 이미지로부터 생성된 이미지이다.For example, the learning
뉴럴 네트워크 모듈(320)은 학습을 위한 학습 RGB 이미지와, 그에 대한 학습 깊이 맵(Depth map) 이미지를 기반으로 학습한다. 예컨대, 학습 깊이 맵 이미지는 학습 RGB 이미지와 1:1로 연관된다. 학습 깊이 맵 이미지는 학습 RGB 이미지가 생성된 피사 영역에 대하여, Lidar 센서 등을 이용하여 거리를 실측 -스테레오 카메라를 이용한 거리 추정 방식 등을 포함- 하여 생성되므로, 실측 깊이(Ground Truth Depth) 맵이다. 뉴럴 네트워크 모듈(320)은 학습 RGB 이미지 및 학습 깊이 맵 이미지를 기반으로 학습한 후, 학습된 내용을 기반으로 입력된 RGB 이미지 대한 추정 깊이 맵 이미지를 생성할 수 있다.The
트레이닝 모듈(330)은 뉴럴 네트워크 모듈(320)에서 생성한 추정 깊이 맵의 정확도를 기초로, 뉴럴 네트워크 모듈(320)을 트레이닝 할 수 있다.The
예를 들어, 트레이닝 모듈(330)은 학습 RGB 이미지에 대하여 뉴럴 네트워크 모듈(320)이 생성한 추정 깊이 맵과, 학습 깊이 맵-이는 실측 깊이 맵임-을 비교하고, 추정 깊이 맵과 학습 깊이 맵의 그 차이가 적어지도록 뉴럴 네트워크 모듈(320)을 계속적으로 트레이닝 할 수 있다. For example, the
뉴럴 네트워크 모듈(320)은 질의 RGB 이미지를 입력받고, 추정 깊이 맵을 생성한다. 가상 이미지 제공 모듈(340)은 질의 RGB 이미지와 추정 깊이 맵을 기반으로 구형 가상 이미지를 생성할 수 있다. 구형 가상 이미지는 컴퓨팅 장치(300)로부터 사용자 단말(100)에 제공되는 이미지, 예를 들어, 사용자 단말(100)에서 구현될 수 있는 가상 공간일 수 있다.The
메모리(302)는 프로세서(301)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 컴퓨팅 장치(300)로 입력되거나 컴퓨팅 장치(300)로부터 출력되는 데이터를 저장할 수 있다. 일 예로, 메모리(302)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM,Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory),EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The
통신부(303)는 컴퓨팅 장치(300)와 다른 전자 장치, 예컨대, 사용자 단말(100) 또는 이미지 취득 장치(200)사이, 또는 컴퓨팅 장치(300)와 다른 전자 장치가 위치한 네트워크 사이의 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다.The
도 3은 본 출원에 개시되는 일 실시예에 따른 학습 데이터 생성 아키텍처를 설명하는 도면이다.3 is a diagram illustrating an architecture for generating learning data according to an embodiment disclosed in the present application.
도 3에 도시된 기초 RGB 이미지는 촬상 장치(220)로부터 전달되고, 기초 깊이 맵 이미지는 거리측정 장치(210)에서 전달된다. The basic RGB image shown in FIG. 3 is transmitted from the
여기서의 기초 RGB 이미지 및 기초 깊이 맵 이미지는 전방위 가상현실에 사용되는 등장방형 투영(Equirectangular Projection) 이미지일 수 있다. 이하에서 설명하는 다양한 종류의 RGB 이미지 및 깊이 맵 이미지는, 전방위 가상 공간을 생성하기 위하여 사용되는 등장방형 투영(Equirectangular Projection) 이미지일 수 있다. Here, the basic RGB image and the basic depth map image may be equirectangular projection images used for omnidirectional virtual reality. Various types of RGB images and depth map images described below may be equirectangular projection images used to generate an omnidirectional virtual space.
도 4은 본 출원에 개시되는 일 실시예에 따른 등장방형 투영 이미지와, 그를 이용하여 생성된 구형 가상 이미지를 도시하는 도면이다.4 is a diagram illustrating an equirectangular projection image and a spherical virtual image generated using the equirectangular projection image according to an embodiment disclosed in the present application.
그림 (a)에 도시된 예와 같이, 등장방형 투영 이미지는, 컴퓨팅 장치(300)에 의하여 구형태의 시점을 제공하는 구형의 전방위 가상 이미지(이하, '구형 가상 이미지'라 칭함)로 변환 가능하다. As in the example shown in Figure (a), the equirectangular projection image can be converted into a spherical omnidirectional virtual image (hereinafter referred to as a 'spherical virtual image') providing a spherical viewpoint by the
그림 (b)는 그림 (a)의 등장방형 투영 이미지를 구형 가상 이미지로서 변환한 예를 도시하고 있다. 그림 (b)에 도시된 구형 가상 이미지는, RGB 등장방형 투영 이미지를 기초로 생성한 구형 가상 이미지로서, 각 픽셀의 거리값을 균등하게 설정한 예에 관한 것이다. 한편, 그림 (b)는 구형 가상 이미지의 외부에서 구형 가상 이미지를 도시하고 있으나, 설명의 편의를 위한 것이다. 따라서, 구형 가상 이미지는, 도시된 구형 가상 이미지의 내부에서, 좌우 360도 상하 360도의 전방위에 대하여 가상의 이미지를 제공할 수도 있다.Figure (b) shows an example of converting the equirectangular projection image of Figure (a) into a spherical virtual image. The spherical virtual image shown in Figure (b) is a spherical virtual image generated based on an RGB equirectangular projection image, and relates to an example in which distance values of each pixel are equally set. Meanwhile, figure (b) shows a spherical virtual image outside of the spherical virtual image, but is for convenience of description. Accordingly, the spherical virtual image may provide a virtual image in all directions of 360 degrees left and right and 360 degrees up and down inside the illustrated spherical virtual image.
이하에서는 등장방형 투영 이미지의 일 실시예로서, 파노라마 이미지(예를 들어, 2:1 파노라마 이미지 등)를 설명한다. 파노라마 이미지는 한번의 촬영에 의해 공간의 전방위 이미지를 도출할 수 있고, 구형 변환에서 용이하게 변환이 가능한 이점이 있다.Hereinafter, a panoramic image (eg, a 2:1 panoramic image, etc.) will be described as an example of an equirectangular projection image. A panoramic image has the advantage of being able to derive an omnidirectional image of a space by taking a single shot, and being able to convert it easily in a spherical transformation.
다만, 이미지 취득 장치(200)로부터 전달된 이미지가 파노라마 이미지로 이루어지는 것은 본 출원을 실시하기 위한 하나의 예시이므로, 이미지 취득 장치(200)로부터 전달되는 이미지는 사용자의 이용 및 편의에 따라 촬영된 일반적인 이미지(들) 일 수 있다. 그리고 컴퓨팅 장치(300)는 이러한 일반적인 이미지들을 등장방형 투영 이미지로 변환할 수 있다.However, since the image delivered from the
학습 데이터 생성 모듈(310)은 기초 RGB 이미지 및 기초 깊이 맵 이미지를 입력받고, 이들을 구형 변환하여 기초 구형 가상 이미지를 생성 할 수 있다. The learning
기초 깊이 맵 이미지는, 피사 영역에 대한 거리 정보를 포함하는 파노라마 깊이 맵 이미지일 수 있다. 기초 깊이 맵 이미지는 동일한 피사 영역을 가지는 기초 RGB 이미지와 1:1로 매칭된다.The basic depth map image may be a panoramic depth map image including distance information about the Pisa region. The basic depth map image is matched 1:1 with the basic RGB image having the same subject area.
학습 데이터 생성 모듈(310)은 기초 구형 가상 이미지를 다양하게 변형하여 복수의 학습 데이터, 즉, 학습 RGB 이미지 및 학습 깊이 맵 이미지를 생성할 수 있다. 학습 데이터 생성 모듈(310)은 생성된 학습 RGB 이미지는 뉴럴 네트워크 모듈(320)에 제공하고, 학습 깊이 맵 이미지는 트레이닝 모듈(330)에 제공할 수 있다.The training
이러한 학습 데이터 생성 모듈(310)의 일 실시례에 대해, 도 5 내지 도 6을 더 참조하여 설명한다.An embodiment of the learning
도 5는 본 출원에 개시되는 일 실시예에 따른 학습 데이터 생성 방법을 설명하는 도면이고, 도 6은 도 5에서의 학습 데이터 생성 방법을 설명하기 위한 참고도이다.5 is a diagram for explaining a method for generating learning data according to an embodiment disclosed in the present application, and FIG. 6 is a reference diagram for explaining the method for generating learning data in FIG. 5 .
도 5를 참조하면, 학습 데이터 생성 모듈(310)은 기초 RGB 이미지 및 기초 깊이 맵 이미지를 이용하여 기초 구형 가상 이미지를 생성할 수 있다(S501). 이는 도 6의 단계 (a)에 도시되어 있다. 즉, 기초 구형 가상 이미지는 하나의 기초 RGB 이미지 및 기초 깊이 맵 이미지에서 얻어진 다수의 기초 구형 가상 이미지일 수 있다.Referring to FIG. 5 , the training
학습 데이터 생성 모듈(310)은, 기초 구형 가상 이미지의 설정 정보를 변경하여, 다수의 학습 구형 이미지를 생성할 수 있다(S502). 예를 들어, 설정 정보는 구형 이미지의 축, 회전 방향 또는 회전 각도 등을 포함할 수 있다. 도 6의 단계 (b)는 기초 구형 가상 이미지의 설정 정보를 변경하는 다양한 예들을 도시하고 있다.The training
학습 데이터 생성 모듈(310)은, 다수 학습 구형 이미지를 다시 평면 이미지로 변환하여, 다수의 학습 데이터 셋 -학습 데이터 셋은 학습 RGB 이미지와, 그에 1:1 매칭되는 학습 깊이맵 이미지 한 쌍을 의미함- 을 생성할 수 있다(S503).The training
즉, 학습 데이터 생성 모듈(310)은 기초 RGB 이미지 및 기초 깊이 맵 이미지를 이용하여 기초 구형 가상 이미지를 생성하고, 기초 구형 가상 이미지의 설정 정보를 변경하여 다수의 학습 구형 이미지를 생성한 후, 이를 기반으로 다양한 학습 데이터 셋을 생성할 수 있다.That is, the training
이와 같이, 기초 구형 가상 이미지 설정 정보를 변경하여 다수의 학습 구형 이미지를 생성하는 것은, 하나의 기초 구형 이미지에서 많은 양의 학습 데이터를 생성할 수 있는 효과를 제공한다. 즉, 뉴럴 네트워크 모듈(320)의 정확한 연산 능력은 많은 학습 데이터를 기반으로 이루어지나, 실제적으로는 다수의 학습 데이터를 확보하는 것은 어려운 것이다. 그러나, 본 출원의 일 실시예에서는, 기초 구형 가상 이미지를 기초로 다양한 변형을 적용하여 다수의 학습 구형 이미지를 생성할 수 있으며, 또한 역변환하여 다량의 학습 데이터 셋을 용이하게 확보할 수 있는 효과가 있다.In this way, generating a plurality of training spherical images by changing basic spherical virtual image setting information provides an effect of generating a large amount of training data from one basic spherical image. That is, although the accurate calculation capability of the
이렇게 생성된 다수의 학습 RGB 이미지 및 학습 깊이 맵 이미지는 뉴럴 네트워크 모듈(320)에 제공되어 학습 정보로 사용될 수 있다.The plurality of training RGB images and training depth map images generated in this way may be provided to the
도 7은 본 출원에 개시되는 일 실시예에 따른 뉴럴 네트워크 아키텍처의 일 예를 설명하는 도면이고, 도 8은 본 출원에 개시되는 일 실시예에 따른 뉴럴 네트워크 아키텍처의 다른 일 예를 설명하는 도면이다. 7 is a diagram for explaining an example of a neural network architecture according to an embodiment disclosed in this application, and FIG. 8 is a diagram for explaining another example of a neural network architecture according to an embodiment disclosed in this application. .
설명의 용이성을 위해, 도 7 및 도 8에 도시된 뉴럴 네트워크 모듈(320)은 도 2에서 설명한 컴퓨팅 장치(300)를 이용하여 구현되는 것으로 설명된다. 즉, 컴퓨팅 장치(300)의 메모리(302)와 프로세서(301)에 의하여 수행되는 적어도 하나의 인스트럭션의 실행에 의하여 구현될 수 있다. 그러나, 그 외에도 뉴럴 네트워크 모듈(320)은 다른 어떤 적절한 장치(들) 및 다른 어떤 적절한 시스템(들)에서도 이용될 수 있다. 또한, 뉴럴 네트워크 모듈(320)은 이미지 처리 관련 태스크들을 수행하는 데 이용되는 것으로 설명된다. 그러나, 뉴럴 네트워크 모듈(320)은 비-이미지 처리 태스크들을 포함하여, 다른 어떤 적절한 태스크들을 함께 수행하는 데 이용될 수 있다. For ease of explanation, it is described that the
뉴럴 네트워크 모듈(320)은 학습을 위한 학습 RGB 이미지와, 그에 대한 깊이 맵(Depth map) 이미지를 기반으로 학습한다. The
뉴럴 네트워크 모듈(320)은 딥 러닝 기반의 이미지 전환 학습 모델로서, 입력된 학습 RGB 이미지에 대하여 학습 신경망을 통한 변환을 기초로, 추정 깊이 맵 이미지를 생성할 수 있다. The
뉴럴 네트워크 모듈(320)은 노드들과 에지들을 이용하여 수학적 모델로 표현될 수 있다. 뉴럴 네트워크 모듈(320)은 딥 뉴럴 네트워크(Deep Neural Network, DNN) 또는 n-계층 뉴럴 네트워크(n-layers neural networks)의 아키텍처일 수 있다. DNN 또는 n-계층 뉴럴 네트워크는 컨볼루션 뉴럴 네트워크(Convolutional Neural Networks, CNN), HRNet(Deep High-Resolution Network)을 기반으로 하는 컨볼루션 뉴럴 네트워크(CNN), 리커런트 뉴럴 네트워크(Recurrent Neural Networks, RNN), Deep Belief Networks, Restricted Boltzman Machines 등에 해당될 수 있다. The
일 예로, 뉴럴 네트워크 모듈(320)은, 도 7에 도시된 예와 같이, 학습 RGB 이미지를 입력받고 그에 대한 추정 깊이 맵 이미지를 생성할 수 있다. 이러한 예에서, 최초 동작에서 뉴럴 네트워크 모듈(320)은 학습된 내용이 없으므로, 뉴럴 네트워크의 각 노드에서 랜덤한 값을 기반으로 추정 깊이 맵 이미지를 생성할 수 있다. 뉴럴 네트워크 모듈(320)은, 생성된 추정 깊이 맵 이미지에 대한 피드백 트레이닝을 반복적으로 수행하여 추정 깊이 맵의 정확도를 향상 시킬 수 있다. For example, as in the example shown in FIG. 7 , the
다른 예로, 뉴럴 네트워크 모듈(320)은, 도 8에 도시된 바와 같이, 학습 RGB 이미지와 그에 매칭되는 학습 깊이 맵 셋을 입력받고, 그에 대한 학습을 기반으로 RGB 이미지와 깊이 맵 이미지 간의 연관성을 학습하고, 그러한 연관성을 기반으로 입력된 학습 RGB에 대한 추정 깊이 맵 이미지를 생성할 수 있다. 이러한 예에서도, 추정 깊이 맵 이미지에 대한 피드백 트레이닝을 반복적으로 수행하여 추정 깊이 맵의 정확도를 향상 시킬 수 있다.As another example, as shown in FIG. 8 , the
도 9는 본 출원에 개시되는 일 실시예에 따른 뉴럴 네트워크를 이용한 트레이닝 방법을 설명하는 도면으로, 이하에서, 도 9를 더 참조하여 설명한다.FIG. 9 is a diagram for explaining a training method using a neural network according to an embodiment disclosed in the present application, which will be further described with reference to FIG. 9 .
뉴럴 네트워크 모듈(320)은 학습 RGB 이미지를 입력받고, 학습된 내용을 바탕으로 이에 대한 추정 깊이(Predicted Depth) 맵 이미지를 생성한다(S901). The
학습 RGB 이미지는, 학습을 위하여 뉴럴 네트워크 모듈 (320)에 제공된 RGB 이미지를 지칭한다. 학습 깊이 맵 이미지는, 학습을 위하여 뉴럴 네트워크 모듈(320) 또는 트레이닝 모듈(330)에 제공된 깊이 맵 이미지를 지칭한다. 학습 깊이 맵 이미지는 학습 RGB 이미지와 1:1로 연관된다. 학습 깊이 맵 이미지는 학습 RGB 이미지가 생성된 피사 영역에 대하여, Lidar 센서 등을 이용하여 거리를 실측하여 생성되므로, 실측 깊이(Ground Truth Depth) 맵이다.A training RGB image refers to an RGB image provided to
뉴럴 네트워크 모듈(320)은 딥 러닝 기반의 이미지 전환 학습 모델로서, 입력된 학습 RGB 이미지에 대하여 학습 신경망을 통한 변환을 기초로, 추정 깊이 맵 이미지를 생성할 수 있다.The
이후, 후술하는 트레이닝 과정을 통하여 뉴럴 네트워크 모듈(320)이 학습을 수행한다(S902). 뉴럴 네트워크 모듈(320)은 전술한 바와 같이, 학습 데이터 생성 모듈(310)에 의하여 생성된 다수의 학습 RGB 이미지 및 학습 깊이 맵을 대상으로 학습을 수행할 수 있으므로, 그 정확도를 쉽게 높일 수 있다.Thereafter, the
추정 깊이 맵 이미지는, 학습된 뉴럴 네트워크 모듈(320)가 생성한 깊이 맵이다. 이러한 추정 깊이 맵 이미지는, Lidar 센서 등을 이용하여 거리를 실측하여 생성된 실측(Ground Truth) 깊이 맵인 학습 깊이 맵 이미지와 차이가 있다. 따라서, 이러한 추정 깊이 맵 이미지와 학습 깊이 맵(실측 깊이 맵) 이미지 간의 차이가 작아지도록 뉴럴 네트워크 모듈(320)이 학습될 수 있으며, 이러한 뉴럴 네트워크 모듈(320)에 대한 학습은 트레이닝 모듈(330)에 의하여 수행된다.The estimated depth map image is a depth map generated by the trained
트레이닝 모듈(330)은 뉴럴 네트워크 모듈(320)에서 생성한 추정 깊이 맵과, 학습 깊이 맵을 비교하고 그 차이를 기초로 뉴럴 네트워크 모듈(320)을 트레이닝 할 수 있다.The
일 실시예에서, 트레이닝 모듈(330)은 구형 변환을 기초로 트레이닝을 수행할 수 있다. 예컨대, 트레이닝 모듈(330)은 추정 깊이 맵과 학습 깊이 맵을 각각 구형 변환 한 후에, 구형 변환 된 추정 깊이맵과 구형 변환 된 학습 깊이맵 간의 차이를 기초로 뉴럴 네트워크 모듈(320)을 트레이닝 시킬 수 있다. In one embodiment,
이러한 실시예에서, 학습 RGB 이미지, 추정 깊이 맵 이미지 및 학습 깊이 맵 이미지 모두 등장방형 투영 이미지일 수 있다. 즉, 이러한 등장방형 투영 이미지는 구형 변환 된 상태에서 사용되므로, 추정 깊이 맵 이미지와 학습 깊이 맵 이미지 간의 사용 상태에서의 차이점을 보다 정확하게 판단하기 위하여, 트레이닝 모듈(330)은 추정 깊이 맵과 학습 깊이 맵을 각각 구형 변환 한 후에 이들을 비교하여 트레이닝을 수행한다. 이에 대하여 도 10을 더 참조하여 설명한다.In this embodiment, the training RGB image, the estimated depth map image, and the training depth map image may all be equirectangular projection images. That is, since this equirectangular projection image is used in a spherical transformed state, in order to more accurately determine the difference between the estimated depth map image and the learning depth map image in the use state, the
도 10은 본 출원에 개시되는 일 실시예에 따른 등장방형 투영 이미지와, 그를 이용하여 생성된 구형 가상 이미지 간의 차이를 예시하는 도면이다.10 is a diagram illustrating a difference between an equirectangular projection image according to an embodiment disclosed in the present application and a spherical virtual image generated using the same.
면적 A(1010)와 면적 B(1020)는 구형 가상 이미지에서 동일한 면적 및 형태를 가지지만, 이를 등장방형 투영 이미지로 변환하는 경우 면적 A'(1011)과 면적 B'(1021)는 서로 상이한 면적 및 형태를 가지게 된다. 이는, 구형 가상 이미지와, 평면 등장방형 투영 이미지(파노라마 이미지) 간의 변환에 의한 것이다.Area A (1010) and area B (1020) have the same area and shape in a spherical virtual image, but when converted to an equirectangular projection image, area A' (1011) and area B' (1021) are different from each other. and have a shape. This is due to conversion between a spherical virtual image and a planar equirectangular projection image (panoramic image).
따라서, 트레이닝 모듈(330)은 추정 깊이 맵과 학습 깊이 맵을 각각 구형 변환 한 후에 트레이닝을 수행함으로써, 트레이닝의 정확도를 상승시키고 그에 따라 추정 깊이 맵 이미지의 정확도를 증가시킬 수 있다.Accordingly, the
도 11은 본 출원에 개시되는 일 실시예에 따른 트레이닝 모듈에 의한 트레이닝 방법을 설명하는 도면으로, 이하 도 8 및 도 11을 참조하여 설명한다.11 is a diagram for explaining a training method using a training module according to an embodiment disclosed in the present application, which will be described with reference to FIGS. 8 and 11 below.
도 8에 도시된 바와 같이, 트레이닝 모듈(330)은 구형 변환 모듈(331), 로스 산출 모듈(332) 및 옵티마이징 모듈(333)을 포함할 수 있다.As shown in FIG. 8 , the
도 11을 더 참조하면, 구형 변환 모듈(331)은 등장방형 투영 이미지를 구형 변환된 것에 대응되도록 구형 변환을 수행한다. 구형 변환 모듈(331)은 추정 깊이 맵 이미지와 학습 깊이 맵 이미지를 입력받고, 이들을 각각 구형 변환할 수 있다(S1101). Referring further to FIG. 11 , the
도 8에서, 구형 변환 모듈(331)에 의하여 구형 변환 된 학습 깊이 맵 이미지를 '학습 깊이 맵*'으로, 구형 변환 된 추정 깊이 맵 이미지를 '추정 깊이 맵*'으로 표시하고 있다.In FIG. 8 , the learning depth map image subjected to spherical transformation by the
일 실시예에서, 구형 변환 모듈(331)은 아래의 수학식 1을 이용하여, 구형 변환을 수행할 수 있다.In one embodiment, the
[수학식 1][Equation 1]
수학식 1에 대한 상세한 설명은 도 16에 도시된 설명을 참조하여 쉽게 이해할 수 있다. A detailed description of
로스 산출 모듈(332)은 구형 변환 된 추정 깊이 맵(추정 깊이 맵*)과 구형 변환 된 학습 깊이 맵(학습 깊이 맵*) 간의 로스를 산출할 수 있다(S1102). The
즉, 로스 산출 모듈(332)은 구형 변환 된 추정 깊이 맵과 구형 변환 된 학습 깊이 맵 간의 차이를 수치화(로스값) 할 수 있다. 일 예로, 로스 산출 모듈(332)에 의하여 결정된 로스값은 0 내지 1 사이의 범위로 결정될 수 있다.That is, the
옵티마이징 모듈(333)은 로스 산출 모듈(332)로부터 계산된 로스를 제공받고, 해당 로스에 대응하여 뉴럴 네트워크의 매개 변수를 변경하여 옵티마이징을 수행할 수 있다(S1103). The optimizing
일 예로, 옵티마이징 모듈(333)은 뉴럴 네트워크의 가중치 매개변수 W를 조절하여 옵티마이징을 수행할 수 있다. 다른 예로, 옵티마이징 모듈(333)은 뉴럴 네트워크의 가중치 매개변수 W 및 편향 b 중 적어도 하나를 조절하여 옵티마이징을 수행할 수 있다.For example, the
다양한 방식의 옵티마이징 방법이 옵티마이징 모듈(333)에 적용 가능하다. 예를 들어, 옵티마이징 모듈(333)은, 배치 경사 하강법(Batch Gradient Descent), 확률적 경사 하강법(Stochastic Gradient Descent), 미니 배치 경사 하강법(Mini-Batch Gradient Descent), 모멘텀(Momentum), 아다그라드(Adagrad), 알엠에스프롭(RMSprop) 등을 사용하여 옵티마이징을 수행할 수 있다.Optimizing methods of various types can be applied to the
도 12는 본 출원에 개시되는 일 실시예에 따른 로스 산출 방법을 설명하는 도면이다. 12 is a diagram explaining a loss calculation method according to an embodiment disclosed in the present application.
도 12에 도시된 일 실시예에서, 로스 산출 모듈(332)은 복수의 로스 산출 방법을 적용하고, 그 결과값들로부터 대표값을 산출하여 로스를 결정할 수 있다. In the embodiment shown in FIG. 12 , the
도 12를 참조하면, 로스 산출 모듈(332)은 제1 로스 계산방식으로, 구형 변환 된 추정 깊이 맵과 구형 변환 된 학습 깊이 맵 간의 제1 로스 함수 결과를 계산할 수 있다(S1201). Referring to FIG. 12 , the
이하의 수학식 2는, 제1 로스 계산식의 일 예를 설명하는 수학식이다.
[수학식 2][Equation 2]
여기에서, T는 샘플의 수, y는 학습 깊이 맵, y*는 추정 깊이 맵을 의미한다.Here, T is the number of samples, y is the training depth map, and y* is the estimated depth map.
로스 산출 모듈(332)은 제2 로스 계산방식으로, 구형 변환 된 추정 깊이 맵과 구형 변환 된 학습 깊이 맵 간의 제2 로스 함수 결과를 계산할 수 있다(S1202). The
이하의 수학식 3은, 제2 로스 계산식의 일 예를 설명하는 수학식이다.
[수학식 3][Equation 3]
여기에서, T는 샘플의 수, d는 로그 공간에서의 학습 깊이 맵과 추정 깊이 맵 간의 차이이다.where T is the number of samples and d is the difference between the training depth map and the estimated depth map in log space.
로스 산출 모듈(332)은 제3 로스 계산방식으로 구형 변환 된 추정 깊이 맵과 구형 변환 된 학습 깊이 맵 간의 제3 로스 함수 결과를 계산할 수 있다(S1203). The
이하의 수학식 4는, 제3 로스 계산식의 일 예를 설명하는 수학식이다.
[수학식 4][Equation 4]
여기에서, ytrue는 학습 깊이 맵을, ypredicted는 추정 깊이 맵을 의미한다.Here, y true means the training depth map and y predicted means the estimated depth map.
로스 산출 모듈(332)은 제1 로스 함수 결과 내지 제3 로스 함수 결과에 대한 대표값을 산출하여, 로스로 결정할 수 있다(S1204). 여기에서, 대표값으로 평균, 중앙값, 최빈값 등이 적용 가능하다.The
도 13은 일 예에 따른 학습 RGB 이미지, 학습 깊이 맵 이미지, 추정 깊이 맵 이미지 및 추정 깊이 맵 이미지와 학습 깊이 맵 이미지 간의 차이 이미지를 도시하는 도면이다. 13 is a diagram illustrating a training RGB image, a training depth map image, an estimated depth map image, and a difference image between the estimated depth map image and the training depth map image according to an example.
그림 (a)는 뉴럴 네트워크 모듈(320)에 입력되는 학습 RGB 이미지의 일 예를 도시한다. Figure (a) shows an example of a training RGB image input to the
그림 (b)는 학습 RGB 이미지를 입력받은 뉴럴 네트워크 모듈(320)가 생성한 추정 깊이 맵 이미지의 일 예를 도시한다. Figure (b) shows an example of an estimated depth map image generated by the
그림 (c)는 학습 RGB 이미지에 대응되는 실측 깊이 값을 제공하는 학습 깊이 맵 이미지의 일 예를 도시한다. Figure (c) shows an example of a training depth map image providing measured depth values corresponding to the training RGB image.
그림 (d)는 추정 깊이 맵 이미지와 학습 깊이 맵 이미지 간의 차이 이미지를 예시한다. 다만, 그림 (d)는 설명의 직관적인 설명을 위한 것으로, 전술한 바와 같이, 본 출원에 개시된 일 실시예에서 트레이닝 모듈(330)은 추정 깊이 맵 이미지와 학습 깊이 맵 이미지에 대하여 구형 변환을 수행한 후 차이를 계산하는 경우, 그림 (d)와 다르게 표시될 수 있다.Figure (d) illustrates a difference image between the estimated depth map image and the training depth map image. However, figure (d) is for intuitive explanation, and as described above, in an embodiment disclosed in the present application, the
도 14는 본 출원에 개시되는 일 실시예에 따른 구형 가상 이미지 생성 아키텍처를 설명하는 도면이고, 도 15 본 출원에 개시되는 일 실시예에 따른 구형 가상 이미지를 사용자에게 제공하는 방법을 설명하는 도면이다.14 is a diagram for explaining a spherical virtual image generation architecture according to an embodiment disclosed in the present application, and FIG. 15 is a diagram for explaining a method for providing a spherical virtual image to a user according to an embodiment disclosed in the present application. .
도 14 및 도 15를 참조하여, 본 출원에 개시되는 일 실시예에 따른 구형 가상 이미지를 사용자에게 제공하는 방법에 대하여 설명한다.A method of providing a spherical virtual image to a user according to an exemplary embodiment disclosed in the present application will be described with reference to FIGS. 14 and 15 .
뉴럴 네트워크 모듈(320)은 질의 RGB 이미지를 입력받으면, 전술한 바와 같이 학습된 신경망을 이용하여, 질의 RGB 이미지에 대응되는 추정 깊이 맵을 생성한다(S1501). When the
여기에서, 질의 RGB 이미지란, 구형 가상 이미지를 생성하는데 사용되는 RGB 이미지로서, 그에 매칭되는 실측 깊이 맵(Ground Truth Map)이 없는 이미지이다. 따라서, 뉴럴 네트워크 모듈(320)을 이용하여 추정 깊이 맵을 생성하고, 이를 구형 가상 이미지의 생성에 이용한다.Here, the query RGB image is an RGB image used to generate a spherical virtual image and does not have a ground truth map matched thereto. Accordingly, an estimated depth map is generated using the
뉴럴 네트워크 모듈(320)은 생성된 추정 깊이 맵을 가상 이미지 제공 모듈(340)에게 제공한다.The
가상 이미지 제공 모듈(340)은, 질의 RGB 이미지와, 뉴럴 네트워크 모듈(320)에서 제공된 추정 깊이 맵 이미지를 기반으로, 구형 가상 이미지를 생성할 수 있다(S1502). The virtual
예컨대, 가상 이미지 제공 모듈(340)은 뉴럴 네트워크 모듈(320)이 생성한 추정 깊이 맵을 확인하고, 질의 RGB 이미지와 추정 깊이 맵을 이용하여 구형 가상 이미지를 생성할 수 있다.For example, the virtual
여기에서, 구형 가상 이미지란, 사용자가 체험할 수 있는 가상의 공간을 제공하기 위한 이미지를 통칭한다. Here, the spherical virtual image collectively refers to an image for providing a virtual space that a user can experience.
일 예로, 구형 가상 이미지는 질의 RGB 이미지를 기초로 구형 가상 이미지를 생성하고, 그러한 구형 가상 이미지의 각 픽셀에 대하여 추정 깊이 맵 이미지에 포함된 각 픽셀에서의 거리 정보를 포함할 수 있다. 도 4의 그림 (b)는 이러한 구형 가상 이미지의 일 예를 도시하고 있으며, 도 4의 그림 (b)는 각 픽셀이 동일한 거리에 있는 것으로 표시되어 있어 완벽한 구의 형태로 가상 이미지가 표시되는 예를 도시하고 있다. 이와 같이 표시되더라도, 각 픽셀에 대한 거리 정보를 포함하고 있으므로, 구형 가상 이미지 내의 어느 픽셀에 대해서도 각각 거리정보를 취득할 수 있다. For example, the spherical virtual image may generate a spherical virtual image based on the query RGB image, and may include distance information of each pixel included in the estimated depth map image for each pixel of the spherical virtual image. Figure (b) of Figure 4 shows an example of such a spherical virtual image. are showing Even if it is displayed in this way, since distance information for each pixel is included, it is possible to obtain distance information for each pixel in the spherical virtual image.
다른 일 예로, 구형 가상 이미지는 질의 RGB 이미지에서 취득된 각 픽셀에 대한 색 정보와, 추정 깊이 맵 이미지에서 취득된 각 픽셀에 대한 거리 정보를 이용하여 3차원 좌표 상에서 각 픽셀의 위치 및 색을 표시할 수 있다. 이러한 구형 가상 이미지의 다른 일 예는, 3차원 좌표 상에서 표시되는 입체적인 공간으로 표시될 수 있다. As another example, the spherical virtual image displays the location and color of each pixel on 3D coordinates using color information for each pixel obtained from the query RGB image and distance information for each pixel obtained from the estimated depth map image. can do. Another example of such a spherical virtual image may be displayed in a three-dimensional space displayed on three-dimensional coordinates.
즉, 구형 가상 이미지는, 가상 이미지에 포함된 적어도 하나의 지점(예컨대, 픽셀)에 대한 거리 정보를 포함할 수 있다. 여기에서, 거리 정보는 추정 깊이 맵을 기초로 결정된다.That is, the spherical virtual image may include distance information about at least one point (eg, pixel) included in the virtual image. Here, distance information is determined based on the estimated depth map.
가상 이미지 제공 모듈(340)은, 구형 가상 이미지를 사용자에게 제공할 수 있다. 예컨대, 가상 이미지 제공 모듈(340)은, 사용자 단말(100)에 구형 가상 이미지에 대한 접근 기능을 포함하는 사용자 인터페이스를 제공할 수 있다. The virtual
가상 이미지 제공 모듈(340)은, 사용자 인터페이스를 통하여 사용자로부터 사용자 요청을 수신할 수 있다(S1503). 예컨대, 가상 이미지 제공 모듈(340)은, 구형 가상 이미지 내의 적어도 하나의 화점에 대한 거리 확인 요청, 즉, 사용자 쿼리를 제공받을 수 있다. 가상 이미지 제공 모듈(340)은, 사용자의 쿼리에 대응하여, 구형 가상 이미지 내의 화점에 대한 거리 정보를 확인하여 사용자에게 제공할 수 있다. 예를 들어, 사용자 단말(100)에 제공된 구형 가상 이미지에서 사용자는 원하는 물체 또는 공간상의 위치를 설정할 수 있고, 가상 이미지 제공 모듈(340)은, 이에 대한 거리 정보를 확인하여 사용자 단말(100)로 제공할 수 있다.The virtual
이상에서 설명한 본 출원은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니고 후술하는 특허청구범위에 의해 한정되며, 본 출원의 구성은 본 출원의 기술적 사상을 벗어나지 않는 범위 내에서 그 구성을 다양하게 변경 및 개조할 수 있다는 것을 본 출원이 속하는 기술 분야에서 통상의 지식을 가진 자는 쉽게 알 수 있다.The present application described above is not limited by the foregoing embodiments and the accompanying drawings, but is limited by the claims to be described later, and the configuration of the present application may be varied within a range that does not deviate from the technical spirit of the present application. Those of ordinary skill in the art to which this application belongs can easily know that it can be changed and modified accordingly.
Claims (15)
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
뉴럴 네트워크를 이용하여 학습 RGB 이미지에 대한 제1 추정 깊이 맵 이미지를 생성하고,
구형 변환을 기반으로 산출된, 학습 깊이 맵 이미지 -상기 학습 깊이 맵 이미지는 상기 학습 RGB 이미지에 매치되고 깊이 정보를 가짐- 및 상기 제1 추정 깊이 맵 이미지 간의 차이를 기초로 상기 뉴럴 네트워크를 트레이닝 하는,
컴퓨팅 장치.
As a computing device,
a memory that stores one or more instructions; and
a processor to execute the one or more instructions stored in the memory;
The processor, by executing the one or more instructions,
generating a first estimated depth map image for the training RGB image using a neural network;
Training the neural network based on a difference between a learning depth map image calculated based on a spherical transformation, the learning depth map image matching the learning RGB image and having depth information, and the first estimated depth map image ,
computing device.
상기 학습 깊이 맵 이미지 및 상기 제1 추정 깊이 맵 이미지는 등장방형 투영 이미지인,
컴퓨팅 장치.
According to claim 1,
The learning depth map image and the first estimated depth map image are equirectangular projection images,
computing device.
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
상기 학습 깊이 맵 이미지 및 상기 제1 추정 깊이 맵 이미지를 구형 변환하고,
구형 변환된 학습 깊이 맵 이미지와 구형 변환된 제1 추정 깊이 맵 이미지 간의 로스를 결정하고,
결정된 로스에 대응하여 상기 뉴럴 네트워크의 매개 변수를 변경하여 상기 뉴럴 네트워크를 트레이닝 하는,
컴퓨팅 장치.
According to claim 1,
The processor, by executing the one or more instructions,
Spherical transforming the learning depth map image and the first estimated depth map image;
Determine a loss between the spherically transformed learning depth map image and the spherically transformed first estimation depth map image;
training the neural network by changing parameters of the neural network in response to the determined loss;
computing device.
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
서로 상이한 복수의 로스 함수 이용하여 상기 구형 변환된 학습 깊이 맵 이미지와 상기 구형 변환된 제1 추정 깊이 맵 이미지 간의 로스 함수 결과를 각각 계산하고,
계산된 복수의 로스 함수 결과에 대하여 대표값을 산출하여 상기 로스로서 결정하는,
컴퓨팅 장치.
According to claim 3,
The processor, by executing the one or more instructions,
Calculate loss function results between the spherically transformed learning depth map image and the spherically transformed first estimated depth map image using a plurality of different loss functions, respectively;
Calculating a representative value for a plurality of calculated loss function results and determining it as the loss,
computing device.
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
트레이닝이 수행된 상기 뉴럴 네트워크에 질의 RGB 이미지를 입력하고,
상기 질의 RGB 이미지에 대응하여 상기 뉴럴 네트워크가 생성한 제2 추정 깊이 맵 이미지를 확인하고,
상기 질의 RGB 이미지와 상기 제2 추정 깊이 맵 이미지를 이용하여 구형 가상 이미지 -상기 구형 가상 이미지는 가상 이미지에 포함된 적어도 하나의 지점에 대한 거리 정보를 포함하고, 상기 거리 정보는 상기 제2 추정 깊이 맵 이미지를 기초로 결정됨- 를 생성하는,
컴퓨팅 장치.
According to claim 1,
The processor, by executing the one or more instructions,
Inputting a query RGB image to the neural network on which training was performed;
Checking a second estimated depth map image generated by the neural network corresponding to the query RGB image;
A spherical virtual image using the query RGB image and the second estimated depth map image, wherein the spherical virtual image includes distance information about at least one point included in the virtual image, and the distance information includes the second estimated depth determined based on the map image, which produces
computing device.
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
사용자 단말을 통하여 사용자에게 상기 구형 가상 이미지를 제공하고,
상기 사용자로부터 상기 구형 가상 이미지의 적어도 한 지점에 대한 사용자 요청을 수신하면, 상기 적어도 한 지점에 대한 깊이 정보를 추출하여 상기 사용자 단말에 제공하는,
컴퓨팅 장치.
According to claim 5,
The processor, by executing the one or more instructions,
Providing the spherical virtual image to a user through a user terminal;
Upon receiving a user request for at least one point of the spherical virtual image from the user, extracting depth information for the at least one point and providing the extracted depth information to the user terminal.
computing device.
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
뉴럴 네트워크를 이용하여 질의 RGB 이미지에 대한 추정 깊이 맵 이미지를 생성하고,
상기 질의 RGB 이미지와 상기 추정 깊이 맵 이미지를 이용하여 구형 가상 이미지 - 상기 구형 가상 이미지는 가상 이미지에 포함된 적어도 하나의 지점에 대한 거리 정보를 포함하고, 상기 거리 정보는 상기 추정 깊이 맵 이미지를 기초로 결정됨- 를 생성하는,
컴퓨팅 장치.
As a computing device,
a memory that stores one or more instructions; and
a processor to execute the one or more instructions stored in the memory;
The processor, by executing the one or more instructions,
generating an estimated depth map image for the query RGB image using a neural network;
A spherical virtual image using the query RGB image and the estimated depth map image, the spherical virtual image including distance information about at least one point included in the virtual image, the distance information based on the estimated depth map image determined to produce -
computing device.
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
사용자 단말을 통하여 사용자에게 상기 구형 가상 이미지를 제공하고,
상기 사용자로부터 상기 구형 가상 이미지의 적어도 한 지점에 대한 사용자 요청을 수신하면, 상기 적어도 한 지점에 대한 깊이 정보를 추출하여 상기 사용자 단말에 제공하는,
컴퓨팅 장치.
According to claim 7,
The processor, by executing the one or more instructions,
Providing the spherical virtual image to a user through a user terminal;
Upon receiving a user request for at least one point of the spherical virtual image from the user, extracting depth information for the at least one point and providing the extracted depth information to the user terminal.
computing device.
뉴럴 네트워크를 이용하여 학습 RGB 이미지에 대한 제1 추정 깊이 맵 이미지를 생성하는 동작; 및
구형 변환을 기반으로 산출된, 학습 깊이 맵 이미지-상기 학습 깊이 맵 이미지는 상기 학습 RGB 이미지에 매치되고 깊이 정보를 가짐- 및 상기 제1 추정 깊이 맵 이미지 간의 차이를 기초로 상기 뉴럴 네트워크를 트레이닝 하는 동작;
을 포함하는 깊이 맵 이미지 생성 방법.
A method for generating a depth map image performed on a computing device, comprising:
generating a first estimated depth map image for the training RGB image using a neural network; and
Training the neural network based on a difference between a training depth map image calculated based on a spherical transformation, wherein the training depth map image matches the training RGB image and has depth information, and the first estimated depth map image. movement;
Depth map image generation method comprising a.
상기 학습 깊이 맵 이미지 및 상기 제1 추정 깊이 맵 이미지는 등장방형 투영 이미지인,
깊이 맵 이미지 생성 방법.
According to claim 9,
The learning depth map image and the first estimated depth map image are equirectangular projection images,
How to create a depth map image.
상기 학습 깊이 맵 이미지 및 상기 제1 추정 깊이 맵 이미지를 구형 변환하는 동작;
구형 변환된 학습 깊이 맵 이미지와 구형 변환된 제1 추정 깊이 맵 이미지 간의 로스를 결정하는 동작; 및
결정된 로스에 대응하여 상기 뉴럴 네트워크의 매개 변수를 변경하여 상기 뉴럴 네트워크를 트레이닝 하는 동작;
을 포함하는 깊이 맵 이미지 생성 방법.
The method of claim 9, wherein the training of the neural network comprises:
performing spherical transformation on the learning depth map image and the first estimated depth map image;
determining a loss between the spherically transformed learning depth map image and the spherically transformed first estimated depth map image; and
training the neural network by changing a parameter of the neural network in response to the determined loss;
Depth map image generation method comprising a.
서로 상이한 복수의 로스 함수 이용하여 상기 구형 변환된 학습 깊이 맵 이미지와 상기 구형 변환된 제1 추정 깊이 맵 이미지 간의 로스 함수 결과를 각각 계산하는 동작; 및
계산된 복수의 로스 함수 결과에 대하여 대표값을 산출하여 상기 로스로서 결정하는 동작;
을 포함하는 깊이 맵 이미지 생성 방법.
The method of claim 11, wherein the training of the neural network comprises:
calculating loss function results between the spherically transformed training depth map image and the spherically transformed first estimated depth map image by using a plurality of different loss functions; and
calculating a representative value of the calculated results of a plurality of loss functions and determining the loss;
Depth map image generation method comprising a.
트레이닝이 수행된 상기 뉴럴 네트워크에 질의 RGB 이미지를 입력하는 동작;
상기 질의 RGB 이미지에 대응하여 상기 뉴럴 네트워크가 생성한 제2 추정 깊이 맵 이미지를 확인 하는 동작; 및
상기 질의 RGB 이미지와 상기 제2 추정 깊이 맵 이미지를 이용하여 구형 가상 이미지 -상기 구형 가상 이미지는 가상 이미지에 포함된 적어도 하나의 지점에 대한 거리 정보를 포함하고, 상기 거리 정보는 상기 제2 추정 깊이 맵 이미지를 기초로 결정됨- 를 생성 하는 동작;
을 더 포함하는 깊이 맵 이미지 생성 방법.
10. The method of claim 9, wherein the method for generating the depth map image comprises:
inputting a query RGB image to the neural network where training has been performed;
checking a second estimated depth map image generated by the neural network corresponding to the query RGB image; and
A spherical virtual image using the query RGB image and the second estimated depth map image, wherein the spherical virtual image includes distance information about at least one point included in the virtual image, and the distance information includes the second estimated depth An operation of generating - determined based on the map image;
A method for generating a depth map image further comprising:
사용자 단말을 통하여 사용자에게 상기 구형 가상 이미지를 제공하는 동작; 및
상기 사용자로부터 상기 구형 가상 이미지의 적어도 한 지점에 대한 사용자 요청을 수신하면, 상기 적어도 한 지점에 대한 깊이 정보를 추출하여 상기 사용자 단말에 제공하는 동작;
을 더 포함하는 깊이 맵 이미지 생성 방법.
The method of claim 13, wherein the method for generating the depth map image comprises:
providing the spherical virtual image to a user through a user terminal; and
extracting depth information of at least one point of the spherical virtual image and providing the extracted depth information to the user terminal when a user request for at least one point of the spherical virtual image is received from the user;
A method for generating a depth map image further comprising:
상기 인스트럭션들은, 컴퓨팅 장치에 의해 실행될 때, 상기 컴퓨팅 장치로 하여금,
뉴럴 네트워크를 이용하여 학습 RGB 이미지에 대한 추정 깊이 맵을 생성하는 동작; 및
구형 변환을 기반으로 산출된, 학습 깊이 맵 -상기 학습 깊이 맵은 상기 학습 RGB 이미지에 매치되고 깊이 정보를 가짐- 및 상기 추정 깊이 맵 간의 차이를 기초로 상기 뉴럴 네트워크를 트레이닝 하는 동작;
을 수행하도록 하는 저장 매체.
A storage medium storing computer readable instructions,
The instructions, when executed by a computing device, cause the computing device to:
generating an estimated depth map for the training RGB image using a neural network; and
training the neural network based on a difference between a training depth map calculated based on a spherical transformation, wherein the training depth map matches the training RGB image and has depth information, and the estimated depth map;
A storage medium that allows to perform
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210081608A KR102551467B1 (en) | 2021-06-23 | 2021-06-23 | Depth map image generation method and computing device therefor |
JP2022545059A JP7414332B2 (en) | 2021-06-23 | 2021-09-16 | Depth map image generation method and computing device therefor |
PCT/KR2021/012652 WO2022270683A1 (en) | 2021-06-23 | 2021-09-16 | Depth map image generation method and computing device for same |
EP21939986.2A EP4174773A4 (en) | 2021-06-23 | 2021-09-16 | Depth map image generation method and computing device for same |
US17/878,206 US20220414909A1 (en) | 2021-06-23 | 2022-08-01 | Depth map image generation method and computing device therefor |
KR1020230084004A KR20230107492A (en) | 2021-06-23 | 2023-06-29 | Depth map image generation method and computing device therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210081608A KR102551467B1 (en) | 2021-06-23 | 2021-06-23 | Depth map image generation method and computing device therefor |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230084004A Division KR20230107492A (en) | 2021-06-23 | 2023-06-29 | Depth map image generation method and computing device therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220170589A true KR20220170589A (en) | 2022-12-30 |
KR102551467B1 KR102551467B1 (en) | 2023-07-05 |
Family
ID=84538583
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210081608A KR102551467B1 (en) | 2021-06-23 | 2021-06-23 | Depth map image generation method and computing device therefor |
KR1020230084004A KR20230107492A (en) | 2021-06-23 | 2023-06-29 | Depth map image generation method and computing device therefor |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230084004A KR20230107492A (en) | 2021-06-23 | 2023-06-29 | Depth map image generation method and computing device therefor |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR102551467B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190026957A1 (en) * | 2012-02-24 | 2019-01-24 | Matterport, Inc. | Employing three-dimensional (3d) data predicted from two-dimensional (2d) images using neural networks for 3d modeling applications and other applications |
KR20210049581A (en) * | 2019-10-25 | 2021-05-06 | 주식회사 멀티플아이 | Apparatus for acquisition distance for all directions of vehicle |
-
2021
- 2021-06-23 KR KR1020210081608A patent/KR102551467B1/en active IP Right Grant
-
2023
- 2023-06-29 KR KR1020230084004A patent/KR20230107492A/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190026957A1 (en) * | 2012-02-24 | 2019-01-24 | Matterport, Inc. | Employing three-dimensional (3d) data predicted from two-dimensional (2d) images using neural networks for 3d modeling applications and other applications |
KR20210049581A (en) * | 2019-10-25 | 2021-05-06 | 주식회사 멀티플아이 | Apparatus for acquisition distance for all directions of vehicle |
Non-Patent Citations (4)
Title |
---|
Giovanni Pintore 등, SliceNet: deep dense depth estimation from a single indoor panorama using a slice-based representation, 2021 IEEE/CVF CVPR (2021.06.20.)* * |
Nikolaos Zioulis 등, OmniDepth: Dense Depth Estimation for Indoors Spherical Panoramas, arXiv:1807.09620v1(2018.07.25.) * |
Nikolaos Zioulis 등, Spherical View Synthesis for Self-Supervised 360° Depth Estimation, 2019 International Conference on 3D Vision (2019.09.16.)* * |
이종협 등, 도메인 적응을 위한 단일 파노라마 깊이 추정, 한국컴퓨터그래픽스학회 (2020.07.01.) * |
Also Published As
Publication number | Publication date |
---|---|
KR102551467B1 (en) | 2023-07-05 |
KR20230107492A (en) | 2023-07-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3852068A1 (en) | Method for training generative network, method for generating near-infrared image and apparatuses | |
EP3042361B1 (en) | Estimating depth from a single image | |
CN109683699B (en) | Method and device for realizing augmented reality based on deep learning and mobile terminal | |
US11176694B2 (en) | Method and apparatus for active depth sensing and calibration method thereof | |
CN108416805B (en) | Intrinsic image decomposition method and device based on deep learning | |
KR20180050702A (en) | Image transformation processing method and apparatus, computer storage medium | |
CN111524216B (en) | Method and device for generating three-dimensional face data | |
US11604963B2 (en) | Feedback adversarial learning | |
US20240070972A1 (en) | Rendering new images of scenes using geometry-aware neural networks conditioned on latent variables | |
JP2020042503A (en) | Three-dimensional symbol generation system | |
US20240037898A1 (en) | Method for predicting reconstructabilit, computer device and storage medium | |
CN116097307A (en) | Image processing method and related equipment | |
US12045998B2 (en) | Systems and methods for neural implicit scene representation with dense, uncertainty-aware monocular depth constraints | |
CN117372604A (en) | 3D face model generation method, device, equipment and readable storage medium | |
CN113160416A (en) | Speckle imaging device and method for coal flow detection | |
KR20230104105A (en) | Hole filling method for virtual 3 dimensional model and computing device therefor | |
KR102551467B1 (en) | Depth map image generation method and computing device therefor | |
KR102536096B1 (en) | Learning data generation method and computing device therefor | |
US11954801B2 (en) | Concurrent human pose estimates for virtual representation | |
JP7414332B2 (en) | Depth map image generation method and computing device therefor | |
CN110263782A (en) | Card card detection method and device based on deep learning | |
KR102582056B1 (en) | Surround view providing device and operating method of the same | |
KR102669839B1 (en) | Pre-processing method for generating 3D virtual model and computing device therefor | |
US20230282031A1 (en) | Pose prediction for articulated object | |
CN117574314B (en) | Information fusion method, device and equipment of sensor and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right |