KR20220170589A - Depth map image generation method and computing device therefor - Google Patents

Depth map image generation method and computing device therefor Download PDF

Info

Publication number
KR20220170589A
KR20220170589A KR1020210081608A KR20210081608A KR20220170589A KR 20220170589 A KR20220170589 A KR 20220170589A KR 1020210081608 A KR1020210081608 A KR 1020210081608A KR 20210081608 A KR20210081608 A KR 20210081608A KR 20220170589 A KR20220170589 A KR 20220170589A
Authority
KR
South Korea
Prior art keywords
depth map
image
map image
training
neural network
Prior art date
Application number
KR1020210081608A
Other languages
Korean (ko)
Other versions
KR102551467B1 (en
Inventor
김켄
정지욱
파르호드 루스탐 욱리 후다이베르가노브
미하일 이
Original Assignee
주식회사 쓰리아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 쓰리아이 filed Critical 주식회사 쓰리아이
Priority to KR1020210081608A priority Critical patent/KR102551467B1/en
Priority to JP2022545059A priority patent/JP7414332B2/en
Priority to PCT/KR2021/012652 priority patent/WO2022270683A1/en
Priority to EP21939986.2A priority patent/EP4174773A4/en
Priority to US17/878,206 priority patent/US20220414909A1/en
Publication of KR20220170589A publication Critical patent/KR20220170589A/en
Priority to KR1020230084004A priority patent/KR20230107492A/en
Application granted granted Critical
Publication of KR102551467B1 publication Critical patent/KR102551467B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

A computing device according to one technical aspect of the present application includes: a memory for storing one or more instructions; and a processor for executing the one or more instructions stored in the memory. The processor executes the one or more instructions to generate an estimated depth map image for a training RGB image using a neural network, and trains the neural network based on a difference between the estimated depth map image and a learning depth map image, calculated based on a spherical transform - the learning depth map image matches the training RGB image and has depth information -.

Description

깊이 맵 이미지 생성 방법 및 그를 위한 컴퓨팅 장치 {Depth map image generation method and computing device therefor} Depth map image generation method and computing device therefor

본 출원은 깊이 맵 이미지 생성 방법 및 그를 위한 컴퓨팅 장치에 관한 것이다.The present application relates to a method for generating a depth map image and a computing device therefor.

근래에 들어서는 실제 공간에 대응되는 온라인 상의 가상 공간을 제공받음으로써, 사용자가 직접 실제 공간에 방문하지 않고서도 실제 공간에 있는 듯한 체험이 가능한 가상공간 구현기술이 개발되고 있다. In recent years, virtual space realization technology has been developed that allows users to experience as if they are in a real space without directly visiting the real space by being provided with an online virtual space corresponding to the real space.

이러한 가상공간을 구현하기 위해서는, 구현하고자 하는 실제 공간을 대상으로 촬영된 평면 이미지를 획득하고, 이를 기초로 입체적인 가상 이미지를 생성하여 가상 공간을 제공하는 과정이 필요하다. In order to implement such a virtual space, it is necessary to acquire a plane image photographed for a real space to be implemented, and create a three-dimensional virtual image based on this to provide the virtual space.

이러한 종래 기술의 경우, 평면 이미지를 기초로 가상 이미지를 제공하나, 종래의 가상 공간에서는 거리 정보를 알 수 없어 실체감 및 입체적 정보가 결여되어 있는 한계가 있다.In the case of such a prior art, a virtual image is provided based on a flat image, but there is a limit in that a sense of reality and three-dimensional information are lacking because distance information is not known in a conventional virtual space.

미국 출원특허 제16/880143호US Patent Application No. 16/880143

본 출원의 일 기술적 측면은 상기한 종래 기술의 문제점을 해결하기 위한 것으로, 본 출원에 개시되는 일 실시예에 따르면, 가상 공간에 대하여 거리 정보를 제공하는 것을 목적으로 한다.One technical aspect of the present application is to solve the above problems of the prior art, and, according to an embodiment disclosed in the present application, aims to provide distance information with respect to a virtual space.

본 출원에 개시되는 일 실시예에 따르면, 하나의 RGB 이미지와 그에 대한 거리 맵 이미지를 이용하여 다양한 학습 데이터 셋을 생성하는 것을 목적으로 한다.According to an embodiment disclosed in the present application, an object is to generate various learning data sets using one RGB image and a distance map image for the RGB image.

본 출원에 개시되는 일 실시예에 따르면, 뉴럴 네트워크 모델을 이용하여 학습을 기반으로 RBG 이미지로부터 깊이 맵 이미지를 생성하는 것을 목적으로 한다.According to an embodiment disclosed in the present application, an object is to generate a depth map image from an RBG image based on learning using a neural network model.

본 출원의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The tasks of the present application are not limited to the tasks mentioned above, and other tasks not mentioned will be clearly understood by those skilled in the art from the description below.

본 출원의 일 기술적 측면은 컴퓨팅 장치를 제안한다. 상기 컴퓨팅 장치는, 하나 이상의 인스트럭션을 저장하는 메모리; 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 뉴럴 네트워크를 이용하여 학습 RGB 이미지에 대한 추정 깊이 맵 이미지를 생성하고, 구형 변환을 기반으로 산출된, 학습 깊이 맵 이미지 -상기 학습 깊이 맵 이미지는 상기 학습 RGB 이미지에 매치되고 깊이 정보를 가짐- 및 상기 추정 깊이 맵 이미지 간의 차이를 기초로 상기 뉴럴 네트워크를 트레이닝 할 수 있다.One technical aspect of the present application proposes a computing device. The computing device includes a memory for storing one or more instructions; and a processor that executes the one or more instructions stored in the memory, by executing the one or more instructions, the processor generates an estimated depth map image for the training RGB image using a neural network, and performs a spherical transform. The neural network may be trained based on a difference between the training depth map image calculated based on the training depth map image, which matches the training RGB image and has depth information, and the estimated depth map image.

본 출원의 다른 일 기술적 측면은 컴퓨팅 장치를 제안한다. 상기 컴퓨팅 장치는 RGB 이미지와 깊이 맵 이미지를 이용하여 구형 가상 이미지를 생성하는 컴퓨팅 장치로서, 하나 이상의 인스트럭션을 저장하는 메모리, 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 뉴럴 네트워크를 이용하여 질의 RGB 이미지에 대한 추정 깊이 맵 이미지를 생성하고, 상기 질의 RGB 이미지와 상기 추정 깊이 맵 이미지를 이용하여 상기 구형 가상 이미지 - 상기 구형 가상 이미지는 가상 이미지에 포함된 적어도 하나의 지점에 대한 거리 정보를 포함하고, 상기 거리 정보는 상기 추정 깊이 맵을 기초로 결정됨- 를 생성할 수 있다.Another technical aspect of the present application proposes a computing device. The computing device is a computing device that generates a spherical virtual image using an RGB image and a depth map image, and includes a memory for storing one or more instructions, and a processor for executing the one or more instructions stored in the memory, wherein the processor generates an estimated depth map image for the query RGB image using a neural network by executing the one or more instructions, and the spherical virtual image - the spherical virtual image using the query RGB image and the estimated depth map image. Include distance information about at least one point included in the virtual image, and the distance information is determined based on the estimated depth map.

본 출원의 다른 일 기술적 측면은 깊이 맵 이미지 생성 방법을 제안한다. 상기 깊이 맵 이미지 생성 방법은, 컴퓨팅 장치에서 수행되는 깊이 맵 이미지 생성 방법으로서, 뉴럴 네트워크를 이용하여 학습 RGB 이미지에 대한 추정 깊이 맵을 생성하는 동작 및 구형 변환을 기반으로 산출된, 학습 깊이 맵 -상기 학습 깊이 맵은 상기 학습 RGB 이미지에 매치되고 깊이 정보를 가짐- 및 상기 추정 깊이 맵 간의 차이를 기초로 상기 뉴럴 네트워크를 트레이닝 하는 동작을 포함할 수 있다.Another technical aspect of the present application proposes a method for generating a depth map image. The method for generating a depth map image is a method for generating a depth map image performed in a computing device, and a learning depth map calculated based on an operation of generating an estimated depth map for a training RGB image using a neural network and a spherical transformation- The training depth map may include training the neural network based on a difference between the learning depth map matched to the training RGB image and having depth information and the estimated depth map.

본 출원의 다른 일 기술적 측면은 저장 매체를 제안한다. 상기 저장 매체는, 컴퓨터 판독 가능한 인스트럭션들(instructions)을 저장하고 있는 저장 매체이다. 상기 인스트럭션들은, 컴퓨팅 장치에 의해 실행될 때, 상기 컴퓨팅 장치로 하여금, 뉴럴 네트워크를 이용하여 학습 RGB 이미지에 대한 추정 깊이 맵을 생성하는 동작 및 구형 변환을 기반으로 산출된, 학습 깊이 맵 -상기 학습 깊이 맵은 상기 학습 RGB 이미지에 매치되고 깊이 정보를 가짐- 및 상기 추정 깊이 맵 간의 차이를 기초로 상기 뉴럴 네트워크를 트레이닝 하는 동작을 수행하도록 할 수 있다.Another technical aspect of the present application proposes a storage medium. The storage medium is a storage medium storing computer readable instructions. The instructions, when executed by a computing device, cause the computing device to generate an estimated depth map for a training RGB image using a neural network, and a learning depth map calculated based on a spherical transform - the learning depth. An operation of training the neural network may be performed based on a difference between a map matched to the training RGB image and having depth information and the estimated depth map.

상기한 과제의 해결 수단은, 본 출원의 특징을 모두 열거한 것은 아니다. 본 출원의 과제 해결을 위한 다양한 수단들은 이하의 상세한 설명의 구체적인 실시형태를 참조하여 보다 상세하게 이해될 수 있을 것이다.The means for solving the problems described above do not enumerate all the features of the present application. Various means for solving the problems of the present application will be understood in more detail with reference to specific embodiments of the detailed description below.

본 출원에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.According to the present application, there are one or more of the following effects.

본 출원에 개시되는 일 실시예에 따르면, 가상 공간에 대하여 거리 정보를 제공할 수 있는 효과가 있다.According to an embodiment disclosed in the present application, there is an effect of providing distance information with respect to a virtual space.

본 출원에 개시되는 일 실시예에 따르면, 하나의 RGB 이미지와 그에 대한 거리 맵 이미지를 이용하여 다수의 학습 데이터 셋을 생성할 수 있는 효과가 있다.According to an embodiment disclosed in the present application, there is an effect of generating a plurality of training data sets using one RGB image and a distance map image thereof.

본 출원에 개시되는 일 실시예에 따르면, 뉴럴 네트워크 모델을 이용하여 학습을 기반으로 RBG 이미지로부터 깊이 맵 이미지를 생성할 수 있으며, 이를 이용하여, RGB 이미지만으로도 깊이 정보를 포함하는 가상 공간을 제공할 수 있는 효과가 있다.According to an embodiment disclosed in the present application, a depth map image may be generated from an RBG image based on learning using a neural network model, and a virtual space including depth information may be provided using only the RGB image. There are possible effects.

본 출원에 개시되는 일 실시예에 따르면, 뉴럴 네트워크의 학습을 위하여 사용되는 로스(Loss)를 산출함에 있어서, 다수의 함수를 조합적으로 사용함으로써, 로스 범위를 최소한으로 감소시킬 수 있는 효과가 있다.According to an embodiment disclosed in the present application, in calculating a loss used for learning a neural network, by using a plurality of functions in combination, the loss range can be reduced to a minimum. .

본 출원의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present application are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 출원에 개시되는 일 실시예에 따른 깊이 맵 이미지를 기반으로 하여 구형 가상 이미지를 제공하는 시스템을 설명하기 위한 하나의 예시 도면이다.
도 2는 본 출원에 개시되는 일 실시예에 따른 컴퓨팅 장치를 설명하는 블록 구성도이다.
도 3은 본 출원에 개시되는 일 실시예에 따른 학습 데이터 생성 아키텍처를 설명하는 도면이다.
도 4는 본 출원에 개시되는 일 실시예에 따른 등장방형 투영 이미지와, 그를 이용하여 생성된 구형 가상 이미지를 도시하는 도면이다.
도 5는 본 출원에 개시되는 일 실시예에 따른 학습 데이터가 생성되는 방법을 설명하는 도면이다.
도6은 일 예에 따른 기초 RGB 및 기초 깊이 맵을 기초로 다량의 학습 데이터 셋을 생성하는 예를 설명하기 위한 도면이다.
도 7은 본 출원에 개시되는 일 실시예에 따른 뉴럴 네트워크 아키텍처의 일예를 설명하는 도면이다.
도 8은 본 출원에 개시되는 일 실시예에 따른 뉴럴 네트워크 아키텍처의 다른 일 예를 설명하는 도면이다.
도 9는 본 출원에 개시되는 일 실시예에 따른 뉴럴 네트워크를 이용한 트레이닝 방법을 설명하는 도면이다.
도 10은 본 출원에 개시되는 일 실시예에 따른 등장방형 투영 이미지와, 그를 이용하여 생성된 구형 가상 이미지 간의 차이를 예시하는 도면이다.
도 11은 본 출원에 개시되는 일 실시예에 따른 트레이닝 모듈에 의한 트레이닝 방법을 설명하는 도면이다.
도 12는 본 출원에 개시되는 일 실시예에 따른 로스 산출 방법을 설명하는 도면이다.
도 13은 일 예에 따른 학습 RGB, 학습 깊이 맵, 추정 깊이 맵 및 추정 깊이 맵과 학습 깊이 맵 간의 차이 이미지를 도시하는 도면이다.
도 14는 본 출원에 개시되는 일 실시예에 따른 구형 가상 이미지 생성 아키텍처를 설명하는 도면이다.
도 15는 본 출원에 개시되는 일 실시예에 따른 구형 가상 이미지를 사용자에게 제공하는 방법을 설명하는 도면이다.
도 16은 본 출원에 개시되는 일 실시예에 따른 구형 변환을 설명하기 위한 도면이다.
1 is an exemplary diagram for explaining a system for providing a spherical virtual image based on a depth map image according to an embodiment disclosed in the present application.
2 is a block diagram illustrating a computing device according to an exemplary embodiment disclosed in the present application.
3 is a diagram illustrating an architecture for generating learning data according to an embodiment disclosed in the present application.
4 is a diagram illustrating an equirectangular projection image and a spherical virtual image generated using the equirectangular projection image according to an embodiment disclosed in the present application.
5 is a diagram explaining a method of generating learning data according to an embodiment disclosed in the present application.
6 is a diagram for explaining an example of generating a large amount of training data sets based on basic RGB and basic depth maps according to an example.
7 is a diagram for explaining an example of a neural network architecture according to an embodiment disclosed in the present application.
8 is a diagram for explaining another example of a neural network architecture according to an embodiment disclosed in the present application.
9 is a diagram explaining a training method using a neural network according to an embodiment disclosed in the present application.
10 is a diagram illustrating a difference between an equirectangular projection image according to an embodiment disclosed in the present application and a spherical virtual image generated using the same.
11 is a diagram explaining a training method using a training module according to an embodiment disclosed in the present application.
12 is a diagram explaining a loss calculation method according to an embodiment disclosed in the present application.
13 is a diagram illustrating a learning RGB, a learning depth map, an estimated depth map, and a difference image between the estimated depth map and the learning depth map according to an example.
14 is a diagram illustrating an architecture for generating a spherical virtual image according to an embodiment disclosed in the present application.
15 is a diagram explaining a method of providing a spherical virtual image to a user according to an embodiment disclosed in the present application.
16 is a diagram for explaining spherical transformation according to an embodiment disclosed in the present application.

이하, 첨부된 도면을 참조하여 본 출원의 바람직한 실시 형태들을 설명한다. Hereinafter, preferred embodiments of the present application will be described with reference to the accompanying drawings.

그러나, 본 출원의 실시형태는 여러 가지 다른 형태로 변형될 수 있으며, 본 출원의 범위가 이하 설명하는 실시 형태로 한정되는 것은 아니다. 또한, 본 출원의 실시형태는 당해 기술분야에서 평균적인 지식을 가진 자에게 본 출원을 더욱 완전하게 설명하기 위해서 제공되는 것이다. However, the embodiments of the present application may be modified in many different forms, and the scope of the present application is not limited to the embodiments described below. In addition, the embodiments of the present application are provided to more completely explain the present application to those skilled in the art.

본 출원의 다양한 실시 예들 및 이에 사용된 용어들은 본 출원에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 출원에서, "A 또는 B", "A 및 B 중 적어도 하나","A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나" 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예를 들어, 중요성 또는 순서)에서 한정하지 않는다. 어떤(예를 들어, 제 1) 구성요소가 다른(예를 들어, 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드", "커넥티드" 또는 "연결된" 이라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.Various embodiments of the present application and terms used therein are not intended to limit the technical features described in the present application to specific embodiments, and should be understood to include various modifications, equivalents, or substitutes of the embodiments. In connection with the description of the drawings, like reference numbers may be used for like or related elements. The singular form of a noun corresponding to an item may include one item or a plurality of items, unless the relevant context clearly dictates otherwise. In this application, "A or B", "at least one of A and B", "at least one of A or B", "A, B or C", "at least one of A, B and C" and "A, Each of the phrases such as "at least one of B or C" may include any one of the items listed together in the corresponding one of the phrases, or all possible combinations thereof. Terms such as "first", "second", or "first" or "second" may simply be used to distinguish that component from other corresponding components, and may refer to that component in other aspects (e.g., importance or order). A (e.g., first) component is "coupled" to another (e.g., second) component, with or without the terms "functionally" or "communicatively". When referred to as "connected" or "connected", it means that the certain component can be connected to the other component directly or through a third component.

본 출원에서 사용된 용어 "모듈"은 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.The term "module" used in this application means a unit that processes at least one function or operation, which may be implemented as software or a combination of hardware and software.

본 출원의 다양한 실시 예들은 기기(machine)(예를 들어, 사용자 단말(100)이나 컴퓨팅 장치(300))에 의해 읽을 수 있는 저장 매체(storage medium)에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예를 들어, 프로그램)로서 구현될 수 있다. 예를 들면, 프로세서(301)는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 장치가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예를 들어, 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present application are software (eg, user terminal 100 or computing device 300) including one or more instructions stored in a storage medium readable by a machine (eg, the user terminal 100 or the computing device 300). For example, it can be implemented as a program). For example, the processor 301 may call at least one command among one or more commands stored from a storage medium and execute it. This enables the device to be operated to perform at least one function according to the at least one command invoked. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-temporary' only means that the storage medium is a tangible device and does not contain a signal (eg, electromagnetic wave), and this term means that data is stored semi-permanently in the storage medium. It does not distinguish between the case and the case of temporary storage.

실시 예에 따르면, 본 출원에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예를 들어, compact disc read only memory (CDROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예를 들어, 플레이 스토어™)를 통해 또는 두개의 사용자 장치들(예를 들어, 스마트폰들) 간에 직접, 온라인으로 배포(예를 들어, 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to embodiments, methods according to various embodiments disclosed in this application may be included in and provided in a computer program product. Computer program products may be traded between sellers and buyers as commodities. A computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CDROM)), or through an application store (eg Play Store™) or on two user devices. It can be distributed (eg, downloaded or uploaded) online, directly between (eg, smart phones). In the case of online distribution, at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.

다양한 실시 예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예를 들어, 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시 예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예를 들어, 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (eg, module or program) of the components described above may include singular or plural entities. According to various embodiments, one or more components or operations among the aforementioned components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by a corresponding component of the plurality of components prior to the integration. . According to various embodiments, operations performed by modules, programs, or other components are executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations are executed in a different order, omitted, or , or one or more other operations may be added.

본 출원의 실시형태를 설명하기 위하여 다양한 순서도가 개시되고 있으나, 이는 각 단계의 설명의 편의를 위한 것으로, 반드시 순서도의 순서에 따라 각 단계가 수행되는 것은 아니다. 즉, 순서도에서의 각 단계는, 서로 동시에 수행되거나, 순서도에 따른 순서대로 수행되거나, 또는 순서도에서의 순서와 반대의 순서로도 수행될 수 있다. Although various flow charts have been disclosed to describe the embodiments of the present application, this is for convenience of explanation of each step, and each step is not necessarily performed in the order of the flowchart. That is, each step in the flowchart may be performed simultaneously with each other, in an order according to the flowchart, or in an order reverse to that in the flowchart.

도 1은 본 출원에 개시되는 일 실시예에 따른 깊이 맵 이미지를 기반으로 하여 구형 가상 이미지를 제공하는 시스템을 설명하기 위한 하나의 예시 도면이다.1 is an exemplary diagram for explaining a system for providing a spherical virtual image based on a depth map image according to an embodiment disclosed in the present application.

깊이 맵 이미지를 기반으로 하여 구형 가상 이미지를 제공하는 시스템(10)은 사용자 단말기(100), 이미지 취득 장치(200) 및 컴퓨팅 장치(300)를 포함할 수 있다. The system 10 for providing a spherical virtual image based on a depth map image may include a user terminal 100 , an image acquisition device 200 and a computing device 300 .

사용자 단말기(100)는 사용자가 컴퓨팅 장치(300)에 접근하기 위하여 사용 가능한 전자 기기로서, 예를 들어, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 퍼스널 컴퓨터(PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등을 포괄한다. 그러나, 그 외에도 사용자 단말기(100)는 VR(Virtual Reality), AR(Augmented Reality)에 사용되는 전자 기기를 포함할 수 있다.The user terminal 100 is an electronic device that can be used by a user to access the computing device 300, for example, a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, and a personal digital assistant (PDA). digital assistants), PMP (portable multimedia player), navigation, personal computer (PC), tablet PC (tablet PC), ultrabook, wearable device (e.g., smartwatch), glasses It covers smart glass, HMD (head mounted display), etc. However, other than that, the user terminal 100 may include electronic devices used for virtual reality (VR) and augmented reality (AR).

이미지 취득 장치(200)는 구형 가상 이미지를 생성하는데 사용되는, RGB 이미지 및/또는 깊이 맵 이미지를 생성하는 장치이다. The image acquisition device 200 is a device for generating an RGB image and/or a depth map image, which is used to generate a spherical virtual image.

도시된 예에서, 이미지 취득 장치(200)는 거리측정 장치(210) 및 촬상 장치(220)로 구분되어 도시되어 있으나, 이는 예시적인 것으로서, 하나의 이미지 취득 장치(200)를 이용하여 거리 측정 및 촬상을 수행할 수도 있다.In the illustrated example, the image acquisition device 200 is shown divided into a distance measurement device 210 and an imaging device 220, but this is exemplary, and distance measurement and Imaging may also be performed.

촬상 장치(220)는 촬영 기능을 가진 휴대용 전자 기기로서, 피사 영역 -즉, RGB 이미지에 촬상된 영역-에 대하여 색으로 표현되는 RGB 이미지를 생성한다.The imaging device 220 is a portable electronic device having a photographing function, and generates an RGB image expressed in color with respect to a subject area - that is, an area captured in an RGB image.

즉, 본 출원 명세서에서, RGB 이미지는 색으로 표현되는 이미지를 모두 포괄하는 것으로서, 특정한 표현 방식으로 제한하는 것은 아니다. 따라서, CMYK(Cyan Magenta Yellow Key)로 표현되는 이미지 또한 본 출원 명세서에서는 RGB 이미지로 통칭하여 설명한다.That is, in the specification of the present application, an RGB image encompasses all images expressed in color, and is not limited to a specific expression method. Therefore, images expressed in CMYK (Cyan Magenta Yellow Key) are also collectively referred to as RGB images in the present application.

촬상 장치(220)는, 예를 들어, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), PDA(personal digital assistants), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 촬영 디바이스(wearable device, 예를 들어, 글래스형 단말기 (smart glass)) 등을 포괄한다.The imaging device 220 may be, for example, a mobile phone, a smart phone, a laptop computer, a personal digital assistant (PDA), a tablet PC, an ultrabook, or a wearable device. (wearable device, for example, a glass type terminal (smart glass)) and the like.

거리측정 장치(210)는 피사 영역에 대하여 깊이 정보를 생성하여 깊이 맵 이미지를 생성할 수 있는 장치이다.The distance measuring device 210 is a device capable of generating a depth map image by generating depth information about a subject area.

본 출원 명세서에서, 깊이 맵 이미지는 피사 공간에 대하여 깊이 정보를 포함하는 이미지를 포괄한다. 즉, 깊이 맵 이미지는, 촬영된 피사 공간의 각 지점에 대하여, 촬상 지점에서 각 지점까지의 거리 정보로 표현되는 이미지를 의미한다.In the present application specification, a depth map image encompasses an image including depth information with respect to a subject space. That is, the depth map image refers to an image represented by distance information from an imaging point to each point with respect to each point in the photographed subject space.

거리측정 장치(210)는, 거리 측정을 위한 소정의 센서, 예컨대, 라이다 센서, 적외선 센서, 초음파 센서 등을 포함할 수 있다. 또는, 거리 측정 촬상 장치(220)는 센서를 대체하여 거리 정보를 측정할 수 있는 스테레오 카메라(stereo camera), 스테레오스코픽 카메라(stereoscopic camera), 3D 깊이 카메라(3D, depth camera) 등을 포함할 수 있다.The distance measurement device 210 may include a predetermined sensor for distance measurement, for example, a LIDAR sensor, an infrared sensor, an ultrasonic sensor, and the like. Alternatively, the distance measurement imaging device 220 may include a stereo camera, a stereoscopic camera, a 3D depth camera, and the like that can measure distance information by replacing the sensor. there is.

촬상 장치(220)에 의하여 생성된 이미지는 기초 RGB 이미지라 하고, 거리 측정 장치(210)에 의하여 생성된 이미지는 기초 깊이 맵 이미지라 한다. 촬상 장치(220)에 의하여 생성된 기초 RGB 이미지와 거리 측정 장치(210)에 의하여 생성된 기초 깊이 맵 이미지는 동일한 피사 영역에 대하여 동일한 조건(예컨대, 해상도 등)을 대상으로 생성되므로, 서로 1:1로 매칭된다. An image generated by the imaging device 220 is referred to as a basic RGB image, and an image generated by the distance measuring device 210 is referred to as a basic depth map image. Since the basic RGB image generated by the imaging device 220 and the basic depth map image generated by the distance measuring device 210 are generated for the same subject area under the same conditions (eg, resolution, etc.), each other is 1: matches with 1

컴퓨팅 장치(300)는 기초 RGB 이미지와 기초 깊이 맵 이미지를 전달받아, 학습을 진행할 수 있다. 여기서 기초 RGB 이미지와 기초 깊이 맵 이미지를 전달은 네트워크를 통해 전달될 수 있다.The computing device 300 may receive the basic RGB image and the basic depth map image and perform learning. Here, the basic RGB image and the basic depth map image may be delivered through a network.

컴퓨팅 장치(300)는 진행된 학습을 기반으로 구형 가상 이미지를 생성할 수 있다. 또한, 컴퓨팅 장치(300)는, 생성된 구형 가상 이미지를 사용자 단말(100)에 제공하게 된다. 여기에서, 구형 가상 이미지 제공은 다양한 형태로 이루어질 수 있으며, 일 예로 사용자 단말(100)에서 구동되도록 구형 가상 이미지를 제공하거나, 또는 다른 예로, 컴퓨팅 장치(300)에서 구현된 구형 가상 이미지에 대한 사용자의 인터페이스를 제공하는 것을 포함한다.The computing device 300 may generate a spherical virtual image based on the progressed learning. In addition, the computing device 300 provides the generated spherical virtual image to the user terminal 100 . Here, the provision of the spherical virtual image may be made in various forms, and as an example, a spherical virtual image is provided to be driven in the user terminal 100, or as another example, the user for the spherical virtual image implemented in the computing device 300 It includes providing an interface for

컴퓨팅 장치(300)에서 사용자 단말(100)로의 구형 가상 이미지 제공 또한 네트워크를 통해 제공될 수 있다.The provision of a spherical virtual image from the computing device 300 to the user terminal 100 may also be provided through a network.

컴퓨팅 장치(300)는 기초 RGB 이미지와 기초 깊이 맵 이미지를 변환하여, 다수의 학습 RGB 이미지와 학습 깊이 맵 이미지를 생성할 수 있다. 이는, 구형 가상 이미지를 사용하는 특징적인 환경을 이용한 것으로, 기초 RGB 이미지와 기초 깊이 맵 이미지를 구형화 한 후 약간의 조정을 통하여 다수의 학습 RGB 이미지와 학습 깊이 맵 이미지를 생성할 수 있다.The computing device 300 may generate a plurality of training RGB images and training depth map images by converting the basic RGB image and the basic depth map image. This is by using a characteristic environment using a spherical virtual image, and after sphericalizing the basic RGB image and the basic depth map image, a plurality of training RGB images and training depth map images can be generated through slight adjustment.

이하, 도 2 내지 도 15를 참조하여, 구형 가상 이미지를 제공하는 시스템(10)를 구성하는 구성요소들의 다양한 실시예들에 대하여 설명한다.Hereinafter, various embodiments of components constituting the system 10 for providing a spherical virtual image will be described with reference to FIGS. 2 to 15 .

도 2는 본 출원에 개시되는 일 실시예에 따른 컴퓨팅 장치를 설명하는 블록 구성도이다.2 is a block diagram illustrating a computing device according to an exemplary embodiment disclosed in the present application.

컴퓨팅 장치(300)는 프로세서(301), 메모리(302) 및 통신부(303)를 포함할 수 있다.The computing device 300 may include a processor 301 , a memory 302 and a communication unit 303 .

프로세서(301)는 컴퓨팅 장치(300)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(301)는, 메모리(302)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 본 개시서에 기재된 컴퓨팅 장치(300)의 기능을 수행할 수 있다.The processor 301 controls the overall operation of the computing device 300 . For example, processor 301 may perform the functions of computing device 300 described in this disclosure by executing one or more instructions stored in memory 302 .

프로세서(301)는 촬상 장치(220)로부터 전달된 기초 RGB 이미지 및 거리측정 장치(210)로부터 입력된 기초 깊이 맵 이미지를 기반으로, 구형 가상 이미지를 생성할 수 있다. The processor 301 may generate a spherical virtual image based on the basic RGB image transmitted from the imaging device 220 and the basic depth map image input from the distance measuring device 210 .

프로세서(301)는, 기초 RGB 이미지 및 기초 깊이 맵 이미지를 기초로 다양한 학습 데이터를 생성하는 학습 데이터 생성 모듈(310), 학습 데이터를 기초로 학습을 진행하는 뉴럴 네트워크 모듈(320), 추정 깊이 맵과 학습 깊이 맵을 비교하여 뉴럴 네트워크 모듈(320)을 트레이닝하는 트레이닝 모듈(330) 및 구형 가상 이미지를 생성하여 피사 영역의 거리 정보 등을 사용자 단말기에 제공하는 가상 이미지 제공 모듈(340)을 포함할 수 있다.The processor 301 includes a training data generation module 310 that generates various training data based on the basic RGB image and the basic depth map image, a neural network module 320 that performs learning based on the training data, and an estimated depth map. and a training module 330 for training the neural network module 320 by comparing the learning depth map with the training module 330 and a virtual image providing module 340 for generating a spherical virtual image and providing distance information of the Pisa area to the user terminal. can

학습 데이터 생성 모듈(310)은 기초 RGB 이미지 및 기초 깊이 맵 이미지를 구형 변환하고, 이를 조정하여 복수의 학습 데이터, 즉, 학습 RGB 이미지 및 학습 깊이 맵 이미지를 생성할 수 있다.The training data generation module 310 may generate a plurality of training data, that is, a training RGB image and a training depth map image by performing spherical transformation on the basic RGB image and the basic depth map image and adjusting them.

예를 들어, 학습 데이터 생성 모듈(310)은 촬상 장치(220)로부터 전달된 기초 RGB 이미지 및 거리측정 장치(210)로부터 전달된 기초 깊이 맵 이미지를 구형 변환할 수 있다. 이렇게 변환된 이미지는 구형 이미지의 여러 축을 기초로 회전 각도를 변경하면서 다양한 학습 데이터를 획득할 수 있다. 이때, 학습 RGB 이미지는, 학습을 위하여 뉴럴 네트워크 모듈(320)에 제공되는 RGB 이미지를 지칭하고, 학습 깊이 맵 이미지는, 학습을 위하여 뉴럴 네트워크 모듈(320)에 제공되는 깊이 맵 이미지를 지칭한다. 따라서, 학습 RGB 이미지는 기초 RGB 이미지로부터 생성된 이미지, 학습 깊이 맵 이미지는 기초 깊이 맵 이미지로부터 생성된 이미지이다.For example, the learning data generating module 310 may transform the basic RGB image transmitted from the imaging device 220 and the basic depth map image transmitted from the distance measuring device 210 into a sphere. Various training data can be acquired while changing the rotation angle of the converted image based on several axes of the spherical image. In this case, the training RGB image refers to an RGB image provided to the neural network module 320 for learning, and the training depth map image refers to a depth map image provided to the neural network module 320 for learning. Accordingly, the training RGB image is an image generated from the basic RGB image, and the training depth map image is an image generated from the basic depth map image.

뉴럴 네트워크 모듈(320)은 학습을 위한 학습 RGB 이미지와, 그에 대한 학습 깊이 맵(Depth map) 이미지를 기반으로 학습한다. 예컨대, 학습 깊이 맵 이미지는 학습 RGB 이미지와 1:1로 연관된다. 학습 깊이 맵 이미지는 학습 RGB 이미지가 생성된 피사 영역에 대하여, Lidar 센서 등을 이용하여 거리를 실측 -스테레오 카메라를 이용한 거리 추정 방식 등을 포함- 하여 생성되므로, 실측 깊이(Ground Truth Depth) 맵이다. 뉴럴 네트워크 모듈(320)은 학습 RGB 이미지 및 학습 깊이 맵 이미지를 기반으로 학습한 후, 학습된 내용을 기반으로 입력된 RGB 이미지 대한 추정 깊이 맵 이미지를 생성할 수 있다.The neural network module 320 learns based on a learning RGB image for learning and a learning depth map image corresponding thereto. For example, the training depth map image is associated 1:1 with the training RGB image. The learning depth map image is created by actually measuring the distance using a lidar sensor for the Pisa area where the learning RGB image was created - including a distance estimation method using a stereo camera - so it is a ground truth depth map. . After learning based on the learning RGB image and the learning depth map image, the neural network module 320 may generate an estimated depth map image for the input RGB image based on the learned content.

트레이닝 모듈(330)은 뉴럴 네트워크 모듈(320)에서 생성한 추정 깊이 맵의 정확도를 기초로, 뉴럴 네트워크 모듈(320)을 트레이닝 할 수 있다.The training module 330 may train the neural network module 320 based on the accuracy of the estimated depth map generated by the neural network module 320 .

예를 들어, 트레이닝 모듈(330)은 학습 RGB 이미지에 대하여 뉴럴 네트워크 모듈(320)이 생성한 추정 깊이 맵과, 학습 깊이 맵-이는 실측 깊이 맵임-을 비교하고, 추정 깊이 맵과 학습 깊이 맵의 그 차이가 적어지도록 뉴럴 네트워크 모듈(320)을 계속적으로 트레이닝 할 수 있다. For example, the training module 330 compares the estimated depth map generated by the neural network module 320 for the training RGB image with the training depth map, which is a measured depth map, and compares the estimated depth map with the training depth map. The neural network module 320 may be continuously trained to reduce the difference.

뉴럴 네트워크 모듈(320)은 질의 RGB 이미지를 입력받고, 추정 깊이 맵을 생성한다. 가상 이미지 제공 모듈(340)은 질의 RGB 이미지와 추정 깊이 맵을 기반으로 구형 가상 이미지를 생성할 수 있다. 구형 가상 이미지는 컴퓨팅 장치(300)로부터 사용자 단말(100)에 제공되는 이미지, 예를 들어, 사용자 단말(100)에서 구현될 수 있는 가상 공간일 수 있다.The neural network module 320 receives the query RGB image and generates an estimated depth map. The virtual image providing module 340 may generate a spherical virtual image based on the query RGB image and the estimated depth map. The spherical virtual image may be an image provided to the user terminal 100 from the computing device 300, for example, a virtual space that can be implemented in the user terminal 100.

메모리(302)는 프로세서(301)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 컴퓨팅 장치(300)로 입력되거나 컴퓨팅 장치(300)로부터 출력되는 데이터를 저장할 수 있다. 일 예로, 메모리(302)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM,Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory),EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory 302 may store programs for processing and control of the processor 301 and may store data input to or output from the computing device 300 . For example, the memory 302 may be a flash memory type, a hard disk type, a multimedia card micro type, or a card type memory (eg, SD or XD memory, etc.) ), RAM (RAM, Random Access Memory) SRAM (Static Random Access Memory), ROM (ROM, Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory , a magnetic disk, and an optical disk may include at least one type of storage medium.

통신부(303)는 컴퓨팅 장치(300)와 다른 전자 장치, 예컨대, 사용자 단말(100) 또는 이미지 취득 장치(200)사이, 또는 컴퓨팅 장치(300)와 다른 전자 장치가 위치한 네트워크 사이의 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다.The communication unit 303 enables communication between the computing device 300 and another electronic device, for example, the user terminal 100 or the image acquisition device 200, or between the computing device 300 and a network where the other electronic device is located. It may contain one or more modules that

도 3은 본 출원에 개시되는 일 실시예에 따른 학습 데이터 생성 아키텍처를 설명하는 도면이다.3 is a diagram illustrating an architecture for generating learning data according to an embodiment disclosed in the present application.

도 3에 도시된 기초 RGB 이미지는 촬상 장치(220)로부터 전달되고, 기초 깊이 맵 이미지는 거리측정 장치(210)에서 전달된다. The basic RGB image shown in FIG. 3 is transmitted from the imaging device 220 and the basic depth map image is transmitted from the distance measuring device 210 .

여기서의 기초 RGB 이미지 및 기초 깊이 맵 이미지는 전방위 가상현실에 사용되는 등장방형 투영(Equirectangular Projection) 이미지일 수 있다. 이하에서 설명하는 다양한 종류의 RGB 이미지 및 깊이 맵 이미지는, 전방위 가상 공간을 생성하기 위하여 사용되는 등장방형 투영(Equirectangular Projection) 이미지일 수 있다. Here, the basic RGB image and the basic depth map image may be equirectangular projection images used for omnidirectional virtual reality. Various types of RGB images and depth map images described below may be equirectangular projection images used to generate an omnidirectional virtual space.

도 4은 본 출원에 개시되는 일 실시예에 따른 등장방형 투영 이미지와, 그를 이용하여 생성된 구형 가상 이미지를 도시하는 도면이다.4 is a diagram illustrating an equirectangular projection image and a spherical virtual image generated using the equirectangular projection image according to an embodiment disclosed in the present application.

그림 (a)에 도시된 예와 같이, 등장방형 투영 이미지는, 컴퓨팅 장치(300)에 의하여 구형태의 시점을 제공하는 구형의 전방위 가상 이미지(이하, '구형 가상 이미지'라 칭함)로 변환 가능하다. As in the example shown in Figure (a), the equirectangular projection image can be converted into a spherical omnidirectional virtual image (hereinafter referred to as a 'spherical virtual image') providing a spherical viewpoint by the computing device 300 Do.

그림 (b)는 그림 (a)의 등장방형 투영 이미지를 구형 가상 이미지로서 변환한 예를 도시하고 있다. 그림 (b)에 도시된 구형 가상 이미지는, RGB 등장방형 투영 이미지를 기초로 생성한 구형 가상 이미지로서, 각 픽셀의 거리값을 균등하게 설정한 예에 관한 것이다. 한편, 그림 (b)는 구형 가상 이미지의 외부에서 구형 가상 이미지를 도시하고 있으나, 설명의 편의를 위한 것이다. 따라서, 구형 가상 이미지는, 도시된 구형 가상 이미지의 내부에서, 좌우 360도 상하 360도의 전방위에 대하여 가상의 이미지를 제공할 수도 있다.Figure (b) shows an example of converting the equirectangular projection image of Figure (a) into a spherical virtual image. The spherical virtual image shown in Figure (b) is a spherical virtual image generated based on an RGB equirectangular projection image, and relates to an example in which distance values of each pixel are equally set. Meanwhile, figure (b) shows a spherical virtual image outside of the spherical virtual image, but is for convenience of description. Accordingly, the spherical virtual image may provide a virtual image in all directions of 360 degrees left and right and 360 degrees up and down inside the illustrated spherical virtual image.

이하에서는 등장방형 투영 이미지의 일 실시예로서, 파노라마 이미지(예를 들어, 2:1 파노라마 이미지 등)를 설명한다. 파노라마 이미지는 한번의 촬영에 의해 공간의 전방위 이미지를 도출할 수 있고, 구형 변환에서 용이하게 변환이 가능한 이점이 있다.Hereinafter, a panoramic image (eg, a 2:1 panoramic image, etc.) will be described as an example of an equirectangular projection image. A panoramic image has the advantage of being able to derive an omnidirectional image of a space by taking a single shot, and being able to convert it easily in a spherical transformation.

다만, 이미지 취득 장치(200)로부터 전달된 이미지가 파노라마 이미지로 이루어지는 것은 본 출원을 실시하기 위한 하나의 예시이므로, 이미지 취득 장치(200)로부터 전달되는 이미지는 사용자의 이용 및 편의에 따라 촬영된 일반적인 이미지(들) 일 수 있다. 그리고 컴퓨팅 장치(300)는 이러한 일반적인 이미지들을 등장방형 투영 이미지로 변환할 수 있다.However, since the image delivered from the image acquisition device 200 is composed of a panoramic image as an example for implementing the present application, the image delivered from the image acquisition device 200 is a general image taken according to the user's use and convenience. image(s). And the computing device 300 may convert these general images into equirectangular projection images.

학습 데이터 생성 모듈(310)은 기초 RGB 이미지 및 기초 깊이 맵 이미지를 입력받고, 이들을 구형 변환하여 기초 구형 가상 이미지를 생성 할 수 있다. The learning data generation module 310 may receive a basic RGB image and a basic depth map image, and generate a basic spherical virtual image by performing spherical transformation on them.

기초 깊이 맵 이미지는, 피사 영역에 대한 거리 정보를 포함하는 파노라마 깊이 맵 이미지일 수 있다. 기초 깊이 맵 이미지는 동일한 피사 영역을 가지는 기초 RGB 이미지와 1:1로 매칭된다.The basic depth map image may be a panoramic depth map image including distance information about the Pisa region. The basic depth map image is matched 1:1 with the basic RGB image having the same subject area.

학습 데이터 생성 모듈(310)은 기초 구형 가상 이미지를 다양하게 변형하여 복수의 학습 데이터, 즉, 학습 RGB 이미지 및 학습 깊이 맵 이미지를 생성할 수 있다. 학습 데이터 생성 모듈(310)은 생성된 학습 RGB 이미지는 뉴럴 네트워크 모듈(320)에 제공하고, 학습 깊이 맵 이미지는 트레이닝 모듈(330)에 제공할 수 있다.The training data generation module 310 may transform the basic spherical virtual image in various ways to generate a plurality of training data, that is, a training RGB image and a training depth map image. The training data generation module 310 may provide the generated training RGB image to the neural network module 320 and the training depth map image to the training module 330 .

이러한 학습 데이터 생성 모듈(310)의 일 실시례에 대해, 도 5 내지 도 6을 더 참조하여 설명한다.An embodiment of the learning data generating module 310 will be further described with reference to FIGS. 5 and 6 .

도 5는 본 출원에 개시되는 일 실시예에 따른 학습 데이터 생성 방법을 설명하는 도면이고, 도 6은 도 5에서의 학습 데이터 생성 방법을 설명하기 위한 참고도이다.5 is a diagram for explaining a method for generating learning data according to an embodiment disclosed in the present application, and FIG. 6 is a reference diagram for explaining the method for generating learning data in FIG. 5 .

도 5를 참조하면, 학습 데이터 생성 모듈(310)은 기초 RGB 이미지 및 기초 깊이 맵 이미지를 이용하여 기초 구형 가상 이미지를 생성할 수 있다(S501). 이는 도 6의 단계 (a)에 도시되어 있다. 즉, 기초 구형 가상 이미지는 하나의 기초 RGB 이미지 및 기초 깊이 맵 이미지에서 얻어진 다수의 기초 구형 가상 이미지일 수 있다.Referring to FIG. 5 , the training data generation module 310 may generate a basic spherical virtual image using the basic RGB image and the basic depth map image (S501). This is shown in step (a) of FIG. 6 . That is, the basic spherical virtual image may be a plurality of basic spherical virtual images obtained from one basic RGB image and a basic depth map image.

학습 데이터 생성 모듈(310)은, 기초 구형 가상 이미지의 설정 정보를 변경하여, 다수의 학습 구형 이미지를 생성할 수 있다(S502). 예를 들어, 설정 정보는 구형 이미지의 축, 회전 방향 또는 회전 각도 등을 포함할 수 있다. 도 6의 단계 (b)는 기초 구형 가상 이미지의 설정 정보를 변경하는 다양한 예들을 도시하고 있다.The training data generation module 310 may generate a plurality of training spherical images by changing the setting information of the basic spherical virtual image (S502). For example, setting information may include an axis, a rotation direction, or a rotation angle of a spherical image. Step (b) of FIG. 6 shows various examples of changing setting information of a basic spherical virtual image.

학습 데이터 생성 모듈(310)은, 다수 학습 구형 이미지를 다시 평면 이미지로 변환하여, 다수의 학습 데이터 셋 -학습 데이터 셋은 학습 RGB 이미지와, 그에 1:1 매칭되는 학습 깊이맵 이미지 한 쌍을 의미함- 을 생성할 수 있다(S503).The training data generation module 310 converts a plurality of training spherical images back into flat images, and a plurality of training data sets - a training data set means a training RGB image and a pair of training depth map images 1: 1 matched thereto A box can be created (S503).

즉, 학습 데이터 생성 모듈(310)은 기초 RGB 이미지 및 기초 깊이 맵 이미지를 이용하여 기초 구형 가상 이미지를 생성하고, 기초 구형 가상 이미지의 설정 정보를 변경하여 다수의 학습 구형 이미지를 생성한 후, 이를 기반으로 다양한 학습 데이터 셋을 생성할 수 있다.That is, the training data generation module 310 generates a basic spherical virtual image using the basic RGB image and the basic depth map image, changes the setting information of the basic spherical virtual image to generate a plurality of training spherical images, and then generates a plurality of training spherical images. Based on this, various training data sets can be created.

이와 같이, 기초 구형 가상 이미지 설정 정보를 변경하여 다수의 학습 구형 이미지를 생성하는 것은, 하나의 기초 구형 이미지에서 많은 양의 학습 데이터를 생성할 수 있는 효과를 제공한다. 즉, 뉴럴 네트워크 모듈(320)의 정확한 연산 능력은 많은 학습 데이터를 기반으로 이루어지나, 실제적으로는 다수의 학습 데이터를 확보하는 것은 어려운 것이다. 그러나, 본 출원의 일 실시예에서는, 기초 구형 가상 이미지를 기초로 다양한 변형을 적용하여 다수의 학습 구형 이미지를 생성할 수 있으며, 또한 역변환하여 다량의 학습 데이터 셋을 용이하게 확보할 수 있는 효과가 있다.In this way, generating a plurality of training spherical images by changing basic spherical virtual image setting information provides an effect of generating a large amount of training data from one basic spherical image. That is, although the accurate calculation capability of the neural network module 320 is based on a lot of training data, it is difficult to actually secure a lot of training data. However, in one embodiment of the present application, a plurality of training spherical images can be generated by applying various transformations based on the basic spherical virtual image, and a large amount of training data set can be easily secured by inverse transformation. there is.

이렇게 생성된 다수의 학습 RGB 이미지 및 학습 깊이 맵 이미지는 뉴럴 네트워크 모듈(320)에 제공되어 학습 정보로 사용될 수 있다.The plurality of training RGB images and training depth map images generated in this way may be provided to the neural network module 320 and used as training information.

도 7은 본 출원에 개시되는 일 실시예에 따른 뉴럴 네트워크 아키텍처의 일 예를 설명하는 도면이고, 도 8은 본 출원에 개시되는 일 실시예에 따른 뉴럴 네트워크 아키텍처의 다른 일 예를 설명하는 도면이다. 7 is a diagram for explaining an example of a neural network architecture according to an embodiment disclosed in this application, and FIG. 8 is a diagram for explaining another example of a neural network architecture according to an embodiment disclosed in this application. .

설명의 용이성을 위해, 도 7 및 도 8에 도시된 뉴럴 네트워크 모듈(320)은 도 2에서 설명한 컴퓨팅 장치(300)를 이용하여 구현되는 것으로 설명된다. 즉, 컴퓨팅 장치(300)의 메모리(302)와 프로세서(301)에 의하여 수행되는 적어도 하나의 인스트럭션의 실행에 의하여 구현될 수 있다. 그러나, 그 외에도 뉴럴 네트워크 모듈(320)은 다른 어떤 적절한 장치(들) 및 다른 어떤 적절한 시스템(들)에서도 이용될 수 있다. 또한, 뉴럴 네트워크 모듈(320)은 이미지 처리 관련 태스크들을 수행하는 데 이용되는 것으로 설명된다. 그러나, 뉴럴 네트워크 모듈(320)은 비-이미지 처리 태스크들을 포함하여, 다른 어떤 적절한 태스크들을 함께 수행하는 데 이용될 수 있다. For ease of explanation, it is described that the neural network module 320 shown in FIGS. 7 and 8 is implemented using the computing device 300 described in FIG. 2 . That is, it may be implemented by executing at least one instruction performed by the memory 302 and the processor 301 of the computing device 300 . However, in addition, the neural network module 320 may be used in any other suitable device(s) and any other suitable system(s). Further, the neural network module 320 is described as being used to perform image processing related tasks. However, the neural network module 320 may be used to perform any other suitable task in conjunction, including non-image processing tasks.

뉴럴 네트워크 모듈(320)은 학습을 위한 학습 RGB 이미지와, 그에 대한 깊이 맵(Depth map) 이미지를 기반으로 학습한다. The neural network module 320 learns based on a learning RGB image for learning and a depth map image for the learning RGB image.

뉴럴 네트워크 모듈(320)은 딥 러닝 기반의 이미지 전환 학습 모델로서, 입력된 학습 RGB 이미지에 대하여 학습 신경망을 통한 변환을 기초로, 추정 깊이 맵 이미지를 생성할 수 있다. The neural network module 320 is a deep learning-based image conversion learning model, and may generate an estimated depth map image based on conversion of an input training RGB image through a learning neural network.

뉴럴 네트워크 모듈(320)은 노드들과 에지들을 이용하여 수학적 모델로 표현될 수 있다. 뉴럴 네트워크 모듈(320)은 딥 뉴럴 네트워크(Deep Neural Network, DNN) 또는 n-계층 뉴럴 네트워크(n-layers neural networks)의 아키텍처일 수 있다. DNN 또는 n-계층 뉴럴 네트워크는 컨볼루션 뉴럴 네트워크(Convolutional Neural Networks, CNN), HRNet(Deep High-Resolution Network)을 기반으로 하는 컨볼루션 뉴럴 네트워크(CNN), 리커런트 뉴럴 네트워크(Recurrent Neural Networks, RNN), Deep Belief Networks, Restricted Boltzman Machines 등에 해당될 수 있다. The neural network module 320 may be expressed as a mathematical model using nodes and edges. The neural network module 320 may be an architecture of a deep neural network (DNN) or n-layers neural networks. DNN or n-layer neural networks include Convolutional Neural Networks (CNN), Convolutional Neural Networks (CNN) based on HRNet (Deep High-Resolution Network), and Recurrent Neural Networks (RNN). ), Deep Belief Networks, and Restricted Boltzman Machines.

일 예로, 뉴럴 네트워크 모듈(320)은, 도 7에 도시된 예와 같이, 학습 RGB 이미지를 입력받고 그에 대한 추정 깊이 맵 이미지를 생성할 수 있다. 이러한 예에서, 최초 동작에서 뉴럴 네트워크 모듈(320)은 학습된 내용이 없으므로, 뉴럴 네트워크의 각 노드에서 랜덤한 값을 기반으로 추정 깊이 맵 이미지를 생성할 수 있다. 뉴럴 네트워크 모듈(320)은, 생성된 추정 깊이 맵 이미지에 대한 피드백 트레이닝을 반복적으로 수행하여 추정 깊이 맵의 정확도를 향상 시킬 수 있다. For example, as in the example shown in FIG. 7 , the neural network module 320 may receive a training RGB image and generate an estimated depth map image for the received RGB image. In this example, since there is no learned content in the initial operation, the neural network module 320 may generate an estimated depth map image based on a random value in each node of the neural network. The neural network module 320 may improve the accuracy of the estimated depth map by repeatedly performing feedback training on the generated estimated depth map image.

다른 예로, 뉴럴 네트워크 모듈(320)은, 도 8에 도시된 바와 같이, 학습 RGB 이미지와 그에 매칭되는 학습 깊이 맵 셋을 입력받고, 그에 대한 학습을 기반으로 RGB 이미지와 깊이 맵 이미지 간의 연관성을 학습하고, 그러한 연관성을 기반으로 입력된 학습 RGB에 대한 추정 깊이 맵 이미지를 생성할 수 있다. 이러한 예에서도, 추정 깊이 맵 이미지에 대한 피드백 트레이닝을 반복적으로 수행하여 추정 깊이 맵의 정확도를 향상 시킬 수 있다.As another example, as shown in FIG. 8 , the neural network module 320 receives a training RGB image and a training depth map set matching the training RGB image, and learns a correlation between the RGB image and the depth map image based on learning therefrom. and, based on such correlation, an estimated depth map image for the input learning RGB can be generated. Even in this example, the accuracy of the estimated depth map may be improved by repeatedly performing feedback training on the estimated depth map image.

도 9는 본 출원에 개시되는 일 실시예에 따른 뉴럴 네트워크를 이용한 트레이닝 방법을 설명하는 도면으로, 이하에서, 도 9를 더 참조하여 설명한다.FIG. 9 is a diagram for explaining a training method using a neural network according to an embodiment disclosed in the present application, which will be further described with reference to FIG. 9 .

뉴럴 네트워크 모듈(320)은 학습 RGB 이미지를 입력받고, 학습된 내용을 바탕으로 이에 대한 추정 깊이(Predicted Depth) 맵 이미지를 생성한다(S901). The neural network module 320 receives the training RGB image and generates a predicted depth map image based on the learned content (S901).

학습 RGB 이미지는, 학습을 위하여 뉴럴 네트워크 모듈 (320)에 제공된 RGB 이미지를 지칭한다. 학습 깊이 맵 이미지는, 학습을 위하여 뉴럴 네트워크 모듈(320) 또는 트레이닝 모듈(330)에 제공된 깊이 맵 이미지를 지칭한다. 학습 깊이 맵 이미지는 학습 RGB 이미지와 1:1로 연관된다. 학습 깊이 맵 이미지는 학습 RGB 이미지가 생성된 피사 영역에 대하여, Lidar 센서 등을 이용하여 거리를 실측하여 생성되므로, 실측 깊이(Ground Truth Depth) 맵이다.A training RGB image refers to an RGB image provided to neural network module 320 for learning. A training depth map image refers to a depth map image provided to the neural network module 320 or the training module 330 for learning. The training depth map image is related 1:1 with the training RGB image. The learning depth map image is a Ground Truth Depth map because it is generated by actually measuring a distance using a Lidar sensor or the like with respect to the Pisa area where the learning RGB image is generated.

뉴럴 네트워크 모듈(320)은 딥 러닝 기반의 이미지 전환 학습 모델로서, 입력된 학습 RGB 이미지에 대하여 학습 신경망을 통한 변환을 기초로, 추정 깊이 맵 이미지를 생성할 수 있다.The neural network module 320 is a deep learning-based image conversion learning model, and may generate an estimated depth map image based on conversion of an input training RGB image through a learning neural network.

이후, 후술하는 트레이닝 과정을 통하여 뉴럴 네트워크 모듈(320)이 학습을 수행한다(S902). 뉴럴 네트워크 모듈(320)은 전술한 바와 같이, 학습 데이터 생성 모듈(310)에 의하여 생성된 다수의 학습 RGB 이미지 및 학습 깊이 맵을 대상으로 학습을 수행할 수 있으므로, 그 정확도를 쉽게 높일 수 있다.Thereafter, the neural network module 320 performs learning through a training process described later (S902). As described above, the neural network module 320 can perform learning on a plurality of training RGB images and training depth maps generated by the training data generation module 310, so that its accuracy can be easily increased.

추정 깊이 맵 이미지는, 학습된 뉴럴 네트워크 모듈(320)가 생성한 깊이 맵이다. 이러한 추정 깊이 맵 이미지는, Lidar 센서 등을 이용하여 거리를 실측하여 생성된 실측(Ground Truth) 깊이 맵인 학습 깊이 맵 이미지와 차이가 있다. 따라서, 이러한 추정 깊이 맵 이미지와 학습 깊이 맵(실측 깊이 맵) 이미지 간의 차이가 작아지도록 뉴럴 네트워크 모듈(320)이 학습될 수 있으며, 이러한 뉴럴 네트워크 모듈(320)에 대한 학습은 트레이닝 모듈(330)에 의하여 수행된다.The estimated depth map image is a depth map generated by the trained neural network module 320 . This estimated depth map image is different from the learning depth map image, which is a ground truth depth map generated by actually measuring a distance using a Lidar sensor or the like. Accordingly, the neural network module 320 may be trained so that the difference between the estimated depth map image and the training depth map (actually measured depth map) image is small, and learning of the neural network module 320 is performed by the training module 330. is performed by

트레이닝 모듈(330)은 뉴럴 네트워크 모듈(320)에서 생성한 추정 깊이 맵과, 학습 깊이 맵을 비교하고 그 차이를 기초로 뉴럴 네트워크 모듈(320)을 트레이닝 할 수 있다.The training module 330 may compare the estimated depth map generated by the neural network module 320 and the learning depth map, and train the neural network module 320 based on the difference.

일 실시예에서, 트레이닝 모듈(330)은 구형 변환을 기초로 트레이닝을 수행할 수 있다. 예컨대, 트레이닝 모듈(330)은 추정 깊이 맵과 학습 깊이 맵을 각각 구형 변환 한 후에, 구형 변환 된 추정 깊이맵과 구형 변환 된 학습 깊이맵 간의 차이를 기초로 뉴럴 네트워크 모듈(320)을 트레이닝 시킬 수 있다. In one embodiment, training module 330 may perform training based on a spherical transformation. For example, the training module 330 performs spherical transformation on the estimated depth map and the training depth map, respectively, and then trains the neural network module 320 based on the difference between the spherically transformed estimated depth map and the spherically transformed learning depth map. there is.

이러한 실시예에서, 학습 RGB 이미지, 추정 깊이 맵 이미지 및 학습 깊이 맵 이미지 모두 등장방형 투영 이미지일 수 있다. 즉, 이러한 등장방형 투영 이미지는 구형 변환 된 상태에서 사용되므로, 추정 깊이 맵 이미지와 학습 깊이 맵 이미지 간의 사용 상태에서의 차이점을 보다 정확하게 판단하기 위하여, 트레이닝 모듈(330)은 추정 깊이 맵과 학습 깊이 맵을 각각 구형 변환 한 후에 이들을 비교하여 트레이닝을 수행한다. 이에 대하여 도 10을 더 참조하여 설명한다.In this embodiment, the training RGB image, the estimated depth map image, and the training depth map image may all be equirectangular projection images. That is, since this equirectangular projection image is used in a spherical transformed state, in order to more accurately determine the difference between the estimated depth map image and the learning depth map image in the use state, the training module 330 uses the estimated depth map and the learning depth. After transforming the maps into spherical shapes, they are compared to perform training. This will be further described with reference to FIG. 10 .

도 10은 본 출원에 개시되는 일 실시예에 따른 등장방형 투영 이미지와, 그를 이용하여 생성된 구형 가상 이미지 간의 차이를 예시하는 도면이다.10 is a diagram illustrating a difference between an equirectangular projection image according to an embodiment disclosed in the present application and a spherical virtual image generated using the same.

면적 A(1010)와 면적 B(1020)는 구형 가상 이미지에서 동일한 면적 및 형태를 가지지만, 이를 등장방형 투영 이미지로 변환하는 경우 면적 A'(1011)과 면적 B'(1021)는 서로 상이한 면적 및 형태를 가지게 된다. 이는, 구형 가상 이미지와, 평면 등장방형 투영 이미지(파노라마 이미지) 간의 변환에 의한 것이다.Area A (1010) and area B (1020) have the same area and shape in a spherical virtual image, but when converted to an equirectangular projection image, area A' (1011) and area B' (1021) are different from each other. and have a shape. This is due to conversion between a spherical virtual image and a planar equirectangular projection image (panoramic image).

따라서, 트레이닝 모듈(330)은 추정 깊이 맵과 학습 깊이 맵을 각각 구형 변환 한 후에 트레이닝을 수행함으로써, 트레이닝의 정확도를 상승시키고 그에 따라 추정 깊이 맵 이미지의 정확도를 증가시킬 수 있다.Accordingly, the training module 330 may perform training after performing spherical transformation on the estimated depth map and the learning depth map, respectively, thereby increasing the accuracy of training and, accordingly, the accuracy of the estimated depth map image.

도 11은 본 출원에 개시되는 일 실시예에 따른 트레이닝 모듈에 의한 트레이닝 방법을 설명하는 도면으로, 이하 도 8 및 도 11을 참조하여 설명한다.11 is a diagram for explaining a training method using a training module according to an embodiment disclosed in the present application, which will be described with reference to FIGS. 8 and 11 below.

도 8에 도시된 바와 같이, 트레이닝 모듈(330)은 구형 변환 모듈(331), 로스 산출 모듈(332) 및 옵티마이징 모듈(333)을 포함할 수 있다.As shown in FIG. 8 , the training module 330 may include a spherical transformation module 331 , a loss calculation module 332 and an optimization module 333 .

도 11을 더 참조하면, 구형 변환 모듈(331)은 등장방형 투영 이미지를 구형 변환된 것에 대응되도록 구형 변환을 수행한다. 구형 변환 모듈(331)은 추정 깊이 맵 이미지와 학습 깊이 맵 이미지를 입력받고, 이들을 각각 구형 변환할 수 있다(S1101). Referring further to FIG. 11 , the spherical transformation module 331 performs spherical transformation so that the equirectangular projection image corresponds to the spherical transformation. The spherical transform module 331 may receive an estimated depth map image and a learning depth map image, and perform spherical transform on each of them (S1101).

도 8에서, 구형 변환 모듈(331)에 의하여 구형 변환 된 학습 깊이 맵 이미지를 '학습 깊이 맵*'으로, 구형 변환 된 추정 깊이 맵 이미지를 '추정 깊이 맵*'으로 표시하고 있다.In FIG. 8 , the learning depth map image subjected to spherical transformation by the spherical transformation module 331 is displayed as 'learning depth map*', and the estimated depth map image subjected to spherical transformation is indicated as 'estimated depth map*'.

일 실시예에서, 구형 변환 모듈(331)은 아래의 수학식 1을 이용하여, 구형 변환을 수행할 수 있다.In one embodiment, the rectangle transformation module 331 may perform rectangle transformation using Equation 1 below.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

수학식 1에 대한 상세한 설명은 도 16에 도시된 설명을 참조하여 쉽게 이해할 수 있다. A detailed description of Equation 1 can be easily understood with reference to the description shown in FIG. 16 .

로스 산출 모듈(332)은 구형 변환 된 추정 깊이 맵(추정 깊이 맵*)과 구형 변환 된 학습 깊이 맵(학습 깊이 맵*) 간의 로스를 산출할 수 있다(S1102). The loss calculation module 332 may calculate a loss between the spherical transformed estimated depth map (estimated depth map*) and the spherically transformed learning depth map (learning depth map*) (S1102).

즉, 로스 산출 모듈(332)은 구형 변환 된 추정 깊이 맵과 구형 변환 된 학습 깊이 맵 간의 차이를 수치화(로스값) 할 수 있다. 일 예로, 로스 산출 모듈(332)에 의하여 결정된 로스값은 0 내지 1 사이의 범위로 결정될 수 있다.That is, the loss calculation module 332 may quantify (loss value) the difference between the spherically transformed estimated depth map and the spherically transformed learning depth map. For example, the loss value determined by the loss calculation module 332 may be determined in the range of 0 to 1.

옵티마이징 모듈(333)은 로스 산출 모듈(332)로부터 계산된 로스를 제공받고, 해당 로스에 대응하여 뉴럴 네트워크의 매개 변수를 변경하여 옵티마이징을 수행할 수 있다(S1103). The optimizing module 333 may receive the calculated loss from the loss calculating module 332 and perform optimization by changing parameters of the neural network in response to the loss (S1103).

일 예로, 옵티마이징 모듈(333)은 뉴럴 네트워크의 가중치 매개변수 W를 조절하여 옵티마이징을 수행할 수 있다. 다른 예로, 옵티마이징 모듈(333)은 뉴럴 네트워크의 가중치 매개변수 W 및 편향 b 중 적어도 하나를 조절하여 옵티마이징을 수행할 수 있다.For example, the optimization module 333 may perform optimization by adjusting the weight parameter W of the neural network. As another example, the optimization module 333 may perform optimization by adjusting at least one of the weight parameter W and the bias b of the neural network.

다양한 방식의 옵티마이징 방법이 옵티마이징 모듈(333)에 적용 가능하다. 예를 들어, 옵티마이징 모듈(333)은, 배치 경사 하강법(Batch Gradient Descent), 확률적 경사 하강법(Stochastic Gradient Descent), 미니 배치 경사 하강법(Mini-Batch Gradient Descent), 모멘텀(Momentum), 아다그라드(Adagrad), 알엠에스프롭(RMSprop) 등을 사용하여 옵티마이징을 수행할 수 있다.Optimizing methods of various types can be applied to the optimization module 333 . For example, the optimization module 333 may perform batch gradient descent, stochastic gradient descent, mini-batch gradient descent, momentum, Optimization can be performed using Adagrad, RMSprop, etc.

도 12는 본 출원에 개시되는 일 실시예에 따른 로스 산출 방법을 설명하는 도면이다. 12 is a diagram explaining a loss calculation method according to an embodiment disclosed in the present application.

도 12에 도시된 일 실시예에서, 로스 산출 모듈(332)은 복수의 로스 산출 방법을 적용하고, 그 결과값들로부터 대표값을 산출하여 로스를 결정할 수 있다. In the embodiment shown in FIG. 12 , the loss calculation module 332 may determine a loss by applying a plurality of loss calculation methods and calculating a representative value from the resultant values.

도 12를 참조하면, 로스 산출 모듈(332)은 제1 로스 계산방식으로, 구형 변환 된 추정 깊이 맵과 구형 변환 된 학습 깊이 맵 간의 제1 로스 함수 결과를 계산할 수 있다(S1201). Referring to FIG. 12 , the loss calculation module 332 may calculate a first loss function result between the spherical transformed estimated depth map and the spherically transformed learning depth map using a first loss calculation method ( S1201 ).

이하의 수학식 2는, 제1 로스 계산식의 일 예를 설명하는 수학식이다.Equation 2 below is an equation explaining an example of the first loss calculation equation.

[수학식 2][Equation 2]

Figure pat00002
Figure pat00002

여기에서, T는 샘플의 수, y는 학습 깊이 맵, y*는 추정 깊이 맵을 의미한다.Here, T is the number of samples, y is the training depth map, and y* is the estimated depth map.

로스 산출 모듈(332)은 제2 로스 계산방식으로, 구형 변환 된 추정 깊이 맵과 구형 변환 된 학습 깊이 맵 간의 제2 로스 함수 결과를 계산할 수 있다(S1202). The loss calculation module 332 may calculate a second loss function result between the sphere-transformed estimated depth map and the sphere-transformed learning depth map in a second loss calculation method ( S1202 ).

이하의 수학식 3은, 제2 로스 계산식의 일 예를 설명하는 수학식이다.Equation 3 below is an equation explaining an example of the second loss calculation equation.

[수학식 3][Equation 3]

Figure pat00003
Figure pat00003

여기에서, T는 샘플의 수, d는 로그 공간에서의 학습 깊이 맵과 추정 깊이 맵 간의 차이이다.where T is the number of samples and d is the difference between the training depth map and the estimated depth map in log space.

로스 산출 모듈(332)은 제3 로스 계산방식으로 구형 변환 된 추정 깊이 맵과 구형 변환 된 학습 깊이 맵 간의 제3 로스 함수 결과를 계산할 수 있다(S1203). The loss calculation module 332 may calculate a third loss function result between the sphere-transformed estimation depth map and the sphere-transformed learning depth map using the third loss calculation method (S1203).

이하의 수학식 4는, 제3 로스 계산식의 일 예를 설명하는 수학식이다.Equation 4 below is an equation explaining an example of the third loss calculation equation.

[수학식 4][Equation 4]

Figure pat00004
Figure pat00004

여기에서, ytrue는 학습 깊이 맵을, ypredicted는 추정 깊이 맵을 의미한다.Here, y true means the training depth map and y predicted means the estimated depth map.

로스 산출 모듈(332)은 제1 로스 함수 결과 내지 제3 로스 함수 결과에 대한 대표값을 산출하여, 로스로 결정할 수 있다(S1204). 여기에서, 대표값으로 평균, 중앙값, 최빈값 등이 적용 가능하다.The loss calculation module 332 may calculate a representative value for the result of the first loss function to the result of the third loss function and determine it as a loss (S1204). Here, the average value, the median value, the mode value, etc. can be applied as the representative value.

도 13은 일 예에 따른 학습 RGB 이미지, 학습 깊이 맵 이미지, 추정 깊이 맵 이미지 및 추정 깊이 맵 이미지와 학습 깊이 맵 이미지 간의 차이 이미지를 도시하는 도면이다. 13 is a diagram illustrating a training RGB image, a training depth map image, an estimated depth map image, and a difference image between the estimated depth map image and the training depth map image according to an example.

그림 (a)는 뉴럴 네트워크 모듈(320)에 입력되는 학습 RGB 이미지의 일 예를 도시한다. Figure (a) shows an example of a training RGB image input to the neural network module 320.

그림 (b)는 학습 RGB 이미지를 입력받은 뉴럴 네트워크 모듈(320)가 생성한 추정 깊이 맵 이미지의 일 예를 도시한다. Figure (b) shows an example of an estimated depth map image generated by the neural network module 320 receiving the training RGB image.

그림 (c)는 학습 RGB 이미지에 대응되는 실측 깊이 값을 제공하는 학습 깊이 맵 이미지의 일 예를 도시한다. Figure (c) shows an example of a training depth map image providing measured depth values corresponding to the training RGB image.

그림 (d)는 추정 깊이 맵 이미지와 학습 깊이 맵 이미지 간의 차이 이미지를 예시한다. 다만, 그림 (d)는 설명의 직관적인 설명을 위한 것으로, 전술한 바와 같이, 본 출원에 개시된 일 실시예에서 트레이닝 모듈(330)은 추정 깊이 맵 이미지와 학습 깊이 맵 이미지에 대하여 구형 변환을 수행한 후 차이를 계산하는 경우, 그림 (d)와 다르게 표시될 수 있다.Figure (d) illustrates a difference image between the estimated depth map image and the training depth map image. However, figure (d) is for intuitive explanation, and as described above, in an embodiment disclosed in the present application, the training module 330 performs spherical transformation on the estimated depth map image and the training depth map image. If the difference is calculated after doing so, it may be displayed differently from Figure (d).

도 14는 본 출원에 개시되는 일 실시예에 따른 구형 가상 이미지 생성 아키텍처를 설명하는 도면이고, 도 15 본 출원에 개시되는 일 실시예에 따른 구형 가상 이미지를 사용자에게 제공하는 방법을 설명하는 도면이다.14 is a diagram for explaining a spherical virtual image generation architecture according to an embodiment disclosed in the present application, and FIG. 15 is a diagram for explaining a method for providing a spherical virtual image to a user according to an embodiment disclosed in the present application. .

도 14 및 도 15를 참조하여, 본 출원에 개시되는 일 실시예에 따른 구형 가상 이미지를 사용자에게 제공하는 방법에 대하여 설명한다.A method of providing a spherical virtual image to a user according to an exemplary embodiment disclosed in the present application will be described with reference to FIGS. 14 and 15 .

뉴럴 네트워크 모듈(320)은 질의 RGB 이미지를 입력받으면, 전술한 바와 같이 학습된 신경망을 이용하여, 질의 RGB 이미지에 대응되는 추정 깊이 맵을 생성한다(S1501). When the neural network module 320 receives the query RGB image, it generates an estimated depth map corresponding to the query RGB image using the neural network trained as described above (S1501).

여기에서, 질의 RGB 이미지란, 구형 가상 이미지를 생성하는데 사용되는 RGB 이미지로서, 그에 매칭되는 실측 깊이 맵(Ground Truth Map)이 없는 이미지이다. 따라서, 뉴럴 네트워크 모듈(320)을 이용하여 추정 깊이 맵을 생성하고, 이를 구형 가상 이미지의 생성에 이용한다.Here, the query RGB image is an RGB image used to generate a spherical virtual image and does not have a ground truth map matched thereto. Accordingly, an estimated depth map is generated using the neural network module 320 and used to generate a spherical virtual image.

뉴럴 네트워크 모듈(320)은 생성된 추정 깊이 맵을 가상 이미지 제공 모듈(340)에게 제공한다.The neural network module 320 provides the generated estimated depth map to the virtual image providing module 340 .

가상 이미지 제공 모듈(340)은, 질의 RGB 이미지와, 뉴럴 네트워크 모듈(320)에서 제공된 추정 깊이 맵 이미지를 기반으로, 구형 가상 이미지를 생성할 수 있다(S1502). The virtual image providing module 340 may generate a spherical virtual image based on the query RGB image and the estimated depth map image provided by the neural network module 320 (S1502).

예컨대, 가상 이미지 제공 모듈(340)은 뉴럴 네트워크 모듈(320)이 생성한 추정 깊이 맵을 확인하고, 질의 RGB 이미지와 추정 깊이 맵을 이용하여 구형 가상 이미지를 생성할 수 있다.For example, the virtual image providing module 340 may check the estimated depth map generated by the neural network module 320 and generate a spherical virtual image using the query RGB image and the estimated depth map.

여기에서, 구형 가상 이미지란, 사용자가 체험할 수 있는 가상의 공간을 제공하기 위한 이미지를 통칭한다. Here, the spherical virtual image collectively refers to an image for providing a virtual space that a user can experience.

일 예로, 구형 가상 이미지는 질의 RGB 이미지를 기초로 구형 가상 이미지를 생성하고, 그러한 구형 가상 이미지의 각 픽셀에 대하여 추정 깊이 맵 이미지에 포함된 각 픽셀에서의 거리 정보를 포함할 수 있다. 도 4의 그림 (b)는 이러한 구형 가상 이미지의 일 예를 도시하고 있으며, 도 4의 그림 (b)는 각 픽셀이 동일한 거리에 있는 것으로 표시되어 있어 완벽한 구의 형태로 가상 이미지가 표시되는 예를 도시하고 있다. 이와 같이 표시되더라도, 각 픽셀에 대한 거리 정보를 포함하고 있으므로, 구형 가상 이미지 내의 어느 픽셀에 대해서도 각각 거리정보를 취득할 수 있다. For example, the spherical virtual image may generate a spherical virtual image based on the query RGB image, and may include distance information of each pixel included in the estimated depth map image for each pixel of the spherical virtual image. Figure (b) of Figure 4 shows an example of such a spherical virtual image. are showing Even if it is displayed in this way, since distance information for each pixel is included, it is possible to obtain distance information for each pixel in the spherical virtual image.

다른 일 예로, 구형 가상 이미지는 질의 RGB 이미지에서 취득된 각 픽셀에 대한 색 정보와, 추정 깊이 맵 이미지에서 취득된 각 픽셀에 대한 거리 정보를 이용하여 3차원 좌표 상에서 각 픽셀의 위치 및 색을 표시할 수 있다. 이러한 구형 가상 이미지의 다른 일 예는, 3차원 좌표 상에서 표시되는 입체적인 공간으로 표시될 수 있다. As another example, the spherical virtual image displays the location and color of each pixel on 3D coordinates using color information for each pixel obtained from the query RGB image and distance information for each pixel obtained from the estimated depth map image. can do. Another example of such a spherical virtual image may be displayed in a three-dimensional space displayed on three-dimensional coordinates.

즉, 구형 가상 이미지는, 가상 이미지에 포함된 적어도 하나의 지점(예컨대, 픽셀)에 대한 거리 정보를 포함할 수 있다. 여기에서, 거리 정보는 추정 깊이 맵을 기초로 결정된다.That is, the spherical virtual image may include distance information about at least one point (eg, pixel) included in the virtual image. Here, distance information is determined based on the estimated depth map.

가상 이미지 제공 모듈(340)은, 구형 가상 이미지를 사용자에게 제공할 수 있다. 예컨대, 가상 이미지 제공 모듈(340)은, 사용자 단말(100)에 구형 가상 이미지에 대한 접근 기능을 포함하는 사용자 인터페이스를 제공할 수 있다. The virtual image providing module 340 may provide a spherical virtual image to the user. For example, the virtual image providing module 340 may provide the user terminal 100 with a user interface including an access function to a spherical virtual image.

가상 이미지 제공 모듈(340)은, 사용자 인터페이스를 통하여 사용자로부터 사용자 요청을 수신할 수 있다(S1503). 예컨대, 가상 이미지 제공 모듈(340)은, 구형 가상 이미지 내의 적어도 하나의 화점에 대한 거리 확인 요청, 즉, 사용자 쿼리를 제공받을 수 있다. 가상 이미지 제공 모듈(340)은, 사용자의 쿼리에 대응하여, 구형 가상 이미지 내의 화점에 대한 거리 정보를 확인하여 사용자에게 제공할 수 있다. 예를 들어, 사용자 단말(100)에 제공된 구형 가상 이미지에서 사용자는 원하는 물체 또는 공간상의 위치를 설정할 수 있고, 가상 이미지 제공 모듈(340)은, 이에 대한 거리 정보를 확인하여 사용자 단말(100)로 제공할 수 있다.The virtual image providing module 340 may receive a user request from a user through a user interface (S1503). For example, the virtual image providing module 340 may receive a request for checking a distance to at least one dot in the spherical virtual image, that is, a user query. The virtual image providing module 340 may check distance information about dots in the spherical virtual image in response to a user's query, and provide the information to the user. For example, in the spherical virtual image provided to the user terminal 100, the user can set a desired object or position in space, and the virtual image providing module 340 checks distance information for this and returns the user terminal 100 to the user terminal 100. can provide

이상에서 설명한 본 출원은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니고 후술하는 특허청구범위에 의해 한정되며, 본 출원의 구성은 본 출원의 기술적 사상을 벗어나지 않는 범위 내에서 그 구성을 다양하게 변경 및 개조할 수 있다는 것을 본 출원이 속하는 기술 분야에서 통상의 지식을 가진 자는 쉽게 알 수 있다.The present application described above is not limited by the foregoing embodiments and the accompanying drawings, but is limited by the claims to be described later, and the configuration of the present application may be varied within a range that does not deviate from the technical spirit of the present application. Those of ordinary skill in the art to which this application belongs can easily know that it can be changed and modified accordingly.

Claims (15)

컴퓨팅 장치로서,
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
뉴럴 네트워크를 이용하여 학습 RGB 이미지에 대한 제1 추정 깊이 맵 이미지를 생성하고,
구형 변환을 기반으로 산출된, 학습 깊이 맵 이미지 -상기 학습 깊이 맵 이미지는 상기 학습 RGB 이미지에 매치되고 깊이 정보를 가짐- 및 상기 제1 추정 깊이 맵 이미지 간의 차이를 기초로 상기 뉴럴 네트워크를 트레이닝 하는,
컴퓨팅 장치.
As a computing device,
a memory that stores one or more instructions; and
a processor to execute the one or more instructions stored in the memory;
The processor, by executing the one or more instructions,
generating a first estimated depth map image for the training RGB image using a neural network;
Training the neural network based on a difference between a learning depth map image calculated based on a spherical transformation, the learning depth map image matching the learning RGB image and having depth information, and the first estimated depth map image ,
computing device.
제1항에 있어서,
상기 학습 깊이 맵 이미지 및 상기 제1 추정 깊이 맵 이미지는 등장방형 투영 이미지인,
컴퓨팅 장치.
According to claim 1,
The learning depth map image and the first estimated depth map image are equirectangular projection images,
computing device.
제1항에 있어서,
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
상기 학습 깊이 맵 이미지 및 상기 제1 추정 깊이 맵 이미지를 구형 변환하고,
구형 변환된 학습 깊이 맵 이미지와 구형 변환된 제1 추정 깊이 맵 이미지 간의 로스를 결정하고,
결정된 로스에 대응하여 상기 뉴럴 네트워크의 매개 변수를 변경하여 상기 뉴럴 네트워크를 트레이닝 하는,
컴퓨팅 장치.
According to claim 1,
The processor, by executing the one or more instructions,
Spherical transforming the learning depth map image and the first estimated depth map image;
Determine a loss between the spherically transformed learning depth map image and the spherically transformed first estimation depth map image;
training the neural network by changing parameters of the neural network in response to the determined loss;
computing device.
제3항에 있어서,
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
서로 상이한 복수의 로스 함수 이용하여 상기 구형 변환된 학습 깊이 맵 이미지와 상기 구형 변환된 제1 추정 깊이 맵 이미지 간의 로스 함수 결과를 각각 계산하고,
계산된 복수의 로스 함수 결과에 대하여 대표값을 산출하여 상기 로스로서 결정하는,
컴퓨팅 장치.
According to claim 3,
The processor, by executing the one or more instructions,
Calculate loss function results between the spherically transformed learning depth map image and the spherically transformed first estimated depth map image using a plurality of different loss functions, respectively;
Calculating a representative value for a plurality of calculated loss function results and determining it as the loss,
computing device.
제1항에 있어서,
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
트레이닝이 수행된 상기 뉴럴 네트워크에 질의 RGB 이미지를 입력하고,
상기 질의 RGB 이미지에 대응하여 상기 뉴럴 네트워크가 생성한 제2 추정 깊이 맵 이미지를 확인하고,
상기 질의 RGB 이미지와 상기 제2 추정 깊이 맵 이미지를 이용하여 구형 가상 이미지 -상기 구형 가상 이미지는 가상 이미지에 포함된 적어도 하나의 지점에 대한 거리 정보를 포함하고, 상기 거리 정보는 상기 제2 추정 깊이 맵 이미지를 기초로 결정됨- 를 생성하는,
컴퓨팅 장치.
According to claim 1,
The processor, by executing the one or more instructions,
Inputting a query RGB image to the neural network on which training was performed;
Checking a second estimated depth map image generated by the neural network corresponding to the query RGB image;
A spherical virtual image using the query RGB image and the second estimated depth map image, wherein the spherical virtual image includes distance information about at least one point included in the virtual image, and the distance information includes the second estimated depth determined based on the map image, which produces
computing device.
제5항에 있어서,
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
사용자 단말을 통하여 사용자에게 상기 구형 가상 이미지를 제공하고,
상기 사용자로부터 상기 구형 가상 이미지의 적어도 한 지점에 대한 사용자 요청을 수신하면, 상기 적어도 한 지점에 대한 깊이 정보를 추출하여 상기 사용자 단말에 제공하는,
컴퓨팅 장치.
According to claim 5,
The processor, by executing the one or more instructions,
Providing the spherical virtual image to a user through a user terminal;
Upon receiving a user request for at least one point of the spherical virtual image from the user, extracting depth information for the at least one point and providing the extracted depth information to the user terminal.
computing device.
컴퓨팅 장치로서,
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
뉴럴 네트워크를 이용하여 질의 RGB 이미지에 대한 추정 깊이 맵 이미지를 생성하고,
상기 질의 RGB 이미지와 상기 추정 깊이 맵 이미지를 이용하여 구형 가상 이미지 - 상기 구형 가상 이미지는 가상 이미지에 포함된 적어도 하나의 지점에 대한 거리 정보를 포함하고, 상기 거리 정보는 상기 추정 깊이 맵 이미지를 기초로 결정됨- 를 생성하는,
컴퓨팅 장치.
As a computing device,
a memory that stores one or more instructions; and
a processor to execute the one or more instructions stored in the memory;
The processor, by executing the one or more instructions,
generating an estimated depth map image for the query RGB image using a neural network;
A spherical virtual image using the query RGB image and the estimated depth map image, the spherical virtual image including distance information about at least one point included in the virtual image, the distance information based on the estimated depth map image determined to produce -
computing device.
제7항에 있어서,
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
사용자 단말을 통하여 사용자에게 상기 구형 가상 이미지를 제공하고,
상기 사용자로부터 상기 구형 가상 이미지의 적어도 한 지점에 대한 사용자 요청을 수신하면, 상기 적어도 한 지점에 대한 깊이 정보를 추출하여 상기 사용자 단말에 제공하는,
컴퓨팅 장치.
According to claim 7,
The processor, by executing the one or more instructions,
Providing the spherical virtual image to a user through a user terminal;
Upon receiving a user request for at least one point of the spherical virtual image from the user, extracting depth information for the at least one point and providing the extracted depth information to the user terminal.
computing device.
컴퓨팅 장치에서 수행되는 깊이 맵 이미지 생성 방법으로서,
뉴럴 네트워크를 이용하여 학습 RGB 이미지에 대한 제1 추정 깊이 맵 이미지를 생성하는 동작; 및
구형 변환을 기반으로 산출된, 학습 깊이 맵 이미지-상기 학습 깊이 맵 이미지는 상기 학습 RGB 이미지에 매치되고 깊이 정보를 가짐- 및 상기 제1 추정 깊이 맵 이미지 간의 차이를 기초로 상기 뉴럴 네트워크를 트레이닝 하는 동작;
을 포함하는 깊이 맵 이미지 생성 방법.
A method for generating a depth map image performed on a computing device, comprising:
generating a first estimated depth map image for the training RGB image using a neural network; and
Training the neural network based on a difference between a training depth map image calculated based on a spherical transformation, wherein the training depth map image matches the training RGB image and has depth information, and the first estimated depth map image. movement;
Depth map image generation method comprising a.
제9항에 있어서,
상기 학습 깊이 맵 이미지 및 상기 제1 추정 깊이 맵 이미지는 등장방형 투영 이미지인,
깊이 맵 이미지 생성 방법.
According to claim 9,
The learning depth map image and the first estimated depth map image are equirectangular projection images,
How to create a depth map image.
제9항에 있어서, 상기 뉴럴 네트워크를 트레이닝 하는 동작은,
상기 학습 깊이 맵 이미지 및 상기 제1 추정 깊이 맵 이미지를 구형 변환하는 동작;
구형 변환된 학습 깊이 맵 이미지와 구형 변환된 제1 추정 깊이 맵 이미지 간의 로스를 결정하는 동작; 및
결정된 로스에 대응하여 상기 뉴럴 네트워크의 매개 변수를 변경하여 상기 뉴럴 네트워크를 트레이닝 하는 동작;
을 포함하는 깊이 맵 이미지 생성 방법.
The method of claim 9, wherein the training of the neural network comprises:
performing spherical transformation on the learning depth map image and the first estimated depth map image;
determining a loss between the spherically transformed learning depth map image and the spherically transformed first estimated depth map image; and
training the neural network by changing a parameter of the neural network in response to the determined loss;
Depth map image generation method comprising a.
제11항에 있어서, 상기 뉴럴 네트워크를 트레이닝 하는 동작은,
서로 상이한 복수의 로스 함수 이용하여 상기 구형 변환된 학습 깊이 맵 이미지와 상기 구형 변환된 제1 추정 깊이 맵 이미지 간의 로스 함수 결과를 각각 계산하는 동작; 및
계산된 복수의 로스 함수 결과에 대하여 대표값을 산출하여 상기 로스로서 결정하는 동작;
을 포함하는 깊이 맵 이미지 생성 방법.
The method of claim 11, wherein the training of the neural network comprises:
calculating loss function results between the spherically transformed training depth map image and the spherically transformed first estimated depth map image by using a plurality of different loss functions; and
calculating a representative value of the calculated results of a plurality of loss functions and determining the loss;
Depth map image generation method comprising a.
제9항에 있어서, 상기 깊이 맵 이미지 생성 방법은,
트레이닝이 수행된 상기 뉴럴 네트워크에 질의 RGB 이미지를 입력하는 동작;
상기 질의 RGB 이미지에 대응하여 상기 뉴럴 네트워크가 생성한 제2 추정 깊이 맵 이미지를 확인 하는 동작; 및
상기 질의 RGB 이미지와 상기 제2 추정 깊이 맵 이미지를 이용하여 구형 가상 이미지 -상기 구형 가상 이미지는 가상 이미지에 포함된 적어도 하나의 지점에 대한 거리 정보를 포함하고, 상기 거리 정보는 상기 제2 추정 깊이 맵 이미지를 기초로 결정됨- 를 생성 하는 동작;
을 더 포함하는 깊이 맵 이미지 생성 방법.
10. The method of claim 9, wherein the method for generating the depth map image comprises:
inputting a query RGB image to the neural network where training has been performed;
checking a second estimated depth map image generated by the neural network corresponding to the query RGB image; and
A spherical virtual image using the query RGB image and the second estimated depth map image, wherein the spherical virtual image includes distance information about at least one point included in the virtual image, and the distance information includes the second estimated depth An operation of generating - determined based on the map image;
A method for generating a depth map image further comprising:
제13항에 있어서, 상기 깊이 맵 이미지 생성 방법은,
사용자 단말을 통하여 사용자에게 상기 구형 가상 이미지를 제공하는 동작; 및
상기 사용자로부터 상기 구형 가상 이미지의 적어도 한 지점에 대한 사용자 요청을 수신하면, 상기 적어도 한 지점에 대한 깊이 정보를 추출하여 상기 사용자 단말에 제공하는 동작;
을 더 포함하는 깊이 맵 이미지 생성 방법.
The method of claim 13, wherein the method for generating the depth map image comprises:
providing the spherical virtual image to a user through a user terminal; and
extracting depth information of at least one point of the spherical virtual image and providing the extracted depth information to the user terminal when a user request for at least one point of the spherical virtual image is received from the user;
A method for generating a depth map image further comprising:
컴퓨터 판독 가능한 인스트럭션들(instructions)을 저장하고 있는 저장 매체에 있어서,
상기 인스트럭션들은, 컴퓨팅 장치에 의해 실행될 때, 상기 컴퓨팅 장치로 하여금,
뉴럴 네트워크를 이용하여 학습 RGB 이미지에 대한 추정 깊이 맵을 생성하는 동작; 및
구형 변환을 기반으로 산출된, 학습 깊이 맵 -상기 학습 깊이 맵은 상기 학습 RGB 이미지에 매치되고 깊이 정보를 가짐- 및 상기 추정 깊이 맵 간의 차이를 기초로 상기 뉴럴 네트워크를 트레이닝 하는 동작;
을 수행하도록 하는 저장 매체.
A storage medium storing computer readable instructions,
The instructions, when executed by a computing device, cause the computing device to:
generating an estimated depth map for the training RGB image using a neural network; and
training the neural network based on a difference between a training depth map calculated based on a spherical transformation, wherein the training depth map matches the training RGB image and has depth information, and the estimated depth map;
A storage medium that allows to perform
KR1020210081608A 2021-06-23 2021-06-23 Depth map image generation method and computing device therefor KR102551467B1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020210081608A KR102551467B1 (en) 2021-06-23 2021-06-23 Depth map image generation method and computing device therefor
JP2022545059A JP7414332B2 (en) 2021-06-23 2021-09-16 Depth map image generation method and computing device therefor
PCT/KR2021/012652 WO2022270683A1 (en) 2021-06-23 2021-09-16 Depth map image generation method and computing device for same
EP21939986.2A EP4174773A4 (en) 2021-06-23 2021-09-16 Depth map image generation method and computing device for same
US17/878,206 US20220414909A1 (en) 2021-06-23 2022-08-01 Depth map image generation method and computing device therefor
KR1020230084004A KR20230107492A (en) 2021-06-23 2023-06-29 Depth map image generation method and computing device therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210081608A KR102551467B1 (en) 2021-06-23 2021-06-23 Depth map image generation method and computing device therefor

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020230084004A Division KR20230107492A (en) 2021-06-23 2023-06-29 Depth map image generation method and computing device therefor

Publications (2)

Publication Number Publication Date
KR20220170589A true KR20220170589A (en) 2022-12-30
KR102551467B1 KR102551467B1 (en) 2023-07-05

Family

ID=84538583

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210081608A KR102551467B1 (en) 2021-06-23 2021-06-23 Depth map image generation method and computing device therefor
KR1020230084004A KR20230107492A (en) 2021-06-23 2023-06-29 Depth map image generation method and computing device therefor

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020230084004A KR20230107492A (en) 2021-06-23 2023-06-29 Depth map image generation method and computing device therefor

Country Status (1)

Country Link
KR (2) KR102551467B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190026957A1 (en) * 2012-02-24 2019-01-24 Matterport, Inc. Employing three-dimensional (3d) data predicted from two-dimensional (2d) images using neural networks for 3d modeling applications and other applications
KR20210049581A (en) * 2019-10-25 2021-05-06 주식회사 멀티플아이 Apparatus for acquisition distance for all directions of vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190026957A1 (en) * 2012-02-24 2019-01-24 Matterport, Inc. Employing three-dimensional (3d) data predicted from two-dimensional (2d) images using neural networks for 3d modeling applications and other applications
KR20210049581A (en) * 2019-10-25 2021-05-06 주식회사 멀티플아이 Apparatus for acquisition distance for all directions of vehicle

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Giovanni Pintore 등, SliceNet: deep dense depth estimation from a single indoor panorama using a slice-based representation, 2021 IEEE/CVF CVPR (2021.06.20.)* *
Nikolaos Zioulis 등, OmniDepth: Dense Depth Estimation for Indoors Spherical Panoramas, arXiv:1807.09620v1(2018.07.25.) *
Nikolaos Zioulis 등, Spherical View Synthesis for Self-Supervised 360° Depth Estimation, 2019 International Conference on 3D Vision (2019.09.16.)* *
이종협 등, 도메인 적응을 위한 단일 파노라마 깊이 추정, 한국컴퓨터그래픽스학회 (2020.07.01.) *

Also Published As

Publication number Publication date
KR102551467B1 (en) 2023-07-05
KR20230107492A (en) 2023-07-17

Similar Documents

Publication Publication Date Title
EP3852068A1 (en) Method for training generative network, method for generating near-infrared image and apparatuses
EP3042361B1 (en) Estimating depth from a single image
CN109683699B (en) Method and device for realizing augmented reality based on deep learning and mobile terminal
US11176694B2 (en) Method and apparatus for active depth sensing and calibration method thereof
CN108416805B (en) Intrinsic image decomposition method and device based on deep learning
KR20180050702A (en) Image transformation processing method and apparatus, computer storage medium
CN111524216B (en) Method and device for generating three-dimensional face data
US11604963B2 (en) Feedback adversarial learning
US20240070972A1 (en) Rendering new images of scenes using geometry-aware neural networks conditioned on latent variables
JP2020042503A (en) Three-dimensional symbol generation system
US20240037898A1 (en) Method for predicting reconstructabilit, computer device and storage medium
CN116097307A (en) Image processing method and related equipment
US12045998B2 (en) Systems and methods for neural implicit scene representation with dense, uncertainty-aware monocular depth constraints
CN117372604A (en) 3D face model generation method, device, equipment and readable storage medium
CN113160416A (en) Speckle imaging device and method for coal flow detection
KR20230104105A (en) Hole filling method for virtual 3 dimensional model and computing device therefor
KR102551467B1 (en) Depth map image generation method and computing device therefor
KR102536096B1 (en) Learning data generation method and computing device therefor
US11954801B2 (en) Concurrent human pose estimates for virtual representation
JP7414332B2 (en) Depth map image generation method and computing device therefor
CN110263782A (en) Card card detection method and device based on deep learning
KR102582056B1 (en) Surround view providing device and operating method of the same
KR102669839B1 (en) Pre-processing method for generating 3D virtual model and computing device therefor
US20230282031A1 (en) Pose prediction for articulated object
CN117574314B (en) Information fusion method, device and equipment of sensor and storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right