KR102682069B1 - Apparatus and Method for Filling Depth Map - Google Patents

Apparatus and Method for Filling Depth Map Download PDF

Info

Publication number
KR102682069B1
KR102682069B1 KR1020210091959A KR20210091959A KR102682069B1 KR 102682069 B1 KR102682069 B1 KR 102682069B1 KR 1020210091959 A KR1020210091959 A KR 1020210091959A KR 20210091959 A KR20210091959 A KR 20210091959A KR 102682069 B1 KR102682069 B1 KR 102682069B1
Authority
KR
South Korea
Prior art keywords
map
depth
pixel
depth map
information
Prior art date
Application number
KR1020210091959A
Other languages
Korean (ko)
Other versions
KR20220071873A (en
Inventor
함범섭
김범준
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Publication of KR20220071873A publication Critical patent/KR20220071873A/en
Application granted granted Critical
Publication of KR102682069B1 publication Critical patent/KR102682069B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 미리 학습된 인공 신경망으로 구현되고, 이미지 데이터와 지정된 수의 픽셀에 대한 깊이 정보가 포함된 희소 깊이맵이 결합된 이미지 깊이 정보를 인가받아, 이미지 깊이 정보로부터 이미지 데이터의 각 픽셀에 대한 깊이값을 추정하여 임시 깊이맵을 획득하고, 각 픽셀에 대한 유사 픽셀의 위치를 나타내는 오프셋으로 구성되는 오프셋맵 및 유사도를 나타내는 가중치로 구성되는 가중치맵 획득하는 타겟 추정부, 희소 깊이맵에서 깊이 정보가 포함된 유효 픽셀을 선택하고, 선택된 유효 픽셀 각각에 대응하는 유사 픽셀의 위치와 깊이 정보를 오프셋맵과 가중치맵을 이용하여 획득하여, 깊이 정보가 획득된 유사 픽셀이 유효 픽셀로서 희소 깊이맵에 추가된 유효 깊이맵을 획득하는 전파 모듈 및 임시 깊이맵과 유효 깊이맵을 인가받아 결합하여 결합 깊이맵을 획득하고, 미리 학습된 인공 신경망으로 구현되어, 결합 깊이맵으로부터 학습된 방식에 따라 고밀도 깊이맵을 획득하는 깊이맵 획득부를 포함하여, 높은 정확도의 고신뢰도를 갖는 고밀도 깊이맵을 획득할 수 있는 깊이맵 채움 장치 및 방법을 제공한다.The present invention is implemented with a pre-trained artificial neural network, receives image depth information that is a combination of image data and a sparse depth map containing depth information for a specified number of pixels, and provides information about each pixel of the image data from the image depth information. A target estimation unit that obtains a temporary depth map by estimating the depth value, an offset map consisting of an offset indicating the position of similar pixels for each pixel, and a weight map consisting of a weight indicating the similarity, depth information from the sparse depth map Select valid pixels containing , obtain the position and depth information of similar pixels corresponding to each selected effective pixel using an offset map and weight map, and add the similar pixels with acquired depth information to the sparse depth map as valid pixels. It obtains a combined depth map by combining the propagation module that acquires the added effective depth map and the temporary depth map and the effective depth map, and is implemented with a pre-trained artificial neural network to provide high-density depth according to the method learned from the combined depth map. Provided is a depth map filling device and method that can acquire a high-density depth map with high accuracy and high reliability, including a depth map acquisition unit that acquires the map.

Description

깊이맵 채움 장치 및 방법{Apparatus and Method for Filling Depth Map}Apparatus and Method for Filling Depth Map}

본 발명은 깊이맵 채움 장치 및 방법에 관한 것으로, 깊이맵 채움 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for filling a depth map, and to an apparatus and method for filling a depth map.

깊이 정보는 다양한 센서를 이용하여 취득될 수 있으며, 다양한 컴퓨터 비전 응용 분야에서 활용되고 있다. 대표적으로 자율주행차, 로봇의 경로 탐색, 3D 재구성(3D reconstruction) 등과 같은 분야에 이용되고 있다. 깊이 정보는 스테레오 카메라(Stereo camera)와 에피폴라 기하(Epipolar Geometry)를 이용한 스트레오 매칭 기법이 널리 활용되지만, 이 방법은 각 점마다 매칭점을 탐색해야 하기 때문에 상당한 시간이 소요되며, 카메라 위치에 따른 폐색(Occlusion)에 대응하지 못하는 한계점을 가진다.Depth information can be acquired using various sensors and is used in various computer vision applications. It is typically used in fields such as autonomous vehicles, robot path navigation, and 3D reconstruction. The stereo matching technique using a stereo camera and epipolar geometry is widely used for depth information, but this method takes a considerable amount of time because a matching point must be searched for each point, and the method takes a considerable amount of time depending on the camera position. It has the limitation of not being able to cope with occlusion.

이에 최근에는 라이다(LiDAR) 센서를 이용하여 깊이를 취득하는 경우가 증가하고 있다. 라이다 센서는 레이저를 다양한 높이 및 각도 방향으로 회전시키며 깊이를 취득하는 구조를 가지고 있으나, 센서의 특성 상 모든 대응점에 대하여 깊이를 얻지 못하고 점군(Point cloud) 형태로 전체 영역에서 4 ~ 5% 수준의 낮은 밀도 갖는 희소 깊이맵을 얻게 된다. 이와 같이 라이다를 이용하여 획득된 깊이맵은 높은 정확도를 갖지만 낮은 밀도로 인해서 활용 가능한 응용 분야가 제한된다는 문제가 있다.Accordingly, the number of cases of acquiring depth using LiDAR sensors is increasing recently. LiDAR sensors have a structure that acquires depth by rotating the laser to various heights and angles, but due to the nature of the sensor, depth is not obtained for all corresponding points and is in the form of a point cloud, at the level of 4 to 5% of the entire area. We obtain a sparse depth map with a low density of . In this way, the depth map obtained using LIDAR has high accuracy, but there is a problem that the available applications are limited due to low density.

이러한 문제를 극복하기 위해 라이다에서 획득되는 깊이 정보의 낮은 밀도를 이미지 정보와 융합하여 고밀도의 깊이맵을 얻어내는 깊이맵 채움 (Depth completion) 기법이 제안된 바 있다. 그러나 기존의 기법은 단순히 이미지와 깊이맵을 결합(Concatenation)하여 인공 신경망에 입력하여 고밀도 깊이맵을 획득한다. 이 경우 라이다에서 획득된 희소 깊이맵에서 제공되는 깊이 정보의 양이 매우 부족하므로, 깊이 정보가 제공되지 않은 주변 영역이 많은 영향을 미치게 되어 오히려 초기에 제공된 깊이 정보가 제대로 활용되지 못하며, 이로 인해 신뢰성 있는 고밀도 깊이맵을 획득하는데 한계가 있다.To overcome this problem, a depth completion technique has been proposed that fuses the low density of depth information obtained from LIDAR with image information to obtain a high-density depth map. However, existing techniques simply concatenate images and depth maps and input them into an artificial neural network to obtain a high-density depth map. In this case, since the amount of depth information provided in the sparse depth map obtained from LIDAR is very insufficient, the surrounding area where depth information is not provided has a great influence, and the initially provided depth information is not utilized properly, resulting in There are limitations in obtaining reliable high-density depth maps.

한국 등록 특허 제10-2229861호 (2021.03.15 등록)Korea Registered Patent No. 10-2229861 (registered on March 15, 2021)

본 발명의 목적은 라이다와 같은 센서를 이용하여 획득된 초기 깊이 정보를 효과적으로 활용하여 신뢰도 높은 고밀도 깊이맵을 획득할 수 있는 깊이맵 채움 장치 및 방법을 제공하는데 있다.The purpose of the present invention is to provide a depth map filling device and method that can obtain a highly reliable, high-density depth map by effectively utilizing initial depth information obtained using a sensor such as lidar.

본 발명의 다른 목적은 센서에서 획득된 깊이 정보를 유사도에 기반하여 전파하고, 전파되어 확장된 깊이 정보들을 활용함으로써 높은 정확도로 고밀도 깊이맵을 획득할 수 있는 깊이맵 채움 장치 및 방법을 제공하는데 있다.Another object of the present invention is to provide a depth map filling device and method that can obtain a high-density depth map with high accuracy by propagating depth information obtained from a sensor based on similarity and utilizing the propagated and expanded depth information. .

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 깊이맵 채움 장치는 미리 학습된 인공 신경망으로 구현되고, 이미지 데이터와 지정된 수의 픽셀에 대한 깊이 정보가 포함된 희소 깊이맵이 결합된 이미지 깊이 정보를 인가받아, 상기 이미지 깊이 정보로부터 상기 이미지 데이터의 각 픽셀에 대한 깊이값을 추정하여 임시 깊이맵을 획득하고, 각 픽셀에 대한 유사 픽셀의 위치를 나타내는 오프셋으로 구성되는 오프셋맵 및 유사도를 나타내는 가중치로 구성되는 가중치맵 획득하는 타겟 추정부; 상기 희소 깊이맵에서 깊이 정보가 포함된 유효 픽셀을 선택하고, 선택된 유효 픽셀 각각에 대응하는 유사 픽셀의 위치와 깊이 정보를 상기 오프셋맵과 상기 가중치맵을 이용하여 획득하여, 깊이 정보가 획득된 유사 픽셀이 유효 픽셀로서 상기 희소 깊이맵에 추가된 유효 깊이맵을 획득하는 전파 모듈; 및 상기 임시 깊이맵과 상기 유효 깊이맵을 인가받아 결합하여 결합 깊이맵을 획득하고, 미리 학습된 인공 신경망으로 구현되어, 상기 결합 깊이맵으로부터 학습된 방식에 따라 고밀도 깊이맵을 획득하는 깊이맵 획득부를 포함한다.The depth map filling device according to an embodiment of the present invention for achieving the above object is implemented with a pre-trained artificial neural network, and the image depth is a combination of image data and a sparse depth map containing depth information for a specified number of pixels. Receive information, obtain a temporary depth map by estimating the depth value for each pixel of the image data from the image depth information, and obtain an offset map consisting of an offset indicating the position of a similar pixel for each pixel and indicating a degree of similarity. a target estimation unit that obtains a weight map composed of weights; Valid pixels containing depth information are selected from the sparse depth map, and the position and depth information of similar pixels corresponding to each selected valid pixel are obtained using the offset map and the weight map, and depth information is obtained. a propagation module for obtaining an effective depth map in which a pixel is added to the sparse depth map as a valid pixel; And obtaining a depth map by receiving and combining the temporary depth map and the effective depth map to obtain a combined depth map, implemented with a pre-trained artificial neural network to obtain a high-density depth map according to a method learned from the combined depth map. Includes wealth.

상기 타겟 추정부는 상기 이미지 깊이 정보를 인가받아 미리 학습된 방식으로 인코딩하여 이미지 깊이 특징맵을 획득하는 인코더; 상기 이미지 깊이 특징맵을 인가받고, 학습된 방식에 따라 상기 이미지 깊이 특징맵을 디코딩하여 특징 디코딩맵을 획득하는 디코더; 및 상기 특징 디코딩맵을 인가받고 미리 학습된 서로 다른 여러 방식으로 상기 특징 디코딩맵을 추가 디코딩하여 상기 임시 깊이맵과 상기 오프셋맵 및 상기 가중치맵을 획득하는 픽셀 추정부를 포함할 수 있다.The target estimation unit includes an encoder that receives the image depth information and encodes it in a pre-learned manner to obtain an image depth feature map; a decoder that receives the image depth feature map and decodes the image depth feature map according to a learned method to obtain a feature decoding map; and a pixel estimator that receives the feature decoding map and additionally decodes the feature decoding map using various pre-learned methods to obtain the temporary depth map, the offset map, and the weight map.

상기 픽셀 추정부는 상기 특징 디코딩맵을 인가받아 학습된 방식에 따라 각 픽셀의 깊이 정보를 추정하여 상기 임시 깊이맵을 획득하는 깊이 추정부; 상기 특징 디코딩맵을 인가받아 학습된 방식에 따라 픽셀 각각에 대해 가장 유사한 기지정된 개수의 상기 유사 픽셀 각각의 위치를 나타내는 오프셋을 판별하여 상기 오프셋맵을 획득하는 오프셋 추정부; 및 상기 특징 디코딩맵을 인가받아 학습된 방식에 따라 픽셀 각각에 대해 가장 유사한 기지정된 개수의 상기 유사 픽셀 각각과의 유사도를 나타내는 가중치를 판별하여 상기 가중치맵을 획득하는 가중치 추정부를 포함할 수 있다.The pixel estimator includes a depth estimator that receives the feature decoding map and estimates depth information of each pixel according to a learned method to obtain the temporary depth map; an offset estimation unit that obtains the offset map by receiving the feature decoding map and determining an offset indicating the position of each of the predetermined number of similar pixels that are most similar to each pixel according to a learned method; and a weight estimation unit that obtains the weight map by receiving the feature decoding map and determining a weight indicating the similarity of each pixel with a predetermined number of similar pixels according to a learned method.

상기 전파 모듈은 상기 희소 깊이맵을 인가받아 깊이 정보가 포함된 유효 픽셀을 선택하고, 선택된 유효 픽셀의 깊이 정보와 위치에 따른 유효 픽셀 정보를 획득하는 유효 픽셀 선택부; 상기 유효 픽셀 정보와 상기 오프셋맵을 인가받아 상기 유효 픽셀의 위치에 대응하는 기지정된 개수의 유사 픽셀의 위치를 판별하는 오프셋 분석부; 상기 유효 픽셀 정보와 상기 가중치맵을 인가받아 상기 유효 픽셀의 깊이 정보에 대응하는 가중치를 가중하여 상기 유사 픽셀의 깊이 정보를 획득하는 가중치 분석부; 및 깊이 정보가 획득된 상기 유사 픽셀을 유효 픽셀로 추가 설정하여, 상기 희소 깊이맵에 추가하여 상기 유효 깊이맵을 획득하는 깊이값 설정부를 포함할 수 있다.The propagation module includes a valid pixel selection unit that receives the sparse depth map, selects a valid pixel containing depth information, and obtains effective pixel information according to the depth information and position of the selected valid pixel; an offset analysis unit that receives the effective pixel information and the offset map and determines the positions of a predetermined number of similar pixels corresponding to the positions of the effective pixels; a weight analysis unit that receives the effective pixel information and the weight map and obtains depth information of the similar pixel by adding a weight corresponding to the depth information of the effective pixel; and a depth value setting unit configured to additionally set the similar pixel from which depth information is obtained as a valid pixel and add it to the sparse depth map to obtain the effective depth map.

상기 깊이값 설정부는 상기 유사 픽셀의 위치가 서로 다른 다수의 유효 픽셀에 대한 유사 픽셀로 중첩되는 것으로 판별되면, 각 유효 픽셀에서 가중치가 가중된 깊이 정보의 누적 평균을 계산하여 해당 유사 픽셀의 깊이 정보로 획득할 수 있다.When the depth value setting unit determines that the position of the similar pixel overlaps with similar pixels for a plurality of different valid pixels, the depth value setting unit calculates the cumulative average of the weighted depth information for each valid pixel to provide depth information of the similar pixel. It can be obtained with

상기 깊이값 설정부는 이전 설정된 모든 유효 픽셀에 대한 깊이 정보가 유사 픽셀로 전파되어 유효 픽셀로 추가되면, 반복 횟수가 기지정된 기준 횟수 이하인지 판별하여, 상기 기준 횟수 이하이면, 추가 설정된 유효 픽셀의 위치 정보 및 깊이 정보가 포함된 유효 픽셀 정보를 상기 오프셋 분석부로 전달하고, 상기 기준 횟수를 초과하면, 현재 획득된 상기 유효 깊이맵을 상기 깊이맵 획득부로 전달할 수 있다.When the depth information for all previously set valid pixels is propagated to similar pixels and added as valid pixels, the depth value setting unit determines whether the number of repetitions is less than or equal to a predetermined standard number, and if it is less than the standard number, the location of the additionally set valid pixels. Effective pixel information including information and depth information may be transmitted to the offset analysis unit, and if the reference number is exceeded, the currently acquired effective depth map may be transmitted to the depth map acquisition unit.

상기 깊이맵 채움 장치는 상기 이미지 데이터를 획득하는 이미지 획득부; 상기 이미지 데이터에 대응하는 영역에 대해 라이다를 이용하여 감지된 깊이 정보가 포함된 상기 희소 깊이맵을 획득하는 깊이 정보 획득부; 및 상기 이미지 데이터와 상기 희소 깊이맵을 결합하여 상기 이미지 깊이 정보를 획득하는 이미지 깊이 결합부를 더 포함할 수 있다.The depth map filling device includes an image acquisition unit that acquires the image data; a depth information acquisition unit that acquires the sparse depth map containing depth information detected using lidar for an area corresponding to the image data; and an image depth combining unit configured to obtain the image depth information by combining the image data and the sparse depth map.

상기 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 깊이맵 채움 방법은 이미지 데이터와 지정된 수의 픽셀에 대한 깊이 정보가 포함된 희소 깊이맵을 인가받아 고밀도 깊이맵을 획득하는 깊이맵 채움 장치의 깊이맵 채움 방법에 있어서, 상기 이미지 데이터와 상기 희소 깊이맵이 결합된 이미지 깊이 정보를 획득하는 단계; 미리 학습된 인공 신경망을 이용하여, 상기 이미지 깊이 정보로부터 상기 이미지 데이터의 각 픽셀에 대한 깊이값이 추정된 임시 깊이맵과 각 픽셀에 대한 유사 픽셀의 위치를 나타내는 오프셋으로 구성되는 오프셋맵 및 각 픽셀에 대한 유사 픽셀의 유사도를 나타내는 가중치로 구성되는 가중치맵을 획득하는 단계; 상기 희소 깊이맵에서 깊이 정보가 포함된 유효 픽셀을 선택하고, 선택된 유효 픽셀 각각에 대응하는 유사 픽셀의 위치와 깊이 정보를 상기 오프셋맵과 상기 가중치맵을 이용하여 획득하여, 깊이 정보가 획득된 유사 픽셀이 유효 픽셀로서 상기 희소 깊이맵에 추가된 유효 깊이맵을 획득하는 단계; 및 상기 임시 깊이맵과 상기 유효 깊이맵을 인가받아 결합하여 결합 깊이맵을 획득하고, 미리 학습된 인공 신경망을 이용하여 상기 결합 깊이맵으로부터 학습된 방식에 따라 고밀도 깊이맵을 획득하는 단계를 포함한다.A depth map filling method according to another embodiment of the present invention to achieve the above object includes a depth map filling device that obtains a high-density depth map by receiving a sparse depth map containing image data and depth information for a specified number of pixels. A depth map filling method, comprising: obtaining image depth information combining the image data and the sparse depth map; Using a pre-trained artificial neural network, an offset map consisting of a temporary depth map in which the depth value for each pixel of the image data is estimated from the image depth information and an offset indicating the position of a similar pixel for each pixel, and each pixel Obtaining a weight map composed of weights representing the similarity of similar pixels to; Valid pixels containing depth information are selected from the sparse depth map, and the position and depth information of similar pixels corresponding to each selected valid pixel are obtained using the offset map and the weight map, and depth information is obtained. obtaining a valid depth map in which pixels are added to the sparse depth map as valid pixels; And obtaining a combined depth map by receiving and combining the temporary depth map and the effective depth map, and obtaining a high-density depth map according to a method learned from the combined depth map using a pre-trained artificial neural network. .

따라서, 본 발명의 실시예에 따른 깊이맵 채움 장치 및 방법은 라이다와 같은 센서를 이용하여 획득된 깊이 정보를 함께 획득된 이미지를 기반으로 유사도에 따라 반복 전파하고, 반복 전파되어 확장된 깊이 정보를 이용하여 깊이맵을 채움으로써 높은 정확도의 고신뢰도를 갖는 고밀도 깊이맵을 획득할 수 있다.Therefore, the depth map filling device and method according to an embodiment of the present invention repeatedly propagates depth information acquired using a sensor such as lidar according to similarity based on the image acquired together, and depth information expanded through repeated propagation By filling the depth map using , a high-density depth map with high accuracy and high reliability can be obtained.

도 1은 본 발명의 일 실시예에 따른 깊이맵 채움 장치의 개략적 구조를 나타낸다.
도 2는 도 1의 전파 모듈의 상세 구성의 일 예를 나타낸다.
도 3 및 도 4는 도 1의 전파 모듈의 동작을 설명하기 위한 도면이다.
도 5는 본 실시예에 따른 깊이맵 채움 장치가 깊이맵을 채운 결과의 일예를 나타낸다.
도 6은 본 발명의 일 실시예에 따른 깊이맵 채움 방법을 나타낸다.
도 7은 도 6의 깊이 정보 전파 단계의 상세 과정을 나타낸다.
Figure 1 shows a schematic structure of a depth map filling device according to an embodiment of the present invention.
FIG. 2 shows an example of the detailed configuration of the radio wave module of FIG. 1.
Figures 3 and 4 are diagrams for explaining the operation of the radio wave module of Figure 1.
Figure 5 shows an example of the result of filling a depth map by the depth map filling device according to this embodiment.
Figure 6 shows a depth map filling method according to an embodiment of the present invention.
Figure 7 shows a detailed process of the depth information propagation step in Figure 6.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다. In order to fully understand the present invention, its operational advantages, and the objectives achieved by practicing the present invention, reference should be made to the accompanying drawings illustrating preferred embodiments of the present invention and the contents described in the accompanying drawings.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써, 본 발명을 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다. Hereinafter, the present invention will be described in detail by explaining preferred embodiments of the present invention with reference to the accompanying drawings. However, the present invention may be implemented in many different forms and is not limited to the described embodiments. In order to clearly explain the present invention, parts not relevant to the description are omitted, and like reference numerals in the drawings indicate like members.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈", "블록" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. Throughout the specification, when a part "includes" a certain element, this does not mean excluding other elements, unless specifically stated to the contrary, but rather means that it may further include other elements. In addition, terms such as "... unit", "... unit", "module", and "block" used in the specification refer to a unit that processes at least one function or operation, which is hardware, software, or hardware. and software.

도 1은 본 발명의 일 실시예에 따른 깊이맵 채움 장치의 개략적 구조를 나타내고, 도 2는 도 1의 전파 모듈의 상세 구성의 일 예를 나타내며, 도 3 및 도 4는 도 1의 전파 모듈의 동작을 설명하기 위한 도면이다.FIG. 1 shows a schematic structure of a depth map filling device according to an embodiment of the present invention, FIG. 2 shows an example of the detailed configuration of the propagation module of FIG. 1, and FIGS. 3 and 4 show the propagation module of FIG. 1. This is a drawing to explain the operation.

도 1을 참조하면, 본 실시예에 따른 깊이맵 채움 장치는 입력 정보 획득부(100), 타겟 추정부(200), 전파 모듈(300) 및 깊이맵 획득부(400)를 포함한다.Referring to FIG. 1, the depth map filling device according to this embodiment includes an input information acquisition unit 100, a target estimation unit 200, a propagation module 300, and a depth map acquisition unit 400.

입력 정보 획득부(100)는 타겟 추정부(200)로 전달할 입력 정보로서 희소 깊이맵(S)과 대응하는 이미지 데이터(I)를 획득하고 결합하여 이미지 깊이 정보를 획득한다. 입력 정보 획득부(100)는 이미지 획득부(110), 깊이 정보 획득부(120) 및 이미지 깊이 결합부(130)를 포함할 수 있다.The input information acquisition unit 100 acquires the sparse depth map S and the corresponding image data I as input information to be delivered to the target estimation unit 200 and combines them to obtain image depth information. The input information acquisition unit 100 may include an image acquisition unit 110, a depth information acquisition unit 120, and an image depth combining unit 130.

이미지 획득부(110)는 이미지 데이터(I)를 획득한다. 여기서 이미지 데이터(I)는 카메라 등을 이용하여 획득될 수 있으며, 스테레오 카메라가 아닌 단안 카메라에서 획득된 단일 RGB 이미지일 수 있다. 그리고 깊이 정보 획득부(120)는 라이다 등의 센서를 이용하여 실제 측정된 위치별 깊이 정보를 획득한다. 여기서 획득되는 깊이 정보는 통상적으로 전체 감지 영역의 4 ~ 5% 수준에서 점군 형태로 분산되어 획득되므로 희소 깊이맵(S)이라 한다. 이때 이미지 획득부(110)에서 획득된 이미지 데이터와 깊이 정보 획득부(120)에서 획득된 깊이 정보는 서로 동일한 영역에 대해 획득된다. 이미지 깊이 결합부(130)는 이미지 획득부(110)에서 획득된 이미지 데이터(I)와 깊이 정보 획득부(120)에서 획득된 희소 깊이맵(S)을 결합(Concatenation)하여 이미지 깊이 정보를 획득한다.The image acquisition unit 110 acquires image data (I). Here, the image data (I) may be acquired using a camera, etc., and may be a single RGB image acquired from a monocular camera rather than a stereo camera. And the depth information acquisition unit 120 acquires depth information for each actually measured location using a sensor such as lidar. The depth information obtained here is usually obtained dispersedly in the form of a point cloud at the level of 4 to 5% of the total detection area, so it is called a sparse depth map (S). At this time, the image data acquired by the image acquisition unit 110 and the depth information acquired by the depth information acquisition unit 120 are acquired for the same area. The image depth combiner 130 acquires image depth information by concatenating the image data (I) acquired from the image acquisition unit 110 and the sparse depth map (S) acquired from the depth information acquisition unit 120. do.

타겟 추정부(200)는 미리 학습된 인공 신경망으로 구현되어, 학습된 방식에 따라 이미지 깊이 정보로부터 이미지 데이터의 각 픽셀에 대한 깊이값을 추정하여 임시 깊이맵(R)을 획득하고, 각 픽셀에 대한 유사 픽셀의 위치를 나타내는 오프셋맵(O) 및 유사도를 나타내는 가중치맵(W)을 획득한다.The target estimation unit 200 is implemented with a pre-trained artificial neural network, and obtains a temporary depth map (R) by estimating the depth value for each pixel of the image data from the image depth information according to the learned method, and for each pixel. Obtain an offset map (O) indicating the location of similar pixels and a weight map (W) indicating the similarity.

타겟 추정부(200)는 인코더(210), 디코더(220) 및 픽셀 추정부(230)를 포함할 수 있다. 인코더(210)는 입력 정보 획득부(100)로부터 이미지 깊이 정보를 인가받고, 학습된 방식에 따라 인가된 이미지 깊이 정보를 인코딩하여 이미지 깊이 특징맵을 추출한다. 디코더(220)는 인코더(210)에서 추출된 이미지 깊이 특징을 학습된 방식에 따라 디코딩하여 특징 디코딩맵을 획득한다.The target estimator 200 may include an encoder 210, a decoder 220, and a pixel estimator 230. The encoder 210 receives image depth information from the input information acquisition unit 100, encodes the image depth information according to a learned method, and extracts an image depth feature map. The decoder 220 decodes the image depth features extracted from the encoder 210 according to a learned method to obtain a feature decoding map.

한편, 픽셀 추정부(230)는 특징 디코딩맵을 인가받고 미리 학습된 서로 다른 여러 방식으로 특징 디코딩맵을 추가로 디코딩하여 임시 깊이맵(R)과 오프셋맵(O) 및 가중치맵(W)을 획득한다. 픽셀 추정부(230)는 깊이 추정부(231), 오프셋 추정부(232) 및 가중치 추정부(233)를 포함할 수 있다.Meanwhile, the pixel estimation unit 230 receives the feature decoding map and additionally decodes the feature decoding map using various pre-learned methods to create a temporary depth map (R), an offset map (O), and a weight map (W). Acquire. The pixel estimator 230 may include a depth estimator 231, an offset estimator 232, and a weight estimator 233.

깊이 추정부(231)는 특징 디코딩맵을 인가받아 미리 학습된 방식에 따라 디코딩하여 희소 깊이맵(S)의 저밀도 깊이 정보가 이미지의 각 픽셀에 대응하는 깊이 정보를 갖는 고밀도의 임시 깊이맵(R)을 획득한다. 여기서 임시 깊이맵(R)은 기존의 희소 깊이맵(S)과 이미지로부터 고밀도 깊이맵을 획득하는 것과 유사한 방식이다. 따라서 깊이 정보가 제공되는 유효 픽셀보다 제공되지 않은 비유효 픽셀의 비율이 월등하게 많은 희소 깊이맵(S)의 특성에 의해 희소 깊이맵(S)의 유효 픽셀에서 제공된 깊이 정보가 임시 깊이맵(R)에서 기여하는 수준이 낮게 반영되므로, 깊이 정보의 신뢰도가 높지 않다.The depth estimation unit 231 receives the feature decoding map and decodes it according to a previously learned method, so that the low-density depth information of the sparse depth map (S) is converted into a high-density temporary depth map (R) with depth information corresponding to each pixel of the image. ) to obtain. Here, the temporary depth map (R) is similar to the existing sparse depth map (S) and obtaining a high-density depth map from an image. Therefore, due to the characteristics of the sparse depth map (S) in which the ratio of invalid pixels for which depth information is not provided is much higher than for valid pixels for which depth information is provided, the depth information provided from the valid pixels of the sparse depth map (S) is stored in the temporary depth map (R). ), the level of contribution is reflected at a low level, so the reliability of depth information is not high.

한편, 오프셋 추정부(232)는 특징 디코딩맵을 인가받아 미리 학습된 방식에 따라 디코딩하여 이미지의 각 픽셀에 대해 유사한 픽셀의 위치를 나타내는 오프셋으로 구성된 오프셋맵(O)을 획득한다. 이때 오프셋 추정부(232)는 각 위치별 픽셀과 가장 유사성이 높은 픽셀 위치를 기지정된 개수(여기서는 일 예로 2 ~ 4개)로 추정하여 오프셋맵(O)을 획득한다. 즉 각 픽셀에 대해 높은 유사도를 갖는 기지정된 개수의 픽셀 각각 위치 정보를 획득하여 오프셋을 획득함으로써 오프셋맵(O)을 획득한다. 여기서 다수의 픽셀 각각에 대한 오프셋은 대응하는 지정된 개수의 픽셀 위치를 나타내는 벡터값의 형태로 획득될 수 있다.Meanwhile, the offset estimation unit 232 receives the feature decoding map and decodes it according to a previously learned method to obtain an offset map (O) consisting of offsets indicating the positions of similar pixels for each pixel of the image. At this time, the offset estimation unit 232 obtains an offset map (O) by estimating a predetermined number of pixel positions with the highest similarity to the pixel for each position (here, 2 to 4 as an example). That is, the offset map (O) is obtained by obtaining location information for a predetermined number of pixels with high similarity to each pixel and obtaining an offset. Here, the offset for each of the plurality of pixels may be obtained in the form of a vector value indicating the location of the corresponding specified number of pixels.

가중치 추정부(233)는 특징 디코딩맵을 인가받아 미리 학습된 방식에 따라 디코딩하여 이미지의 각 픽셀 사이의 유사도를 나타내는 가중치를 추정하여 가중치맵(W)을 획득한다. 여기서 가중치 추정부(233)는 오프셋맵의 각 오프셋에 대응하는 가중치를 추정하도록 학습될 수도 있다.The weight estimation unit 233 receives the feature decoding map, decodes it according to a previously learned method, estimates a weight representing the similarity between each pixel of the image, and obtains a weight map (W). Here, the weight estimation unit 233 may be trained to estimate a weight corresponding to each offset of the offset map.

도 1에서는 설명의 편의를 위하여, 오프셋 추정부(232)와 가중치 추정부(233)를 별도의 구성으로 도시하였으나, 오프셋 추정부(232)와 가중치 추정부(232)는 유사 픽셀 추정부로 통합될 수 있다.In Figure 1, for convenience of explanation, the offset estimator 232 and the weight estimator 233 are shown as separate components. However, the offset estimator 232 and the weight estimator 232 may be integrated into a similar pixel estimator. You can.

전파 모듈(300)은 유사 픽셀 추정부에서 인가되는 오프셋맵(O)과 가중치맵을 기반으로 깊이 정보 획득부(120)에서 획득된 희소 깊이맵(S)의 깊이 정보를 깊이 정보가 제공되지 않은 다른 픽셀로 전파한다.The propagation module 300 uses the depth information of the sparse depth map (S) obtained from the depth information acquisition unit 120 based on the offset map (O) and weight map applied from the similar pixel estimation unit to Propagate to other pixels.

도 2를 참조하면 전파 모듈(300)은 유효 픽셀 선택부(310), 오프셋 분석부(320), 가중치 분석부(330) 및 깊이값 설정부(340)를 포함할 수 있다.Referring to FIG. 2 , the propagation module 300 may include a valid pixel selection unit 310, an offset analysis unit 320, a weight analysis unit 330, and a depth value setting unit 340.

유효 픽셀 선택부(310)는 우선 깊이 정보 획득부(120)에서 획득된 희소 깊이맵(S)을 인가받고, 희소 깊이맵(S)에서 깊이 정보가 포함된 유효 픽셀을 선택하여 유효 픽셀의 위치 정보와 깊이 정보가 포함된 유효 픽셀 정보(s)를 오프셋 분석부(320)로 전달한다. 희소 깊이맵(S)에서 유효 픽셀은 도 3의 (a)에 도시된 바와 같이, 희소한 개수로 포함된다.The valid pixel selection unit 310 first receives the sparse depth map (S) obtained from the depth information acquisition unit 120, selects a valid pixel containing depth information from the sparse depth map (S), and positions the valid pixel. Effective pixel information (s) including information and depth information is transmitted to the offset analysis unit 320. In the sparse depth map (S), valid pixels are included in a sparse number, as shown in (a) of FIG. 3.

오프셋 분석부(320)는 오프셋 추정부(232)에서 획득된 오프셋맵(O)을 인가받고, 유효 픽셀 선택부(310)에서 인가되는 유효 픽셀 정보(s)를 기반으로, 각 유효 픽셀에 대응하는 기지정된 개수의 유사 픽셀의 위치를 판별한다. 상기한 바와 같이, 오프셋맵(O)은 각 픽셀에 대응하는 기지정된 개수의 유사 픽셀의 위치 정보를 나타내므로, 오프셋 분석부(320)는 오프셋맵을 이용하여 용이하게 유효 픽셀에 대응하는 유효 픽셀의 위치 정보를 획득할 수 있다. 즉 오프셋 분석부(320)는 도 3의 (b)에 도시된 바와 같이, 현재 설정된 유효 픽셀과 유사한 유사 픽셀의 위치를 확인한다. 도 3에서는 일 예로 각 유효 픽셀에 대해 2개의 유사 픽셀이 획득된 경우를 도시하였다.The offset analysis unit 320 receives the offset map O obtained from the offset estimation unit 232 and corresponds to each effective pixel based on the effective pixel information s applied from the effective pixel selection unit 310. The positions of a predetermined number of similar pixels are determined. As described above, since the offset map (O) indicates the location information of a predetermined number of similar pixels corresponding to each pixel, the offset analysis unit 320 can easily determine the effective pixel corresponding to the valid pixel using the offset map. Location information can be obtained. That is, the offset analysis unit 320 confirms the location of a similar pixel similar to the currently set valid pixel, as shown in (b) of FIG. 3. Figure 3 shows, as an example, a case where two similar pixels are obtained for each effective pixel.

또한 오프셋 분석부(320)는 이후, 깊이값 설정부(340)에서 기존 유효 픽셀의 깊이 정보가 전파되어 추가된 새로운 유효 픽셀이 생성되어 신규 유효 픽셀 정보(s')가 인가되면, 오프셋맵(O)을 이용하여 신규 유효 픽셀에 대해서도 대응하는 기지정된 개수의 유사 픽셀의 위치를 판별한다.In addition, the offset analysis unit 320 generates a new effective pixel added by propagating the depth information of the existing effective pixel in the depth value setting unit 340, and when new effective pixel information (s') is applied, the offset map ( O) is used to determine the location of a predetermined number of similar pixels corresponding to the new effective pixel.

가중치 분석부(330)는 가중치 추정부(233)에서 획득된 가중치맵(W)을 이용하여 유효 픽셀 정보와 오프셋 분석부(320)에서 획득한 유사 픽셀의 위치 정보에 따른 두 픽셀 사이의 가중치(w)를 획득한다. 여기서 가중치는 유효 픽셀의 깊이 정보를 기준으로 하는 유사 픽셀의 깊이 정보의 유사도를 나타낸다.The weight analysis unit 330 uses the weight map (W) obtained from the weight estimation unit 233 to determine the effective pixel information and the weight between two pixels according to the position information of similar pixels obtained from the offset analysis unit 320 ( w) is obtained. Here, the weight represents the similarity of the depth information of similar pixels based on the depth information of the effective pixel.

깊이값 설정부(340)는 유효 픽셀 정보(s)의 깊이 정보에 가중치 분석부(330)에서 획득된 가중치(w)를 가중하여 유사 픽셀의 깊이값을 획득하고, 획득된 깊이값을 오프셋 분석부(320)에서 판별된 유사 픽셀 위치의 깊이 정보로 설정한다. 깊이값 설정부(340)는 도 3의 (d)와 같이, 각 유효 픽셀에 대해 기지정된 개수의 유사 픽셀에 대해 깊이값을 설정할 수 있다.The depth value setting unit 340 acquires the depth value of a similar pixel by weighting the weight (w) obtained from the weight analysis unit 330 to the depth information of the effective pixel information (s), and performs offset analysis on the obtained depth value. It is set to the depth information of the similar pixel location determined by the unit 320. The depth value setting unit 340 may set a depth value for a predetermined number of similar pixels for each effective pixel, as shown in (d) of FIG. 3 .

다만 깊이값 설정부(340)는 도 3의 (c)에 빨간색 원으로 나타난 바와 같이, 서로 다른 다수의 유효 픽셀에 대해 유사 픽셀로 동일한 위치의 픽셀이 지정되어, 해당 픽셀의 깊이값에 충돌이 발생하게 되면, 가중치(w)가 가중된 깊이값을 누적합하고, 충돌이 유발된 유효 픽셀의 개수로 나누어 유효 픽셀의 깊이값이 정규화되도록 한다. 즉 각 유효 픽셀에 따라 지정되는 깊이값의 평균을 해당 픽셀의 깊이값으로 설정한다.However, as shown by the red circle in (c) of FIG. 3, the depth value setting unit 340 designates pixels at the same location as similar pixels for a plurality of different effective pixels, so that there is no conflict in the depth value of the corresponding pixel. When this occurs, the depth values weighted by the weight (w) are accumulated and divided by the number of effective pixels in which collisions were caused, so that the depth values of the effective pixels are normalized. That is, the average of the depth values specified for each valid pixel is set as the depth value of the corresponding pixel.

그리고 깊이값 설정부(340)는 도 3의 (e)에 도시된 바와 같이, 깊이값이 설정된 유사 픽셀을 신규 유효 픽셀(s')로 지정하여, 다시 오프셋 분석부(320)로 전송한다. 이에 오프셋 분석부(320)는 신규 유효 픽셀(s')에 대응하는 유사 픽셀을 다시 획득하고, 가중치 분석부(330)는 유사 픽셀에 대한 가중치(w)를 다시 획득하여, 추가적인 신규 유효 픽셀을 반복하여 추가로 획득할 수 있다.And, as shown in (e) of FIG. 3, the depth value setting unit 340 designates a similar pixel with a set depth value as a new effective pixel (s') and transmits it back to the offset analysis unit 320. Accordingly, the offset analysis unit 320 re-acquires similar pixels corresponding to the new effective pixel (s'), and the weight analysis unit 330 re-acquires the weight (w) for the similar pixels to obtain additional new effective pixels. You can obtain additional items by repeating them.

이는 초기에 센서에서 획득된 희소 깊이맵(S)에서 유효 픽셀(s)의 개수가 매우 희소하므로 유효 픽셀의 깊이 정보를 1회 전파하더라도 전체 영역에서 유효 픽셀(s)이 차지하는 비율은 여전히 낮기 때문이다. 이에 본 발명에서는 초기 유효 픽셀(s)의 깊이 정보를 유사 픽셀로 전파하여 깊이 정보를 갖는 유효 픽셀을 추가하고, 추가된 유효 픽셀의 깊이 정보를 다시 반복 전파하는 방식을 이용함으로써, 신뢰도 있는 초기 유효 픽셀(s)의 깊이 정보가 고밀도 깊이맵을 획득할 때 최대한 활용되도록 한다.This is because the number of valid pixels (s) in the sparse depth map (S) initially acquired from the sensor is very sparse, so even if the depth information of the valid pixels is propagated once, the ratio of the valid pixels (s) to the entire area is still low. am. Accordingly, in the present invention, the depth information of the initial effective pixel(s) is propagated to similar pixels to add effective pixels with depth information, and the depth information of the added effective pixels is repeatedly propagated again, thereby ensuring reliable initial effective pixel(s). Ensure that the depth information of pixel(s) is utilized to the fullest extent when obtaining a high-density depth map.

도 4에서 (a)는 라이다에서 획득된 희소 깊이맵(S)을 나타내고, (b) 내지 (d)는 각각 유효 픽셀의 깊이 정보가 유사 픽셀로 1회, 3회 및 5회 전파된 경우를 나타낸다. 도 4의 (a)에 도시된 바와 같이 희소 깊이맵(S)에서는 초기 유효 픽셀(s)의 비율이 매우 낮은데 반해, 깊이 정보 전파가 반복되는 횟수가 증가할수록 깊이 정보를 갖는 유효 픽셀의 수가 더욱더 증가하게 됨을 알 수 있다.In Figure 4, (a) shows a sparse depth map (S) obtained from LIDAR, and (b) to (d) show cases where the depth information of the effective pixel is propagated to similar pixels once, three times, and five times, respectively. represents. As shown in (a) of FIG. 4, the ratio of initial effective pixels (s) in the sparse depth map (S) is very low, while the number of effective pixels with depth information increases as the number of repetitions of depth information propagation increases. It can be seen that it increases.

깊이값 설정부(340)는 유효 픽셀의 깊이값 전파가 기지정된 횟수(여기서는 일 예로 5회) 수행된 것으로 판별되면, 현재까지 설정된 유효 픽셀 정보(s)를 기반으로 유효 깊이맵(D)을 획득하여 깊이맵 획득부(400)로 전달한다.If it is determined that the depth value propagation of the effective pixel has been performed a predetermined number of times (here, 5 times as an example), the depth value setting unit 340 creates an effective depth map (D) based on the effective pixel information (s) set to date. It is acquired and delivered to the depth map acquisition unit 400.

깊이맵 획득부(400)는 깊이 추정부(231)에서 획득된 임시 깊이맵(R)과 전파 모듈(300)에서 획득된 유효 깊이맵(D)을 인가받아 결합하여 결합 깊이맵을 획득하고, 미리 학습된 방식에 따라 획득된 결합 깊이맵으로부터 고밀도 깊이맵을 획득한다. 여기서 깊이맵 획득부(400)는 미리 학습된 인공 신경망으로 구현되어 결합 깊이맵으로부터 고밀도 깊이맵을 획득할 수 있다.The depth map acquisition unit 400 receives and combines the temporary depth map (R) obtained from the depth estimation unit 231 and the effective depth map (D) obtained from the propagation module 300 to obtain a combined depth map, A high-density depth map is obtained from the combined depth map obtained according to a pre-learned method. Here, the depth map acquisition unit 400 is implemented as a pre-trained artificial neural network and can obtain a high-density depth map from the combined depth map.

상기한 바와 같이, 임시 깊이맵(R)의 경우 이미지 데이터(I)의 모든 픽셀에 대한 깊이 정보가 획득되지만, 실제 센서를 이용하여 획득된 실측 깊이값인 희소 깊이맵(S)의 깊이 정보가 매우 부족하므로 각 픽셀에 대한 깊이 정보의 신뢰도가 높지 않다는 한계가 있다. 그에 반해, 유효 깊이맵(D)의 경우 픽셀간 유사도에 기반하여 희소 깊이맵(S)의 깊이 정보를 직접 전파하여 유효 픽셀의 수를 증가시켰으므로, 희소 깊이맵(S)보다 매우 많은 수의 픽셀이 높은 신뢰도를 가질 수 있으나 모든 픽셀에 대한 깊이 정보를 갖지는 않는다. 따라서 깊이맵 획득부(400)는 임시 깊이맵(R)과 유효 픽셀의 개수가 증가된 유효 깊이맵(D)을 결합하여 모든 픽셀의 깊이 정보를 다시 추정함으로써, 초기 희소 깊이맵(S)의 깊이 정보가 높은 비율로 반영되어 고신뢰도를 가지면서 고밀도의 깊이맵을 획득한다.As mentioned above, in the case of the temporary depth map (R), depth information for all pixels of the image data (I) is obtained, but the depth information of the sparse depth map (S), which is the actual depth value obtained using an actual sensor, is obtained. Because it is so insufficient, there is a limitation that the reliability of the depth information for each pixel is not high. On the other hand, in the case of the effective depth map (D), the number of effective pixels is increased by directly propagating the depth information of the sparse depth map (S) based on the similarity between pixels, so the number is much larger than that of the sparse depth map (S). Pixels can have high confidence, but we do not have depth information for every pixel. Therefore, the depth map acquisition unit 400 combines the temporary depth map (R) and the effective depth map (D) with an increased number of effective pixels to re-estimate the depth information of all pixels, thereby determining the initial sparse depth map (S). Depth information is reflected at a high rate to obtain a high-density depth map with high reliability.

상기한 깊이맵 채움 장치에서 인공 신경망으로 구현되는 타겟 추정부(200)와 깊이맵 획득부(400)는 깊이맵 채움 장치의 실제 이용 전에 학습되어야 하며, 이때 학습은 이미지 데이터와 희소 깊이맵 및 각 픽셀에 대한 깊이 정보가 사전에 주석된 고밀도 깊이맵으로 구성된 다수의 학습 데이터 셋을 이용하여 지도 학습 방식으로 수행될 수 있다. 그리고 학습 시에 사전에 주석된 고밀도 깊이맵과 깊이맵 획득부(400)에서 획득된 고밀도 깊이맵 사이의 차이로서 손실을 계산하고, 계산된 손실을 역전파하여 학습이 수행될 수 있다.In the above-described depth map filling device, the target estimation unit 200 and the depth map acquisition unit 400 implemented with an artificial neural network must be learned before actual use of the depth map filling device. At this time, learning is performed using image data, sparse depth maps, and each Depth information about pixels can be performed using a supervised learning method using multiple learning data sets composed of high-density depth maps with pre-annotated depth information. Also, during learning, the loss is calculated as the difference between the pre-annotated high-density depth map and the high-density depth map acquired by the depth map acquisition unit 400, and learning can be performed by back-propagating the calculated loss.

도 5는 본 실시예에 따른 깊이맵 채움 장치가 깊이맵을 채운 결과의 일예를 나타낸다.Figure 5 shows an example of the result of filling a depth map by the depth map filling device according to this embodiment.

도 5에서 상단 이미지는 카메라 등을 이용하여 획득된 RGB 이미지 데이터(I)를 나타내고, 가운데 이미지는 라이다 센서 등을 이용하여 획득된 희소 깊이맵(S)을 나타내며, 아래 이미지는 본 실시예에 따른 깊이맵 채움 장치가 획득한 고밀도 깊이맵을 나타낸다. 도 5에 도시된 바와 같이, 본 실시예에 따른 깊이맵 채움 장치는 초기에 획득된 희소 깊이맵(S)의 깊이 정보를 최대로 활용함으로써 매우 높은 정확도의 고밀도의 깊이맵을 획득할 수 있다.In Figure 5, the top image represents RGB image data (I) acquired using a camera, etc., the middle image represents a sparse depth map (S) acquired using a lidar sensor, etc., and the image below represents the present embodiment. It represents the high-density depth map acquired by the depth map filling device. As shown in FIG. 5, the depth map filling device according to this embodiment can obtain a high-density depth map with very high accuracy by maximizing the depth information of the initially acquired sparse depth map (S).

도 6은 본 발명의 일 실시예에 따른 깊이맵 채움 방법을 나타내고, 도 7은 도 6의 깊이 정보 전파 단계의 상세 과정을 나타낸다.Figure 6 shows a depth map filling method according to an embodiment of the present invention, and Figure 7 shows a detailed process of the depth information propagation step of Figure 6.

도 1 내지 도 5를 참조하여, 도 6의 깊이맵 채움 방법을 설명하면, 우선 희소 깊이맵(S)과 이미지 데이터(I)를 획득한다(S10). 여기서 희소 깊이맵(S)은 라이다 등의 센서를 이용하여 획득될 수 있으며, 이미지 데이터(I)는 카메라 등을 이용하여 획득될 수 있으며, 서로 동일한 영역에 대해 획득된다. 그리고 획득된 이미지 데이터(I)와 희소 깊이맵(S)을 결합(Concatenation)하여 이미지 깊이 정보를 획득한다(S20).Referring to FIGS. 1 to 5, when describing the depth map filling method of FIG. 6, first, a sparse depth map (S) and image data (I) are obtained (S10). Here, the sparse depth map (S) can be acquired using a sensor such as LiDAR, and the image data (I) can be acquired using a camera, etc., and are acquired for the same area. Then, image depth information is obtained by concatenating the acquired image data (I) and the sparse depth map (S) (S20).

이후 미리 학습된 방식에 따라 이미지 깊이 정보를 인코딩하여 특징을 추출함으로써 이미지 깊이 특징맵을 획득한다(S30). 그리고 이미지 깊이 특징맵을 미리 학습된 방식에 따라 디코딩하여 특징 디코딩맵을 획득한다(S40). 특징 디코딩맵이 획득되면, 특징 디코딩맵을 미리 학습된 방식에 따라 다시 디코딩하여 각 픽셀에 대해 유사한 기지정된 개수의 픽셀 각각의 위치를 나타내는 오프셋으로 구성된 오프셋맵(O)과 각 픽셀 사이의 유사도를 나타내는 가중치를 추정하여 가중치맵(W)을 획득한다(S50). 이와 함께 특징 디코딩맵으로부터 미리 학습된 방식에 따라 희소 깊이맵(S)의 저밀도 깊이 정보가 이미지의 각 픽셀에 대응하는 깊이 정보를 갖는 고밀도의 임시 깊이맵(R)을 획득한다(S60). 여기서 임시 깊이맵(R)은 학습된 방식에 따라 오프셋맵(O)과 가중치맵(W)을 획득하는 방식과 다른 방식으로 획득될 수 있다. 그리고 오프셋맵(O)과 가중치맵(W) 또한 학습된 방식에 따라 서로 다른 방식으로 구분되어 별도로 획득될 수 있으나, 경우에 따라서 오프셋맵(O)과 가중치맵(W)은 동일 방식으로 함께 획득될 수도 있다.Afterwards, an image depth feature map is obtained by encoding image depth information and extracting features according to a previously learned method (S30). Then, the image depth feature map is decoded according to a previously learned method to obtain a feature decoding map (S40). Once the feature decoding map is obtained, the feature decoding map is decoded again according to a previously learned method to determine the similarity between each pixel and the offset map (O), which consists of offsets indicating the positions of each pixel of a predetermined number of similar pixels. A weight map (W) is obtained by estimating the weight represented (S50). At the same time, the low-density depth information of the sparse depth map (S) obtains a high-density temporary depth map (R) with depth information corresponding to each pixel of the image according to a method previously learned from the feature decoding map (S60). Here, the temporary depth map (R) can be obtained in a different way from the method of obtaining the offset map (O) and weight map (W) according to the learned method. In addition, the offset map (O) and the weight map (W) can also be acquired separately in different ways depending on the learned method, but in some cases, the offset map (O) and the weight map (W) are acquired together in the same way. It could be.

오프셋맵(O)과 가중치맵(W)이 획득되면, 희소 깊이맵(S)에서 깊이 정보가 포함된 유효 픽셀을 선택하고, 선택된 유효 픽셀의 깊이 정보에 가중치맵(W)의 가중치를 가중하여 오프셋맵(O)에 따라 지정된 유사 픽셀로 전파한다(S70). Once the offset map (O) and the weight map (W) are obtained, valid pixels containing depth information are selected from the sparse depth map (S), and the weight of the weight map (W) is weighted to the depth information of the selected valid pixels. It propagates to similar pixels designated according to the offset map (O) (S70).

도 7을 참조하면, 깊이 정보 전파 단계(S70)에서는 우선 희소 깊이맵(S)에서 깊이 정보를 갖는 유효 픽셀을 선택한다(S71). 그리고 선택된 유효 픽셀의 깊이 정보와 위치 정보가 포함된 유효 픽셀 정보(s)를 획득하고, 오프셋맵(O)과 획득된 유효 픽셀 정보(s)를 기반으로 유효 픽셀에 대응하는 기지정된 개수의 유사 픽셀 각각의 위치를 확인한다(S72). 유효 픽셀의 위치와 유사 픽셀의 위치가 확인되면, 확인된 위치와 가중치맵(W)을 이용하여 유효 픽셀에 대한 유사 픽셀의 가중치를 획득하고, 획득된 가중치를 유효 픽셀의 깊이 정보에 가중하여 계산되는 깊이값을 유사 픽셀의 깊이 정보로서 유사 픽셀로 전파한다(S73).Referring to FIG. 7, in the depth information propagation step (S70), valid pixels with depth information are first selected from the sparse depth map (S) (S71). Then, effective pixel information (s) including depth information and position information of the selected effective pixel is acquired, and a predetermined number of similar pixels corresponding to the effective pixels are obtained based on the offset map (O) and the obtained effective pixel information (s). Check the location of each pixel (S72). Once the position of the valid pixel and the position of the similar pixel are confirmed, the weight of the similar pixel for the valid pixel is obtained using the confirmed position and the weight map (W), and the obtained weight is calculated by weighting the depth information of the effective pixel. The depth value is propagated to similar pixels as depth information of similar pixels (S73).

그리고 깊이 정보가 전파되는 유사 픽셀에 이전 다른 유효 픽셀로부터 전파된 깊이 정보가 존재하여 깊이값이 중첩되는지 판별한다(S74). 만일 깊이값이 중첩되는 것으로 판별되면, 중첩되는 깊이값들을 누적하여 평균을 계산하여 중첩된 깊이값을 정규화함으로써, 해당 유사 픽셀의 깊이 정보를 획득한다(S75).Then, it is determined whether depth information propagated from another valid pixel exists in a similar pixel to which depth information is propagated and the depth values overlap (S74). If it is determined that the depth values overlap, the overlapping depth values are accumulated, an average is calculated, and the overlapped depth values are normalized to obtain depth information of the corresponding similar pixel (S75).

이후 현재 획득된 모든 유효 픽셀의 깊이 정보가 유사 픽셀로 전파되었는지 판별한다(S76). 만일 깊이 정보가 전파되지 않은 유효 픽셀이 존재하는 것으로 판별되면, 깊이 정보가 전파되지 않은 유효 픽셀, 즉 이전에 선택되지 않은 유효 픽셀을 선택하여 깊이 정보가 전파되도록 한다(S71). 그러나 현재 설정된 모든 유효 픽셀이 선택되어 깊이 정보가 전파된 것으로 판별되면, 깊이 정보가 전파된 유사 픽셀을 신규 유효 픽셀로 설정한다(S77).Afterwards, it is determined whether the depth information of all currently acquired valid pixels has been propagated to similar pixels (S76). If it is determined that there is a valid pixel for which depth information has not been propagated, a valid pixel for which depth information has not been propagated, that is, a previously unselected valid pixel, is selected so that the depth information is propagated (S71). However, if all currently set valid pixels are selected and it is determined that the depth information has been propagated, the similar pixels to which the depth information has been propagated are set as new valid pixels (S77).

다시 도 6을 참조하면, 깊이 정보가 전파되어 유효 픽셀의 수가 확대되면, 반복 횟수가 기지정된 기준 횟수 이하인지 판별한다(S80). 반복 횟수가 기준 횟수 이하인 것으로 판별되면, 다시 깊이 정보 전파 단계를 수행한다(S70). 이때 깊이 정보 전파는 기존 유휴 픽셀에 대해 중복하여 수행하지 않고, 신규 유효 픽셀만을 대상으로 수행될 수 있다.Referring again to FIG. 6, when the depth information is propagated and the number of effective pixels is expanded, it is determined whether the number of repetitions is less than or equal to a predetermined reference number (S80). If it is determined that the number of repetitions is less than the standard number, the depth information propagation step is performed again (S70). At this time, depth information propagation may be performed only for new valid pixels, without being redundantly performed for existing idle pixels.

그러나 반복 횟수가 기준 횟수를 초과하는 것으로 판별되면, 현재까지 획득된 유효 픽셀로 구성된 유효 깊이맵(D)을 최종 업데이트된 유효 깊이맵으로 판별하여 현재 유효 깊이맵(D)과 임시 깊이맵(R)을 결합하여 결합 깊이맵을 획득하고, 미리 학습된 방식에 따라 획득된 결합 깊이맵으로부터 고신뢰도의 고밀도 깊이맵을 획득한다.However, if it is determined that the number of repetitions exceeds the reference number, the effective depth map (D) consisting of valid pixels acquired so far is determined as the last updated effective depth map, and the current effective depth map (D) and temporary depth map (R) are determined as the last updated effective depth map. ) are combined to obtain a combined depth map, and a highly reliable, high-density depth map is obtained from the combined depth map obtained according to a pre-learned method.

그리고 깊이 정보가 전파된 유사 픽셀은 신규 유효 픽셀로 설정되어 반복적으로And similar pixels with depth information propagated are set as new valid pixels and are repeatedly

본 발명에 따른 방법은 컴퓨터에서 실행시키기 위한 매체에 저장된 컴퓨터 프로그램으로 구현될 수 있다. 여기서 컴퓨터 판독가능 매체는 컴퓨터에 의해 액세스 될 수 있는 임의의 가용 매체일 수 있고, 또한 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함하며, ROM(판독 전용 메모리), RAM(랜덤 액세스 메모리), CD(컴팩트 디스크)-ROM, DVD(디지털 비디오 디스크)-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등을 포함할 수 있다.The method according to the present invention can be implemented as a computer program stored on a medium for execution on a computer. Here, computer-readable media may be any available media that can be accessed by a computer, and may also include all computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules or other data, including read-only memory (ROM). It may include dedicated memory), RAM (random access memory), CD (compact disk)-ROM, DVD (digital video disk)-ROM, magnetic tape, floppy disk, optical data storage, etc.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다.The present invention has been described with reference to the embodiments shown in the drawings, but these are merely exemplary, and those skilled in the art will understand that various modifications and other equivalent embodiments are possible therefrom.

따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the attached claims.

100: 입력 정보 획득부 110: 이미지 획득부
120: 깊이 정보 획득부 130: 이미지 깊이 결합부
200: 타겟 추정부 210: 인코더
220: 디코더 230: 픽셀 추정부
231: 깊이 추정부 232: 오프셋 추정부
233: 가중치 추정부 300: 전파 모듈
310: 유효 픽셀 선택부 320: 오프셋 분석부
330: 가중치 분석부 340: 깊이값 설정부
400: 깊이맵 획득부
100: input information acquisition unit 110: image acquisition unit
120: Depth information acquisition unit 130: Image depth combining unit
200: Target estimation unit 210: Encoder
220: Decoder 230: Pixel estimator
231: depth estimation unit 232: offset estimation unit
233: Weight estimation unit 300: Propagation module
310: Effective pixel selection unit 320: Offset analysis unit
330: Weight analysis unit 340: Depth value setting unit
400: Depth map acquisition unit

Claims (15)

미리 학습된 인공 신경망으로 구현되고, 이미지 데이터와 지정된 수의 픽셀에 대한 깊이 정보가 포함된 희소 깊이맵이 결합된 이미지 깊이 정보를 인가받아, 상기 이미지 깊이 정보로부터 상기 이미지 데이터의 각 픽셀에 대한 깊이값을 추정하여 임시 깊이맵을 획득하고, 각 픽셀에 대한 유사 픽셀의 위치를 나타내는 오프셋으로 구성되는 오프셋맵 및 유사도를 나타내는 가중치로 구성되는 가중치맵 획득하는 타겟 추정부;
상기 희소 깊이맵에서 깊이 정보가 포함된 유효 픽셀을 선택하고, 선택된 유효 픽셀 각각에 대응하는 유사 픽셀의 위치와 깊이 정보를 상기 오프셋맵과 상기 가중치맵을 이용하여 획득하여, 깊이 정보가 획득된 유사 픽셀이 유효 픽셀로서 상기 희소 깊이맵에 추가된 유효 깊이맵을 획득하는 전파 모듈; 및
상기 임시 깊이맵과 상기 유효 깊이맵을 인가받아 결합하여 결합 깊이맵을 획득하고, 미리 학습된 인공 신경망으로 구현되어, 상기 결합 깊이맵으로부터 학습된 방식에 따라 고밀도 깊이맵을 획득하는 깊이맵 획득부를 포함하되,
상기 전파 모듈은
상기 희소 깊이맵을 인가받아 깊이 정보가 포함된 유효 픽셀을 선택하고, 선택된 유효 픽셀의 깊이 정보와 위치에 따른 유효 픽셀 정보를 획득하는 유효 픽셀 선택부;
상기 유효 픽셀 정보와 상기 오프셋맵을 인가받아 상기 유효 픽셀의 위치에 대응하는 기지정된 개수의 유사 픽셀의 위치를 판별하는 오프셋 분석부;
상기 유효 픽셀 정보와 상기 가중치맵을 인가받아 상기 유효 픽셀의 깊이 정보에 대응하는 가중치를 가중하여 상기 유사 픽셀의 깊이 정보를 획득하는 가중치 분석부; 및
깊이 정보가 획득된 상기 유사 픽셀을 유효 픽셀로 추가 설정하여, 상기 희소 깊이맵에 추가하여 상기 유효 깊이맵을 획득하는 깊이값 설정부를 포함하고,
상기 깊이값 설정부는
상기 유사 픽셀의 위치가 서로 다른 다수의 유효 픽셀에 대한 유사 픽셀로 중첩되는 것으로 판별되면, 각 유효 픽셀에서 가중치가 가중된 깊이 정보의 누적 평균을 계산하여 해당 유사 픽셀의 깊이 정보로 획득하는 깊이맵 채움 장치.
It is implemented as a pre-trained artificial neural network, receives image depth information that is a combination of image data and a sparse depth map containing depth information for a specified number of pixels, and receives the depth for each pixel of the image data from the image depth information. a target estimation unit for estimating values to obtain a temporary depth map, an offset map consisting of an offset indicating the position of similar pixels for each pixel, and a weight map consisting of a weight indicating similarity;
Valid pixels containing depth information are selected from the sparse depth map, and the position and depth information of similar pixels corresponding to each selected valid pixel are obtained using the offset map and the weight map, and depth information is obtained. a propagation module for obtaining an effective depth map in which a pixel is added to the sparse depth map as a valid pixel; and
A depth map acquisition unit that receives and combines the temporary depth map and the effective depth map to obtain a combined depth map, and is implemented as a pre-trained artificial neural network to obtain a high-density depth map according to a method learned from the combined depth map. Including,
The radio wave module is
a valid pixel selection unit that receives the sparse depth map, selects a valid pixel containing depth information, and obtains effective pixel information according to the depth information and position of the selected valid pixel;
an offset analysis unit that receives the effective pixel information and the offset map and determines the positions of a predetermined number of similar pixels corresponding to the positions of the effective pixels;
a weight analysis unit that receives the effective pixel information and the weight map and obtains depth information of the similar pixel by adding a weight corresponding to the depth information of the effective pixel; and
A depth value setting unit configured to additionally set the pseudo-pixel from which depth information is obtained as a valid pixel and add it to the sparse depth map to obtain the effective depth map,
The depth value setting unit
If the position of the similar pixel is determined to overlap with similar pixels for a plurality of different effective pixels, a depth map is obtained as the depth information of the similar pixel by calculating the cumulative average of the weighted depth information in each valid pixel. Filling device.
제1항에 있어서, 상기 타겟 추정부는
상기 이미지 깊이 정보를 인가받아 미리 학습된 방식으로 인코딩하여 이미지 깊이 특징맵을 획득하는 인코더;
상기 이미지 깊이 특징맵을 인가받고, 학습된 방식에 따라 상기 이미지 깊이 특징맵을 디코딩하여 특징 디코딩맵을 획득하는 디코더; 및
상기 특징 디코딩맵을 인가받고 미리 학습된 서로 다른 여러 방식으로 상기 특징 디코딩맵을 추가 디코딩하여 상기 임시 깊이맵과 상기 오프셋맵 및 상기 가중치맵을 획득하는 픽셀 추정부를 포함하는 깊이맵 채움 장치.
The method of claim 1, wherein the target estimation unit
an encoder that receives the image depth information and encodes it in a pre-learned manner to obtain an image depth feature map;
a decoder that receives the image depth feature map and decodes the image depth feature map according to a learned method to obtain a feature decoding map; and
A depth map filling device comprising a pixel estimator that receives the feature decoding map and additionally decodes the feature decoding map using various pre-learned methods to obtain the temporary depth map, the offset map, and the weight map.
제2항에 있어서, 상기 픽셀 추정부는
상기 특징 디코딩맵을 인가받아 학습된 방식에 따라 각 픽셀의 깊이 정보를 추정하여 상기 임시 깊이맵을 획득하는 깊이 추정부;
상기 특징 디코딩맵을 인가받아 학습된 방식에 따라 픽셀 각각에 대해 가장 유사한 기지정된 개수의 상기 유사 픽셀 각각의 위치를 나타내는 오프셋을 판별하여 상기 오프셋맵을 획득하는 오프셋 추정부; 및
상기 특징 디코딩맵을 인가받아 학습된 방식에 따라 픽셀 각각에 대해 가장 유사한 기지정된 개수의 상기 유사 픽셀 각각과의 유사도를 나타내는 가중치를 판별하여 상기 가중치맵을 획득하는 가중치 추정부를 포함하는 깊이맵 채움 장치.
The method of claim 2, wherein the pixel estimator
a depth estimation unit that obtains the temporary depth map by receiving the feature decoding map and estimating depth information of each pixel according to a learned method;
an offset estimation unit that obtains the offset map by receiving the feature decoding map and determining an offset indicating the position of each of the predetermined number of similar pixels that are most similar to each pixel according to a learned method; and
A depth map filling device including a weight estimation unit that obtains the weight map by receiving the feature decoding map and determining a weight representing the similarity with each of the predetermined number of similar pixels that is most similar to each pixel according to a learned method. .
삭제delete 삭제delete 제1항에 있어서, 상기 깊이값 설정부는
이전 설정된 모든 유효 픽셀에 대한 깊이 정보가 유사 픽셀로 전파되어 유효 픽셀로 추가되면, 반복 횟수가 기지정된 기준 횟수 이하인지 판별하여, 상기 기준 횟수 이하이면, 추가 설정된 유효 픽셀의 위치 정보 및 깊이 정보가 포함된 유효 픽셀 정보를 상기 오프셋 분석부로 전달하고, 상기 기준 횟수를 초과하면, 현재 획득된 상기 유효 깊이맵을 상기 깊이맵 획득부로 전달하는 깊이맵 채움 장치.
The method of claim 1, wherein the depth value setting unit
When the depth information for all previously set valid pixels is propagated to similar pixels and added as valid pixels, it is determined whether the number of repetitions is less than or equal to a predetermined standard number, and if it is less than the standard number, the location information and depth information of the additionally set valid pixels are A depth map filling device that transmits the included effective pixel information to the offset analysis unit and, when the reference number is exceeded, transmits the currently acquired effective depth map to the depth map acquisition unit.
제1항에 있어서, 상기 깊이맵 채움 장치는
상기 이미지 데이터를 획득하는 이미지 획득부;
상기 이미지 데이터에 대응하는 영역에 대해 라이다를 이용하여 감지된 깊이 정보가 포함된 상기 희소 깊이맵을 획득하는 깊이 정보 획득부; 및
상기 이미지 데이터와 상기 희소 깊이맵을 결합하여 상기 이미지 깊이 정보를 획득하는 이미지 깊이 결합부를 더 포함하는 깊이맵 채움 장치.
The method of claim 1, wherein the depth map filling device
an image acquisition unit that acquires the image data;
a depth information acquisition unit that acquires the sparse depth map containing depth information detected using lidar for an area corresponding to the image data; and
A depth map filling device further comprising an image depth combining unit that combines the image data and the sparse depth map to obtain the image depth information.
이미지 데이터와 지정된 수의 픽셀에 대한 깊이 정보가 포함된 희소 깊이맵을 인가받아 고밀도 깊이맵을 획득하는 깊이맵 채움 장치의 깊이맵 채움 방법에 있어서,
상기 이미지 데이터와 상기 희소 깊이맵이 결합된 이미지 깊이 정보를 획득하는 단계;
미리 학습된 인공 신경망을 이용하여, 상기 이미지 깊이 정보로부터 상기 이미지 데이터의 각 픽셀에 대한 깊이값이 추정된 임시 깊이맵과 각 픽셀에 대한 유사 픽셀의 위치를 나타내는 오프셋으로 구성되는 오프셋맵 및 각 픽셀에 대한 유사 픽셀의 유사도를 나타내는 가중치로 구성되는 가중치맵을 획득하는 단계;
상기 희소 깊이맵에서 깊이 정보가 포함된 유효 픽셀을 선택하고, 선택된 유효 픽셀 각각에 대응하는 유사 픽셀의 위치와 깊이 정보를 상기 오프셋맵과 상기 가중치맵을 이용하여 획득하여, 깊이 정보가 획득된 유사 픽셀이 유효 픽셀로서 상기 희소 깊이맵에 추가된 유효 깊이맵을 획득하는 단계; 및
상기 임시 깊이맵과 상기 유효 깊이맵을 인가받아 결합하여 결합 깊이맵을 획득하고, 미리 학습된 인공 신경망을 이용하여 상기 결합 깊이맵으로부터 학습된 방식에 따라 고밀도 깊이맵을 획득하는 단계를 포함하되,
상기 유효 깊이맵을 획득하는 단계는
상기 희소 깊이맵을 인가받아 깊이 정보가 포함된 유효 픽셀을 선택하고, 선택된 유효 픽셀의 깊이 정보와 위치에 따른 유효 픽셀 정보를 획득하는 단계;
상기 유효 픽셀 정보와 상기 오프셋맵을 인가받아 상기 유효 픽셀의 위치에 대응하는 기지정된 개수의 유사 픽셀의 위치를 판별하는 단계;
상기 유효 픽셀 정보와 상기 가중치맵을 인가받아 상기 유효 픽셀의 깊이 정보에 대응하는 가중치를 가중하여 상기 유사 픽셀의 깊이 정보를 획득하는 단계; 및
상기 유효 깊이맵을 획득하기 위해, 깊이 정보가 획득된 상기 유사 픽셀을 유효 픽셀로 추가 설정하여 상기 희소 깊이맵에 추가하는 단계를 포함하고,
상기 희소 깊이맵에 추가하는 단계는
상기 유사 픽셀의 위치가 서로 다른 다수의 유효 픽셀에 대한 유사 픽셀로 중첩되는지 판별하는 단계;
중첩되는 것으로 판별되는 경우, 각 유효 픽셀에서 가중치가 가중된 깊이 정보의 누적 평균을 계산하여 해당 유사 픽셀의 깊이 정보로 획득하는 단계를 더 포함하는 깊이맵 채움 방법.
In the depth map filling method of the depth map filling device, which obtains a high-density depth map by receiving a sparse depth map containing image data and depth information for a specified number of pixels,
Obtaining image depth information combining the image data and the sparse depth map;
Using a pre-trained artificial neural network, an offset map consisting of a temporary depth map in which the depth value for each pixel of the image data is estimated from the image depth information and an offset indicating the position of a similar pixel for each pixel, and each pixel Obtaining a weight map composed of weights representing the similarity of similar pixels to;
Valid pixels containing depth information are selected from the sparse depth map, and the position and depth information of similar pixels corresponding to each selected valid pixel are obtained using the offset map and the weight map, and depth information is obtained. obtaining a valid depth map in which pixels are added to the sparse depth map as valid pixels; and
Obtaining a combined depth map by receiving and combining the temporary depth map and the effective depth map, and obtaining a high-density depth map according to a method learned from the combined depth map using a pre-trained artificial neural network,
The step of obtaining the effective depth map is
receiving the sparse depth map, selecting a valid pixel containing depth information, and obtaining effective pixel information according to the depth information and location of the selected valid pixel;
receiving the effective pixel information and the offset map and determining the positions of a predetermined number of similar pixels corresponding to the positions of the effective pixels;
obtaining depth information of the similar pixel by receiving the effective pixel information and the weight map and weighting a weight corresponding to the depth information of the effective pixel; and
In order to obtain the effective depth map, additionally setting the similar pixel from which depth information is obtained as a valid pixel and adding it to the sparse depth map,
The step of adding to the sparse depth map is
determining whether the positions of the similar pixels overlap with similar pixels for a plurality of different effective pixels;
If it is determined that there is overlap, the depth map filling method further includes calculating the cumulative average of the weighted depth information in each valid pixel and obtaining it as the depth information of the corresponding similar pixel.
제8항에 있어서, 상기 가중치맵을 획득하는 단계는
상기 이미지 깊이 정보를 인가받아 미리 학습된 방식으로 인코딩하여 이미지 깊이 특징맵을 획득하는 단계;
상기 이미지 깊이 특징맵을 인가받고, 학습된 방식에 따라 상기 이미지 깊이 특징맵을 디코딩하여 특징 디코딩맵을 획득하는 단계; 및
상기 특징 디코딩맵을 인가받이 상기 임시 깊이맵과 상기 오프셋맵 및 상기 가중치맵을 획득하기 위해 미리 학습된 서로 다른 여러 방식으로 상기 특징 디코딩맵을 추가 디코딩하는 단계를 포함하는 깊이맵 채움 방법.
The method of claim 8, wherein the step of obtaining the weight map is
Obtaining an image depth feature map by receiving the image depth information and encoding it using a previously learned method;
Obtaining a feature decoding map by receiving authorization for the image depth feature map and decoding the image depth feature map according to a learned method; and
A depth map filling method comprising the step of receiving approval for the feature decoding map and further decoding the feature decoding map using several different pre-learned methods to obtain the temporary depth map, the offset map, and the weight map.
제9항에 있어서, 상기 추가 디코딩하는 단계는
상기 특징 디코딩맵을 인가받아 학습된 방식에 따라 각 픽셀의 깊이 정보를 추정하여 상기 임시 깊이맵을 획득하는 단계;
상기 특징 디코딩맵을 인가받아 학습된 방식에 따라 픽셀 각각에 대해 가장 유사한 기지정된 개수의 상기 유사 픽셀 각각의 위치를 나타내는 오프셋을 판별하여 상기 오프셋맵을 획득하는 단계; 및
상기 특징 디코딩맵을 인가받아 학습된 방식에 따라 픽셀 각각에 대해 가장 유사한 기지정된 개수의 상기 유사 픽셀 각각과의 유사도를 나타내는 가중치를 판별하여 상기 가중치맵을 획득하는 단계를 포함하는 깊이맵 채움 방법.
The method of claim 9, wherein the additional decoding step
obtaining the temporary depth map by receiving the feature decoding map and estimating depth information of each pixel according to a learned method;
Obtaining the offset map by receiving the feature decoding map and determining an offset indicating the position of each of the predetermined number of similar pixels that are most similar to each pixel according to a learned method; and
A depth map filling method comprising the step of obtaining the weight map by receiving the feature decoding map and determining a weight indicating the similarity of each pixel with a predetermined number of similar pixels according to a learned method.
삭제delete 삭제delete 제8항에 있어서, 상기 희소 깊이맵에 추가하는 단계는
이전 설정된 모든 유효 픽셀에 대한 깊이 정보가 유사 픽셀로 전파되어 유효 픽셀로 추가되면, 반복 횟수가 기지정된 기준 횟수 이하인지 판별하는 단계;
상기 기준 횟수 이하이면, 추가 설정된 유효 픽셀의 위치 정보 및 깊이 정보가 포함된 유효 픽셀 정보와 오프셋맵 및 가중치맵을 이용하여 유사 픽셀을 유효 픽셀로 추가 설정하는 단계; 및
상기 기준 횟수를 초과하면, 현재 획득된 상기 유효 깊이맵을 최종 업데이트된 유효 깊이맵으로 설정하는 단계를 포함하는 깊이맵 채움 방법.
The method of claim 8, wherein adding to the sparse depth map
When depth information for all previously set valid pixels is propagated to similar pixels and added as valid pixels, determining whether the number of repetitions is less than or equal to a predetermined reference number;
If the number is less than or equal to the reference number, additionally setting a similar pixel as a valid pixel using valid pixel information including position information and depth information of the additionally set effective pixel, an offset map, and a weight map; and
When the reference number of times is exceeded, setting the currently obtained effective depth map as the last updated effective depth map.
제8항에 있어서, 상기 이미지 깊이 정보를 획득하는 단계는
상기 이미지 데이터를 획득하는 단계;
상기 이미지 데이터에 대응하는 영역에 대해 라이다를 이용하여 감지된 깊이 정보가 포함된 상기 희소 깊이맵을 획득하는 단계; 및
상기 이미지 데이터와 상기 희소 깊이맵을 결합하여 상기 이미지 깊이 정보를 획득하는 단계를 포함하는 깊이맵 채움 방법.
The method of claim 8, wherein the step of obtaining the image depth information
acquiring the image data;
Obtaining the sparse depth map containing depth information detected using LIDAR for an area corresponding to the image data; and
A depth map filling method comprising obtaining the image depth information by combining the image data and the sparse depth map.
제8항에 따른 상기 깊이맵 채움 방법을 수행하기 위한 컴퓨팅 장치에서 판독 가능한 프로그램 명령어가 기록된 기록 매체.A recording medium on which program instructions readable by a computing device for performing the depth map filling method according to claim 8 are recorded.
KR1020210091959A 2020-11-24 2021-07-14 Apparatus and Method for Filling Depth Map KR102682069B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200158445 2020-11-24
KR1020200158445 2020-11-24

Publications (2)

Publication Number Publication Date
KR20220071873A KR20220071873A (en) 2022-05-31
KR102682069B1 true KR102682069B1 (en) 2024-07-05

Family

ID=81785957

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210091959A KR102682069B1 (en) 2020-11-24 2021-07-14 Apparatus and Method for Filling Depth Map

Country Status (1)

Country Link
KR (1) KR102682069B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111066063A (en) 2018-06-29 2020-04-24 百度时代网络技术(北京)有限公司 System and method for depth estimation using affinity for convolutional spatial propagation network learning

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102229861B1 (en) 2019-10-24 2021-03-18 연세대학교 산학협력단 Depth estimation apparatus and method using low-channel lidar and stereo camera

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111066063A (en) 2018-06-29 2020-04-24 百度时代网络技术(北京)有限公司 System and method for depth estimation using affinity for convolutional spatial propagation network learning

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Jinsun Park 등, Non-Local Spatial Propagation Network for Depth Completion, arXiv:2007.10042v1(2020.07.20.)
Zheyuan Xu 등, DEFORMABLE SPATIAL PROPAGATION NETWORKS FOR DEPTH COMPLETION, arXiv:2007.04251v2 (2020.07.19.)*

Also Published As

Publication number Publication date
KR20220071873A (en) 2022-05-31

Similar Documents

Publication Publication Date Title
KR102459853B1 (en) Method and device to estimate disparity
JP6972757B2 (en) Control programs, control methods, and information processing equipment
JP6972756B2 (en) Control programs, control methods, and information processing equipment
CN102474573B (en) Image processing apparatus and image processing method
KR101507333B1 (en) Slope Monitoring Method, System Using The Method and Recording Medium For Performing The Method
US20180061068A1 (en) Depth/Disparity Map Post-processing Method and Device
CN111462193B (en) Object detection method and device for multi-camera or surround view monitoring
KR102144706B1 (en) Apparatus and method for detecting road based on convolutional neural network
KR102357355B1 (en) Method and apparatus for generating virtual object
CN110807439B (en) Method and device for detecting obstacle
US9652857B2 (en) Object detection apparatus detection method and program
EP3926360A1 (en) Neural network based methods and systems for object detection using concatenated lidar, radar and camera data sets
KR20200091324A (en) Learning method and learning device for object detector with hardware optimization based on cnn for detection at distance or military purpose using image concatenation, and testing method and testing device using the same
GB2565354A (en) Method and corresponding device for generating a point cloud representing a 3D object
JP2022540101A (en) POSITIONING METHOD AND APPARATUS, ELECTRONIC DEVICE, COMPUTER-READABLE STORAGE MEDIUM
KR20200062686A (en) Apparatus and method for detecting dynamic object
CN112329745A (en) Training method, face anti-counterfeiting detection method, related equipment and storage medium
JP2016071874A (en) Parallax image creation method and parallax image creation device
EP3731143B1 (en) Method and device for economizing computing resources to be used during a process of verification of convolutional parameters using test pattern
US8126275B2 (en) Interest point detection
CN111582385B (en) SLAM quality quantization method, system, computer device and storage medium
KR102682069B1 (en) Apparatus and Method for Filling Depth Map
JP6713422B2 (en) Learning device, event detection device, learning method, event detection method, program
CN110717917A (en) CNN-based semantic segmentation depth prediction method and device
KR102609829B1 (en) Stereo Matching Confidence Estimation Apparatus And Method Using Generative Adversarial Network

Legal Events

Date Code Title Description
E902 Notification of reason for refusal