KR102096673B1 - 포인트 클라우드에서의 포인트 백필링 - Google Patents

포인트 클라우드에서의 포인트 백필링 Download PDF

Info

Publication number
KR102096673B1
KR102096673B1 KR1020130117208A KR20130117208A KR102096673B1 KR 102096673 B1 KR102096673 B1 KR 102096673B1 KR 1020130117208 A KR1020130117208 A KR 1020130117208A KR 20130117208 A KR20130117208 A KR 20130117208A KR 102096673 B1 KR102096673 B1 KR 102096673B1
Authority
KR
South Korea
Prior art keywords
points
point cloud
new
image
fusion
Prior art date
Application number
KR1020130117208A
Other languages
English (en)
Other versions
KR20140060454A (ko
Inventor
나스안 문드행크 테렐
오에코 유리
김경남
Original Assignee
더 보잉 컴파니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 더 보잉 컴파니 filed Critical 더 보잉 컴파니
Publication of KR20140060454A publication Critical patent/KR20140060454A/ko
Application granted granted Critical
Publication of KR102096673B1 publication Critical patent/KR102096673B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4007Interpolation-based scaling, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • G06T5/70
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Abstract

포인트 클라우드(132)에서 포인트들을 증가시키기 위한 장치, 시스템, 및 방법. 하나의 예시적인 실시 예에서, 장면(110)의 2차원 이미지(121) 및 장면(110)의 포인트 클라우드(132)가 수신된다. 변환된 포인트들(146)을 형성하기 위하여 포인트 클라우드(132)에서의 포인트들의 적어도 일부가 2차원 이미지(121)에 맵핑된다. 2차원 이미지(121) 및 변환된 포인트들(146)을 이용해서 융합 데이터 어레이(150)가 생성된다. 융합 데이터 어레이(150)를 이용해서 포인트 클라우드(132)를 위한 새로운 포인트들(164)이 식별된다. 새로운 포인트 클라우드(162)를 형성하기 위하여 새로운 포인트들(164)이 포인트 클라우드(132)에 추가된다.

Description

포인트 클라우드에서의 포인트 백필링{BACKFILLING POINTS IN A POINT CLOUD}
본 발명은 일반적으로 포인트 클라우드(point cloud)들에 관한 것이고, 특히 포인트 클라우드들의 해상도를 증가시키는 것에 관한 것이다. 더욱 구체적으로, 본 발명은 포인트 클라우드의 해상도를 증가시키기 위하여 포인트 클라우드에서 포인트들의 수를 증가시키기 위한 시스템 및 방법에 관한 것이다.
포인트 클라우드는 3차원 장면을 묘사하는 3차원(3D) 좌표계에서의 포인트들의 무리(collection)이다. 전형적으로, 포인트 클라우드에서의 포인트들은 물체들의 외부 표면들을 나타낸다. 광 검출 및 레인징(light detection and ranging: LIDAR) 시스템은 포인트 클라우드를 생성할 수 있는 센서 시스템의 하나의 유형의 예이다. 포인트 클라우드들은 또한, 예컨대, 스테레오(stereo) 카메라 시스템들, 모바일 레이저 이미징(mobile laser imaging) 시스템들, 및 다른 타입의 센서 시스템들을 이용해서 생성될 수 있다.
포인트 클라우드들은 예컨대, 물체 식별(object identification), 물체 분류((object classification), 장면 시각화(scene visualization), 세그먼테이션(segmentation), 2차원 이미지 데이터 향상(enhancement), 및/또는 다른 타입의 동작들과 같은 다양한 동작(operation)들을 수행하기 위해서 이용될 수 있다. 포인트 클라우드를 이용해서 이러한 동작들이 수행되는 성능의 레벨(level of performance)은 포인트 클라우드의 해상도에 의해 좌우될 수 있다.
본 명세서에서 사용될 때, 포인트 클라우드의 "해상도(resolution)"는 포인트 클라우드에 의해 캡쳐된(captured) 장면에서의 특징들이 포인트 클라우드 내에서 식별가능할(discernible) 수 있는 디테일의 레벨(level of detail)일 수 있다. 포인트 클라우드의 해상도는 포인트 클라우드에서의 포인트들의 수 및/또는 포인트 클라우드의 하나 이상의 부분들에서의 포인트들의 포인트 밀도에 의존할 수 있다. 본 명세서에서 사용될 때, "포인트 밀도(point density)"는 단위 체적(unit volume) 당 포인트들의 수의 측정치(measure)이다. 포인트 클라우드의 다른 부분보다 더 높은 밀도를 갖는 포인트 클라우드의 부분은 다른 부분보다 덜 성길(sparse) 수 있다.
몇몇 상황들에서, 성긴(sparse) 포인트 클라우드를 이용한 물체 식별, 물체 분류, 세그먼테이션, 및/또는 장면의 시각화는 부정확한 결과들을 낳을 수 있다. 예를 들어, 포인트 클라우드는 물체를 정확하게 식별하거나 분류하기 위하여 불충분하게 조밀할(dense) 수 있다.
포인트 클라우드에서 포인트들의 수를 증가시키기 위하여 몇몇 현재 이용가능한 해결책들은 장면에서의 물체들에 대한 가정(assumption)들을 만드는 것을 포함한다. 예를 들어, 장면 내의 물체의 형상에 대한 가정들이 만들어질 수 있고, 이러한 가정들을 기초로 하여 새로운 포인트들이 포인트 클라우드에 추가될 수 있다. 하지만, 이러한 유형의 해결책들에 있어서, 새로운 포인트들이 추가될 3차원의 레퍼런스 좌표계 내의 위치들은 원하는 것보다 덜 정확할 수 있다.
나아가, 몇몇 현재 이용가능한 해결책들은 장면 내의 실제 구멍(hole)들 또는 간격(gap)들을 처리하지 못할 수 있다. 예를 들어, 몇몇 현재 이용가능한 해결책들에 있어서, 장면 내의 실제 구멍들 또는 간격들을 나타내는 위치들에서의 포인트 클라우들에 새로운 포인트들이 추가될 수 있다. 더욱 나아가, 몇몇 현재 이용가능한 해결책들은 예컨대, 나무 꼭대기(tree top) 및 지상(ground)과 같은 장면에서 연결되어 있지 않은(unconnected) 물체들을 연결하는 포인트들을 포인트 클라우드에 추가할 수 있다. 그러므로, 상술한 문제점들의 적어도 일부 및 가능성 있는 다른 문제점들을 고려하는 방법 및 장치를 가지는 것이 바람직할 것이다.
본 발명은 포인트 클라우드의 해상도를 증가시키기 위하여 포인트 클라우드에서 포인트들의 수를 증가시키기 위한 장치, 시스템, 및 방법을 제공하는 것을 목적으로 한다.
하나의 예시적인 실시 예에서, 장치는 이미지 처리 시스템을 포함한다. 이미지 처리 시스템은 변환된 포인트들을 형성하기 위하여 장면의 포인트 클라우드에서의 포인트들의 적어도 일부를 장면의 2차원 이미지에 맵핑하도록 구성된다. 이미지 처리 시스템은 2차원 이미지 및 변환된 포인트들을 이용해서 융합 데이터 어레이를 생성하도록 구성된다. 나아가, 이미지 처리 시스템은 융합 데이터 어레이를 이용해서 포인트 클라우드를 위한 새로운 포인트들을 식별하도록(identify) 구성되고, 새로운 포인트 클라우드를 형성하기 위하여 새로운 포인트들을 포인트 클라우드에 추가하도록 구성된다.
다른 예시적인 실시 예에서, 이미지 처리 시스템은 융합 관리기, 깊이값 생성기, 및 포인트 클라우드 관리기를 포함한다. 융합 관리기는 변환된 포인트들을 형성하기 위하여 장면의 포인트 클라우드에서의 포인트들의 적어도 일부를 장면의 2차원 이미지에 맵핑하도록 구성되고, 2차원 이미지 및 변환된 포인트들을 이용해서 융합 데이터 어레이를 생성하도록 구성된다. 융합 데이터 어레이는 논-널 깊이값들을 포함하는 채워져 있는 데이터 백터들과 연관이 있는(associated) 매칭된 엘리먼트들 및 널 깊이값들을 포함하는 비어 있는 데이터 백터들과 연관이 있는 매칭되지 않은 엘리먼트들을 포함한다. 깊이값 생성기는 널 깊이값들의 적어도 일부를 교체하기 위하여 새로운 깊이값들을 식별하도록 구성된다. 포인트 클라우드 관리기는 새로운 깊이값들을 이용해서 포인트 클라우드를 위한 새로운 포인트들을 식별하도록 구성되고, 새로운 포인트 클라우드를 형성하기 위하여 새로운 포인트들을 포인트 클라우드에 추가하도록 구성된다.
또 다른 예시적인 실시 예에서, 포인트 클라우드에서 포인트들의 수를 증가시키기 위한 컴퓨터로 구현되는 방법이 제공된다. 장면의 2차원 이미지 및 장면의 포인트 클라우드가 수신된다. 변환된 포인트들을 형성하기 위하여 포인트 클라우드에서의 포인트들의 적어도 일부가 2차원 이미지에 맵핑된다. 2차원 이미지 및 변환된 포인트들을 이용해서 융합 데이터 어레이가 생성된다. 융합 데이터 어레이를 이용해서 포인트 클라우드를 위한 새로운 포인트들이 식별된다. 새로운 포인트 클라우드를 형성하기 위하여 새로운 포인트들이 포인트 클라우드에 추가된다.
본 명세서에서 설명된 임의의 상술한 실시 예들은 또한 이하의 항목(clause)들에서 설명되는 바와 같은 다음의 컴퓨터로 구현되는 방법을 고려할 수 있다.
항목 12. 포인트 클라우드(132)에서 포인트들의 수를 증가시키기 위한 컴퓨터로 구현되는 방법으로서, 상기 컴퓨터로 구현되는 방법은:
장면(110)의 2차원 이미지(121) 및 장면(110)의 포인트 클라우드(132)를 수신하는 단계;
변환된 포인트들(146)을 형성하기 위하여 포인트 클라우드(132)에서의 포인트들의 적어도 일부를 2차원 이미지(121)에 맵핑하는 단계;
2차원 이미지(121) 및 변환된 포인트들(146)을 이용해서 융합 데이터 어레이(150)를 생성하는 단계;
융합 데이터 어레이(150)를 이용해서 포인트 클라우드(132)를 위한 새로운 포인트들(164)을 식별하는 단계; 및
새로운 포인트 클라우드(162)를 형성하기 위하여 새로운 포인트들(164)을 포인트 클라우드(132)에 추가하는 단계;를 포함하는, 컴퓨터로 구현되는 방법.
항목 13. 항목 12에 있어서, 변환된 포인트들(146)을 형성하기 위하여 포인트 클라우드(132)에서의 포인트들의 적어도 일부를 2차원 이미지(121)에 맵핑하는 단계는:
카메라 시스템에 대한 포즈 정보를 식별하는 단계;
포인트 클라우드(132)에서의 포인트들에 대한 카메라-중심의 좌표들을 식별하기 위하여 상기 포즈 정보를 이용해서 포인트 클라우드(132)에 대한 3차원의 레퍼런스 좌표계를 3차원의 카메라-중심의 좌표계로 변환하는 단계; 및
카메라-중심의 좌표들을 갖는 포인트 클라우드(132)에서의 포인트들의 적어도 일부를 2차원 이미지(121)에서의 픽셀 위치들(124)에 맵핑하는 단계;를 포함하는, 컴퓨터로 구현되는 방법.
항목 14. 항목 12에 있어서, 2차원 이미지(121) 및 변환된 포인트들(146)을 이용해서 융합 데이터 어레이(150)를 생성하는 단계는:
융합 데이터 어레이(150)를 형성하는 단계; 및
융합 데이터 어레이(150)에서의 엘리먼트들(152)과 데이터 백터들(154)을 연관시키는(associating) 단계;를 포함하고,
융합 데이터 어레이(150)는 2차원 이미지(121)에서의 픽셀들과 일대일 대응관계를 갖는 엘리먼트들(152)로 이루어지고,
데이터 백터들(154)은 논-널(non-null) 깊이값들을 포함하는 채워져 있는 데이터 백터들(154) 및 널(null) 깊이값들을 포함하는 비어 있는 데이터 백터들(154)을 포함하는, 컴퓨터로 구현되는 방법.
항목 15. 항목 14에 있어서, 융합 데이터 어레이(150)를 이용해서 포인트 클라우드(132)를 위한 새로운 포인트들(164)을 식별하는 단계는:
널 깊이값들의 적어도 일부를 교체하기 위하여 새로운 깊이값들(158)을 생성하는 단계; 및
새로운 깊이값들(158)을 이용해서 포인트 클라우드(132)를 위한 새로운 포인트들(164)을 식별하는 단계;를 포함하는, 컴퓨터로 구현되는 방법.
항목 16. 항목 15에 있어서, 널 깊이값들의 적어도 일부를 교체하기 위하여 새로운 깊이값들(158)을 생성하는 단계는:
윈도우를 융합 데이터 어레이(150)에서의 엘리먼트의 위치의 중앙에 배치하는(centering) 단계로서, 엘리먼트가 널 깊이값을 포함하는 비어 있는 데이터 벡터(154)와 연관이 있는 단계;
윈도우에 의해 오버랩된 융합 데이터 어레이(150)의 일부에서 지지 엘리먼트들(500)을 식별하는 단계; 및
지지 엘리먼트들(500) 및 선형 추정 알고리즘을 이용해서 널 깊이값을 교체하기 위하여 새로운 깊이값(156)을 생성하는 단계;를 포함하는, 컴퓨터로 구현되는 방법.
항목 17. 항목 16에 있어서, 윈도우에 의해 오버랩된 융합 데이터 어레이(150)의 일부에서 지지 엘리먼트들(500)을 식별하는 단계는:
윈도우에 의해 오버랩된 융합 데이터 어레이(150)의 일부에서 매칭된 엘리먼트들(304, 306, 308, 310, 312, 314, 316)이 선택된 기준을 만족시키는지 여부를 결정하는 단계;
매칭된 엘리먼트들(304, 306, 308, 310, 312, 314, 316)이 선택된 기준을 만족시키는 것에 응답하여, 매칭된 엘리먼트들(304, 306, 308, 310, 312, 314, 316)의 각각을 양호도 점수로 점수를 매기는(scoring) 단계;
매칭된 엘리먼트들(304, 306, 308, 310, 312, 314, 316)을 양호도 점수에 의해 소팅하는 단계; 및
매칭된 엘리먼트들(304, 306, 308, 310, 312, 314, 316)의 일부를 지지 엘리먼트들(500)로서 선택하는 단계;를 포함하는, 컴퓨터로 구현되는 방법.
항목 18. 항목 16에 있어서,
윈도우를 융합 데이터 어레이(150)에서의 엘리먼트의 위치의 중앙에 배치하는 것; 윈도우에 의해 오버랩된 융합 데이터 어레이(150)의 일부에서 지지 엘리먼트들(500)을 식별하는 것; 및 융합 데이터 어레이(150)에서의 각각의 위치에 대해 지지 엘리먼트들(500) 및 선형 추정 알고리즘을 이용해서 널 깊이값을 교체하기 위하여 새로운 깊이값(156)을 생성하는 것;을 반복하는 단계를 더 포함하는, 컴퓨터로 구현되는 방법.
항목 19. 항목 15에 있어서, 새로운 깊이값들(158)을 이용해서 포인트 클라우드(132)를 위한 새로운 포인트들(164)을 식별하는 단계는:
새로운 깊이값들(158)을 이용해서 새로운 포인트들(164)에 대해 3차원의 카메라-중심의 좌표계 내의 카메라-중심의 좌표들을 식별하는 단계; 및
새로운 포인트들(164)을 형성하기 위하여 카메라-중심의 좌표들을 포인트 클라우드(132)에 대한 3차원의 레퍼런스 좌표계 내의 포인트 위치들로 변환하는 단계;를 포함하는, 컴퓨터로 구현되는 방법.
항목 20. 항목 15에 있어서, 널 깊이값들의 적어도 일부를 교체하기 위하여 새로운 깊이값들(158)을 생성하는 단계는:
새로운 깊이값들(158)을 생성하기 위하여 윈도우들을 이용해서 융합 데이터 어레이(150)를 처리하는 단계를 포함하는, 컴퓨터로 구현되는 방법.
특징들 및 기능들은 본 발명의 다양한 실시 예들에서 독립적으로 달성되거나 또 다른 실시 예들에서 조합될 수 있으며, 추가적인 세부사항들은 이하의 설명 및 도면을 참조하여 이해될 수 있다.
도 1은 예시적인 실시 예에 따라서 이미지 처리 시스템이 이미지들 및 포인트 클라우드들을 처리하기 위해 이용될 수 있는 환경의 블록도 형태의 예이다;
도 2는 예시적인 실시 예에 따른 융합 데이터 어레이의 도면이다;
도 3은 예시적인 실시 예에 따라서 윈도우에 의해 오버랩된 융합 데이터 어레이의 일부의 도면이다;
도 4는 예시적인 실시 예에 따라서 매칭된 엘리먼트들의 그룹의 각각에 대해 점수들을 생성하기 위한 프로세스의 도면이다;
도 5는 예시적인 실시 예에 따른 지지 엘리먼트들의 선택의 도면이다;
도 6은 예시적인 실시 예에 따른 새로운 깊이값이 생성의 도면이다;
도 7은 예시적인 실시 예에 따른 융합 이미지의 도면이다;
도 8은 예시적인 실시 예에 따른 두 개의 융합 이미지들 간의 비교의 도면이다;
도 9는 예시적인 실시 예에 따른 최종 융합 이미지의 비교의 도면이다;
도 10은 예시적인 실시 예에 따른 최종 융합 이미지들의 표의 도면이다;
도 11은 예시적인 실시 예에 따라서 포인트 클라우드에서 포인트들의 수를 증가시키기 위한 프로세스의 흐름도 형태의 도면이다;
도 12는 예시적인 실시 예에 따라서 변환된 포인트들을 형성하기 위해 포인트 클라우드에서의 포인트들을 2차원 이미지에 맵핑하기 위한 프로세스의 흐름도 형태의 도면이다;
도 13은 예시적인 실시 예에 따라서 융합 데이터 어레이를 생성하기 위한 프로세스의 흐름도 형태의 도면이다;
도 14는 예시적인 실시 예에 따라서 새로운 깊이값들을 생성하기 위한 프로세스의 흐름도 형태의 도면이다;
도 15는 예시적인 실시 예에 따라서 포인트 클라우드를 위해 새로운 포인트들을 생성하기 위한 프로세스의 흐름도 형태의 도면이다;
도 16은 예시적인 실시 예에 따른 데이터 처리 시스템의 블록도 형태의 도면이다.
예시적인 실시 예들의 특성이라고 믿어지는 신규한 특징들이 첨부된 청구항들에서 제시된다. 하지만, 예시적인 실시 예들뿐 아니라 바람직한 사용 모드, 이들의 추가적 목적들 및 특징들은 본 발명의 예시적인 실시 예의 이하의 상세한 설명을 참조하여 첨부 도면들과 함께 읽을 때 가장 잘 이해될 것이다.
상이한 예시적인 실시 예들은 상이한 고려사항들을 인식하고 고려한다. 예를 들어, 예시적인 실시 예들은 원하는 레벨의 정확성을 갖는 포인트 클라우드를 위해 3차원의 레퍼런스(reference) 좌표계에서의 위치들에 새로운 포인트들을 추가함으로써 포인트 클라우드에서의 포인트들의 수를 증가시키기 위한 방법을 갖는 것이 바람직할 수 있다는 점을 인식하고 고려한다.
나아가, 예시적인 실시 예들은 포인트 클라우드에 의해 캡쳐된(captured) 동일한 장면의 2차원 이미지가 포인트 클라우드에서 포인트들의 수를 증가시키기 위해 이용될 수 있다는 점을 인식하고 고려한다. 하지만, 예시적인 실시 예들은, 장면에 대한 가정들 및/또는 2차원 이미지에서 캡쳐된 장면에서의 물체들의 형상들에 대한 가정들을 만들지 않으면서, 포인트 클라우드에서 포인트들의 수를 증가시키기도록 2차원 이미지를 처리하는 것이 바람직할 수 있다는 점을 인식하고 고려한다.
그래서, 예시적인 실시 예들은 장면의 2차원 이미지를 이용하여 장면의 포인트 클라우드에서 포인트들의 수를 증가시키기 위한 시스템 및 방법을 제공한다. 나아가, 이러한 시스템 및 방법은 장면에 대한 임의의 가정들을 만들지 않으면서 포인트 클라우드에서 포인트들의 수를 증가시킬 수 있다.
이제, 도 1을 참조하면, 블록도 형태의 이미지 처리 환경의 도면이 예시적인 실시 예에 따라서 도시된다. 도 1에서, 이미지 처리 환경(image processing environment, 100)은 이미지 처리 시스템(102)이 이미지들 및 포인트 클라우드들을 처리하기 위해서 이용될 수 있는 환경의 예이다.
도시된 바와 같이, 이미지 처리 시스템(102)은 컴퓨터 시스템(104)에서 구현될 수 있다. 컴퓨터 시스템(104)은 하나 이상의 컴퓨터들 및/또는 다른 타입의 하드웨어로 이루어질 수 있다. 하나 이상의 컴퓨터가 컴퓨터 시스템(104)에 존재하는 경우에, 이 컴퓨터들은 서로 통신할 수 있다.
이미지 처리 시스템(102)은 제1 센서 시스템(106) 및 제2 센서 시스템(108)으로부터 데이터를 수신하도록 구성될 수 있다. 제1 센서 시스템(106) 및 제2 센서 시스템(108)은 장면(scene, 110)에 대한 데이터를 생성하도록 구성된다. 장면(110)은 특징들(features, 111)을 포함할 수 있다. 특징들(111)은, 예컨대, 제한 없이, 물체들(objects, 112)을 포함할 수 있다. 물체들(112)은, 예컨대, 제한 없이, 임의의 수의 비히클(vehicle)들, 건물들, 인간이 만든 구조물들, 사람들, 동물들, 풍경(landscape) 특징들, 및/또는 다른 타입의 물체들을 포함할 수 있다. 나아가, 특징들(111)은 또한 예컨대 장면(110)의 배경을 포함할 수 있다.
이러한 예시적인 예들에서, 제1 센서 시스템(106)은 제1 이미징 시스템(114)의 형태를 취할 수 있다. 제1 이미징 시스템(114)은 장면(110)을 위해 이미징 데이터(116)를 생성하도록 구성된 임의의 시스템일 수 있다. 하나의 예시적인 예에서, 제1 이미징 시스템(114)은 카메라 시스템(118)의 형태를 취한다. 나아가, 카메라 시스템(118)은 전기-광학(electro-optical) 카메라 시스템의 형태를 취할 수 있다.
이미징 데이터(116)는, 예컨대, 제한 없이, 이미지(120)를 포함할 수 있다. 특히, 이미지(120)는 2차원 이미지(121)일 수 있다. 전기-광학 카메라 시스템에 의해 생성되는 경우에, 이미지(120)는 전기-광학 이미지라고 지칭될 수 있다.
도시된 바와 같이, 이미지(120)는 픽셀들(122)로 이루어질 수 있다. 픽셀들(122)은 로우(row)들 및 칼럼(column)들로 이루어진 2차원 어레이로 배열될 수 있다. 이 예시적인 예에서, 픽셀 위치들(124)은 이러한 어레이 내에서 픽셀들(122)의 위치들을 식별할 수 있다. 하나의 예시적인 예로서, 픽셀 위치들(124) 각각은 해당 픽셀에 대한 로우 및 칼럼을 식별시킬 수 있다.
부가적으로, 픽셀들(122) 각각은 픽셀 데이터와 연관이 있을(associated) 수 있다. 픽셀에 대한 픽셀 데이터는, 예컨대, 제한 없이, 다수의 칼라값(color value)들, 강도값(intensity value), 및/또는 다른 값들을 포함할 수 있다. 다수의 칼라값들은, 예컨대, RGB 칼라 모델(color model)을 기초로 하여 적색값(red value), 녹색값(green value), 및 청색값(blue value)을 포함할 수 있다.
이러한 예시적인 예들에서, 제2 센서 시스템(108)은 제2 이미징 시스템(126)의 형태를 취할 수 있다. 제2 이미징 시스템(126)은 장면(110)에 대해 포인트 데이터(128)를 생성하도록 구성된 임의의 시스템일 수 있다. 하나의 예시적인 예에서, 제2 이미징 시스템(126)은 광 검출 및 레인징 시스템(light detection and ranging system, 130)의 형태를 취할 수 있다.
포인트 데이터(128)는 포인트 클라우드(point cloud, 132)를 포함할 수 있다. 이러한 예시적인 예들에서, 포인트 클라우드(132)는 3차원의 포인트 클라우드(133)의 형태를 취할 수 있다. 몇몇 예시적인 예들에서, 장면(110)의 포인트 클라우드(132)는 장면(110)의 이미지(120)와는 다른 관점으로부터 생성될 수 있다.
포인트 클라우드(132)는 3차원의 레퍼런스 좌표계에서의 포인트들(134)로 이루어진다. 이러한 예시적인 예들에서, 포인트 위치들(136) 각각은 이러한 3차원의 레퍼런스 좌표계에서 해당 포인트에 대한 좌표들을 식별시킬 수 있다. 하나의 예시적인 예에서, 레퍼런스 좌표계는 예컨대 지리적(geographical) 좌표계와 같은 실제 세계(real world) 좌표계일 수 있다.
포인트 클라우드(132)의 해상도(resolution, 140)는, 포인트 클라우드(132)에 의해 캡쳐된 장면(110)에서 특징들(111)이 포인트 클라우드(132) 내에서 식별가능할 수 있는 디테일의 정도의 식별자(identification)일 수 있다. 몇몇 경우들에 있어서, 포인트 클라우드(132)의 해상도(140)는 포인트 클라우드(132)에서의 포인트들(134)의 수(138)에 의존할 수 있다. 예를 들어, 포인트 클라우드(132)에서의 포인트들(134)의 수(number, 138)가 증가함에 따라서, 포인트 클라우드(132)의 해상도(140) 또한 증가할 수 있다.
이미지 처리 시스템(102)은 카메라 시스템(118)에 의해 생성된 이미지(120) 및 광 검출 및 레인징 시스템(130)에 의해 생성된 포인트 클라우드(132)를 수신하도록 구성된다. 이미지 처리 시스템(102)은 포인트 클라우드(132)의 수(138)를 증가시켜서 포인트 클라우드(132)의 해상도(140)를 증가시키기 위하여 이미지(120)를 이용한다. 더욱 구체적으로는, 이미지 처리 시스템(102)은 포인트 클라우드(132)에 추가될 수 있는 새로운 포인트들을 생성하도록 구성될 수 있다.
도시된 바와 같이, 이미지 처리 시스템(102)은 융합 관리기(fusion manager, 142), 깊이값 생성기(depth value generator, 144), 및 포인트 클라우드 관리기(point cloud manager, 145)를 포함할 수 있다. 융합 관리기(142)는 변환된 포인트들(transformed points, 146)을 형성하기 위하여 포인트 클라우드(132)에서의 포인트들(134)의 적어도 일부를 이미지(120)에 맵핑하도록 구성된다. 더욱 구체적으로는, 융합 관리기(142)는 포인트 클라우드(132)에서의 포인트들(134)의 적어도 일부를 위한 포인트 위치들을 이미지(120)의 이미지 평면에서의 픽셀 위치들에 맵핑하도록 구성된다. 이미지(120)의 이미지 평면은 픽셀들(122)의 2차원 어레이 내에 존재하는 평면(plane)일 수 있다.
변환된 포인트들(146)은 예컨대, 변환 알고리즘(148)을 이용해서 형성될 수 있다. 변환 알고리즘(148)은 포인트들(134)의 적어도 일부를 이미지(120)의 이미지 평면에서의 픽셀 위치들에 맵핑시키기 위해서 임의의 수의 프로세스(process)들, 방정식(equation)들, 및/또는 알고리즘들을 포함할 수 있다. 예시적인 예에서, 변환 알고리즘(148)은 예컨대, EPnP(efficient perspective-n-point) 카메라 포즈 추정 알고리즘과 같은 카메라 포즈 추정(camera pose estimation) 알고리즘을 포함할 수 있다.
카메라 포즈 추정 알고리즘은 카메라 시스템(118)의 포즈에 대한 포즈 정보(pose information)를 제공할 수 있다. 카메라 시스템(118)의 포즈는 카메라 시스템(118)의 방향(orientation) 및 위치(position) 중 적어도 하나로 이루어질 수 있다.
융합 관리기(142)는 포인트 클라우드(132)를 위한 3차원의 레퍼런스 좌표계를 3차원의 카메라-중심의(camera-centric) 좌표계로 변환하기 위해 변환 알고리즘(148)을 이용한다. 특히, 융합 관리기(142)는 3차원의 레퍼런스 좌표계를 3차원의 카메라-중심의 좌표계로 변환하기 위해 카메라 포즈 추정 알고리즘에 의해 제공되는 카메라 시스템(118)에 대한 포즈 정보를 이용할 수 있다.
이러한 변환에 있어서, 3차원의 레퍼런스 좌표계의 원점(origin)이 카메라 시스템(118)의 위치로 이동될 수 있다. 이후, 융합 관리기(142)는 3차원의 카메라-중심의 좌표계에서의 포인트들(134)에 대해 카메라-중심의 좌표들을 식별한다.
그 후에, 융합 관리기(142)는 변환된 포인트들(146)을 형성하기 위해 포인트들(134)에 대한 카메라-중심의 좌표들을 이미지(120)의 이미지 평면에서의 해당 픽셀 위치들에 맵핑하도록 구성된다. 이러한 방식에 있어서, 포인트 클라우드(132)에서의 포인트에 대한 카메라-중심의 좌표들은 이미지(120)의 안쪽 또는 이미지(120)의 바깥쪽에 존재하되 이미지(120)와 동일한 이미지 평면에 존재하는 픽셀 위치에 맵핑될 수 있다. 변환된 포인트들(146)은 이미지(120) 내에서 픽셀 위치들에 맵핑되는 이러한 포인트들만을 포함할 수 있다.
융합 관리기(142)는 이미지(120) 및 변환된 포인트들(146)을 이용해서 융합 데이터 어레이(fused data array, 150)를 생성하도록 구성된다. 융합 데이터 어레이(150)는 이미지(120) 및 포인트 클라우드(132)를 기초로 하여 함께 융합된 데이터를 포함한다.
도시된 바와 같이, 융합 데이터 어레이(150)는 엘리먼트들(elements, 152)을 포함할 수 있다. 엘리먼트들(152)의 각각은 이미지(120)에서의 픽셀들(122) 중의 하나에 대응할 수 있고, 픽셀들(122)의 각각은 엘리먼트들(152) 중의 하나에 대응할 수 있다. 특히, 엘리먼트들(152)은 이미지(120)에서의 픽셀들(122)과 일대일 대응관계(one-to-one correspondence)를 가질 수 있다. 이러한 방식에 있어서, 융합 데이터 어레이(150)는 이미지(120)에서의 픽셀들(122)의 어레이와 동일한 사이즈를 가질 수 있다.
나아가, 변환된 포인트들(146)의 각각은 이미지(120)에서의 픽셀에 대응하기 때문에, 변환된 포인트들(146)의 각각은 그 픽셀에 대응하는 융합 데이터 어레이(150)에서의 엘리먼트에 대응할 수도 있다. 변환된 포인트들(146)의 각각은 엘리먼트들(152) 중의 대응하는 것에 대한 맵핑으로서 설명될 수 있다.
예를 들어, 변환된 포인트들(146)은 엘리먼트들(152)의 제1 부분에 맵핑될 수 있다. 이러한 엘리먼트들(152)의 제1 부분은 매칭된(matched) 엘리먼트들이라고 지칭될 수 있다. 하지만, 엘리먼트들(152)의 제2 부분은 이러한 엘리먼트들에 맵핑되는 임의의 변환된 포인트들을 가지지 않을 수 있다. 엘리먼트들(152)의 제2 부분은 매칭되지 않은(matched) 엘리먼트들이라고 지칭될 수 있다.
이러한 예시적인 예들에서, 엘리먼트들(152)의 각각은, 예컨대, 데이터 벡터(data vector, 154)와 같은 데이터 벡터와 연관이 있을 수 있다. 도시된 바와 같이, 데이터 벡터(154)는 깊이값(depth value, 156)을 포함할 수 있다. 깊이값(156)은 3차원의 카메라-중심의 좌표계에서 데이터 벡터(154)와 연관된 엘리먼트에 대응하는 변환된 포인트와 카메라 시스템(118) 간의 거리일 수 있다.
데이터 벡터(154)와 연관된 엘리먼트가 매칭되지 않은 엘리먼트인 경우에, 깊이값(156)은 널(null) 또는 영(zero) 값일 수 있다. 데이터 벡터(154)와 연관된 엘리먼트가 매칭된 엘리먼트인 경우에, 깊이값(156)은 논-널(non-null) 또는 영이 아닌(non-zero) 값일 수 있다. 데이터 벡터(154)는, 깊이값(156)이 널 또는 영 값이면 비어 있는(unfilled) 데이터 벡터라고 지칭될 수 있고, 깊이값(156)이 논-널 또는 영이 아닌 값이면 채워져 있는(filled) 데이터 벡터라고 지칭될 수 있다. 이러한 방식에 있어서, 융합 데이터 어레이(150)에서의 매칭되지 않은 엘리먼트들은 비어 있는 데이터 백터들과 연관이 있을 수 있고, 융합 데이터 어레이(150)에서의 매칭된 엘리먼트들은 채워져 있는 데이터 백터들과 연관이 있을 수 있다.
부가적으로, 구현에 따라서, 데이터 벡터(154)는 또한, 예컨대, 픽셀 위치(pixel location, 157), 원본 픽셀 데이터(original pixel data, 159), 및/또는 다른 타입의 데이터와 같은 다른 데이터를 포함할 수 있다. 픽셀 위치(157)는 데이터 벡터(154)와 연관이 있는 엘리먼트에 대응하는 픽셀에 대한 픽셀 위치일 수 있다. 원본 픽셀 데이터(159)는 데이터 벡터(154)와 연관이 있는 엘리먼트에 대응하는 픽셀에 대한 이미지(120)에서의 픽셀 데이터일 수 있다.
이러한 예시적인 예들에서, 깊이값 생성기(144)는 융합 데이터 어레이(150)에서 매칭되지 않은 엘리먼트들과 연관이 있는 비어 있는 데이터 백터들의 적어도 일부에 대한 새로운 깊이값들(158)을 생성하도록 구성된다. 이러한 방식에 있어서, 깊이값 생성기(144)는 널 깊이값들의 적어도 일부를 교체하기 위해서 새로운 깊이값들(158)을 식별할 수 있다. 이후, 수정된 융합 데이터 어레이(modified fused data array, 60)를 형성하기 위해서, 비어 있는 데이터 백터들은 새로운 깊이값들(158)을 가지고 융합 관리기(142)에 의해 채워질 수 있다.
새로운 깊이값들(158)은 수정된 융합 데이터 어레이(160)를 이용해서 생성될 수 있다. 특히, 깊이값 생성기(144)는 융합 데이터 어레이(150)를 스캔(scan) 및 처리하기 위해서 선택된 사이즈의 윈도우들을 이용할 수 있다. 나아가, 새로운 깊이값들(158)을 생성하기 위해서, 선형(linear) 추정 기법들과 같은 추정 기법들이 이용될 수 있다. 새로운 깊이값들(158)을 생성하는 프로세스를 위한 하나의 구현의 예가 이하의 도 2-6에서 설명된다.
포인트 클라우드 관리기(145)는 새로운 포인트 클라우드(162)를 생성하기 위해서 수정된 융합 데이터 어레이(160)를 이용하도록 구성될 수 있다. 특히, 포인트 클라우드 관리기(145)는, 포인트 클라우드(132)를 위한 새로운 포인트들(164)을 식별하기 위해서, 새로운 깊이값들(158)로 채워진 데이터 백터들을 갖는 융합 데이터 어레이(150)에서의 엘리먼트들의 일부를 이용할 수 있다.
하나의 예시적인 예로서, 포인트 클라우드 관리기(145)는 새로운 깊이값들(158)로 채워진 데이터 백터들을 갖는 융합 데이터 어레이(150)에서의 엘리먼트들의 일부에 대응하는 픽셀들에 대한 픽셀 위치들의 각각을 3차원의 카메라-중심의 좌표계에서의 카메라-중심의 좌표들에 맵핑시킬 수 있다. 이후, 이러한 카메라-중심의 좌표들은, 새로운 포인트들(164)을 형성하기 위해, 포인트 클라우드(132), 원본 포인트 클라우드(original point cloud)를 위한 3차원의 레퍼런스 좌표계로 변환될 수 있다. 이러한 변환은, 예컨대, 제한 없이, 역변환 알고리즘(166)을 이용해서 수행될 수 있다. 역변환 알고리즘(166)은 융합 관리기(142)에 의해 이용되는 변환 알고리즘(148)의 역(inverse)일 수 있다.
포인트 클라우드 관리기(145)는, 새로운 포인트 클라우드(162)를 형성하기 위해, 새로운 포인트들(164)을 포인트 클라우드(132)에 추가할 수 있다. 새로운 포인트들(164)을 포인트 클라우드(132)에 추가하는 이러한 프로세스는 포인트 클라우드(132)를 "백필링(backfilling)"하는 것이라고 지칭될 수 있다. 새로운 포인트 클라우드(162)는 포인트 클라우드(132)에서의 포인트들(134)의 수(138)보다 더 많은 수의 포인트들을 가질 수 있다. 새로운 포인트들(164)은 포인트 클라우드(132)의 해상도(140)에 비하여 증가된 해상도를 가진 새로운 포인트 클라우드(162)를 제공할 수 있다. 새로운 포인트(164)는 원하는 레벨의 정확성을 가지고 장면(110)에서 특징들(111)을 캡쳐할 수 있다.
그 결과, 새로운 포인트 클라우드(162)는 임의의 수의 동작들을 수행하기 위해서 포인트 클라우드(132) 대신에 이용될 수 있다. 예를 들어, 제한 없이, 새로운 포인트들(164)은 포인트 클라우드(132)와 비교하여 새로운 포인트 클라우드(162)에서 장면(110)의 시각화를 향상시킬 수 있다. 나아가, 새로운 포인트들(164)은 새로운 포인트 클라우드(162)를 이용해서 포인트 클라우드(132)를 이용하는 것과 비교하여 더 높은 레벨의 정확성을 가지고 장면(110)에서의 하나 이상의 물체들(112)이 식별 및/또는 분류되는 것을 가능하게 할 수 있다.
예를 들어, 이미지(120) 및 포인트 클라우드(132)를 이용하여 융합 관리기(142)에 의해 최초 융합 이미지(168, initial fused image)가 생성될 수 있다. 최초 융합 이미지(168)를 생성하기 위해서, 포인트 클라우드(132)에서의 포인트들의 적어도 일부가 이미지(120) 내의 픽셀 위치들에 맵핑될 수 있고, 이미지(120) 상에 오버레이될(overlaid) 수 있다. 이미지(120) 및 새로운 포인트 클라우드(162)를 이용하여 융합 관리기(142)에 의해 최종 융합 이미지(final fused image, 170)가 생성될 수 있다. 최종 융합 이미지(170)를 생성하기 위해서, 새로운 포인트 클라우드(162)에서의 포인트들의 적어도 일부가 이미지(120) 내의 픽셀 위치들에 맵핑될 수 있고, 이미지(120) 상에 오버레이될 수 있다.
최종 융합 이미지(170)에서의 장면(110)의 시각화는 최초 융합 이미지(168)에서의 장면(110)의 시각화에 비해 향상될 수 있다. 특히, 최초 융합 이미지(168)와 비교하여 최종 융합 이미지(170)에서의 더 많은 수의 포인트들이 최종 융합 이미지(170)에서의 장면(110)의 시각화를 향상시킬 수 있다.
도 1의 이미지 처리 환경(100)의 도면은 예시적인 실시 예들이 구현될 수 있는 방식에 대한 물리적 또는 구조적 제한을 시사하기 위해서 의도된 것이 아니다. 도시된 구성요소들에 부가하여 또는 대신하여 다른 구성요소들이 이용될 수 있다. 몇몇 구성요소들은 선택적일(optional) 수 있다. 또한, 블록들이 몇몇 기능적인 구성요소들을 나타내기 위해 제시된다. 이들 블록들 중의 하나 이상은 예시적인 실시 예들에서 구현될 때 상이한 블록들로 결합되거나, 분할되거나, 결합 및 분할될 수 있다.
예를 들어, 몇몇 예시적인 예들에서, 깊이값 생성기(144)는 융합 관리기(142)의 일부로 고려될 수 있다. 다른 예시적인 예들에서, 융합 관리기(142) 및/또는 깊이값 생성기(144)는 포인트 클라우드 관리기(145)의 일부로 고려될 수 있다.
다른 예시적인 예들에서, 이미지 처리 시스템(102)에서의 몇몇 다른 모듈이 최초 융합 이미지(168) 및/또는 최종 융합 이미지(170)를 형성하기 위해 이용될 수 있다. 또 다른 경우들에 있어서, 몇몇 다른 데이터 처리 시스템 또는 프로세서 유닛이 최종 융합 이미지(170)를 형성하기 위해서 이미지(120) 및 새로운 포인트 클라우드(162)를 처리하도록 구성될 수 있다.
이제, 도 2-6을 참조하면, 융합 데이터 어레이에서의 매칭되지 않은 엘리먼트들과 연관된 비어 있는 데이터 백터들을 위해 새로운 깊이값들을 생성하기 위한 프로세스의 도면이 예시적인 실시 예에 따라서 도시된다. 도 2-6에 도시된 프로세스는 도 1의 새로운 깊이값들(158)이 생성될 수 있는 하나의 방식의 예일 수 있다. 나아가, 이 프로세스는 예컨대, 도 1의 깊이값 생성기(144)를 이용해서 수행될 수 있다.
이제, 도 2를 참조하면, 융합 데이터 어레이의 도면이 예시적인 실시 예에 따라서 도시된다. 이 예시적인 예에서, 융합 데이터 어레이(200)는 도 1의 융합 데이터 어레이(150)에 대한 하나의 구현의 예일 수 있다.
도 2에서, 융합 데이터 어레이(200)는 이미지(202) 및 변환된 포인트들(206)의 융합일 수 있다. 이미지(202)는, 예컨대, 카메라 시스템(204)에 의해 생성된 이미지일 수 있다. 변환된 포인트들(206)은 이미지(202)에서의 픽셀 위치들에 맵핑된 포인트 클라우드에서의 포인트들의 일부를 포함할 수 있고, 그래서 융합 데이터 어레이(200)에서의 엘리먼트들을 포함할 수 있다. 융합 데이터 어레이(200)는, 예컨대, 도 1의 융합 관리기(142)에 의해 생성되었을 수 있다.
도시된 바와 같이, 깊이값 생성기(144)는 융합 데이터 어레이(200)를 처리하기 위하여 화살표(210) 및 화살표(212)의 방향으로 융합 데이터 어레이(200)를 따라서 윈도우(window, 208)를 이동시킬 수 있다. 예를 들어, 윈도우(208)는 융합 데이터 어레이(200) 내의 모든 엘리먼트의 위치로 이동될 수 있다. 이 예시적인 예에서, 윈도우(208)는 한 그룹의 선택된 사이즈들 중의 하나를 가질 수 있다. 본 명세서에서 사용될 때, 아이템(item)의 "그룹(group of)"은 하나 이상의 아이템을 포함할 수 있다. 이러한 방식에 있어서, 한 그룹의 선택된 사이즈들은 하나 이상의 선택된 사이즈들을 포함할 수 있다.
융합 데이터 어레이(200)는 한 그룹의 선택된 사이즈들에서 각각의 사이즈를 갖는 윈도우를 이용하여 완전히 스캔되고 처리될 수 있다. 이 예시적인 예에서, 융합 데이터 어레이(200)에서의 엘리먼트의 위치로 윈도우(208)를 이동시키는 것은 윈도우(208)를 엘리먼트의 중앙에 배치하는(centering) 것을 의미한다. 윈도우(208)가 중앙에 배치된 엘리먼트가 매칭되지 않은 엘리먼트인 경우에, 윈도우(208)에 의해 오버랩된(overlapped) 융합 데이터 어레이(200)의 부분은 이러한 매칭되지 않은 엘리먼트와 연관이 있는 비어 있는 데이터 벡터를 위한 새로운 깊이값을 식별하도록 깊이값 생성기(144)에 의하여 처리될 수 있다.
이제, 도 3을 참조하면, 도 2의 윈도우(208)에 의해 오버랩된 융합 데이터 어레이(200)의 일부의 도면이 예시적인 실시 예에 따라서 도시된다. 이 예시적인 예에서, 도 2의 융합 데이터 어레이(200)의 일부(300)는 윈도우(208)에 의해 오버랩된다.
도 3에서, 매칭된 엘리먼트들(302)의 그룹은, 도 2의 변환된 포인트들(206)의 일부가 맵핑된 융합 데이터 어레이(200)의 일부(300)에서 엘리먼트들을 식별시킬 수 있다. 융합 데이터 어레이(200)의 일부(300)의 모든 다른 엘리먼트들(이 뷰(view)에서는 보이지 않음)은, 변환된 포인트들이 맵핑되지 않은 매칭되지 않은 엘리먼트들일 수 있다. 도시된 바와 같이, 매칭된 엘리먼트들(302)의 그룹은 매칭된 엘리먼트들(304, 306, 308, 310, 312, 314, 및 316)을 포함한다.
깊이값 생성기(144)는 우선, 윈도우(208)가 중앙에 배치된 엘리먼트와 연관이 있는 데이터 벡터에서의 깊이값이 널 깊이값임을 확인한다(confirm). 만일 깊이값이 논-널(non-null) 깊이값이면, 깊이값 생성기(144)는 다른 위치로 윈도우(208)를 이동시킨다. 만일 깊이값이 널(null) 깊이값이면, 깊이값 생성기(144)는 융합 데이터 어레이(200)의 일부(300)를 처리하는 것을 계속한다.
이 예시적인 예에서, 사분면(quadrant)들(320, 322, 324, 및 326)로 나눠진 융합 데이터 어레이(200)의 일부(300)가 도시된다. 깊이값 생성기(144)는 충분한 수의 매칭된 엘리먼트들이 융합 데이터 어레이(200)의 일부(300)에 존재하는지를 확인하도록 구성된다. 나아가, 깊이값 생성기(144)는 적어도 하나의 매칭된 엘리먼트가 사분면들(320, 322, 324, 및 326)의 각각에 존재하는지를 확인하도록 구성된다.
일단, 충분한 수의 매칭된 엘리먼트들이 융합 데이터 어레이(200)의 일부(300)에 존재한다는 것 및 적어도 하나의 매칭된 엘리먼트가 사분면들(320, 322, 324, 및 326)의 각각에 존재한다는 것을 깊이값 생성기(144)가 확인하면, 깊이값 생성기(144)는 융합 데이터 어레이(200)의 일부(300)를 처리하는 것을 계속할 수 있다. 충분한 수의 매칭된 엘리먼트들이 일부(300)에 존재하지 않는 경우에 또는 사분면들(320, 322, 324, 및 326) 중의 하나가 매칭된 엘리먼트를 포함하지 않는 경우에, 깊이값 생성기(144)는 융합 데이터 어레이(200)를 따라서 다음 위치로 윈도우(208)를 이동시킬 수 있다.
이제, 도 4를 참조하면, 매칭된 엘리먼트들(302)의 그룹의 각각에 대해 점수들을 생성하기 위한 프로세스의 도면이 예시적인 실시 예에 따라서 도시된다. 도 4에서, 깊이값 생성기(144)는 매칭된 엘리먼트들(302)의 그룹에서 각각의 매칭된 엘리먼트에 대해 점수를 생성하도록 구성된다. 매칭된 엘리먼트에 대한 점수는 매칭된 엘리먼트와 연관이 있는 채워져 있는 데이터 벡터에서의 깊이값 및 매칭된 엘리먼트들(302)의 그룹에서의 다른 매칭된 엘리먼트들에 대한 매칭된 엘리먼트의 유사도(similarity)를 기초로 할 수 있다.
매칭된 엘리먼트와 연관이 있는 채워져 있는 데이터 벡터에서의 깊이값은, 3차원의 카메라-중심의 좌표계 내에서, 매칭된 엘리먼트에 맵핑된 변환된 포인트의 위치와 카메라 시스템(204) 간의 거리일 수 있다. 매칭된 엘리먼트들(302)의 그룹에 대한 깊이값들은 매칭된 엘리먼트들(304, 306, 308, 310, 312, 314, 및 316) 각각과 카메라 시스템(204) 간의 거리들(402, 404, 406, 408, 410, 412, 및 414)일 수 있다.
매칭된 엘리먼트들(302)의 그룹에서 매칭된 엘리먼트의 다른 매칭된 엘리먼트들에 대한 유사도는 임의의 수의 특징들을 기초로 할 수 있다. 이러한 특징들은, 예컨대, 제한 없이, 픽셀 위치, 칼라, 강도, 및/또는 데이터 벡터 내의 다른 타입의 특징들 또는 데이터를 포함할 수 있다. 이 예시적인 예에서, 매칭된 엘리먼트의 다른 매칭된 엘리먼트들에 대한 유사도는 이상적인 픽셀 위치(400)와 매칭된 엘리먼트와 연관된 데이터 벡터에서 식별된 픽셀 위치 간의 거리를 기초로 할 수 있다. 픽셀 위치는 융합 데이터 어레이(200) 내에서 매칭된 엘리먼트에 대한 위치와 동일할 수 있다.
이제, 도 5를 참조하면, 지지 엘리먼트(support element)들의 선택의 도면이 예시적인 실시 예에 따라서 도시된다. 이 예시적인 예에서, 도 4에서 설명된 바와 같이, 매칭된 엘리먼트들(302)의 그룹을 위해 생성된 점수들은 소팅되거나(sorted), 순서가 매겨질(ordered) 수 있다.
이 예시적인 실시 예에서, 원하는 지지 엘리먼트들의 수는 5개의 지지 엘리먼트들일 수 있다. 5개의 가장 낮은 점수들을 갖는 5개의 매칭된 엘리먼트들이 지지 엘리먼트들(500)로서 선택될 수 있다. 지지 엘리먼트들(500)은 매칭된 엘리먼트들(306, 308, 310, 312, 및 314)을 포함한다.
이 예시적인 예에서, 이미지(202)에 의해 캡쳐된 장면에서 실제 구멍(hole)들 및/또는 간격(gap)들을 위해 생성되는 새로운 포인트들의 수가 감소되도록 지지 엘리먼트들(500)이 선택될 수 있다. 나아가, 생성된 새로운 포인트들이 실제로 물체의 외부 표면을 나타내도록 지지 엘리먼트들(500)이 선택될 수 있다.
이제, 도 6을 참조하면, 새로운 깊이값의 생성의 도면이 예시적인 실시 예에 따라서 도시된다. 이 예시적인 예에서, 윈도우(208)가 중앙에 배치된 엘리먼트(600)에 대하여 새로운 깊이값을 생성하기 위해 도 5의 지지 엘리먼트들(500)이 이용될 수 있다. 엘리먼트(600)는 융합 데이터 어레이(200)에서의 위치(602)에 존재할 수 있으며, 이것은 융합 데이터 어레이(200)의 일부(300)의 중심 위치일 수 있다.
엘리먼트(600)에 대한 새로운 깊이값은 예컨대, 선형 추정(linear estimation)을 이용해서 생성될 수 있다. 특히, 선형 추정 알고리즘은, 엘리먼트(600)에 대한 새로운 깊이값을 추정하기 위해서, 지지 엘리먼트들(500)과 연관이 있는 채워져 있는 데이터 벡터에서의 깊이값을 이용할 수 있다. 이러한 새로운 깊이값은 엘리먼트(600)와 연관이 있는 데이터 벡터를 채우기 위해 이용될 수 있다.
도 3-6에서 설명된 프로세스는 도 2의 윈도우(208)가 이동하는 융합 데이터 어레이(200)에서의 각각의 위치에 대해 반복될 수 있다. 나아가, 도 2-6에서 설명된 전체 프로세스는 상이한 사이즈들의 윈도우들을 이용해서 반복될 수 있다.
이러한 방식에 있어서, 전체 융합 데이터 어레이(200)는 한 그룹의 선택된 사이즈들의 각각을 가진 윈도우로 스캔 및 처리될 수 있다. 더욱 나아가, 한 그룹의 선택된 사이즈들을 갖는 윈도우들을 이용하는 이러한 전체 프로세스는 융합 데이터 어레이(200)에서의 매칭되지 않은 엘리먼트들과 연관이 있는 비어 있는 데이터 백터들의 적어도 일부를 채우기 위해 여러 번 반복될 수 있다.
도 2-6의 도면들은 예시적인 실시 예가 구현될 수 있는 방식에 대한 물리적 또는 구조적 제한을 시사하기 위해서 의도된 것이 아니다. 이 도면들은 새로운 깊이값들을 생성하는 개념을 추상적인 방식으로 설명하기 위해 제시된 것이다.
이제, 도 7을 참조하면, 융합 이미지의 도면이 예시적인 실시 예에 따라서 도시된다. 융합 이미지(700)는 도 1의 융합 데이터 어레이(150)에 대한 하나의 구현의 예일 수 있다. 융합 이미지(700)는 이미지(702) 및 변환된 포인트들(704)의 결합(combination)일 수 있다. 이 예시적인 예에서, 융합 이미지(700)에서의 각각의 픽셀은 도 1의 데이터 벡터(154)와 같은 데이터 벡터와 연관이 있을 수 있다.
이제, 도 8을 참조하면, 두 개의 융합 이미지들 간의 비교의 도면이 예시적인 실시 예에 따라서 도시된다. 이 예시적인 예에서, 최초 융합 이미지(800)는 도 1의 최초 융합 이미지(168)에 대한 하나의 구현의 예이다. 나아가, 최종 융합 이미지(802)는 도 1의 최종 융합 이미지(170)에 대한 하나의 구현의 예이다.
도시된 바와 같이, 최초 융합 이미지(800)는 이미지(804)과 변환된 포인트들(806)의 융합(fusion)이다. 변환된 포인트들(806)은, 예컨대, 도 1의 포인트 클라우드(132)와 같은 원본 포인트 클라우드로부터 맵핑된 포인트들을 포함할 수 있다. 최종 융합 이미지(802)는 동일한 이미지(804) 및 변환된 포인트들(808)의 융합이다. 변환된 포인트들(808)은, 예컨대, 도 1의 새로운 포인트 클라우드(162)와 같은 새로운 포인트 클라우드로부터 맵핑된 포인트들을 포함할 수 있다. 이미지(804)에서 캡쳐된 장면은 최초 융합 이미지(800)에서의 변환된 포인트들(806)에 비하여 최종 융합 이미지(802)에서의 변환된 포인트들(808)에 의해서 더 우수하게 실현될 수 있다.
이제, 도 9를 참조하면, 지지 엘리먼트들이 이용된 경우에 생성된 최종 융합 이미지와 지지 엘리먼트들이 이용되지 않은 경우에 생성된 최종 융합 이미지의 비교의 도면이 예시적인 실시 예에 따라서 도시된다. 이 예시적인 예에서, 최종 융합 이미지(900)와 최종 융합 이미지(902)의 비교가 도시된다. 이러한 최종 융합 이미지들은 도 1의 최종 융합 이미지(170)에 대한 구현들의 예들이다.
최종 융합 이미지(900)는 이미지(904)와 변환된 포인트들(906)의 융합이다. 최종 융합 이미지(902)는 동일한 이미지(904)와 변환된 포인트들(908)의 융합이다. 변환된 포인트들(906)과 변환된 포인트들(908) 양쪽 모두는 새로운 포인트들이 추가된 대응하는 새로운 포인트 클라우드로부터 맵핑된 포인트들을 포함할 수 있다.
하지만, 변환된 포인트들(906)은 지지 엘리먼트들을 이용하지 않고 생성된 새로운 포인트 클라우드로부터의 포인트들을 포함할 수 있다. 변환된 포인트들(908)은 지지 엘리먼트들을 이용해서 생성된 새로운 포인트 클라우드로부터의 포인트들을 포함할 수 있다. 도시된 바와 같이, 최종 융합 이미지(900)의 일부(912)에 도시된 건물의 꼭대기의 형상 및 표면은 최종 융합 이미지(902)의 일부(914)에 도시된 건물의 꼭대기의 형상 및 표면보다 덜 선명하게 정의되고(defined) 덜 정확할 수 있다.
이제, 도 10을 참조하면, 최종 융합 이미지들의 표(table)의 도면이 예시적인 실시 예에 따라서 도시된다. 도 10에서, 표(1000)는 칼럼(1002), 칼럼(1004), 로우(1006), 및 로우(1008)를 포함한다.
칼럼(1002)은 한 그룹의 선택된 사이즈들을 갖는 윈도우들을 융합 데이터 어레이 전체에 걸쳐 스캐닝(scanning)하는 것의 2회 반복(iteration)을 이용하여 생성된 최종 융합 이미지(1010) 및 최종 융합 이미지(1014)를 포함한다. 칼럼(1004)은 한 그룹의 선택된 사이즈들을 갖는 윈도우들을 융합 데이터 어레이 전체에 걸쳐 스캐닝하는 것의 10회 반복을 이용하여 생성된 최종 융합 이미지(1012) 및 최종 융합 이미지(1016)를 포함한다.
로우(1006)는 반복 당 8개의 윈도우 사이즈들을 이용해서 생성된 최종 융합 이미지(1010) 및 최종 융합 이미지(1012)를 포함한다. 나아가, 로우(1008)는 반복 당 16개의 윈도우 사이즈들을 이용해서 생성된 최종 융합 이미지(1014) 및 최종 융합 이미지(1016)을 포함한다.
도시된 바와 같이, 반복의 수 및 반복 당 윈도우들에 대한 사이즈들의 수가 증가함에 따라서, 최종 융합 이미지에 포함된 포인트들의 수가 증가한다. 최종 융합 이미지에서의 포인트들의 수가 증가함에 따라서, 최종 융합 이미지 내의 장면의 시각화가 향상될 수 있다.
도 7-10의 융합 이미지들의 도면은 예시적인 실시 예가 구현될 수 있는 방식에 대한 물리적 또는 구조적 제한을 시사하기 위해서 의도된 것이 아니다. 이 융합 이미지들은 도 1의 최초 융합 이미지(168) 및 최종 융합 이미지(170)와 같은 융합 이미지들이 어떻게 구현될 수 있는지에 대한 예들이다.
이제, 도 11을 참조하면, 포인트 클라우드에서 포인트들의 수를 증가시키기 위한 프로세스의 흐름도 형태의 도면이 예시적인 실시 예에 따라서 도시된다. 도 11에 도시된 프로세스는 도 1의 이미지 처리 시스템(102)을 이용해서 구현될 수 있다.
본 프로세스는 제1 센서 시스템으로부터의 2차원 이미지 및 제2 센서 시스템으로부터의 포인트 클라우드를 수신함으로써 시작된다(동작 1100). 동작 1100에서, 2차원 이미지는 도 1의 카메라 시스템(118)과 같은 카메라 시스템 형태의 제1 센서 시스템으로부터 수신될 수 있다. 이 예시적인 예에서, 2차원 이미지는 칼라(color) 이미지일 수 있다. 나아가, 포인트 클라우드는 도 1의 광 검출 및 레인징 시스템(130)과 같은 광 검출 및 레인징 시스템 형태의 제2 센서 시스템으로부터 수신될 수 있다.
2차원 이미지와 포인트 클라우드 양쪽 모두는 동일한 장면으로 이루어질 수 있다. 하지만, 구현에 따라서, 2차원 이미지와 포인트 클라우드는 동일한 또는 상이한 관점들로부터 동일한 장면을 캡쳐할 수 있다.
다음으로, 변환된 포인트들을 형성하기 위해, 포인트 클라우드에서의 포인트들의 적어도 일부가 2차원 이미지에 맵핑될 수 있다(동작 1102). 다음으로, 2차원 이미지 및 변환된 포인트들을 이용해서 융합 데이터 어레이가 생성된다(동작 1104).
그 후에, 융합 데이터 어레이를 이용해서 포인트 클라우드를 위한 새로운 포인트들이 식별된다(동작 1106). 새로운 포인트 클라우드를 형성하기 위해, 새로운 포인트들이 포인트 클라우드에 추가되고(동작 1108), 그 후에 프로세스가 종료된다. 원본 포인트 클라우드와 비교하여 새로운 포인트 클라우드에서의 증가된 수의 포인트들은 원본 포인트 클라우드에 비하여 증가된 해상도를 갖는 새로운 포인트 클라우드를 제공할 수 있다.
다시 말해, 새로운 포인트 클라우드는 원본 포인트 클라우드보다 더욱 정확하게 장면에서 특징들을 캡쳐할 수 있다. 예컨대, 제한 없이, 물체 식별, 물체 분류, 세그먼테이션, 장면 시각화, 및/또는 다른 타입의 동작들과 같은 다수의 상이한 동작들을 수행하기 위해 새로운 포인트 클라우드가 이용될 수 있다.
이제, 도 12를 참조하면, 변환된 포인트들을 형성하기 위해 포인트 클라우드에서의 포인트들을 2차원 이미지에 맵핑하기 위한 프로세스의 흐름도 형태의 도면이 예시적인 실시 예에 따라서 도시된다. 도 12에서 도시된 프로세스는 도 11의 동작 1102를 구현하기 위해 이용될 수 있다. 나아가, 이 프로세스는 도 1의 이미지 처리 시스템(102)에서의 융합 관리기(142)를 이용해서 수행될 수 있다.
본 프로세스는 포인트 클라우드에서의 포인트들에 대한 카메라-중심의 좌표들을 식별하기 위해 포인트 클라우드에 대한 3차원의 레퍼런스 좌표계를 3차원의 카메라-중심의 좌표계로 변환함으로서 시작된다(동작 1200). 3차원의 레퍼런스 좌표계는, 예컨대, 지리적 좌표계 또는 몇몇 다른 타입의 실제 세계 좌표계일 수 있다. 3차원의 카메라-중심의 좌표계의 원점은 2차원 이미지를 생성한 카메라 시스템의 위치이다.
예를 들어, 3차원의 레퍼런스 좌표계에서의 주어진 위치
Figure 112013089079067-pat00001
에서 각각의 포인트에 대해, 카메라-중심의 좌표들은 다음과 같이 식별된다:
Figure 112013089079067-pat00002
여기서,
Figure 112013089079067-pat00003
는 3차원의 레퍼런스 좌표계에서의 포인트에 대한 좌표들이고;
Figure 112013089079067-pat00004
는 3차원의 카메라-중심의 좌표계에서의 포인트에 대한 카메라-중심의 좌표들이고;
Figure 112013089079067-pat00005
은 회전(rotation)이고;
Figure 112013089079067-pat00006
는 병진이동(translation)이다.
회전
Figure 112013089079067-pat00007
및 병진이동
Figure 112013089079067-pat00008
는 EPnP(efficient perspective-n-point) 카메라 포즈 추정 알고리즘과 같은 카메라 포즈 추정 알고리즘을 포함하는 변환 알고리즘을 이용해서 식별될 수 있다. 이러한 EPnP(efficient perspective-n-point) 카메라 포즈 추정 알고리즘은 2차원 이미지를 생성한 카메라 시스템의 포즈에 대한 포즈 정보를 식별한다. 카메라 시스템의 포즈는 카메라 시스템의 방향 및 위치 중의 적어도 하나로 이루어질 있다. 변환 알고리즘은 포인트에 대한 카메라-중심의 좌표들을 생성하기 위해 카메라 시스템의 포즈 정보를 이용한다.
다음으로, 최초(initial) 변환된 포인트들을 형성하기 위해, 카메라-중심의 좌표들을 갖는 포인트들이 2차원 이미지에 대한 이미지 평면에서의 픽셀 위치들에 맵핑된다(동작 1202). 최초 변환된 포인트들의 각각은 2차원 이미지의 이미지 평면 내의 특정 픽셀 위치에서의 픽셀에 대응하는 포인트일 수 있다. 예를 들어, 각각의 포인트는 다음과 같이 픽셀 위치,
Figure 112013089079067-pat00009
에 맵핑될 수 있다:
Figure 112013089079067-pat00010
여기서,
Figure 112013089079067-pat00011
는 픽셀 위치에 대한 로우이고,
Figure 112013089079067-pat00012
는 픽셀 위치에 대한 칼럼이다.
그 이후, 변환된 포인트들을 형성하기 위해 선택된 기준을 기초로 하여 최초 변환된 포인트들의 일부가 선택되고(동작 1204), 그 후에, 프로세스가 종료된다. 동작 1204에서, 선택된 최초 변환된 포인트들의 일부는, 영보다 크고 2차원 이미지에서의 로우들의 최대 수 이하인 로우
Figure 112013089079067-pat00013
및 영보다 크고 2차원 이미지에서의 칼럼들의 최대 수 이하인 칼럼
Figure 112013089079067-pat00014
를 갖는 포인트들을 포함할 수 있다. 이러한 방식에 있어서, 변환된 포인트들은, 2차원 이미지 안쪽에 존재하고 2차원 이미지의 바깥쪽에는 존재하지 않는 픽셀 위치들만을 포함할 수 있다.
이제, 도 13을 참조하면, 융합 데이터 어레이를 생성하기 위한 프로세스의 흐름도 형태의 도면이 예시적인 실시 예에 따라서 도시된다. 도 13에서 도시된 프로세스는 도 11의 동작 1104을 구현하기 위해 이용될 수 있다.
본 프로세스는 변환된 포인트들의 각각에 대한 거리를 식별함으로써 시작된다(동작 1300). 이 거리는 변환된 포인트에 대한 카메라-중심의 좌표들과 카메라 시스템 간의 거리일 수 있다. 이 거리는 다음과 같이 식별될 수 있다:
Figure 112013089079067-pat00015
여기서,
Figure 112013089079067-pat00016
는 거리이다.
그 후에, 변환된 포인트들 중의 임의의 것이 동일한 픽셀 위치에 맵핑되었는지 여부가 결정된다(동작 1302). 만일 변환된 포인트들의 임의의 것이 동일한 픽셀 위치에 맵핑되었다면, 복수의 변환된 포인트들이 맵핑된 각각의 픽셀 위치에 대해서 카메라 시스템에 가장 가까운 변환된 포인트가 유지되고(kept) 다른 변환된 포인트들은 버려진다(discarded)(동작 1304)
다음으로, 본 프로세스는 정규화된 깊이값들을 형성하기 위해 나머지(remaining) 변환된 포인트들의 각각에 대한 깊이값들을 정규화한다(normalize)(동작 1306). 예를 들어, 각각의 나머지 변환된 포인트 i에 대하여 정규화된 거리는 다음과 같이 식별된다:
Figure 112013089079067-pat00017
여기서,
Figure 112013089079067-pat00018
는 변환된 포인트에 대해 정규화된 거리이고;
Figure 112013089079067-pat00019
는 동작 1300에서 변환된 포인트에 대해 식별된 거리이고;
Figure 112013089079067-pat00020
는 미리 결정된 최소 거리이고;
Figure 112013089079067-pat00021
는 미리 결정된 최대 거리이다. 미리 결정된 최소 거리 및 미리 결정된 최대 거리는 예컨대, 컴퓨터 시스템을 이용해서 자동으로 계산될 수 있다.
그 후에, 융합 데이터 어레이가 생성되며, 융합 데이터 어레이의 각각의 엘리먼트는 픽셀 위치, 깊이값, 및 원본 픽셀 데이터를 포함하는 데이터 벡터와 연관이 있다(동작 1308). 융합 데이터 어레이에서의 엘리먼트들은 2차원 이미지에서의 픽셀들과 일대일 대응관계를 가질 수 있다. 융합 데이터 어레이에서의 엘리먼트와 연관이 있는 데이터 벡터에서의 픽셀 위치는 엘리먼트에 대응하는 픽셀의 로우 및 칼럼을 포함할 수 있다. 엘리먼트와 연관이 있는 데이터 벡터에서의 깊이값은 엘리먼트에 대응하는 픽셀에 맵핑된 변환된 포인트를 위해 식별된 정규화된 거리일 수 있다. 만일 변환된 포인트 중 아무것도 엘리먼트에 대응하는 픽셀에 맵핑되지 않았다면, 깊이값은 널일 수 있다. 엘리먼트와 연관이 있는 데이터 벡터에서의 원본 픽셀 데이터는 엘리먼트에 대응하는 픽셀에 대한, 예컨대, 적색값, 녹색값, 및 청색값을 포함할 수 있다.
이러한 방식에 있어서, 융합 데이터 어레이에서의 엘리먼트와 연관이 있는 데이터 벡터는 다음과 같이 표현될 수 있다:
Figure 112013089079067-pat00022
여기서,
Figure 112013089079067-pat00023
는 융합 데이터 어레이에서 i번째 엘리먼트와 연관이 있는 데이터 벡터이고;
Figure 112013089079067-pat00024
는 i번째 엘리먼트에 대응하는 픽셀에 대한 로우이고;
Figure 112013089079067-pat00025
는 i번째 엘리먼트에 대응하는 픽셀에 대한 칼럼이고;
Figure 112013089079067-pat00026
는 i번째 엘리먼트에 대응하는 픽셀에 맵핑된 변환된 포인트에 대한 깊이값이고;
Figure 112013089079067-pat00027
는 i번째 엘리먼트에 대응하는 픽셀에 대한 적색값, 녹색값, 및 청색값이다. 변환된 포인트가 융합 데이터 어레이에서의 엘리먼트에 대응하는 픽셀에 맵핑되지 않은 경우에, 엘리먼트와 연관이 있는 데이터 벡터는 다음과 같이 표현될 수 있다:
Figure 112013089079067-pat00028
다음으로, 융합 데이터 어레이에서의 엘리먼트들 각각은 엘리먼트들 각각이 고유하게 참조될 수 있도록 인덱스가 만들어질(indexed) 수 있으며(동작 1310), 그후에 프로세스가 종료된다. 예를 들어, 각각의 엘리먼트는 다음과 같이 인덱스가 만들어질 수 있다:
Figure 112013089079067-pat00029
여기서,
Figure 112013089079067-pat00030
은 엘리먼트에 대한 인덱스(index)이고,
Figure 112013089079067-pat00031
은 2차원 이미지에서 칼럼들의 수이다.
변환된 포인트들이 맵핑된 픽셀들에 대응하는 융합 데이터 어레이에서의 엘리먼트들은 매칭된 엘리먼트들일 수 있다. 변환된 포인트들 중 아무것도 맵핑되지 않은 픽셀들에 대응하는 융합 데이터 어레이에서의 엘리먼트들은 매칭되지 않은 엘리먼트들이다.
동작 1302를 다시 참조하면, 변환된 포인트들 중 아무것도 동일한 픽셀 위치에 맵핑되지 않았다면, 프로세스는 상술한 바와 같은 동작 1306으로 넘어간다. 이러한 방식에 있어서, 도 13에서 설명된 프로세스는 도 1의 융합 데이터 어레이(150)와 같은 융합 데이터 어레이를 생성하기 위해 이용될 수 있다.
이제, 도 14를 참조하면, 새로운 깊이값들을 생성하기 위한 프로세스의 흐름도 형태의 도면이 예시적인 실시 예에 따라서 도시된다. 도 14에 도시된 프로세스는 도 11의 동작 1106을 구현하기 위해 이용될 수 있다.
본 프로세스는 융합 데이터 어레이의 처리를 위한 최대 반복수를 식별함으로써 시작된다(동작 1400). 다음으로, 융합 데이터 어레이를 처리하는 데 사용하기 위해 윈도우에 대한 한 그룹의 선택된 사이즈들이 식별된다(동작 1402). 그 이후, 선택된 사이즈들의 그룹으로부터 윈도우에 대한 사이즈가 선택된다(동작 1404). 한 그룹의 선택된 사이즈들에서 사이즈들의 각각은 n × n 사이즈일 수 있다. 이러한 방식에 있어서, 각각의 윈도우는 동일한 길이(length) 및 폭(width)을 가질 수 있다. 이 예시적인 예에서, 각각의 n은 홀수일 수 있다.
윈도우는 융합 데이터 어레이에서의 엘리먼트의 위치로 이동된다(동작 1406). 엘리먼트가 매칭된 엘리먼트인지 또는 매칭되지 않은 엘리먼트인지에 대한 결정이 만들어진다(동작 1408). 매칭된 엘리먼트는 논-널 깊이값을 가진 데이터 벡터를 가진다. 매칭되지 않은 엘리먼트는 널 깊이값을 가진 데이터 벡터를 가진다. 만일 엘리먼트가 매칭된 엘리먼트이면, 임의의 미처리된 위치들이 융합 데이터 어레이에 존재하는지에 대한 결정이 만들어진다(동작 1410).
만일 임의의 미처리된 위치들이 융합 데이터 어레이에 존재한다면, 프로세스는 상술한 바와 같은 동작 1406로 돌아간다. 그렇지 않으면, 윈도우에 대한 한 그룹의 선택된 사이즈들에서 임의의 사이즈들이 여전히 존재하는지에 대한 결정이 만들어진다(동작 1412). 만일 윈도우에 대한 한 그룹의 선택된 사이즈들에서 임의의 사이즈들이 여전히 존재한다면, 프로세스는 상술한 바와 같은 동작 1404로 돌아간다. 그렇지 않으면, 한 번의 반복이 이제 완료된 것으로 고려되고, 최대 반복수에 도달했는지에 대한 결정이 만들어진다(동작 1414). 만일 최대 반복수에 도달하지 않았다면, 프로세스는 상술한 바와 같은 동작 1402로 돌아간다. 그렇지 않으면, 프로세스는 융합 데이터 어레이에서 매칭되지 않은 엘리먼트들의 적어도 일부에 대해 생성된 새로운 깊이값들을 이용해서 포인트 클라우드를 위한 새로운 포인트들을 생성하며(동작 1416), 그 후에 프로세스가 종료된다.
동작 1408을 다시 참조하면, 만일 엘리먼트가 매칭되지 않은 엘리먼트이면, 윈도우에 의해 오버랩된 융합 데이터 어레이의 일부에서의 매칭된 엘리먼트들이 선택된 기준을 만족시키는지에 대한 결정 만들어진다(동작 1418). 만일 매칭된 엘리먼트들의 수가 선택된 문턱값(threshold) 보다 크면, 또는 만일 윈도우에 의해 오버랩된 융합 데이터 어레이의 일부의 각각의 사분면에 적어도 하나의 매칭된 엘리먼트가 존재하면, 윈도우에 의해 오버랩된 융합 데이터 어레이의 일부에서의 매칭된 엘리먼트들이 선택된 기준을 만족시킨다.
만일 매칭된 엘리먼트들이 선택된 기준을 만족시키지 않는다면, 프로세스는 상술한 바와 같은 동작 1410로 넘어간다. 그렇지 않으면, 윈도우에 의해 오버랩된 융합 데이터 어레이의 일부에서의 매칭된 엘리먼트들의 각각에 대한 점수가 생성된다(동작 1420). 예를 들어, 점수는 매칭된 엘리먼트에 대한 양호도 점수(goodness score)일 수 있다. 양호도 점수는 매칭된 엘리먼트의 다른 매칭된 엘리먼트들에 대한 비유사도(dissimilarity) 및 엘리먼트에 대응하는 픽셀에 맵핑된 변환된 포인트의 카메라 시스템으로부터의 거리의 조합을 기초로 할 수 있다.
윈도우에 의해 오버랩된 융합 데이터 어레이의 일부에서의 n개의 매칭된 엘리먼트들에 있어서, 양호도 점수는 다음과 같이 생성될 수 있다:
Figure 112013089079067-pat00032
, 여기서
Figure 112013089079067-pat00033
, 여기서
Figure 112013089079067-pat00034
, 그리고
여기서,
Figure 112013089079067-pat00035
는 i번째 매칭된 엘리먼트의 양호도 점수이고;
Figure 112013089079067-pat00036
는 i번째 매칭된 엘리먼트에 대한 비유사도 점수이고;
Figure 112013089079067-pat00037
는 i번째 매칭된 엘리먼트에 대한 거리 측정치이고;
Figure 112013089079067-pat00038
Figure 112013089079067-pat00039
개의 매칭된 엘리먼트들에 대한 인덱스이고;
Figure 112013089079067-pat00040
는 특징에 대한 응답(response)이고;
Figure 112013089079067-pat00041
은 특징들의 수이고;
Figure 112013089079067-pat00042
는 i번째 매칭된 엘리먼트와 연관이 있는 데이터 벡터에서의 깊이값이고;
Figure 112013089079067-pat00043
는 정규화 상수(normalizing constant)이다. 만일 특징 응답들 및 깊이값들이 0과 1 사이에서 정규화된다면, 정규화 상수는
Figure 112013089079067-pat00044
으로 설정될 수 있다.
이 예시적인 예에서, 특징은 예컨대, 픽셀 위치, 강도, 칼라, 또는 임의의 다른 타입의 특징일 수 있다. 당해 특징에 대한 응답은 당해 특징에 대한 값일 수 있다.
다음으로, 미리 선택된 수의 가장 낮은 점수들을 갖는 매칭된 엘리먼트들이 지지 엘리먼트들로서 선택된다(동작 1422). 예를 들어, 원하는 수의 지지 엘리먼트들을 위한 수가 미리 선택될 수 있다. 이러한 미리 선택된 수는 4, 5, 8, 10, 또는 몇몇 다른 수일 수 있다. 동작 1422에서는, 동작 1420에서 생성된 점수들이 소팅될 수 있다. 만일 미리 선택된 수가 5이면, 5개의 가장 낮은 점수들을 갖는 매칭된 엘리먼트들이 지지 엘리먼트들로서 선택된다.
지지 엘리먼트가 각각의 사분면에 존재하는지에 대한 결정이 만들어진다(동작 1424). 만일 지지 엘리먼트가 각각의 사분면에 존재하지 않으면, 프로세스는 상술한 바와 같은 동작 1410으로 넘어간다. 그렇지 않으면, 윈도우가 중앙에 위치한 엘리먼트를 위한 새로운 깊이값이 선형 추정 알고리즘 및 지지 엘리먼트들을 이용해서 생성된다(동작 1426).
동작 1426에서, 새로운 깊이값은, 예컨대, 이하와 같은 선형(linear) 시스템을 이용해서 식별될 수 있다:
Figure 112013089079067-pat00045
여기서,
Figure 112013089079067-pat00046
은 새로운 깊이값이고,
Figure 112013089079067-pat00047
,
Figure 112013089079067-pat00048
, 및
Figure 112013089079067-pat00049
은 가중치(weight)이다. 물론, 지지 엘리먼트들을 위한 깊이값들을 이용하여 새로운 깊이값을 풀기 위해 임의의 타입의 다항식 근사(polynomial approximation) 알고리즘이 이용될 수 있다.
그 이후, 새로운 깊이값이 선택된 범위(range) 내에 있는지에 대한 결정이 만들어진다(동작 1428). 만일
Figure 112013089079067-pat00050
이면, 새로운 깊이값이 선택된 범위 내에 있을 수 있는데, 여기서
Figure 112013089079067-pat00051
이고,
여기서,
Figure 112013089079067-pat00052
는 지지 엘리먼트에 대응하는 픽셀에 맵핑된 변환된 포인트의 카메라 시스템으로부터의 최단거리이고;
Figure 112013089079067-pat00053
는 윈도우의 폭이고;
Figure 112013089079067-pat00054
은 일정한 관점 조절 가중치(constant perspective adjustment weight)이다.
만일 새로운 깊이값이 선택된 범위 내에 있지 않으면, 프로세스는 상술한 바와 같은 동작 1410으로 넘어간다. 이러한 방식에 있어서, 윈도우가 중심에 위치한 엘리먼트에 대응하는 데이터 벡터에 새로운 깊이값이 추가되지 않는다. 오히려, 이 데이터 벡터에서의 깊이값은 널(null)로 유지된다. 하지만, 만일 새로운 깊이값이 선택된 범위 내에 존재하면, 윈도우가 중심에 위치한 엘리먼트와 연관이 있는 데이터 벡터에 새로운 깊이값이 추가된다(동작 1430). 이후, 프로세스는 상술한 바오 같은 동작 1410로 넘어간다.
이제, 도 15를 참조하면, 포인트 클라우드를 위해 새로운 포인트들을 생성하기 위한 프로세스의 흐름도 형태의 도면이 예시적인 예에 따라서 도시된다. 도 15에 도시된 프로세스는 도 14의 동작 1416을 구현하기 위해 이용될 수 있다.
본 프로세스는 융합 데이터 어레이에서의 매칭되지 않은 엘리먼트들의 적어도 일부를 위해 생성된 새로운 깊이값들을 비정규화함(denormalizing)으로써 시작된다(동작 1500). 이러한 새로운 깊이값들의 각각은 포인트 클라우드을 위한 새로운 포인트를 생성하기 위해 이용된다. 새로운 깊이값들은 다음과 같이 비정규화될 수 있다:
Figure 112013089079067-pat00055
여기서,
Figure 112013089079067-pat00056
는 비정규화된(denormalized) 깊이값이다.
새로운 깊이값들이 생성된 데이터 백터들에서의 픽셀 위치들 및 비정규화된 깊이값들을 이용해서 포인트 클라우드들을 위한 새로운 포인트들에 대해 카메라-중심의 좌표들이 생성된다(동작 1502). 카메라-중심의 좌표들은 다음과 같이 생성된다:
Figure 112013089079067-pat00057
,
Figure 112013089079067-pat00058
, 및
Figure 112013089079067-pat00059
.
그 후에, 카메라-중심의 좌표들을 이용해서 원본 포인트 클라우드의 3차원의 레퍼런스 좌표계에서의 새로운 포인트들에 대한 포인트 위치들이 식별되고(동작 1504), 그 후에 프로세스는 종료된다. 3차원의 레퍼런스 좌표계에서의 포인트 위치들은 동작 1200에서 사용된 변환 알고리즘의 역을 이용해서 식별된다. 예를 들어, 포인트 위치들은 다음과 같이 식별될 수 있다:
Figure 112013089079067-pat00060
여기서,
Figure 112013089079067-pat00061
은 3차원의 레퍼런스 좌표계에서의 포인트 클라우드에 추가될 새로운 포인트에 대한 좌표들이고,
Figure 112013089079067-pat00062
는 3차원의 카메라-중심의 좌표계에서의 새로운 포인트에 대한 카메라-중심의 좌표들이다.
상이한 도시된 실시 예들에서의 흐름도들은 예시적인 실시 예들에서 설명된 시스템 및 방법의 임의의 가능한 구현들의 아키텍처, 기능, 및 동작을 도시한다. 이와 관련하여, 흐름도들에서의 각각의 블록은 동작 또는 단계의 모듈(module), 세그먼트(segment), 기능(function) 및/또는 일부를 나타낼 수 있다. 예를 들어, 하나 이상의 블록들은 소프트웨어, 하드웨어, 또는 둘의 조합을 이용해서 구현될 수 있다. 하드웨어는, 예컨대, 흐름도들에서의 하나 이상의 동작들을 수행하도록 제조되거나 구성된 집적 회로의 형태를 취할 수 있다.
예시적인 실시 예의 몇몇 대안적인 구현들에서, 블록들에서 언급된 기능 또는 기능들은 도면들에서 언급된 순서와 다르게 발생할 수 있다. 예를 들어, 몇몇 경우들에 있어서, 연속적으로 도시된 두 개의 블록들은 실질적으로 동시에 수행될 수 있고, 또는 블록들은 구체적인 구현에 따라서 반대 순서로 수행될 수 있다. 또한, 다른 블록들이 흐름도들에 도시된 블록도들에 추가될 수 있다.
이제, 도 16을 참조하면, 블록도 형태의 데이터 처리 시스템의 도면이 예시적인 실시 예에 따라서 도시된다. 데이터 처리 시스템(1600)은 도 1의 컴퓨터 시스템(104)에서의 하나 이상의 컴퓨터들을 구현하기 위해 이용될 수 있다. 나아가, 도 1의 융합 관리기(142), 깊이값 생성기(144), 및/또는 포인트 클라우드 관리기(145)는 데이터 처리 시스템(1600)을 이용해서 구현될 수 있다. 더욱 나아가, 데이터 처리 시스템(1600)과 유사한 데이터 처리 시스템은 도 1의 제1 센서 시스템(106) 및/또는 제2 센서 시스템(108) 내에서 구현될 수 있다.
도시된 바와 같이, 데이터 처리 시스템(1600)은 통신 프레임워크(communications framework)(1602)를 포함하는데, 이것은 프로세서 유닛(processor unit, 1604), 저장 장치들(storage devices, 1606), 통신 유닛(communications unit, 1608), 입력/출력 유닛(input/output unit, 1610), 및 디스플레이(display, 1612) 사이에서 통신을 제공한다. 몇몇 경우들에 있어서, 통신 프레임워크(1602)는 버스(bus) 시스템으로 구현될 수 있다.
프로세서 유닛(1604)은 소프트웨어가 다수의 동작들을 수행하도록 하는 명령어들을 실행하도록 구성된다. 프로세서 유닛(1604)은 구현에 따라서 다수의 프로세서들, 멀티-프로세서 코어(multi-processor core), 및/또는 임의의 다른 타입의 프로세서를 포함할 수 있다. 몇몇 경우들에 있어서, 프로세서 유닛(1604)은 회로 시스템, ASIC(application specific integrated circuit), 프로그래머블 로직 디바이스(programmable logic device), 또는 임의의 다른 적절한 타입의 하드웨어 유닛과 같은 하드웨어 유닛의 형태를 취할 수 있다.
프로세서 유닛(1604)에 의해 실행되는 운영 시스템, 애플리케이션들, 및/또는 프로그램들을 위한 명령어는 저장 장치들(1606)에 위치해 있을 수 있다. 저장 장치들(1606)은 통신 프레임워크(1602)를 통해서 프로세서 유닛(1604)과 통신할 수 있다. 본 명세서에서 사용될 때, 컴퓨터 판독가능 저장 장치로도 지칭되는 저장 장치는 임시적(temporary) 및/또는 영구적(permanent) 기반으로 정보를 저장할 수 있는 임의의 하드웨어 부품이다. 이러한 정보는 데이터, 프로그램 코드, 및/또는 다른 정보를 포함할 수 있되, 이에 한정되지 않는다.
메모리(1614) 및 영구 스토리지(1616)는 저장 장치들(1606)의 예들이다. 메모리(1614)는, 예컨대, RAM(random access memory) 또는 임의의 타입의 휘발성(volatile) 또는 비휘발성(non-volatile) 저장 장치의 형태를 취할 수 있다. 영구 스토리지(1616)는 임의의 수의 구성요소들 또는 장치들을 포함할 수 있다. 예를 들어, 영구 스토리지(1616)는 하드 드라이브, 플래시 메모리, 재기록가능(rewritable) 광학적 디스크, 재기록가능 자기 테이프, 또는 이들의 몇몇 조합을 포함할 수 있다. 영구 스토리지(1616)에 의해 사용되는 매체는 착탈가능할(removable) 수도 있고 착탈가능하지 않을 수도 있다.
통신 유닛(1608)은 데이터 처리 시스템(1600)이 다른 데이터 처리 시스템들 및/또는 장치들과 통신하는 것을 가능하게 한다. 통신 유닛(1608)은 물리적인 및/또는 무선의 통신 링크들을 이용해서 통신을 제공할 수 있다.
입력/출력 유닛(1610)은 데이터 처리 시스템(1600)에 연결된 다른 장치들로부터 입력이 수신되고 다른 장치들로 출력이 송신되는 것을 가능하게 한다. 예를 들어, 입력/출력 유닛(1610)은 키보드, 마우스, 및/또는 임의의 다른 타입의 입력 장치를 통해서 사용자 입력이 수신되는 것을 가능하게 할 수 있다. 다른 예로서, 입력/출력 유닛(1610)은 데이터 처리 시스템(1600)에 연결된 프린터로 출력이 송신되는 것을 가능하게 할 수 있다.
디스플레이(1612)는 사용자에게 정보를 디스플레이하도록 구성된다. 디스플레이(1612)는, 예컨대, 제한 없이, 모니터, 터치 스크린, 레이저 디스플레이(laser display), 홀로그래픽(holographic display), 버추얼 디스플레이(virtual display) 장치, 및/또는 임의의 다른 타입의 디스플레이 장치를 포함할 수 있다.
이 예시적인 예에서, 상이한 예시적인 실시 예들의 프로세스들은 컴퓨터로 구현되는 명령어들을 이용해서 프로세서 유닛(1604)에 의해 수행될 수 있다. 이 명령어들은 프로그램 코드, 컴퓨터 이용가능 프로그램 코드, 또는 컴퓨터 판독가능 프로그램 코드로 지칭될 수 있고, 프로세서 유닛(1604) 내의 하나 이상의 프로세서들에 의해 판독되고 실행될 수 있다.
이 예들에서, 프로그램 코드(1618)는, 선택적으로 착탈가능한 컴퓨터 판독가능 매체(1620) 상에서 함수의 형태로 위치하고, 프로세서 유닛(1604)에 의한 실행을 위해 데이터 처리 시스템(1600)으로 로딩되거나(loaded) 전송될 수 있다. 프로그램 코드(1618) 및 컴퓨터 판독가능 매체(1620)는 함께 컴퓨터 프로그램 제품(1622)을 형성한다. 이 예시적인 예에서, 컴퓨터 판독가능 매체(1620)는 컴퓨터 판독가능 저장 매체(1624) 또는 컴퓨터 판독가능 신호 매체(1626)일 수 있다.
컴퓨터 판독가능 저장 매체(1624)는 프로그램 코드(1618)를 전파하거나(propagate) 전송하는 매체라기보다는 프로그램 코드(1618)를 저장하기 위해 이용되는 물리적인 또는 유형의(tangible) 저장 장치이다. 컴퓨터 판독가능 저장 매체(1624)는, 예컨대, 제한 없이, 데이터 처리 시스템(1600)에 연결된 영구 저장 장치 또는 광학 또는 자기 디스크일 있다.
이와 달리, 프로그램 코드(1618)는 컴퓨터 판독가능 신호 매체(1626)를 이용해서 데이터 처리 시스템(1600)으로 전송될 수 있다. 컴퓨터 판독가능 신호 매체(1626)는, 예컨대, 프로그램 코드(1618)를 포함하는 전파되는(propagated) 데이터 신호일 수 있다. 이 데이터 신호는 전자기 신호, 광학적 신호, 및/또는 물리적인 및/또는 유선의 통신 링크들을 통해서 전송될 수 있는 임의의 다른 타입의 신호일 수 있다.
도 16의 데이터 처리 시스템(1600)의 도면은 예시적인 실시 예들이 구현될 수 있는 방식에 대한 구조적 제한을 제공하려고 의도된 것이 아니다. 상이한 예시적인 실시 예들은 데이터 처리 시스템(1600)을 위해 도시된 것들에 부가하여 또는 대신하여 구성요소들을 포함하는 데이터 처리 시스템에서 구현될 수 있다. 나아가, 도 16에 도시된 구성요소들은 도시된 예시적인 예들로부터 변경될 수 있다.
예시적인 실시 예들은 프로그램 코드를 실행할 수 있는 임의의 하드웨어 또는 시스템을 이용해서 구현될 수 있다. 하나의 예시적인 예로서, 데이터 처리 시스템은 무기적(inorganic) 구성요소들과 통합된 유기적(organic) 구성요소들을 포함할 수 있고, 및/또는 인간을 제외한 유기적 구성요소들로 전부 이루어질 수 있다. 예를 들어, 저장 장치는 유기 반도체(organic semiconductor)로 이루어질 수 있다.
그래서, 예시적인 실시 예들은 포인트 클라우드에서 포인트들의 수를 증가시키기 위한 시스템 및 방법을 제공한다. 하나의 예시적인 실시 예에서, 동일한 장면의 2차원 이미지 및 포인트 클라우드가 수신된다. 변환된 포인트들을 형성하기 위해 포인트 클라우드에서의 포인트들의 적어도 일부가 2차원 이미지에 맵핑된다(mapped). 2차원 이미지 및 변환된 포인트들을 이용해서 융합 데이터 어레이가 생성된다. 융합 데이터 어레이를 이용해서 포인트 클라우드를 위한 새로운 포인트들이 식별된다. 새로운 포인트 클라우드를 형성하기 위해서 새로운 포인트들이 포인트 클라우드에 추가된다.
예시적인 실시 예들에 의해 설명된 이미지 처리 시스템을 이용해서 형성된 새로운 포인트 클라우드는 원본 포인트 클라우드와 비교해서 다수의 동작들이 더 높은 레벨의 정확성(accuracy) 및/또는 효율성(efficiency)을 가지고 수행되는 것을 가능하게 할 수 있다. 예를 들어, 물체 식별, 물체 분류, 세그먼테이션, 및/또는 다른 이미지 처리 동작들은 새로운 포인트 클라우드를 이용해서 원본 포인트 클라우드에 비해 더욱 정확하게 수행될 수 있다.
나아가, 새로운 포인트 클라우드에서 증가된 수의 새로운 포인트들은 원본 포인트 클라우드에 비하여 장면의 더 나은 시각화를 제공할 수 있다. 더욱 나아가, 새로운 포인트 클라우드는 원본 포인트 클라우드에 비하여 2차원 이미지를 더 우수하게 향상시키기 위하여 이용될 수 있다.
상이한 예시적인 실시 예들에 의해 설명된 이미지 처리 시스템은, 장면 내 물체들의 타입들에 대한 임의의 가정들, 장면 내 물체들의 형상들에 대한 임의의 가정들, 및/또는 장면의 배경에 대한 임의의 가정들을 만들지 않으면서, 증가된 수의 포인트들을 갖는 이러한 새로운 포인트 클라우드가 형성되는 것을 가능하게 한다. 이러한 방식에 있어서, 예시적인 실시 예들에 의해 제공되는 프로세스는 포인트 클라우드에서의 포인트들의 수를 증가시키기 위하여 장면에 대한 가정들을 만드는 프로세스에 비하여 장면을 더욱 정확하게 나타내는 새로운 포인트 클라우드를 형성할 수 있다.
상이한 예시적인 실시 예들의 설명이 도시 및 설명의 목적을 위해서 제시되었으며, 공개된 형태의 실시 예들로 한정 또는 제한하려는 의도는 아니다. 여러 가지 변경들 및 변형들이 당해 기술분야의 통상의 기술자들에게 명백할 것이다. 나아가, 상이한 예시적인 실시 예들은 다른 예시적인 실시 예들과 비교하여 상이한 특징들을 제공할 수 있다. 선택된 실시 예 또는 실시 예들은 실시 예들의 원리와 실용적인 애플리케이션을 가장 잘 설명하기 위하여 선택 및 설명되었고, 당해 기술분야의 통상의 기술자들이 심사숙고된 특정 사용에 적합한 다양한 변경들을 가진 다양한 실시 예들에 대해서 본 공개를 이해하는 것을 가능하게 한다.

Claims (15)

  1. 이미지 처리 시스템(102)을 포함하는 장치로서,
    이미지 처리 시스템(102)은:
    카메라 시스템(118)으로부터 장면(scene)(110)의 2차원 이미지(121)를 수신하도록 구성되고;
    제1 해상도를 갖는 장면(110)의 포인트 클라우드(point cloud)(132)에서의 제1 포인트들(134)의 적어도 일부를 위한 포인트 위치들을 장면(110)의 2차원 이미지(121)의 이미지 평면 내의 픽셀 위치들에 맵핑(map)하도록 구성되고;
    2차원 이미지(121) 및 제2 포인트들(146)을 이용해서 융합 데이터 어레이(fused data array)(150)를 생성하도록 구성되고, ― 제2 포인트들(146)의 각각은 제1 포인트들(134)의 적어도 일부를 위한 포인트 위치들이 맵핑된 2차원 이미지(121)의 이미지 평면 내의 픽셀 위치에서의 픽셀에 대응하는 포인트이고, 제2 포인트들(146)의 각각의 포인트는 2차원 이미지(121)에서의 픽셀 및 융합 데이터 어레이(150)에서의 매칭된 엘리먼트에 대응함 ―;
    상기 매칭된 엘리먼트에 대해 생성된 양호도 점수를 이용해서 복수의 지지 엘리먼트(support element)들(500)을 선택하도록 구성되고, ― 상기 양호도 점수는 상기 매칭된 엘리먼트에 대응하는 픽셀(122)에 맵핑된 제2 포인트들(146)의 카메라 시스템(118)으로부터의 거리, 상기 매칭된 엘리먼트와 연관된 데이터 벡터에서의 깊이값, 및 상기 매칭된 엘리먼트의 다른 매칭된 엘리먼트들에 대한 비유사도의 조합을 기초로 하여 계산되고, 상기 양호도 점수는 상기 비유사도가 증가함에 따라서 증가함 ―;
    융합 데이터 어레이(150) 및 복수의 지지 엘리먼트들(500)을 이용해서 포인트 클라우드(132)를 위한 새로운 포인트들(164)을 식별하도록 구성되고;
    새로운 포인트 클라우드(162)를 형성하기 위하여 새로운 포인트들(164)을 포인트 클라우드(132)에 추가하도록 구성되고, ― 새로운 포인트 클라우드(162)는 상기 제1 해상도보다 큰 제2 해상도를 가짐 ―;
    새로운 포인트 클라우드(162)를 이용하여 장면(110)에서 물체를 식별하도록 구성된;
    것을 특징으로 하는 이미지 처리 시스템(102)을 포함하는 장치.
  2. 청구항 1에 있어서,
    이미지 처리 시스템(102)은 융합 관리기(fusion manager)(142)를 포함하고,
    융합 관리기(142)는:
    포인트 클라우드(132)에서의 제1 포인트들의 적어도 일부를 위한 포인트 위치들을 2차원 이미지(121)의 이미지 평면 내의 픽셀 위치들에 맵핑하도록 구성되고, 2차원 이미지(121) 및 제2 포인트들(146)을 이용해서 융합 데이터 어레이(150)를 생성하도록 구성되는 것을 특징으로 하는 장치.
  3. 청구항 2에 있어서,
    융합 데이터 어레이(150)는 논-널(non-null) 깊이값들을 포함하는 채워져 있는(filled) 데이터 백터들(154)과 연관이 있는 매칭된(matched) 엘리먼트들(304, 306, 308, 310, 312, 314, 316) 및 널(null) 깊이값들을 포함하는 비어 있는(unfilled) 데이터 백터들(154)과 연관이 있는 매칭되지 않은(unmatched) 엘리먼트들을 포함하는 것을 특징으로 하는 장치.
  4. 청구항 3에 있어서,
    이미지 처리 시스템(102)은:
    널(null) 깊이값들의 적어도 일부를 교체하기 위하여 새로운 깊이값들(158)을 식별하도록 구성된 깊이값 생성기(depth value generator)(144)를 더 포함하는 것을 특징으로 하는 장치.
  5. 청구항 4에 있어서,
    이미지 처리 시스템(102)은:
    새로운 깊이값들(158)을 이용해서 포인트 클라우드(132)를 위한 새로운 포인트들(164)을 이용하도록 구성된 포인트 클라우드 관리기(145)를 더 포함하는 것을 특징으로 하는 장치.
  6. 청구항 5에 있어서,
    포인트 클라우드 관리기(145)는 새로운 포인트 클라우드(162)를 형성하기 위하여 새로운 포인트들(164)을 포인트 클라우드(132)에 추가하도록 추가로 구성되는 것을 특징으로 하는 장치.
  7. 청구항 1에 있어서,
    융합 데이터 어레이(150)는 엘리먼트들(152)로 이루어지고, 엘리먼트들(152)의 각각은 픽셀 위치(157), 깊이값, 및 원본 픽셀 데이터(159) 중의 적어도 하나를 포함하는 데이터 벡터(154)와 연관이 있는 것을 특징으로 하는 장치.
  8. 청구항 1에 있어서,
    2차원 이미지(121)를 생성하도록 구성된 제1 센서 시스템; 및
    포인트 클라우드(132)를 생성하도록 구성된 제2 센서 시스템을 더 포함하는 것을 특징으로 하는 장치.
  9. 청구항 8에 있어서,
    제1 센서 시스템은 카메라 시스템이고, 제2 센서 시스템은 광 검출 및 레인징 시스템(light detection and ranging system)인 것을 특징으로 하는 장치.
  10. 청구항 9에 있어서,
    이미지 처리 시스템(102)은 카메라 시스템에 대한 포즈 정보(pose information)를 이용해서 포인트 클라우드(132)에서의 포인트들의 적어도 일부를 2차원 이미지(121)로 맵핑하도록 구성되는 것을 특징으로 하는 장치.
  11. 융합 관리기(142), 깊이값 생성기(144), 및 포인트 클라우드 관리기(145)를 포함하는 이미지 처리 시스템(102)으로서,
    융합 관리기(142)는:
    카메라 시스템(118)으로부터 장면(110)의 2차원 이미지(121)를 수신하도록 구성되고;
    제1 해상도를 갖는 장면(110)의 포인트 클라우드(132)에서의 제1 포인트들(134)의 적어도 일부를 위한 포인트 위치들을 장면(110)의 2차원 이미지(121)의 이미지 평면 내의 픽셀 위치들에 맵핑하도록 구성되고;
    2차원 이미지(121) 및 제2 포인트들(146)을 이용해서 융합 데이터 어레이(150)를 생성하도록 구성되고, ― 제2 포인트들(146)의 각각은 제1 포인트들(134)의 적어도 일부를 위한 포인트 위치들이 맵핑된 2차원 이미지(121)의 이미지 평면 내의 픽셀 위치에서의 픽셀에 대응하는 포인트이고, 제2 포인트들(146)의 각각의 포인트는 2차원 이미지(121)에서의 픽셀 및 융합 데이터 어레이(150)에서의 매칭된 엘리먼트에 대응함 ―;
    깊이값 생성기(144)는:
    상기 매칭된 엘리먼트에 대해 생성된 양호도 점수를 이용해서 복수의 지지 엘리먼트들(500)을 선택하도록 구성되고, ― 상기 양호도 점수는 상기 매칭된 엘리먼트에 대응하는 픽셀(122)에 맵핑된 제2 포인트들(146)의 카메라 시스템(118)으로부터의 거리, 상기 매칭된 엘리먼트와 연관된 데이터 벡터에서의 깊이값, 및 상기 매칭된 엘리먼트의 다른 매칭된 엘리먼트들에 대한 비유사도의 조합을 기초로 하여 계산되고, 상기 양호도 점수는 상기 비유사도가 증가함에 따라서 증가함 ―;
    널(null) 깊이값들의 적어도 일부를 교체하기 위하여 새로운 깊이값들(158)을 식별하도록 구성되고;
    포인트 클라우드 관리기(145)는:
    새로운 깊이값들(158) 및 복수의 지지 엘리먼트들(500)을 이용해서 포인트 클라우드(132)를 위한 새로운 포인트들(164)을 식별하도록 구성되고;
    새로운 포인트 클라우드(162)를 형성하기 위하여 새로운 포인트들(164)을 포인트 클라우드(132)에 추가하도록 구성되고, ― 새로운 포인트 클라우드(162)는 상기 제1 해상도보다 큰 제2 해상도를 가짐 ―;
    새로운 포인트 클라우드(162)를 이용하여 장면(110)에서 물체를 식별하도록 구성되고;
    융합 데이터 어레이(150)는 논-널(non-null) 깊이값들을 포함하는 채워져 있는 데이터 백터들(154)과 연관이 있는 매칭된 엘리먼트들(304, 306, 308, 310, 312, 314, 316) 및 널(null) 깊이값들을 포함하는 비어 있는 데이터 백터들(154)과 연관이 있는 매칭되지 않은 엘리먼트들을 포함하는 것을 특징으로 하는 이미지 처리 시스템(102).
  12. 포인트 클라우드(132)에서 포인트들의 수를 증가시키기 위한 컴퓨터로 구현되는 방법으로서, 상기 컴퓨터로 구현되는 방법은:
    카메라 시스템(118)으로부터 장면(110)의 2차원 이미지(121)를 수신하는 단계;
    제1 해상도를 갖는 장면(110)의 포인트 클라우드(132)에서의 제1 포인트들의 적어도 일부를 위한 포인트 위치들을 2차원 이미지(121)의 이미지 평면 내의 픽셀 위치들에 맵핑하는 단계;
    2차원 이미지(121) 및 제2 포인트들(146)을 이용해서 융합 데이터 어레이(150)를 생성하는 단계, ― 제2 포인트들(146)의 각각은 제1 포인트들(134)의 적어도 일부를 위한 포인트 위치들이 맵핑된 2차원 이미지(121)의 이미지 평면 내의 픽셀 위치에서의 픽셀에 대응하는 포인트이고, 제2 포인트들(146)의 각각의 포인트는 2차원 이미지(121)에서의 픽셀 및 융합 데이터 어레이(150)에서의 매칭된 엘리먼트에 대응함 ―;
    상기 매칭된 엘리먼트에 대해 생성된 양호도 점수를 이용해서 복수의 지지 엘리먼트들(500)을 선택하는 단계, ― 상기 양호도 점수는 상기 매칭된 엘리먼트에 대응하는 픽셀(122)에 맵핑된 제2 포인트들(146)의 카메라 시스템(118)으로부터의 거리, 상기 매칭된 엘리먼트와 연관된 데이터 벡터에서의 깊이값, 및 상기 매칭된 엘리먼트의 다른 매칭된 엘리먼트들에 대한 비유사도의 조합을 기초로 하여 계산되고, 상기 양호도 점수는 상기 비유사도가 증가함에 따라서 증가함 ―;
    융합 데이터 어레이(150) 및 복수의 지지 엘리먼트들(500)을 이용해서 포인트 클라우드(132)를 위한 새로운 포인트들(164)을 식별하는 단계;
    새로운 포인트 클라우드(162)를 형성하기 위하여 새로운 포인트들(164)을 포인트 클라우드(132)에 추가하는 단계, ― 새로운 포인트 클라우드(162)는 상기 제1 해상도보다 큰 제2 해상도를 가짐 ―; 및
    새로운 포인트 클라우드(162)를 이용하여 장면(110)에서 물체를 식별하는 단계;를 포함하는 것을 특징으로 하는 포인트 클라우드(132)에서 포인트들의 수를 증가시키기 위한 컴퓨터로 구현되는 방법.
  13. 청구항 12에 있어서,
    포인트 클라우드(132)에서의 제1 포인트들의 적어도 일부를 위한 포인트 위치들을 2차원 이미지(121)의 이미지 평면 내의 픽셀 위치들에 맵핑하는 단계는:
    카메라 시스템에 대한 포즈 정보를 식별하는 단계;
    포인트 클라우드(132)에서의 포인트들에 대한 카메라-중심의 좌표들을 식별하기 위하여 상기 포즈 정보를 이용해서 포인트 클라우드(132)에 대한 3차원의 레퍼런스(reference) 좌표계를 3차원의 카메라-중심의(camera-centric) 좌표계로 변환하는 단계; 및
    카메라-중심의 좌표들을 갖는 포인트 클라우드(132)에서의 제1 포인트들의 적어도 일부를 위한 포인트 위치들을 2차원 이미지(121)의 이미지 평면 내의 픽셀 위치들(124)에 맵핑하는 단계;를 포함하는 것을 특징으로 하는 포인트 클라우드(132)에서 포인트들의 수를 증가시키기 위한 컴퓨터로 구현되는 방법.
  14. 청구항 12에 있어서,
    2차원 이미지(121) 및 제2 포인트들(146)을 이용해서 융합 데이터 어레이(150)를 생성하는 단계는:
    융합 데이터 어레이(150)를 형성하는 단계; 및
    융합 데이터 어레이(150)에서의 엘리먼트들(152)과 데이터 백터들(154)을 연관시키는(associating) 단계;를 포함하고,
    융합 데이터 어레이(150)는 2차원 이미지(121)에서의 픽셀들과 일대일 대응관계를 갖는 엘리먼트들(152)로 이루어지고,
    데이터 백터들(154)은 논-널(non-null) 깊이값들을 포함하는 채워져 있는 데이터 백터들(154) 및 널(null) 깊이값들을 포함하는 비어 있는 데이터 백터들(154)을 포함하는 것을 특징으로 하는 포인트 클라우드(132)에서 포인트들의 수를 증가시키기 위한 컴퓨터로 구현되는 방법.
  15. 청구항 14에 있어서,
    융합 데이터 어레이(150)를 이용해서 포인트 클라우드(132)를 위한 새로운 포인트들(164)을 식별하는 단계는:
    널(null) 깊이값들의 적어도 일부를 교체하기 위하여 새로운 깊이값들(158)을 생성하는 단계; 및
    새로운 깊이값들(158)을 이용해서 포인트 클라우드(132)를 위한 새로운 포인트들(164)을 식별하는 단계;를 포함하는 것을 특징으로 하는 포인트 클라우드(132)에서 포인트들의 수를 증가시키기 위한 컴퓨터로 구현되는 방법.
KR1020130117208A 2012-11-09 2013-10-01 포인트 클라우드에서의 포인트 백필링 KR102096673B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/673,429 2012-11-09
US13/673,429 US9811880B2 (en) 2012-11-09 2012-11-09 Backfilling points in a point cloud

Publications (2)

Publication Number Publication Date
KR20140060454A KR20140060454A (ko) 2014-05-20
KR102096673B1 true KR102096673B1 (ko) 2020-04-03

Family

ID=49554009

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130117208A KR102096673B1 (ko) 2012-11-09 2013-10-01 포인트 클라우드에서의 포인트 백필링

Country Status (8)

Country Link
US (1) US9811880B2 (ko)
EP (1) EP2731075B1 (ko)
JP (1) JP5778237B2 (ko)
KR (1) KR102096673B1 (ko)
CN (1) CN103810744B (ko)
AU (1) AU2013227985B2 (ko)
BR (1) BR102013028714B1 (ko)
CA (1) CA2826534C (ko)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US20140363073A1 (en) * 2013-06-11 2014-12-11 Microsoft Corporation High-performance plane detection with depth camera data
CN105469447A (zh) * 2014-09-11 2016-04-06 富泰华工业(深圳)有限公司 点云边界直角边修补系统及方法
US10032311B1 (en) * 2014-09-29 2018-07-24 Rockwell Collins, Inc. Synthetic image enhancing system, device, and method
US9772405B2 (en) 2014-10-06 2017-09-26 The Boeing Company Backfilling clouds of 3D coordinates
FR3028988B1 (fr) * 2014-11-20 2018-01-19 Commissariat A L'energie Atomique Et Aux Energies Alternatives Procede et dispositif de filtrage adaptatif temps reel d'images de disparite ou de profondeur bruitees
CN105701861A (zh) * 2014-11-28 2016-06-22 富泰华工业(深圳)有限公司 点云采样方法及系统
CN104484895B (zh) * 2014-12-24 2018-11-20 天脉聚源(北京)科技有限公司 一种数据显示方法及装置
JP6902028B2 (ja) 2015-11-20 2021-07-14 マジック リープ, インコーポレイテッドMagic Leap,Inc. Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム
CN105427239B (zh) * 2015-12-05 2018-05-22 刘忠艳 一种二维点云匹配方法
US9972067B2 (en) 2016-10-11 2018-05-15 The Boeing Company System and method for upsampling of sparse point cloud for 3D registration
US10176589B2 (en) 2017-01-31 2019-01-08 Mitsubishi Electric Research Labroatories, Inc. Method and system for completing point clouds using planar segments
US10444506B2 (en) * 2017-04-03 2019-10-15 Microsoft Technology Licensing, Llc Mixed reality measurement with peripheral tool
EP3467782A1 (en) * 2017-10-06 2019-04-10 Thomson Licensing Method and device for generating points of a 3d scene
US10535138B2 (en) * 2017-11-21 2020-01-14 Zoox, Inc. Sensor data segmentation
US10816334B2 (en) 2017-12-04 2020-10-27 Microsoft Technology Licensing, Llc Augmented reality measurement and schematic system including tool having relatively movable fiducial markers
CN109978984A (zh) * 2017-12-27 2019-07-05 Tcl集团股份有限公司 人脸三维重建方法及终端设备
JPWO2019198523A1 (ja) * 2018-04-11 2021-05-13 ソニーグループ株式会社 画像処理装置および方法
KR102080997B1 (ko) * 2018-08-06 2020-02-24 현대건설주식회사 360카메라를 활용한 자동 실내진도점검시스템 및 점검방법
EP3623752A1 (de) * 2018-09-17 2020-03-18 Riegl Laser Measurement Systems GmbH Verfahren zum generieren einer orthogonalansicht eines objekts
US10614579B1 (en) 2018-10-10 2020-04-07 The Boeing Company Three dimensional model generation using heterogeneous 2D and 3D sensor fusion
KR102640235B1 (ko) * 2019-01-11 2024-02-23 삼성전자주식회사 3차원 데이터 부호화 방법 및 장치 및 3차원 데이터 복호화 방법 및 장치
US10346998B1 (en) * 2019-02-25 2019-07-09 Nurulize, Inc. Method of merging point clouds that identifies and retains preferred points
KR102343123B1 (ko) * 2019-10-04 2021-12-27 현대건설 주식회사 건설현장용 사진기반 데이터 추적관리 시스템 및 추적관리방법
DE102019134324A1 (de) * 2019-12-13 2021-06-17 Connaught Electronics Ltd. Ein Verfahren zum Messen der Topografie einer Umgebung
CN111161338B (zh) * 2019-12-26 2022-05-17 浙江大学 一种基于二维图像灰度进行深度预测的点云密度提升方法
CN111223145A (zh) * 2020-01-03 2020-06-02 上海有个机器人有限公司 数据处理方法、系统、服务装置及其存储介质
CN113362236B (zh) * 2020-03-05 2024-03-05 北京京东乾石科技有限公司 点云增强方法、点云增强装置、存储介质与电子设备
CN111815707A (zh) * 2020-07-03 2020-10-23 北京爱笔科技有限公司 点云确定方法、点云筛选方法、装置、计算机设备
CN111950658B (zh) * 2020-08-28 2024-02-09 南京大学 一种基于深度学习的LiDAR点云与光学影像先验级耦合分类方法
CN113344789B (zh) * 2021-06-29 2023-03-21 Oppo广东移动通信有限公司 图像拼接方法及装置、电子设备、计算机可读存储介质
CN113409227B (zh) * 2021-08-19 2021-11-30 深圳市信润富联数字科技有限公司 点云图修补方法、装置、电子设备和存储介质
CN114004871B (zh) * 2022-01-04 2022-04-15 山东大学 一种基于点云补全的点云配准方法及系统
CN115760855B (zh) * 2023-01-09 2023-05-23 中建科技集团有限公司 工件检查方法及相关设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070024620A1 (en) 2005-08-01 2007-02-01 Muller-Fischer Matthias H Method of generating surface defined by boundary of three-dimensional point cloud
US20070031064A1 (en) 2004-06-10 2007-02-08 Wenyi Zhao Method and apparatus for aligning video to three-dimensional point clouds
JP2009523552A (ja) 2006-01-20 2009-06-25 スリーエム イノベイティブ プロパティズ カンパニー 三次元データ取得の視覚化
KR101030763B1 (ko) 2010-10-01 2011-04-26 위재영 이미지 획득 유닛, 방법 및 연관된 제어 유닛
WO2012126500A1 (en) 2011-03-18 2012-09-27 C3 Technologies Ab 3d streets

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7363157B1 (en) 2005-02-10 2008-04-22 Sarnoff Corporation Method and apparatus for performing wide area terrain mapping
US20080112610A1 (en) 2006-11-14 2008-05-15 S2, Inc. System and method for 3d model generation
CN101377404B (zh) 2008-07-11 2010-04-14 北京航空航天大学 一种基于角度约束的空间圆姿态识别二义性消除方法
US8588547B2 (en) * 2008-08-05 2013-11-19 Pictometry International Corp. Cut-line steering methods for forming a mosaic image of a geographical area
US9582889B2 (en) * 2009-07-30 2017-02-28 Apple Inc. Depth mapping based on pattern matching and stereoscopic information
US8885890B2 (en) * 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
US20120056982A1 (en) * 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
CN102129708A (zh) 2010-12-10 2011-07-20 北京邮电大学 增强现实环境中快速多层次虚实遮挡处理方法
US8629901B2 (en) * 2011-05-19 2014-01-14 National Taiwan University System and method of revising depth of a 3D image pair
US9111444B2 (en) * 2012-10-31 2015-08-18 Raytheon Company Video and lidar target detection and tracking system and method for segmenting moving targets

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070031064A1 (en) 2004-06-10 2007-02-08 Wenyi Zhao Method and apparatus for aligning video to three-dimensional point clouds
US20070024620A1 (en) 2005-08-01 2007-02-01 Muller-Fischer Matthias H Method of generating surface defined by boundary of three-dimensional point cloud
JP2009523552A (ja) 2006-01-20 2009-06-25 スリーエム イノベイティブ プロパティズ カンパニー 三次元データ取得の視覚化
KR101030763B1 (ko) 2010-10-01 2011-04-26 위재영 이미지 획득 유닛, 방법 및 연관된 제어 유닛
WO2012126500A1 (en) 2011-03-18 2012-09-27 C3 Technologies Ab 3d streets

Also Published As

Publication number Publication date
JP5778237B2 (ja) 2015-09-16
CN103810744A (zh) 2014-05-21
EP2731075B1 (en) 2018-06-20
AU2013227985A1 (en) 2014-05-29
CN103810744B (zh) 2018-09-21
BR102013028714B1 (pt) 2022-02-01
BR102013028714A2 (pt) 2014-10-07
EP2731075A1 (en) 2014-05-14
US9811880B2 (en) 2017-11-07
US20140132733A1 (en) 2014-05-15
CA2826534A1 (en) 2014-05-09
CA2826534C (en) 2017-06-13
AU2013227985B2 (en) 2019-01-24
KR20140060454A (ko) 2014-05-20
JP2014096152A (ja) 2014-05-22

Similar Documents

Publication Publication Date Title
KR102096673B1 (ko) 포인트 클라우드에서의 포인트 백필링
CN110276829B (zh) 通过多尺度体素哈希处理的三维表示
CN112132972B (zh) 一种激光与图像数据融合的三维重建方法及系统
Jancosek et al. Exploiting visibility information in surface reconstruction to preserve weakly supported surfaces
US20150243080A1 (en) Visual localisation
US20190020861A1 (en) High-speed and tunable scene reconstruction systems and methods using stereo imagery
CN113192200B (zh) 一种基于空三并行计算算法的城市实景三维模型的构建方法
CN104715504A (zh) 一种鲁棒的大场景稠密三维重建方法
CN115035235A (zh) 三维重建方法及装置
CN114565916A (zh) 目标检测模型训练方法、目标检测方法以及电子设备
Shivakumar et al. Real time dense depth estimation by fusing stereo with sparse depth measurements
Gadasin et al. Reconstruction of a Three-Dimensional Scene from its Projections in Computer Vision Systems
Vázquez‐Delgado et al. Real‐time multi‐window stereo matching algorithm with fuzzy logic
CN104796624A (zh) 一种光场编辑传播方法
Fehrman et al. Depth mapping using a low-cost camera array
Cupec et al. Fast 2.5 D Mesh Segmentation to Approximately Convex Surfaces.
CN112002007A (zh) 基于空地影像的模型获取方法及装置、设备、存储介质
CN116246119A (zh) 3d目标检测方法、电子设备及存储介质
Ran et al. Normal estimation algorithm for point cloud using KD-Tree
Skuratovskyi et al. Outdoor mapping framework: from images to 3d model
Ko et al. Stereo matching using census transform of adaptive window sizes with gradient images
Ylimäki et al. Fast and accurate multi‐view reconstruction by multi‐stage prioritised matching
Zhu et al. Accurate disparity estimation in light field using ground control points
Xiao et al. Image completion using belief propagation based on planar priorities
Ding et al. Semantic segmentation of indoor 3d point cloud with slenet

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right