KR20190059594A - 디스패리티 추정 장치 및 방법 - Google Patents

디스패리티 추정 장치 및 방법 Download PDF

Info

Publication number
KR20190059594A
KR20190059594A KR1020170157352A KR20170157352A KR20190059594A KR 20190059594 A KR20190059594 A KR 20190059594A KR 1020170157352 A KR1020170157352 A KR 1020170157352A KR 20170157352 A KR20170157352 A KR 20170157352A KR 20190059594 A KR20190059594 A KR 20190059594A
Authority
KR
South Korea
Prior art keywords
disparity
image
patch
estimating
residual
Prior art date
Application number
KR1020170157352A
Other languages
English (en)
Other versions
KR102459853B1 (ko
Inventor
이원희
정경부
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020170157352A priority Critical patent/KR102459853B1/ko
Priority to US15/975,808 priority patent/US10929998B2/en
Priority to CN201810527546.0A priority patent/CN109829875B/zh
Priority to JP2018148377A priority patent/JP7134012B2/ja
Priority to EP18189033.6A priority patent/EP3489898A1/en
Publication of KR20190059594A publication Critical patent/KR20190059594A/ko
Application granted granted Critical
Publication of KR102459853B1 publication Critical patent/KR102459853B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

디스패리티 추정 장치 및 방법이 제공된다. 디스패리티 추정 장치는 제1 이미지 및 제2 이미지로부터 초기 디스패리티에 대응하는 제1 패치 및 제2 패치를 추출할 수 있고, 레지듀얼 모델에 기초하여 제1 패치 및 제2 패치로부터 초기 디스패리티에 대한 레지듀얼을 추정할 수 있다.

Description

디스패리티 추정 장치 및 방법{METHOD AND DEVICE TO ESTIMATE DISPARITY}
이하, 디스패리티 추정 장치 및 방법이 제공된다.
스테레오 매칭(stereo matching)은 2차원 영상으로부터 깊이 정보(depth information)를 얻는 여러 방법들 중 하나다. 스테레오 매칭은 두 장 혹은 그 이상의 영상에서 서로 대응점(correspondence points)을 검출하고, 영상 속 물체의 깊이를 예측한다. 스테레오 영상에는 서로 다른 시점에서 촬영된 동일한 물체가 존재하는데, 양안 시차의 특성에 따라 해당 물체가 카메라로부터 가까이 위치하는 경우에는 스테레오 영상의 영상들 사이에서 큰 변위 차이를 나타내고, 해당 물체가 카메라로부터 멀리 위치하는 경우에는 작은 변위 차이를 나타낸다. 이 때, 물체의 깊이는 한 시점의 영상 속 픽셀들과 다른 시점 영상에 있는 대응점들 사이의 거리 차이인 디스패리티(disparity)에 의해 결정된다. 디스패리티를 구할 수 있으면, 디스패리티에 기초하여 물체까지의 깊이(depth)를 계산할 수 있다.
일 실시예에 따른 프로세서에 의해 수행되는 디스패리티(disparity) 추정 방법은, 제1 이미지로부터 기준 픽셀(reference pixel)을 포함하는 제1 패치를 추출하는 단계; 제2 이미지로부터 상기 기준 픽셀에 대응하는 대상 픽셀을 포함하는 제2 패치를 추출하는 단계; 및 레지듀얼 모델(residual model)에 기초하여, 상기 제1 패치 및 상기 제2 패치로부터 상기 기준 픽셀 및 상기 대상 픽셀 간의 초기 디스패리티에 대한 레지듀얼(residual)을 추정하는 단계를 포함할 수 있다.
디스패리티 추정 방법은 상기 추정된 레지듀얼을 상기 초기 디스패리티에 보정함으로써, 최종 디스패리티를 결정하는 단계를 더 포함할 수 있다.
디스패리티 추정 방법은 상기 최종 디스패리티를 이용하여, 상기 제1 이미지 및 상기 제2 이미지의 각 픽셀에 대응하는 깊이를 계산하는 단계를 더 포함할 수 있다.
디스패리티 추정 방법은 상기 제1 이미지의 상기 기준 픽셀 및 상기 제2 이미지의 상기 대상 픽셀 간의 상기 초기 디스패리티를 추정하는 단계를 더 포함할 수 있다.
상기 초기 디스패리티를 추정하는 단계는, 상기 제2 이미지에서 검색 범위를 결정하는 단계; 상기 검색 범위에 포함된 픽셀들의 각각에 대응하는 후보 패치마다 상기 기준 픽셀을 포함하는 기준 패치를 비교하는 단계; 및 상기 후보 패치 및 상기 기준 패치 간의 비교 결과에 기초하여, 상기 제2 이미지로부터 상기 대상 픽셀을 결정하는 단계를 포함할 수 있다.
상기 레지듀얼을 추정하는 단계는, 특징 모델에 기초하여, 상기 제1 패치 및 상기 제2 패치로부터 특징 데이터를 산출하는 단계; 및 상기 레지듀얼 모델에 기초하여, 상기 특징 데이터로부터 상기 레지듀얼을 추정하는 단계를 포함할 수 있다.
디스패리티 추정 방법은 허위 디스패리티 검출 모델(false disparity detection model)에 기초하여, 상기 제1 패치 및 상기 제2 패치로부터 상기 초기 디스패리티의 허위 디스패리티 정보(false disparity information)를 추정하는 단계를 더 포함할 수 있다.
디스패리티 추정 방법은 상기 추정된 허위 디스패리티 정보에 기초하여, 상기 초기 디스패리티가 거짓(false)인 것으로 판단된 경우에 응답하여, 상기 초기 디스패리티를 배제(exclude)하는 단계를 더 포함할 수 있다.
디스패리티 추정 방법은 상기 초기 디스패리티를 정수 픽셀(integer pixel) 단위로 추정하는 단계를 더 포함하고, 상기 레지듀얼을 추정하는 단계는, 상기 레지듀얼을 서브 픽셀(sub pixel) 단위로 추정하는 단계를 포함할 수 있다.
상기 제1 패치를 추출하는 단계는, 상기 제1 이미지로부터 특징점(feature point)을 추출하는 단계; 및 상기 제1 이미지로부터 상기 특징점에 대응하는 픽셀을 상기 기준 픽셀로 결정하는 단계를 더 포함할 수 있다.
일 실시예에 따른 디스패리티 추정 장치는, 제1 이미지 및 제2 이미지를 획득하는 이미지 획득부; 및 상기 제1 이미지로부터 기준 픽셀(reference pixel)을 포함하는 제1 패치를 추출하고, 제2 이미지로부터 상기 기준 픽셀에 대응하는 대상 픽셀을 포함하는 제2 패치를 추출하며, 레지듀얼 모델(residual model)에 기초하여, 상기 제1 패치 및 상기 제2 패치로부터 상기 기준 픽셀 및 상기 대상 픽셀 간의 초기 디스패리티에 대한 레지듀얼(residual)을 추정하는 프로세서를 포함할 수 있다.
상기 프로세서는, 상기 추정된 레지듀얼을 상기 초기 디스패리티에 보정함으로써, 최종 디스패리티를 결정할 수 있다.
상기 프로세서는, 상기 최종 디스패리티를 이용하여, 상기 제1 이미지 및 상기 제2 이미지의 각 픽셀에 대응하는 깊이를 계산할 수 있다.
상기 프로세서는, 상기 제1 이미지의 상기 기준 픽셀 및 상기 제2 이미지의 상기 대상 픽셀 간의 상기 초기 디스패리티를 추정할 수 있다.
상기 프로세서는, 상기 제2 이미지에서 검색 범위를 결정하고, 상기 검색 범위에 포함된 픽셀들의 각각에 대응하는 후보 패치마다 상기 기준 픽셀을 포함하는 기준 패치를 비교하며, 상기 후보 패치 및 상기 기준 패치 간의 비교 결과에 기초하여, 상기 제2 이미지로부터 상기 대상 픽셀을 결정할 수 있다.
상기 프로세서는, 특징 모델에 기초하여, 상기 제1 패치 및 상기 제2 패치로부터 특징 데이터를 산출하고, 상기 레지듀얼 모델에 기초하여, 상기 특징 데이터로부터 상기 레지듀얼을 추정할 수 있다.
상기 프로세서는, 허위 디스패리티 검출 모델에 기초하여, 상기 제1 패치 및 상기 제2 패치로부터 상기 초기 디스패리티의 허위 디스패리티 정보를 추정할 수 있다.
상기 프로세서는, 상기 추정된 허위 디스패리티 정보에 기초하여, 상기 초기 디스패리티가 거짓인 것으로 판단된 경우에 응답하여, 상기 초기 디스패리티를 배제(exclude)할 수 있다.
상기 프로세서는, 상기 초기 디스패리티를 정수 픽셀(integer pixel) 단위로 추정하고, 상기 레지듀얼을 서브 픽셀(sub pixel) 단위로 추정할 수 있다.
도 1은 일 실시예에 따른 디스패리티 추정 장치의 개괄적인 구성을 도시한 블록도이다.
도 2는 일 실시예에 따른 디스패리티 추정 장치의 세부적인 구성을 도시한 블록도이다.
도 3은 일 실시예에 따른 디스패리티 추정 과정을 설명하는 도면이다.
도 4는 도 3에 도시된 과정에 더하여, 허위 디스패리티 정보를 산출하는 과정이 추가된 도면이다.
도 5는 일 실시예에 따른 레지듀얼 모델 및 허위 디스패리티 검출 모델의 트레이닝 과정을 설명하는 도면이다.
도 6은 일 실시예에 따른 디스패리티 추정 방법을 도시한 흐름도이다.
도 7은 일 실시예에 따라 보정된 디스패리티를 이용한 깊이 계산을 설명하는 도면이다.
도 8은 도 7에 설명된 깊이 계산에 허위 디스패리티 검출이 적용된 것을 설명하는 도면이다.
도 9는 일 실시예에 따른 디스패리티 추정 장치가 서브 픽셀 단위로 디스패리티를 추정하는 것을 설명하는 도면이다.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수 개의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 일 실시예에 따른 디스패리티 추정 장치의 개괄적인 구성을 도시한 블록도이다.
디스패리티 추정 장치(100)는 이미지 획득부(110) 및 프로세서(120)를 포함한다.
이미지 획득부(110)는 디스패리티 추정 장치(100)의 외부에 대한 이미지를 획득할 수 있다. 일 실시예에 따르면, 이미지 획득부(110)는 제1 이미지 및 제2 이미지를 획득할 수 있다. 예를 들어, 제1 이미지는 좌 이미지(left image)일 수 있고, 제2 이미지는 우 이미지(right image)일 수 있다. 다만, 이로 한정하는 것은 아니다.
프로세서(120)는 제1 이미지 및 제2 이미지 간의 초기 디스패리티(initial disparity)를 산출할 수 있고, 산출된 초기 디스패리티에 대한 레지듀얼을 추정할 수 있다.
본 명세서에서 디스패리티는 기준 이미지의 임의의 한 지점(예를 들어, 기준 픽셀)과 그에 대응하는 대상 이미지의 지점(예를 들어, 대상 픽셀) 간의 위치의 차이를 나타낼 수 있다. 예를 들어, 프로세서(120)는 기준 이미지로서 제1 이미지를 선택할 수 있고, 대상 이미지로서 제2 이미지를 선택할 수 있다. 기준 픽셀은 제1 이미지에서 디스패리티 보정을 위해 선택된 픽셀을 나타낼 수 있다. 대상 픽셀은 제2 이미지에서 기준 픽셀에 대응하는 것으로 선택된 픽셀을 나타낼 수 있다.
레지듀얼(residual)은 초기 디스패리티의 오차(error)를 추정한 값을 나타낼 수 있다. 예를 들어, 프로세서(120)는 초기 디스패리티에 레지듀얼을 합산함으로써, 최종 디스패리티를 산출할 수 있다.
도 2는 일 실시예에 따른 디스패리티 추정 장치의 세부적인 구성을 도시한 블록도이다.
디스패리티 추정 장치(200)는 도 2에 도시된 이미지 획득부(110) 및 프로세서(120)에 더하여, 메모리(230)를 더 포함할 수 있다.
이미지 획득부(110)는 도 1에서 설명한 바와 같은 동작을 수행할 수 있다. 예를 들어, 이미지 획득부(110)는 제1 카메라(211) 및 제2 카메라(212)를 포함할 수 있다. 제1 카메라(211) 및 제2 카메라(212)는 서로에 대해 일정 거리만큼 이격되어 배치될 수 있다. 제1 카메라(211)는 외부를 촬영하여 제1 이미지를 생성할 수 있고, 제2 카메라(212)는 제1 카메라(211)로부터 이격된 위치에서 외부를 촬영하여 제2 이미지를 생성할 수 있다. 예를 들어, 제1 카메라(211) 및 제2 카메라(212)가 수평 축을 따라 일정 거리만큼 이격되어 배치된 경우, 제1 카메라(211)는 좌 이미지(left image)를 생성할 수 있고, 제2 카메라(212)는 우 이미지(right image)를 생성할 수 있다. 다만, 이로 한정하는 것은 아니고, 예를 들어, 제1 카메라(211) 및 제2 카메라(212)가 세로축을 따라 이격되는 경우, 제1 이미지는 위쪽 이미지, 제2 이미지는 아래쪽 이미지일 수도 있다.
프로세서(120)는 제1 이미지로부터 기준 픽셀(reference pixel)을 포함하는 제1 패치를 추출하고, 제2 이미지로부터 기준 픽셀에 대응하는 대상 픽셀을 포함하는 제2 패치를 추출할 수 있다. 예를 들어, 프로세서(120)는 제1 이미지의 적어도 일부 영역을 사각 형태로 추출하여 제1 패치를 생성할 수 있다. 또한, 프로세서(120)는 제2 이미지의 적어도 일부 영역을 사각 형태로 추출하여 제2 패치를 생성할 수 있다. 제1 패치 및 제2 패치의 크기, 및 해상도 등은 동일할 수 있다.
본 명세서에서 패치는 전체 이미지로부터 크롭된 부분 이미지를 나타낼 수 있다. 예를 들어, 제1 패치는 제1 이미지로부터 크롭된 부분 이미지일 수 있고, 제2 패치는 제2 이미지로부터 크롭된 부분 이미지일 수 있다.
또한, 프로세서(120)는 레지듀얼 모델(residual model)에 기초하여, 제1 패치 및 제2 패치로부터 기준 픽셀 및 대상 픽셀 간의 초기 디스패리티에 대한 레지듀얼(residual)을 추정할 수 있다.
본 명세서에서 레지듀얼 모델은 두 이미지에 대해 추정된 초기 디스패리티에 대한 오차를 출력하기 위한 모델을 나타낼 수 있다. 예를 들어, 레지듀얼 모델은 기계학습(ML, machine learning)에 적용되는 모델일 수 있다. 레지듀얼 모델은 기계학습 구조의 파라미터를 포함할 수 있다. 기계학습 구조로서 뉴럴 네트워크가 사용되는 경우 레지듀얼 모델은 뉴럴 네트워크의 각 노드 간의 연결 가중치를 포함할 수 있다.
일 실시예에 따르면, 레지듀얼 모델은, 주어진 기계학습 구조에 대해, 기준 이미지 쌍(reference image pair)으로부터 추출된 기준 패치 쌍(reference patch pair)로부터 해당 기준 패치들에 대응하는 기준 레지듀얼(예를 들어, 기준 이미지 쌍에 대해 추정된 초기 디스패리티와 기준 디스패리티 간의 차이)이 출력되도록 트레이닝된 기계학습 구조(예를 들어, 뉴럴 네트워크)의 파라미터를 포함할 수 있다. 기준 디스패리티는 기준 이미지 쌍 사이의 실제 디스패리티일 수 있다. 기계학습 구조를 트레이닝시키기 위한 트레이닝 데이터(training data)는 상술한 기준 패치 쌍 및 기준 레지듀얼을 포함할 수 있다. 기준 레지듀얼은 기준 패치 쌍에 대해 참(ground truth)으로 주어진 레지듀얼일 수 있다. 다만, 레지듀얼 모델의 트레이닝을 이로 한정하는 것은 아니다. 단일 손실(loss) 함수를 이용하여 레지듀얼 모델을 허위 디스패리티 검출 모델과 함께 트레이닝시키는 과정은 하기 도 5에서 설명한다.
메모리(230)는 레지듀얼 모델을 저장할 수 있다. 또한, 메모리(230)는 레지듀얼 모델에 기초한 레지듀얼 추정을 수행하기 위해 요구되는 데이터를 임시적으로 저장할 수도 있다.
일 실시예에 따른 디스패리티 추정 장치(200)는 스테레오 카메라(예를 들어, 제1 카메라(211) 및 제2 카메라(212))로부터 획득한 제1 이미지 및 제2 이미지로부터 초기 디스패리티를 산출하고, 초기 디스패리티에 대한 레지듀얼을 추정 및 반영함으로써, 높은 정확도(high accuracy)를 가지는 최종 디스패리티를 결정할 수 있다. 디스패리티 추정 장치(200)는 레지듀얼 모델을 이용하여 레지듀얼을 추정함으로써, 영상의 특징을 고려하지 않고 손실 곡선(loss curve)에 피팅(fitting)하는 방법보다 더 정확한 최종 디스패리티를 결정할 수 있다.
도 3은 일 실시예에 따른 디스패리티 추정 과정을 설명하는 도면이다.
우선, 디스패리티 추정 장치의 프로세서는 이미지 획득부로부터 상술한 바와 같이 제1 이미지(301) 및 제2 이미지(302)를 수신할 수 있다. 본 명세서에서 편의상 제1 이미지(301)는 좌 이미지, 제2 이미지(302)는 우 이미지인 것으로 설명하나, 이로 한정하는 것은 아니다.
프로세서는 제1 이미지(301) 및 제2 이미지(302)로부터 초기 디스패리티를 추정할 수 있다. 제1 이미지(301) 및 제2 이미지(302) 간의 초기 디스패리티 추정은 스테레오 매칭(stereo matching)(310)이라고 나타낼 수 있다. 예를 들어, 스테레오 매칭은 대응점을 찾기 위해 픽셀의 세기(intensity), 색상(color) 등의 영상 정보를 비교하거나, 픽셀을 중심으로 한 패치의 세기, 색상 등의 영상 정보 등을 비교하는 동작을 나타낼 수 있다. 일 실시예에 따르면 프로세서는 MBM(multi-block-matching stereo) 방식으로 제1 이미지(301) 및 제2 이미지(302) 간의 초기 디스패리티를 추정할 수 있다. 예를 들어, 프로세서는 제1 이미지(301)의 기준 픽셀 및 제2 이미지(302)의 대상 픽셀 간의 초기 디스패리티를 추정할 수 있다.
우선, 프로세서는 제1 이미지(301)의 기준 픽셀을 포함하는 제1 패치(311)와 제2 이미지(302)의 검색 범위(312)를 비교함으로써 대상 픽셀을 포함하는 제2 패치(313)를 결정하고, 제1 패치(311) 및 제2 패치(313) 간의 위치 차이에 대응하는 초기 디스패리티를 추정할 수 있다. 여기서, 프로세서는 제1 이미지(301)에 나타나는 적어도 하나의 객체에 대응하는 픽셀에 대하여 초기 디스패리티를 추정할 수 있다. 예를 들어, 프로세서는 제1 이미지(301)로부터 특징점(feature point)을 추출할 수 있다. 특징점은 제1 이미지(301)의 특징을 나타내는 지점으로서, 제1 이미지(301)에 나타나는 객체(object)(예를 들어, 도 3에 도시된 차량)의 일부에 대응하는 픽셀일 수 있다. 프로세서는 제1 이미지(301)로부터 특징점에 대응하는 픽셀을 기준 픽셀로 결정할 수 있다. 예를 들어, 도 3에서 프로세서는 제1 이미지(301)에서 검출된 차량에 대응하는 객체 영역의 중심점을 특징점으로 추출할 수 있다. 다만, 이로 한정하는 것은 아니고, 프로세서는 제1 이미지(301)에서 객체 영역의 적어도 일부 지점 또는 모든 지점을 특징점으로 추출할 수도 있다.
그리고 프로세서는, 제2 이미지(302)에서 검색 범위(312)를 결정할 수 있다. 일 실시예에 따르면 프로세서는 제1 이미지(301)의 기준 픽셀을 포함하는 제1 패치(311)에 기초하여 검색 범위(312)를 결정할 수 있다. 예를 들어, 프로세서는 제2 이미지(302)로부터 제1 이미지(301)의 제1 패치(311)와 동일한 높이의 영역을 검색 범위(312)로 결정할 수 있다.
이어서, 프로세서는 검색 범위(312)에 포함된 후보 픽셀들의 각각에 대응하는 후보 패치마다 기준 픽셀을 포함하는 기준 패치를 비교할 수 있다. 예를 들어, 후보 픽셀은 제2 이미지(302)의 검색 범위(312) 내에서, 기준 픽셀과 동일한 높이를 가지는 픽셀일 수 있다. 도 3에서는 제2 이미지(302) 내에서 기준 픽셀과 동일한 높이를 가지는 일부 픽셀이 후보 픽셀로 결정되었으나, 기준 픽셀과 동일한 높이를 가지는 모든 픽셀이 후보 픽셀로 결정될 수도 있다. 후보 패치는 검색 범위(312)로부터 후보 픽셀을 중심 지점으로 크롭(crop)된 이미지를 나타낼 수 있다. 여기서, 기준 패치와 후보 패치의 크기 및 해상도는 동일할 수 있다. 본 명세서에서 기준 패치는 스테레오 매칭(310)의 기준이 되는 패치를 나타낼 수 있고, 후보 패치는 기준 패치와의 비교를 위해 선택된 패치를 나타낼 수 있다.
그리고 프로세서는 후보 패치 및 기준 패치 간의 비교 결과에 기초하여, 제2 이미지(302)로부터 대상 픽셀을 결정할 수 있다. 예를 들어, 프로세서는 각 후보 패치와 기준 패치를 비교하여 유사도(similarity level)를 산출할 수 있다. 프로세서는 검색 범위(312) 내에서 가장 높은 유사도를 가지는 후보 패치에 대응하는 픽셀(예를 들어, 해당 후보 패치의 중심 지점)을 대상 픽셀로 결정할 수 있다.
이후, 프로세서는 제1 이미지(301) 및 제2 이미지(302)의 각각으로부터 패치를 크롭(320)할 수 있다. 예를 들어, 프로세서는 제1 이미지(301)로부터 기준 픽셀을 포함하는 제1 패치(311)를 추출할 수 있다. 프로세서는 제2 이미지(302)로부터 대상 픽셀을 포함하는 제2 패치(313)를 추출할 수 있다.
프로세서는 레지듀얼 모델(330)을 이용하여, 제1 패치(311) 및 제2 패치(313)로부터 레지듀얼을 추정할 수 있다. 프로세서는 기준 패치 쌍(reference patch pair)으로부터 기준 레지듀얼(reference residual)을 출력하도록 트레이닝된 레지듀얼 모델(330)에 제1 패치(311) 및 제2 패치(313)를 입력할 수 있다. 프로세서는 제1 패치(311) 및 제2 패치(313)를 특징 데이터 형태로 레지듀얼 모델(330)에 입력함으로써, 레지듀얼 모델(330)에 기초하여, 특징 데이터로부터 레지듀얼을 추정할 수 있다. 프로세서는 예를 들어, 특징 모델에 기초하여, 제1 패치 및 제2 패치로부터 특징 데이터를 산출할 수 있다. 특징 모델은 하기 도 5에서 설명한다.
프로세서는 제1 패치(311) 및 제2 패치(313)를 해당 레지듀얼 모델(330)에 입력함으로써 서브 픽셀 단위의 레지듀얼을 출력할 수 있다. 서브 픽셀 단위는 하기 도 9에서 설명한다.
프로세서는 레지듀얼을 이용하여 초기 디스패리티를 보정(340)할 수 있다. 프로세서는 추정된 레지듀얼을 초기 디스패리티에 반영함으로써, 최종 디스패리티를 결정할 수 있다. 예를 들어, 프로세서는 초기 디스패리티에 레지듀얼을 가산(add)함으로써, 최종 디스패리티(309)를 산출할 수 있다.
도 4는 도 3에 도시된 과정에 더하여, 허위 디스패리티 정보를 산출하는 과정이 추가된 도면이다.
프로세서는 도 3에 도시된 바와 같이 최종 디스패리티(309)를 산출하는 한편, 제1 패치(311) 및 제2 패치(313)를 이용하여 허위 디스패리티 정보(408)를 추정할 수 있다.
일 실시예에 따르면, 프로세서는 허위 디스패리티 검출 모델(false disparity detection model)(450)에 기초하여, 제1 패치(311) 및 제2 패치(313)로부터 초기 디스패리티의 허위 디스패리티 정보(false disparity information)(408)를 추정할 수 있다. 허위 디스패리티 정보(408)는 초기 디스패리티의 거짓과 관련된 정보로서, 예를 들어, 초기 디스패리티가 거짓일 확률에 관한 정보일 수 있다.
허위 디스패리티 검출 모델(450)은 기준 패치 쌍(patch pair)로부터 기준 허위 디스패리티 정보(408)가 출력되도록 트레이닝된 모델일 수 있다. 기준 허위 디스패리티 정보(408)는 미리 생성된 정보로서, 기준 패치 쌍으로부터 산출된 초기 디스패리티가 거짓을 나타냈던 확률을 나타낼 수 있다.
프로세서는 추정된 허위 디스패리티 정보(408)에 기초하여, 초기 디스패리티가 거짓으로 판단된 경우에 응답하여, 초기 디스패리티를 배제(exclude)할 수 있다.
예를 들어, 프로세서는 추정된 허위 디스패리티 정보(408)가 임계 허위 정도(threshold false level)을 초과하는 경우에 응답하여, 초기 디스패리티를 배제할 수 있다. 임계 허위 정도는 거짓의 기준이 되는 정도(level)로서, 예를 들어, 초기 디스패리티가 거짓인 지 여부를 결정하는 기준이 되는 확률일 수 있다.
다른 예를 들어, 프로세서는 추정된 허위 디스패리티 정보(408)가 임계 허위 정도 이하인 경우에 응답하여, 초기 디스패리티에 기초한 레지듀얼 추정 동작을 계속할 수 있다.
도 5는 일 실시예에 따른 레지듀얼 모델 및 허위 디스패리티 검출 모델의 트레이닝 과정을 설명하는 도면이다.
일 실시예에 따르면 레지듀얼 모델(534) 및 허위 디스패리티 검출 모델(550)은 특징 모델들(531, 532)(예를 들어, 특징 추출 네트워크)을 공유하도록 다음과 같은 기계학습 구조로 설계될 수 있다.
우선, 프로세서는 입력되는 이미지 쌍(image pair)로부터 초기 디스패리티(Dinit)를 추정(510)하고, 초기 디스패리티(Dinit)에 기초하여 각 이미지로부터 패치를 크롭(520)할 수 있다.
프로세서는 크롭된 패치들의 각각으로부터 특징 모델들(531, 532)에 기초하여 특징 데이터를 추출할 수 있고, 추출된 특징 데이터들을 통합 모델(533)(예를 들어, concatenate network)에 기초하여 통합하여 통합 데이터(concatenated data)를 생성할 수 있다. 예를 들어, 특징 모델들(531, 532)은 패치로부터 저레벨 특징(low-level feature)을 추출하도록 트레이닝될 수 있다. 저레벨 특징은 예를 들어, 점, 선, 텍스쳐(texture), 색상(color) 등의 조합으로 표현되는 영상 특징 데이터를 나타낼 수 있다.
프로세서는 상술한 바와 같이 추출된 통합 데이터를 레지듀얼 모델(534) 및 허위 디스패리티 검출 모델(550)에 입력하여 각각 레지듀얼(
Figure pat00001
) 및 허위 디스패리티 정보(lfalse)를 산출할 수 있다.
트레이닝 장치는 상술한 바와 같이 구성된 기계학습 구조를 트레이닝시킬 수 있다. 예를 들어, 트레이닝 장치는 도 5에 도시된 기계학습 구조에 대해, 제1 기준 이미지(501) 및 제2 기준 이미지(502)(이하, 기준 이미지 쌍)으로부터 해당 기준 이미지들(501, 502)에 대응하는 기준 디스패리티(DGT)가 출력되도록 트레이닝시킬 수 있다. 트레이닝 장치는 특징 모델들(531, 532), 레지듀얼 모델(534), 및 허위 디스패리티 검출 모델(550)을 하나의 손실(509)(loss)로 트레이닝시킬 수 있다. 예를 들어, 제1 기준 이미지(501)에서 n개의 특징점이 추출된 경우, 트레이닝 장치는 손실(509) L을 하기 수학식 1 및 수학식 2와 같이 나타낼 수 있다. 여기서, n은 1이상의 정수일 수 있다.
[수학식 1]
Figure pat00002
[수학식 2]
Figure pat00003
여기서, Pi EST=(1-Prob(LFID))는 i번째 특징점에 대해 초기 디스패리티(Dinit)가 참(true)일 확률을 나타낼 수 있다. 여기서, i는 1이상 n이하의 정수일 수 있다. CE는 크로스 엔트로피 손실(509)(cross-entropy loss)을 나타낼 수 있다.
Figure pat00004
는 상수이다. Di GT는 i번째 특징점에 대한 기준 디스패리티를 나타낼 수 있다. Di EST는 트레이닝 동안 임의의 사이클에서 i번째 특징점에 대해 초기 디스패리티(Dinit)가 레지듀얼(
Figure pat00005
)에 의해 보정된 디스패리티를 나타낼 수 있다. LGT는 기준 허위 디스패리티 정보일 수 있고, LEST는 트레이닝 동안 임의의 사이클에서 추정된 허위 디스패리티 정보일 수 있다.
초기 디스패리티(Dinit)가 참일 확률이 높을 때, 트레이닝 장치는 상술한 수학식 1의
Figure pat00006
에 기초하여, 기준 디스패리티(Di GT)와 보정된 디스패리티(Di EST)가 동일해지도록 특징 모델들(531, 532), 통합 모델(533), 레지듀얼 모델(534)을 트레이닝 시킬 수 있다. 또한, 초기 디스패리티(Dinit)가 거짓일 확률이 높을 때, 트레이닝 장치는
Figure pat00007
에 기초하여, 디스패리티(Di EST)를 트레이닝으로부터 배제할 수 있다. 따라서, 트레이닝 장치는 초기 디스패리티(Dinit)가 참일 확률이 높은 경우에만 보정된 디스패리티(Di EST)를 트레이닝에 사용함으로써, 보정된 디스패리티(Di EST)와 기준 디스패리티(Di GT)가 비슷한 경우의 추정 오차(estimation error)를 감소시킬 수 있다.
한편, 트레이닝 장치는 크로스 엔트로피에 대응하는 수학식 1의
Figure pat00008
에 기초하여, 초기 디스패리티(Dinit)가 거짓일 확률을 출력하도록 허위 디스패리티 검출 모델(550)을 트레이닝시킬 수 있다.
또한, 트레이닝 장치는 두 손실(509), 예를 들어,
Figure pat00009
Figure pat00010
간에 값의 범위가 다른 점을 보정하기 위해
Figure pat00011
를 사용할 수 있다.
도 6은 일 실시예에 따른 디스패리티 추정 방법을 도시한 흐름도이다.
우선, 단계(610)에서 프로세서는 제1 이미지로부터 기준 픽셀을 포함하는 제1 패치를 추출할 수 있다. 일 실시예에 따르면, 프로세서는 제1 이미지로부터 특징점을 추출할 수 있고, 특징점에 대응하는 픽셀을 기준 픽셀로 결정할 수 있다. 특징점은 예를 들어, 제1 이미지에 나타나는 객체에 대응하는 영역의 적어도 일부일 수 있다.
그리고 단계(620)에서 프로세서는 제2 이미지로부터 기준 픽셀에 대응하는 대상 픽셀을 포함하는 제2 패치를 추출할 수 있다. 일 실시예에 따르면 프로세서는 스테레오 매칭을 통해 제1 이미지의 기준 픽셀에 대응하는 제2 이미지의 대상 픽셀을 결정할 수 있다. 또한, 프로세서는 대상 픽셀에 기초하여 제2 패치를 추출할 수 있다. 예를 들어, 프로세서는 대상 픽셀을 중심 지점으로 하여 제2 패치를 추출할 수 있다.
이어서 단계(630)에서 프로세서는 레지듀얼 모델에 기초하여, 제1 패치 및 제2 패치로부터 기준 픽셀 및 대상 픽셀 간의 초기 디스패리티에 대한 레지듀얼을 추정할 수 있다. 예를 들어, 프로세서는 제1 패치 및 제2 패치로부터 특징 데이터를 추출할 수 있고, 추출된 특징 데이터를 레지듀얼 모델에 입력함으로써 초기 디스패리티에 대한 레지듀얼을 출력할 수 있다.
도 7은 일 실시예에 따라 보정된 디스패리티를 이용한 깊이 계산을 설명하는 도면이다.
도 7에서는 제1 이미지를 좌영상(701), 제2 이미지를 우영상(702)으로 설명하였으나, 이로 한정하는 것은 아니다. 디스패리티 추정 장치에 포함된 카메라의 배열에 따라 설계가 변경될 수 있다.
우선, 단계(710)에서 디스패리티 추정 장치는 초기 디스패리티를 추정할 수 있다. 예를 들어, 디스패리티 추정 장치는 스테레오 카메라로 입력된 좌영상 및 우영상(702)을 이용해 스테레오 매칭을 수행할 수 있다. 이 때, 디스패리티 추정 장치는 데이터베이스(705)로부터 레지듀얼 모델을 로딩할 수 있다.
그리고 단계(720)에서 디스패리티 추정 장치는 초기 디스패리티에 기초하여 좌영상(701)으로부터 좌패치 및 우영상(702)으로부터 우패치를 크롭할 수 있다.
이어서 단계(730)에서 디스패리티 추정 장치는 레지듀얼 모델에 기초하여 좌패치 및 우패치로부터 서브 픽셀 단위로 레지듀얼을 추정할 수 있다. 레지듀얼 모델은 예를 들어, 딥 뉴럴 네트워크(deep neural network) 구조일 수 있다.
그리고 단계(740)에서 디스패리티 추정 장치는 레지듀얼을 이용하여 초기 디스패리티를 보정할 수 있다. 예를 들어, 디스패리티 추정 장치는 레지듀얼을 초기 디스패리티에 가산하여 최종 디스패리티를 산출할 수 있다.
이어서 단계(750)에서 디스패리티 추정 장치의 프로세서는, 최종 디스패리티를 이용하여, 제1 이미지 및 제2 이미지의 각 픽셀에 대응하는 깊이(709)를 계산할 수 있다.
일 실시예에 따르면 디스패리티 추정 장치는 좌영상(701)에서 특징점으로 추출된 모든 픽셀들에 대하여, 상술한 단계들(710 내지 750)을 반복할 수 있다. 디스패리티 추정 장치는 좌영상(701)에서 추출된 모든 픽셀들에 대한 깊이(709)를 계산할 수 있다. 계산된 깊이(709)는 좌영상(701) 및 우영상(702)에 나타난 객체를 3D 형태(3D shape)로 모델링하는데 사용될 수 있다.
도 8은 도 7에 설명된 깊이 계산에 허위 디스패리티 검출이 적용된 것을 설명하는 도면이다.
초기 디스패리티가 실제 디스패티리(ground truth disparity)와 유사한 경우, 도 7에서 디스패리티 추정 장치는 최종 디스패리티 및 깊이를 정확하게 산출할 수 있다. 다만, 초기 디스패리티가 실제 디스패리티와 큰 차이를 나타내는 경우, 레지듀얼 추정의 정확도가 감소될 수 있다. 이러한 정확도 감소를 방지하기 위해, 디스패리티 추정 장치는 초기 디스패리티와 실제 디스패리티 간의 차이를 고려하여, 초기 디스패리티에 대한 허위 디스패리티 정보(808)를 산출할 수 있다.
예를 들어, 단계(860)에서 디스패리티 추정 장치는 허위 디스패리티 검출 모델에 기초하여, 좌 패치 및 우 패치로부터 허위 디스패리티 정보(808)를 산출할 수 있다. 허위 디스패리티 검출 모델은 예를 들어, 뉴럴 네트워크 구조일 수 있다. 허위 디스패리티 정보(808)는 초기 디스패리티가 거짓일 확률을 나타내므로, 계산된 깊이(709)의 신뢰도(reliability level)에 대응할 수 있다. 더 나아가, 디스패리티 추정 장치는 허위 디스패리티 정보(808)가 임계 허위 정도를 초과하는 경우에 응답하여, 추정된 레지듀얼을 깊이 계산으로부터 배제할 수도 있다. 이 때, 좌영상(701) 및 우영상(702)이 연속된 프레임으로 구성되는 경우, 프로세서는 깊이 계산을 다음 프레임으로 유예할 수 있다.
도 9는 일 실시예에 따른 디스패리티 추정 장치가 서브 픽셀 단위로 디스패리티를 추정하는 것을 설명하는 도면이다.
디스패리티 추정 장치의 프로세서는, 초기 디스패리티를 정수 픽셀(integer pixel) 단위로 추정하고, 레지듀얼을 서브 픽셀(sub pixel) 단위로 추정할 수 있다. 본 명세서에서 정수 픽셀 단위는 픽셀 하나에 의해 정의되는 단위를 나타낼 수 있고, 서브 픽셀 단위는 픽셀보다 작은 단위로서, 예를 들어, 임의의 거리가 픽셀 하나에 대해 가지는 비율을 지시하는 실수일 수 있다.
예를 들어, 도 9는 설명의 편의를 위해 제1 이미지(901) 및 제2 이미지(902)를 각각 8 x 8개의 픽셀로 구성되는 것으로 도시하였다. 제1 이미지(901) 및 제2 이미지(902)에는 객체(951, 952)가 나타날 수 있다. 프로세서는 스테레오 매칭(910)에 의해 제1 이미지(901)의 기준 지점(911)과 제2 이미지(902) 간의 대상 지점(921) 간의 초기 디스패리티를 추정할 수 있다. 도 9에서 기준 지점(911) 및 대상 지점(921) 간의 초기 디스패리티는 정수 픽셀 단위인 1일 수 있다. 도 9에서 초기 디스패리티에 대해 추정된 레지듀얼(920)은 -0.8일 수 있다. 프로세서는 초기 디스패리티에 레지듀얼(920)을 보정함으로써, 최종 디스패리티를 0.2로 결정할 수 있다. 따라서, 디스패리치 추정 장치는 기준 지점(911)에 대응하는 제2 이미지(902)의 최종 지점(922)을 결정할 수 있다. 위에서 설명한 초기 디스패리티, 최종 디스패리티, 및 레지듀얼(920)의 값은 순전히 예시적인 값이다.
일 실시예에 따른 디스패리티 추정 장치는 스테레오 카메라를 이용하여 깊이를 측정하기 위해, 좌영상 및 우영상의 대응점을 찾는 스테레오 매칭을 수행할 수 있다. 프로세서는 스테레오 매칭을 통해 정수 픽셀 단위로 초기 디스패리티를 추정할 수 있다. 다만, 정수 픽셀 단위로 추정된 초기 디스패리티를 이용하여 깊이를 산출할 경우, 깊이 해상도(depth resolution)는 스테레오 카메라의 픽셀의 물리적 크기에 의존할 수 있다. 디스패리티 추정 장치는 레지듀얼 모델을 이용하여 서브 픽셀 단위로 레지듀얼을 추정함으로써, 보다 정밀하게 최종 디스패리티 및 깊이를 추정할 수 있다. 상술한 바와 같이 정밀하게 추정된 깊이는 보다 정밀한 3D 형태를 모델링하는데 사용될 수 있다.
일 실시예에 따른 디스패리티 추정 장치는 스테레오 이미지의 각 픽셀에 대한 깊이를 효율적으로 정밀하게 추정할 수 있다. 이러한 디스패리티 추정 장치는 차량용 깊이 센서(depth sensor) 및 모바일 깊이 센서 등으로 구현될 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다.  예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.  
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
100: 디스패리티 추정 장치
110: 이미지 획득부
120: 프로세서

Claims (20)

  1. 프로세서에 의해 수행되는 디스패리티(disparity) 추정 방법에 있어서,
    제1 이미지로부터 기준 픽셀(reference pixel)을 포함하는 제1 패치를 추출하는 단계;
    제2 이미지로부터 상기 기준 픽셀에 대응하는 대상 픽셀을 포함하는 제2 패치를 추출하는 단계; 및
    레지듀얼 모델(residual model)에 기초하여, 상기 제1 패치 및 상기 제2 패치로부터 상기 기준 픽셀 및 상기 대상 픽셀 간의 초기 디스패리티에 대한 레지듀얼(residual)을 추정하는 단계;
    를 포함하는 디스패리티 추정 방법.
  2. 제1항에 있어서,
    상기 추정된 레지듀얼을 상기 초기 디스패리티에 보정함으로써, 최종 디스패리티를 결정하는 단계
    를 더 포함하는 디스패리티 추정 방법.
  3. 제2항에 있어서,
    상기 최종 디스패리티를 이용하여, 상기 제1 이미지 및 상기 제2 이미지의 각 픽셀에 대응하는 깊이를 계산하는 단계
    를 더 포함하는 디스패리티 추정 방법.
  4. 제1항에 있어서,
    상기 제1 이미지의 상기 기준 픽셀 및 상기 제2 이미지의 상기 대상 픽셀 간의 상기 초기 디스패리티를 추정하는 단계
    를 더 포함하는 디스패리티 추정 방법.
  5. 제4항에 있어서,
    상기 초기 디스패리티를 추정하는 단계는,
    상기 제2 이미지에서 검색 범위를 결정하는 단계;
    상기 검색 범위에 포함된 픽셀들의 각각에 대응하는 후보 패치마다 상기 기준 픽셀을 포함하는 기준 패치를 비교하는 단계; 및
    상기 후보 패치 및 상기 기준 패치 간의 비교 결과에 기초하여, 상기 제2 이미지로부터 상기 대상 픽셀을 결정하는 단계
    를 포함하는 디스패리티 추정 방법.
  6. 제1항에 있어서,
    상기 레지듀얼을 추정하는 단계는,
    특징 모델에 기초하여, 상기 제1 패치 및 상기 제2 패치로부터 특징 데이터를 산출하는 단계; 및
    상기 레지듀얼 모델에 기초하여, 상기 특징 데이터로부터 상기 레지듀얼을 추정하는 단계
    를 포함하는 디스패리티 추정 방법.
  7. 제1항에 있어서,
    허위 디스패리티 검출 모델(false disparity detection model)에 기초하여, 상기 제1 패치 및 상기 제2 패치로부터 상기 초기 디스패리티의 허위 디스패리티 정보(false disparity information)를 추정하는 단계
    를 더 포함하는 디스패리티 추정 방법.
  8. 제7항에 있어서,
    상기 추정된 허위 디스패리티 정보에 기초하여, 상기 초기 디스패리티가 거짓(false)인 것으로 판단된 경우에 응답하여, 상기 초기 디스패리티를 배제(exclude)하는 단계
    를 더 포함하는 디스패리티 추정 방법.
  9. 제1항에 있어서,
    상기 초기 디스패리티를 정수 픽셀(integer pixel) 단위로 추정하는 단계
    를 더 포함하고,
    상기 레지듀얼을 추정하는 단계는,
    상기 레지듀얼을 서브 픽셀(sub pixel) 단위로 추정하는 단계
    를 포함하는 디스패리티 추정 방법.
  10. 제1항에 있어서,
    상기 제1 패치를 추출하는 단계는,
    상기 제1 이미지로부터 특징점(feature point)을 추출하는 단계;
    상기 제1 이미지로부터 상기 특징점에 대응하는 픽셀을 상기 기준 픽셀로 결정하는 단계
    를 포함하는 디스패리티 추정 방법.
  11. 하드웨어와 결합되어 제1항 내지 제10항 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
  12. 디스패리티 추정 장치에 있어서,
    제1 이미지 및 제2 이미지를 획득하는 이미지 획득부; 및
    상기 제1 이미지로부터 기준 픽셀(reference pixel)을 포함하는 제1 패치를 추출하고, 제2 이미지로부터 상기 기준 픽셀에 대응하는 대상 픽셀을 포함하는 제2 패치를 추출하며, 레지듀얼 모델(residual model)에 기초하여, 상기 제1 패치 및 상기 제2 패치로부터 상기 기준 픽셀 및 상기 대상 픽셀 간의 초기 디스패리티에 대한 레지듀얼(residual)을 추정하는 프로세서
    를 포함하는 디스패리티 추정 장치.
  13. 제12항에 있어서,
    상기 프로세서는,
    상기 추정된 레지듀얼을 상기 초기 디스패리티에 보정함으로써, 최종 디스패리티를 결정하는,
    디스패리티 추정 장치.
  14. 제13항에 있어서,
    상기 프로세서는,
    상기 최종 디스패리티를 이용하여, 상기 제1 이미지 및 상기 제2 이미지의 각 픽셀에 대응하는 깊이를 계산하는,
    디스패리티 추정 장치.
  15. 제12항에 있어서,
    상기 프로세서는,
    상기 제1 이미지의 상기 기준 픽셀 및 상기 제2 이미지의 상기 대상 픽셀 간의 상기 초기 디스패리티를 추정하는,
    디스패리티 추정 장치.
  16. 제15항에 있어서,
    상기 프로세서는,
    상기 제2 이미지에서 검색 범위를 결정하고, 상기 검색 범위에 포함된 픽셀들의 각각에 대응하는 후보 패치마다 상기 기준 픽셀을 포함하는 기준 패치를 비교하며, 상기 후보 패치 및 상기 기준 패치 간의 비교 결과에 기초하여, 상기 제2 이미지로부터 상기 대상 픽셀을 결정하는,
    디스패리티 추정 장치.
  17. 제12항에 있어서,
    상기 프로세서는,
    특징 모델에 기초하여, 상기 제1 패치 및 상기 제2 패치로부터 특징 데이터를 산출하고, 상기 레지듀얼 모델에 기초하여, 상기 특징 데이터로부터 상기 레지듀얼을 추정하는,
    디스패리티 추정 장치.
  18. 제12항에 있어서,
    상기 프로세서는,
    허위 디스패리티 검출 모델에 기초하여, 상기 제1 패치 및 상기 제2 패치로부터 상기 초기 디스패리티의 허위 디스패리티 정보를 추정하는,
    디스패리티 추정 장치.
  19. 제18항에 있어서,
    상기 프로세서는,
    상기 추정된 허위 디스패리티 정보에 기초하여, 상기 초기 디스패리티가 거짓인 것으로 판단된 경우에 응답하여, 상기 초기 디스패리티를 배제(exclude)하는,
    디스패리티 추정 장치.
  20. 제12항에 있어서,
    상기 프로세서는,
    상기 초기 디스패리티를 정수 픽셀(integer pixel) 단위로 추정하고, 상기 레지듀얼을 서브 픽셀(sub pixel) 단위로 추정하는,
    디스패리티 추정 장치.

KR1020170157352A 2017-11-23 2017-11-23 디스패리티 추정 장치 및 방법 KR102459853B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020170157352A KR102459853B1 (ko) 2017-11-23 2017-11-23 디스패리티 추정 장치 및 방법
US15/975,808 US10929998B2 (en) 2017-11-23 2018-05-10 Method and apparatus for estimating disparity
CN201810527546.0A CN109829875B (zh) 2017-11-23 2018-05-28 用于估计视差的方法和装置
JP2018148377A JP7134012B2 (ja) 2017-11-23 2018-08-07 視差推定装置及び方法
EP18189033.6A EP3489898A1 (en) 2017-11-23 2018-08-14 Method and apparatus for estimating disparity

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170157352A KR102459853B1 (ko) 2017-11-23 2017-11-23 디스패리티 추정 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20190059594A true KR20190059594A (ko) 2019-05-31
KR102459853B1 KR102459853B1 (ko) 2022-10-27

Family

ID=63293949

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170157352A KR102459853B1 (ko) 2017-11-23 2017-11-23 디스패리티 추정 장치 및 방법

Country Status (5)

Country Link
US (1) US10929998B2 (ko)
EP (1) EP3489898A1 (ko)
JP (1) JP7134012B2 (ko)
KR (1) KR102459853B1 (ko)
CN (1) CN109829875B (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117576180A (zh) * 2024-01-15 2024-02-20 常熟理工学院 基于自适应多尺度窗口的多视图深度估计方法及应用
CN117611648A (zh) * 2023-12-04 2024-02-27 北京斯年智驾科技有限公司 一种图像深度估计方法、系统和存储介质

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020256517A2 (ko) * 2019-06-21 2020-12-24 주식회사 쓰리아이 전방위 화상정보 기반의 자동위상 매핑 처리 방법 및 그 시스템
CN110427968B (zh) * 2019-06-28 2021-11-02 武汉大学 一种基于细节增强的双目立体匹配方法
JP7446320B2 (ja) 2019-09-12 2024-03-08 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、ヘッドマウントディスプレイ、および空間情報取得方法
CN112991254A (zh) 2019-12-13 2021-06-18 上海肇观电子科技有限公司 视差估计系统、方法、电子设备及计算机可读存储介质
CN112991404A (zh) * 2019-12-13 2021-06-18 上海肇观电子科技有限公司 视差确定方法、电子设备及计算机可读存储介质
US11127115B2 (en) 2019-12-13 2021-09-21 NextVPU (Shanghai) Co., Ltd. Determination of disparity
US11694341B2 (en) * 2019-12-23 2023-07-04 Texas Instmments Incorporated Cascaded architecture for disparity and motion prediction with block matching and convolutional neural network (CNN)
JP2023521287A (ja) * 2020-04-13 2023-05-24 インテル・コーポレーション テクスチャベースの没入型ビデオコーディング
KR20230104253A (ko) * 2020-11-13 2023-07-07 구글 엘엘씨 이상 검출 및 위치 측정을 위한 자기-감독 학습
WO2022120285A1 (en) * 2020-12-04 2022-06-09 Beijing Dajia Internet Information Technology Co., Ltd. Network based image filtering for video coding
DE102021107904A1 (de) * 2021-03-29 2022-09-29 Conti Temic Microelectronic Gmbh Verfahren und System zur Bestimmung der Bodenebene mit einem künstlichen neuronalen Netz
US11966454B2 (en) * 2021-10-28 2024-04-23 Shanghai United Imaging Intelligence Co., Ltd. Self-contrastive learning for image processing

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160077666A (ko) * 2014-12-24 2016-07-04 삼성전자주식회사 얼굴 검출 방법, 영상 처리 방법, 얼굴 검출 장치 및 이를 포함하는 전자 시스템
KR20170065502A (ko) * 2014-10-08 2017-06-13 엘지전자 주식회사 3d 비디오 부호화/복호화 방법 및 장치

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7061489B2 (en) 2003-08-15 2006-06-13 Microsoft Corporation Precomputed radiance transfer for rendering objects
JP4532171B2 (ja) 2004-06-01 2010-08-25 富士重工業株式会社 立体物認識装置
JP2008309529A (ja) 2007-06-12 2008-12-25 Panasonic Corp ナビゲーション装置、ナビゲーション方法、及びナビゲーション用プログラム
CN102077246A (zh) 2008-06-24 2011-05-25 汤姆森特许公司 利用运动补偿进行图像的深度提取的系统和方法
JP5464129B2 (ja) * 2010-11-17 2014-04-09 コニカミノルタ株式会社 画像処理装置および視差情報生成装置
JP2012257198A (ja) * 2011-05-17 2012-12-27 Canon Inc 立体画像符号化装置、その方法、および立体画像符号化装置を有する撮像装置
JP5127973B1 (ja) 2011-10-21 2013-01-23 株式会社東芝 映像処理装置、映像処理方法および映像表示装置
CN107346061B (zh) 2012-08-21 2020-04-24 快图有限公司 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法
WO2014037603A1 (en) * 2012-09-06 2014-03-13 Nokia Corporation An apparatus, a method and a computer program for image processing
EP2902960A4 (en) 2012-09-27 2015-09-23 Panasonic Ip Man Co Ltd STEREOSCOPIC IMAGE PROCESSING DEVICE AND STEREOSCOPIC IMAGE PROCESSING METHOD
JP2014096062A (ja) 2012-11-09 2014-05-22 Yamaguchi Univ 画像処理方法及び画像処理装置
EP2757524B1 (en) 2013-01-16 2018-12-19 Honda Research Institute Europe GmbH Depth sensing method and system for autonomous vehicles
US20140241612A1 (en) 2013-02-23 2014-08-28 Microsoft Corporation Real time stereo matching
US9183583B2 (en) 2013-05-13 2015-11-10 A9.Com, Inc. Augmented reality recommendations
US9224060B1 (en) 2013-09-17 2015-12-29 Amazon Technologies, Inc. Object tracking using depth information
US9600887B2 (en) * 2013-12-09 2017-03-21 Intel Corporation Techniques for disparity estimation using camera arrays for high dynamic range imaging
CN103702098B (zh) 2013-12-09 2015-12-30 上海交通大学 一种时空域联合约束的三视点立体视频深度提取方法
JP2016038886A (ja) * 2014-08-11 2016-03-22 ソニー株式会社 情報処理装置および情報処理方法
JP6687886B2 (ja) * 2015-03-11 2020-04-28 株式会社リコー 画像処理システム、移動体制御システム、移動体装置、物体検出方法、物体検出プログラム
JP6523925B2 (ja) * 2015-11-10 2019-06-05 株式会社日立製作所 生体情報を用いた認証装置及び認証方法
CN106887018B (zh) * 2015-12-15 2021-01-05 株式会社理光 立体匹配方法、控制器和系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170065502A (ko) * 2014-10-08 2017-06-13 엘지전자 주식회사 3d 비디오 부호화/복호화 방법 및 장치
KR20160077666A (ko) * 2014-12-24 2016-07-04 삼성전자주식회사 얼굴 검출 방법, 영상 처리 방법, 얼굴 검출 장치 및 이를 포함하는 전자 시스템

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117611648A (zh) * 2023-12-04 2024-02-27 北京斯年智驾科技有限公司 一种图像深度估计方法、系统和存储介质
CN117576180A (zh) * 2024-01-15 2024-02-20 常熟理工学院 基于自适应多尺度窗口的多视图深度估计方法及应用
CN117576180B (zh) * 2024-01-15 2024-03-26 常熟理工学院 基于自适应多尺度窗口的多视图深度估计方法及应用

Also Published As

Publication number Publication date
JP7134012B2 (ja) 2022-09-09
JP2019096294A (ja) 2019-06-20
KR102459853B1 (ko) 2022-10-27
CN109829875A (zh) 2019-05-31
CN109829875B (zh) 2023-10-27
US10929998B2 (en) 2021-02-23
US20190156502A1 (en) 2019-05-23
EP3489898A1 (en) 2019-05-29

Similar Documents

Publication Publication Date Title
KR102459853B1 (ko) 디스패리티 추정 장치 및 방법
US8755630B2 (en) Object pose recognition apparatus and object pose recognition method using the same
KR102483641B1 (ko) 양안 시차 영상의 처리 방법 및 장치
US9916689B2 (en) Apparatus and method for estimating camera pose
EP3182371B1 (en) Threshold determination in for example a type ransac algorithm
US9070042B2 (en) Image processing apparatus, image processing method, and program thereof
KR20180087994A (ko) 스테레오 매칭 방법 및 영상 처리 장치
JP6489551B2 (ja) 画像のシーケンスにおいて前景を背景から分離する方法およびシステム
JP2019133658A (ja) 測位方法、測位装置及び読取り可能な記憶媒体
US20130064453A1 (en) Interpolation image generation apparatus, reconstructed image generation apparatus, method of generating interpolation image, and computer-readable recording medium storing program
US20150138322A1 (en) Image processing device and its control method, imaging apparatus, and storage medium
KR20160010120A (ko) 단항 신뢰도 및 쌍별 신뢰도 학습을 통한 스테레오 매칭 장치 및 방법
US9934585B2 (en) Apparatus and method for registering images
KR102458242B1 (ko) 스테레오 카메라로부터 획득된 이미지 페어를 처리하는 장치 및 방법
KR102172912B1 (ko) 이미지에서 극점의 서브 픽셀 위치를 추정하기 위한 방법, 장치 및 시스템
CN113711276A (zh) 尺度感知单目定位和地图构建
CN112287824A (zh) 基于双目视觉的三维目标检测方法、装置及系统
CN114066926A (zh) 图像深度估计的方法和装置
CN110443228B (zh) 一种行人匹配方法、装置、电子设备及存储介质
KR101784620B1 (ko) 스테레오 매칭을 통한 깊이값의 신뢰도 측정 방법 및 장치
KR102240570B1 (ko) 신장 트리 생성 방법 및 장치,스테레오 매칭 방법 및 장치,업 샘플링 방법 및 장치,및 기준 픽셀 생성 방법 및 장치
JP6601893B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US20230419605A1 (en) Map generation apparatus, map generation method, and non-transitory computer-readable medium storing program
KR20230060029A (ko) 평면 검출 장치 및 방법
CN108062741B (zh) 双目图像处理方法、成像装置和电子设备

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant