KR20130068510A - 스파스 특징점 기반 워핑과 스테레오 매칭 융합 방법 및 장치 - Google Patents

스파스 특징점 기반 워핑과 스테레오 매칭 융합 방법 및 장치 Download PDF

Info

Publication number
KR20130068510A
KR20130068510A KR1020110135739A KR20110135739A KR20130068510A KR 20130068510 A KR20130068510 A KR 20130068510A KR 1020110135739 A KR1020110135739 A KR 1020110135739A KR 20110135739 A KR20110135739 A KR 20110135739A KR 20130068510 A KR20130068510 A KR 20130068510A
Authority
KR
South Korea
Prior art keywords
matching
sparse feature
disparity
warping
stereo
Prior art date
Application number
KR1020110135739A
Other languages
English (en)
Inventor
김태원
정원식
허남호
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020110135739A priority Critical patent/KR20130068510A/ko
Publication of KR20130068510A publication Critical patent/KR20130068510A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0096Synchronisation or controlling aspects

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 3D 입체 방송에 필요로 되는 좌/우 영상 간의 디스패리티 정보 생성을 위해 스파스 특징점 기반 워핑 방법이 이용한 디스패리티 생성 방법을 근거하여 스테레오 매칭 방법을 효과적으로 융합함으로써 좀 더 강건한 디스패리티 정보 생성을 가능케 하는 스파스 특징점 기반 워핑과 스테레오 매칭 융합 방법 및 장치를 개시하고 있다. 스파스 특징점 기반 워핑과 스테레오 매칭 융합 장치는 스테레오 영상으로부터 스테레오 영상 매칭(matching) 방식을 통해 상기 스테레오 영상의 시차를 이용하여 상기 스테레오 영상의 디스패리티(disparity)를 추출하는 디스패리티 추출부; 상기 추출된 디스패리티의 NCC(Normalized Cross Correlation) 값을 계산하여 상기 디스패리티의 신뢰도 값으로 설정하는 신뢰도 계산부; 및 상기 NCC 값이 특정 임계값(threshold)을 초과하는 대응점(corresponding points)을 선택하여, 상기 대응점들을 스파스 특징점 매칭에 의해 구해진 특징점 대응점들과 함께 스파스 특징점 기반 워핑(sparse feature based warping)의 제어점으로 사용함으로써 상기 스테레오 영상에 대해 상기 워핑을 통한 최종 보간(interpolation)을 수행하는 매칭 융합부를 포함한다. 따라서, 디스패리티 정보를 보다 강건하게 생성할 수 있다.

Description

스파스 특징점 기반 워핑과 스테레오 매칭 융합 방법 및 장치{A FUSION METHOD AND APPARATUS WITH SPARSE FEATURE BASED WARPING AND STEREO MATCHING}
본 발명은 워핑과 스테레오 매칭의 융합 방법 및 장치에 관한 것으로, 보다 상세하게는 상기 워핑 및 스테레오 매칭의 효과적인 융합을 통해 각 방식의 단점을 보완할 수 있는 방법 및 장치에 관한 것이다.
종래의 스테레오 매칭(matching) 기법으로는 입력으로 좌/우 두 장의 영상을 입력으로 받아 두 영상간의 dense한 disparity 정보를 추출하는 방법을 제안한다. 이 외에도 스파스 특징점에 기반한 워핑 방법을 이용한 disparity 추출 방법이 있다. 그 기본적인 개념은 먼저 두 영상에서 스파스 특징점(sparse feature)을 추출하고 추출된 특징점(feature points)을 매칭한다. 이렇게 매칭된 스파스 특징점(sparse feature points)을 제어점(control points)로 사용하여 워핑(warping) 기법을 적용함으로써 나머지 영상 영역의 디스패리티(disparity) 정보를 획득할 수 있다. 이러한 방식을 응용하면 입력 영상으로 영상 1장을 이용해서도 새로운 시점의 영상을 생성할 수 있는 응용도 가능하다. 그러나 상기 방식의 문제점은 스파스 특징점(sparse feature)에 기반하는 알고리즘 특성으로 인해 스파스 특징점(sparse feature) 이외의 영상 영역의 대부분을 워핑(warping)을 통해 보간(interpolation) 하게 되어 최종 생성되는 디스패리티(disparity) 정보의 정확도가 떨어지는 단점을 가지고 있다.
지금까지 설명한 스파스 특징점에 기반한 워핑 방법과 달리 일반적으로 디스패리티(disparity) 추출을 위해서 가장 널리 사용되는 방법은 스테레오 매칭(stereo matching) 방법이 있다. 그러나 스테레오 매칭(stereo matching) 방법을 이용할 시에는 texture가 존재하는 영상 영역에서는 추출된 디스패리티(disparity) 정보가 비교적 정확한 결과를 보이나 영상의 texture 정보가 적은 영역, 또는 객체의 경계 부분(object boundary)등에서 디스패리티(disparity) 정보 추출의 정확도가 떨어지는 단점을 가지고 있다. 따라서, 상기 두 가지 기법을 효과적으로 융합할 수 있는 방법이 필요하다.
대한민국 공개 특허 KR 10-2010-0066914 ("영상 정합 장치 및 방법". 한국전자통신연구원, 2010.06.18 공개)
상술한 문제점을 해결하기 위한 본 발명의 목적은 3D 입체 방송에 필요로 되는 좌/우 영상 간의 디스패리티 정보 생성을 위해 스파스 특징점 기반 워핑 방법이 이용한 디스패리티 생성 방법을 근거하여 스테레오 매칭 방법을 효과적으로 융합함으로써 좀 더 강건한 디스패리티 정보 생성을 가능케 하는 스파스 특징점 기반 워핑과 스테레오 매칭 융합 방법 및 장치를 제공하는 것이다.
본 발명의 다른 목적은 스파스 특징점 기반 워핑 방법을 통해 얻어지는 디스패리티 중에서 제어점 이외의 워핑 영역의 디스패리티 정보의 정확도가 떨어지는 문제와 스테레오 매칭 방법을 통해 얻어지는 디스패리티 중에서 텍스처(texture)가 적은 영역 또는 객체 경계 부분에서 발생하는 디스패리티 정확도가 떨어지는 문제점을 해소할 수 있는 스파스 특징점 기반 워핑과 스테레오 매칭 융합 방법 및 장치를 제공하는 것이다.
상기한 목적을 달성하기 위한 스파스 특징점 기반 워핑과 스테레오 매칭 융합 장치는 스테레오 영상으로부터 스테레오 영상 매칭(matching) 방식을 통해 상기 스테레오 영상의 시차를 이용하여 상기 스테레오 영상의 디스패리티(disparity)를 추출하는 디스패리티 추출부; 상기 추출된 디스패리티의 NCC(Normalized Cross Correlation) 값을 계산하여 상기 디스패리티의 신뢰도 값으로 설정하는 신뢰도 계산부; 및 상기 NCC 값이 특정 임계값(threshold)을 초과하는 대응점(corresponding points)을 선택하여, 상기 대응점들을 스파스 특징점 기반 워핑(sparse feature based warping)의 제어점으로 추가 사용함으로써 상기 스테레오 영상에 대해 상기 워핑을 통한 최종 보간(interpolation)을 수행하는 매칭 융합부를 포함할 수 있다.
본 발명의 스파스 특징점 기반 워핑과 스테레오 매칭 융합 방법 및 장치에 따르면, 스파스 특징점을 제어점(control points)으로 사용하는 워핑 기법 방식의 최종 생성되는 디스패리티 정보의 정확도가 떨어지는 단점과 스테레오 매칭 방법을 이용시 텍스처(texture) 정보가 적은 영역 또는 객체 경계 부분 등에서 디스패리티 정보 추출의 정확도가 떨어지는 단점을 서로 보완하여 상기 두 가지 방식의 효과적인 융합을 통해 디스패리티 정보를 보다 강건하게 생성할 수 있다는 효과가 있다.
도 1은 스파스 특징점 기반 워핑 방법을 개략적으로 나타낸 흐름도,
도 2는 본 발명의 일 실시예에 따른 스파스 특징점 기반 워핑과 스테레오 매칭 융합 방법을 개략적으로 나타낸 흐름도,
도 3은 본 발명의 일 실시예에 따른 스파스 특징점 기반 워핑과 스테레오 매칭 융합 장치를 개략적으로 나타낸 블록도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
도 1은 스파스 특징점 기반 워핑 방법을 개략적으로 나타낸 흐름도이다. 도 1에 도시된 바와 같이, 스파스 특징점 기반 워핑 방법은 스테레오 영상을 입력받는 단계(110), 스파스 특징점 매칭 단계(120), 스파스 특징점 기반 워핑 단계(130) 및 디스패리티 추출 단계(140)를 포함할 수 있다.
도 1을 참조하면, 먼저 스테레오 영상 입력 단계(110)에서, 좌영상과 우영상 두 장의 영상을 입력받는다. 좌영상과 우영상은 서로 다른 카메라로 찍은 영상일 수 있고 이를 통해 스테레오스코픽(stereoscopic) 영상을 생성할 수 있다.
다음으로, 스파스 특징점 매칭 단계(120)에서, 상기 스테레오 영상 입력 단계(110)에서 입력받은 두 장의 영상에서 스파스 특징점을 추출한다. 그리고는 추출된 상기 스파스 특징점을 매칭한다.
스파스 특징점 기반 워핑 단계(130)에서, 상기 매칭 단계(120)에서 매칭된 스파스 특징점들을 제어점(control points)으로 사용하여 워핑(warping) 기법을 적용한다. 워핑은 영상 내의 일부 영역을 지정하여 정의된 영역에 맞는 형태로 변형(warping)시켜주는 기법이다. 이때, 스파스 특징점을 제어점으로 사용한다는데 특징이 있다.
디스패리티 추출 단계(140)에서, 상기 워핑 단계(130)를 통해 워핑이 완료된 영상의 제어점 이외의 나머지 영상 영역의 디스패리티 정보를 추출할 수 있다.
반면, 상기 스파스 특징점 기반 와핑 기법 이외에 스테레오 영상 매칭 기법이 스테레오 영상으로부터 3차원 영상을 얻기 위한 기술로서 존재한다. 상기 스테레오 영상 매칭 기법은 다수의 2차원 영상으로부터 3차원 입체 영상을 얻기 위해 이용된다. 여기서, 스테레오 영상은 동일 피사체를 동일선상의 서로 다른 위치에 위치한 두 대 이상의 카메라로 각각 촬영하여 서로 짝(pair)의 관계에 있는 두 장의 2차원 영상을 의미한다. 스테레오 영상 매칭은 스테레오 영상의 시차를 이용하여 스테레오 영상의 양안차를 추출하는 과정이다. 상기 방식에서는 스테레오 매칭 알고리즘에 SAD(Sum of Absolute Difference)와 센서스 변환(Census Transform)을 적용하여 양안차 값을 산출하는 방식을 사용할 수 있다. 또한, 각 노드를 매칭할 때 각 노드를 둘러싸는 주변 픽셀을 함께 고려하여 양안차값을 산출할 수 있다.
도 2는 본 발명의 일 실시예에 따른 스파스 특징점 기반 워핑과 스테레오 매칭 융합 방법을 개략적으로 나타낸 흐름도이다. 도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 매칭 융합 방법은 스테레오 영상 입력 단계(210), 스파스 특징점 매칭 단계(220), 스테레오 매칭 단계(230), 디스패리티 신뢰도 계산 단계(240), NCC 값이 임계값 이상인 점을 추출하는 단계(250), 스파스 특징점 기반 워핑 단계(260) 및 디스패리티 추출 단계(270)를 포함할 수 있다. 본 발명은 반드시 상기 구성요소에 한정되는 것은 아니다.
도 2를 참조하면, 먼저 스테레오 영상 입력 단계(210)에서, 본 발명의 융합 장치(미도시)는 스테레오 영상을 입력으로 받는다. 상기한 바와 같이, 스테레오 영상은 좌영상과 우영상을 포함할 수 있다.
다음으로, 스파스 특징점 매칭 단계(220)에서, 융합 장치는 상기 스테레오 영상 입력 단계(210)에서 입력된 상기 두 영상의 스파스 특징점을 추출하고 추출된 특징점을 매칭시킨다.
스테레오 매칭 단계(230)에서, 융합 장치는 상기 스테레오 영상 입력 단계(210)에서 입력된 상기 두 영상을 기반으로 일반적인 스테레오 매칭 알고리즘을 적용하여 디스패리티 추출을 수행한다.
디스패리티 신뢰도 계산 단계(240)에서, 융합 장치는 상기 스테레오 매칭 단계(230)에서 스테레오 매칭을 통해 계산된 디스패리티의 신뢰도를 계산한다. 보다 상세하게는 대응점(corresponding points)의 NCC(Normalized Cross Correlation) 값을 계산하여 이를 상기 디스패리티의 신뢰도 값으로 설정할 수 있다. 각 대응점들의 NCC는 다음의 수학식과 같이 계산될 수 있다.
Figure pat00001
여기서, W는 local window 사이즈를 나타낸다.
다음으로, NCC 값이 임계값 이상인 점 추출 단계(250)에서, 융합 장치는 상기 디스패리티 신뢰도 계산 단계(240)에서 계산된 NCC 값을 특정 임계값(threshold) 값과 비교한다. 비교 결과, 상기 특정 임계값 이상 가지는 대응점들을 선택한다. 대응점이 많을수록 보다 정확한 워핑이 가능할 수 있다. 대응점을 구하는 방식은 반드시 상기 식에 의해 구하는 방식으로 한정되는 것은 아니다.
스파스 특징점 기반 워핑 단계(260)에서, 융합 장치는 상기 점 추출 단계(250)에서 추출된 대응점들과 스파스 특징점 매칭을 통해 구해진 대응점들을 모두 사용하여 스파스 특징점 기반 워핑 시의 제어점으로 사용하여 워핑을 통한 최종 보간(interpolation)을 수행한다.
디스패리티 추출 단계(270)에서, 융합 장치는 상기 스파스 특징점 기반 워핑 단계(260)에서 워핑을 통한 최종 보간을 수행함으로써 생성된 3차원 영상의 강건한 디스패리티를 추출한다.
도 3은 본 발명의 일 실시예에 따른 스파스 특징점 기반 워핑과 스테레오 매칭 융합 장치를 개략적으로 나타낸 블록도이다. 도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 융합 장치는 스파스 특징점 매칭부(310), 디스패리티 추출부(320), 신뢰도 계산부(330) 및 매칭 융합부(340) 및 스파스 특징점 기반 워핑부(350)를 포함할 수 있다.
도 3을 참조하면, 스파스 특징점 매칭부(310)는 스테레오 영상의 스파스 특징점을 추출하고 추출된 특징점을 매칭시킨다. 스테레오 영상은 동일 피사체를 동일선상의 서로 다른 위치에 위치한 두 대 이상의 카메라로 각각 촬영하여 서로 짝(pair)의 관계에 있는 두 장의 2차원 영상을 의미한다. 스테레오 영상은 반드시 상기한 방식에 의해 생성되는 영상에 한정되는 것은 아니다.
디스패리티 추출부(320)는 스테레오 영상으로부터 스테레오 영상 매칭(matching) 방식을 통해 스테레오 영상의 시차를 이용하여 스테레오 영상의 디스패리티(disparity)를 추출한다.
신뢰도 계산부(330)는 상기 디스패리티 추출부(320)에서 추출된 디스패리티의 NCC(Normalized Cross Correlation) 값을 계산하여 상기 디스패리티의 신뢰도 값으로 설정한다. 여기서 디스패리티 신뢰도 값을 계산하기 위해 각 대응점의 NCC 값 계산이 선행되어야 하는데 각 대응점의 NCC 값을 local window 사이즈의 영향을 고려하여 산출된다. NCC 값을 상기 수학식 1을 통해 구할 수 있다. 본 발명의 신뢰도 계산은 반드시 상기 방식에 한정되는 것은 아니다.
매칭 융합부(340)는 상기 신뢰도 계산부(330)를 통해 계산된 상기 NCC 값이 특정 임계값(threshold)을 초과하는 대응점(corresponding points)을 선택한다. 그리고는 상기 대응점들을 상기 스파스 특징점 매칭부(310)에서 스파스 특징점 매칭에 의해 구해진 스파스 특징점 대응점들과 함께 스파스 특징점 기판 워핑의 제어점으로 추가 적용하여 같이 사용한다.
마지막으로 스파스 특징점 기반 워핑부(350)는 상기 스테레오 영상에 대해 워핑을 통한 최종 보간(interpolation)을 수행할 수 있고 3차원 영상을 획득할 수 있다.
이상 도면 및 실시예를 참조하여 설명하였지만, 본 발명의 보호범위가 상기 도면 또는 실시예에 의해 한정되는 것을 의미하지는 않으며 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
110: 스테레오 영상 입력 단계 120: 스파스 특징점 매칭 단계
130: 스파스 특징점 기반 워핑 단계 140: 디스패리티 추출 단계
210: 스테레오 영상 입력 단계 220: 스파스 특징점 매칭 단계
230: 스테레오 매칭 단계 240: 디스패리티 신뢰도 계산 단계
250: NCC 값이 임계값 이상인 점 추출 단계
260: 스파스 특징점 기반 워핑 단계 270: 디스패리티 추출 단계
310: 스파스 특징점 매칭부 320: 디스패리티 추출부
330: 신뢰도 계산부 340: 매칭 융합부
350: 스파스 특징점 기반 워핑부

Claims (1)

  1. 스테레오 영상으로부터 스테레오 영상 매칭(matching) 방식을 통해 상기 스테레오 영상의 시차를 이용하여 상기 스테레오 영상의 디스패리티(disparity)를 추출하는 디스패리티 추출부;
    상기 추출된 디스패리티의 NCC(Normalized Cross Correlation) 값을 계산하여 상기 디스패리티의 신뢰도 값으로 설정하는 신뢰도 계산부; 및
    상기 NCC 값이 특정 임계값(threshold)을 초과하는 대응점(corresponding points)을 선택하여, 상기 대응점들을 스파스 특징점 매칭을 통해 구해진 특정점 대응점들과 함께 스파스 특징점 기반 워핑(sparse feature based warping)의 제어점으로 사용함으로써 상기 스테레오 영상에 대해 상기 워핑을 통한 최종 보간(interpolation)을 수행하는 매칭 융합부를 포함하는 것을 특징으로 하는 스파스 특징점 기반 워핑과 스테레오 매칭 융합 장치.
KR1020110135739A 2011-12-15 2011-12-15 스파스 특징점 기반 워핑과 스테레오 매칭 융합 방법 및 장치 KR20130068510A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110135739A KR20130068510A (ko) 2011-12-15 2011-12-15 스파스 특징점 기반 워핑과 스테레오 매칭 융합 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110135739A KR20130068510A (ko) 2011-12-15 2011-12-15 스파스 특징점 기반 워핑과 스테레오 매칭 융합 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20130068510A true KR20130068510A (ko) 2013-06-26

Family

ID=48864119

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110135739A KR20130068510A (ko) 2011-12-15 2011-12-15 스파스 특징점 기반 워핑과 스테레오 매칭 융합 방법 및 장치

Country Status (1)

Country Link
KR (1) KR20130068510A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015065558A1 (en) * 2013-10-30 2015-05-07 Nec Laboratories America, Inc. Monocular 3d localization for autonomous driving using adaptive ground plane estimation
CN105389790A (zh) * 2014-09-03 2016-03-09 现代自动车株式会社 为立体匹配校正插值系数的装置、方法和计算机可读介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015065558A1 (en) * 2013-10-30 2015-05-07 Nec Laboratories America, Inc. Monocular 3d localization for autonomous driving using adaptive ground plane estimation
CN105389790A (zh) * 2014-09-03 2016-03-09 现代自动车株式会社 为立体匹配校正插值系数的装置、方法和计算机可读介质
CN105389790B (zh) * 2014-09-03 2020-10-20 现代自动车株式会社 为立体匹配校正插值系数的装置、方法和计算机可读介质

Similar Documents

Publication Publication Date Title
JP6663652B2 (ja) ステレオソース映像の補正方法及びその装置
KR101310213B1 (ko) 깊이 영상의 품질 개선 방법 및 장치
CN101933335A (zh) 将二维图像数据转换为立体图像数据的方法和系统
KR102380862B1 (ko) 영상 처리 방법 및 장치
EP3110149B1 (en) A system and a method for depth-image-based rendering
EP2608549B1 (en) Method and apparatus for adjusting depth-related information map according to quality measurement result of the depth-related information map
EP2781099B1 (en) Apparatus and method for real-time capable disparity estimation for virtual view rendering suitable for multi-threaded execution
Sun et al. Novel temporal domain hole filling based on background modeling for view synthesis
KR101720161B1 (ko) 깊이 맵 생성 장치 및 방법과 이를 이용한 입체 영상 변환 장치 및 방법
KR100943635B1 (ko) 디지털카메라의 이미지를 이용한 디스패리티 맵 생성 장치 및 방법
JP7184748B2 (ja) 場面の積層深度データを生成するための方法
CN105791795A (zh) 立体图像处理方法、装置以及立体视频显示设备
KR20130068510A (ko) 스파스 특징점 기반 워핑과 스테레오 매칭 융합 방법 및 장치
Jin et al. Pixel-level view synthesis distortion estimation for 3D video coding
KR101868017B1 (ko) 스테레오 매칭 방법 및 그 장치
KR20160063805A (ko) 다시점 영상 생성 장치 및 방법
KR101660808B1 (ko) 깊이 맵 생성 장치 및 방법과 이를 이용한 입체 영상 변환 장치 및 방법
KR102240570B1 (ko) 신장 트리 생성 방법 및 장치,스테레오 매칭 방법 및 장치,업 샘플링 방법 및 장치,및 기준 픽셀 생성 방법 및 장치
CN107590857A (zh) 用于生成虚拟视点图像的设备和方法
Wegner et al. Similarity measures for depth estimation
KR101856257B1 (ko) 양안 시차 영상의 보정 장치 및 그 방법
Lee et al. Multi-view depth map estimation enhancing temporal consistency
KR101344943B1 (ko) 실시간 스테레오 정합 시스템
Lee et al. Temporally consistent depth map estimation for 3D video generation and coding
Wang et al. A novel depth propagation algorithm with color guided motion estimation

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid