KR100926287B1 - 시차와 원근법을 이용한 거리 추정 장치 및 추정 방법 - Google Patents

시차와 원근법을 이용한 거리 추정 장치 및 추정 방법 Download PDF

Info

Publication number
KR100926287B1
KR100926287B1 KR1020070140656A KR20070140656A KR100926287B1 KR 100926287 B1 KR100926287 B1 KR 100926287B1 KR 1020070140656 A KR1020070140656 A KR 1020070140656A KR 20070140656 A KR20070140656 A KR 20070140656A KR 100926287 B1 KR100926287 B1 KR 100926287B1
Authority
KR
South Korea
Prior art keywords
distance
probability density
estimating
value
height
Prior art date
Application number
KR1020070140656A
Other languages
English (en)
Other versions
KR20090072520A (ko
Inventor
임영철
이충희
권순
정우영
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020070140656A priority Critical patent/KR100926287B1/ko
Publication of KR20090072520A publication Critical patent/KR20090072520A/ko
Application granted granted Critical
Publication of KR100926287B1 publication Critical patent/KR100926287B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0294Trajectory determination or predictive filtering, e.g. target tracking or Kalman filtering

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

본 발명은 거리 추정 장치 및 거리 추정 방법에 관한 것이다. 본 발명은 스테레오 비전 영상의 시차 정보와 원근 정보를 이용하여 픽셀의 양자화로 인한 오차를 최소화할 수 있는 수단을 제공함으로써, 시차의 오차를 줄이고, 객체의 정확한 위치, 거리, 속도 등을 추정할 수 있는 효과가 있다. 또한, 제안된 추정 방법을 이용하면 추가로 다른 센서를 사용하지 않아도 객체의 위치, 거리 추정의 정밀도와 신뢰도를 높일 수 있는 효과가 있다. 상기와 같은 추정 방법은 다양한 분야에 응용하여 정확한 위치, 거리를 추정할 수 있는 효과가 있다. 예를 들어, 로봇이나 자동차 등에 적용하는 경우 자동차의 추돌 방지, 주행 등의 운전 시스템이나 안전 운행 시스템 등에 적용하여 사용할 수 있다.
Figure R1020070140656
스테레오 비전, 거리 추정

Description

시차와 원근법을 이용한 거리 추정 장치 및 추정 방법{Method for distance estimation and apparatus for the same using a disparity and a perspective}
본 발명은 거리 추정 장치 및 거리 추정 방법에 관한 것으로서, 더욱 자세하게는 촬영된 영상을 이용하여 영상에 포함된 객체의 거리를 추정하는 장치 및 거리를 추정하는 방법에 관한 것이다.
관찰 측으로부터 떨어져 있는 객체의 거리를 측정하는 방법에는 여러 가지가 있다. 그 가운데 상기 객체에 대해 영상을 촬영하고, 상기 촬영된 영상을 이용하여 영상에 포함된 객체까지의 거리를 측정할 수 있는 방법이 있다.
촬영된 영상을 이용하여 영상에 포함된 목표 객체까지의 거리를 측정하는 기술의 하나의 예로 스테레오 비전(stereo vision) 기술을 들 수 있다. 상기 스테레오 비전 기술은 두 대의 영상 촬영 장치, 예를 들어, 카메라 등으로부터 각각 획득한 좌측 영상과 우측 영상을 이용하여 영상에 포함된 객체의 위치, 거리, 속도 등을 측정할 수 있다.
종래의 스테레오 비전 기술을 이용한 거리 측정 방법에서는 두 대의 카메라로부터 획득한 좌우 영상으로부터 객체에 대한 대응점(corresponding point)을 찾 아서, 그 대응점에 대한 시차(disparity)를 이용하여 객체의 거리를 측정하였다. 그러나 이러한 방법의 경우에 픽셀(pixel)간의 거리 차를 이용하기 때문에 픽셀의 양자화로 인한 양자화 오차가 발생하고, 상기 양자화 오차는 시차가 커질수록 즉, 객체가 멀어질수록 오차율이 더 커지게 되는 문제가 있었다.
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 본 발명의 목적은 객체의 정확한 위치, 거리를 추정할 수 있는 거리 추정 장치 및 거리 추정 방법을 제공하는 것이다.
본 발명에 따른 거리 추정 방법은, 촬영된 영상에서 추출된 객체의 시차를 이용하여 상기 객체의 거리를 추정하고, 추정된 거리 값을 필터링하여 제1 확률 밀도를 구하는 단계, 상기 제1 확률 밀도가 최대가 되는 거리 값과 제1 확률 밀도의 공분산 값이 각각 임계값보다 작은 경우, 상기 제1 확률 밀도가 최대가 되는 거리 값을 이용하여 상기 객체의 높이를 구하는 단계, 상기 객체의 높이를 이용하여 상기 객체의 거리를 추정하고, 추정된 거리 값을 필터링하여 제2 확률 밀도를 구하는 단계, 및 상기 제1 확률 밀도와 제2 확률 밀도에 따른 확률 밀도가 최대인 거리를 객체의 거리로 추정하는 단계를 포함한다.
다른 관점에서 본 발명에 따른 거리 추정 장치는, 촬영된 영상에서 추출된 객체의 시차를 이용하여 상기 객체의 거리를 추정하는 제1 거리 추정부, 상기 제1 거리 추정부에서 추정된 거리 값을 필터링하여 제1 확률 밀도를 구하는 제1 필터부, 상기 제1 확률 밀도가 최대가 되는 거리 값을 이용하여 상기 객체의 높이를 추정하고, 상기 객체의 높이를 이용하여 객체의 거리를 추정하는 제2 거리 추정부, 상기 제2 거리 추정부에서 추정된 거리 값을 필터링하여 제2 확률 밀도를 구하는 제2 필터부, 및 상기 제1 확률 밀도와 제2 확률 밀도를 이용하여 확률 밀도가 최대가 되는 거리를 객체의 거리로 추정하는 제3 거리 추정부를 포함한다.
본 발명의 거리 추정 장치 및 거리 추정 방법에 따르면, 거리 추정 오차를 줄이고 목표 객체의 정확한 위치, 거리, 속도 등을 추정할 수 있는 효과가 있다. 또한, 제안된 추정 방법을 이용하면 추가로 다른 센서를 사용하지 않아도 객체의 위치, 거리 추정의 정밀도와 신뢰도를 높일 수 있는 효과가 있다.
상기와 같은 추정 방법은 다양한 분야에 응용하여 정확한 위치, 거리를 추정할 수 있는 효과가 있다. 예를 들어, 로봇이나 자동차 등에 적용하는 경우 자동차의 추돌 방지, 주행 등의 운전 시스템이나 안전 운행 시스템 등에 적용하여 사용할 수 있다.
이하 본 발명의 목적, 특성 및 이점들은 첨부한 도면을 참조한 실시 예들의 상세한 설명을 통해 명백해질 것이다. 아울러, 본 발명에서 사용되는 용어는 가능한 한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재하였으므로, 단순한 용어의 명칭이 아닌 용어가 가지는 의미로서 본 발명을 파악하여야 함을 밝혀 두고자 한다.
이와 같이 구성된 본 발명에 따른 거리 추정 장치 및 거리 추정 방법의 동작을 첨부한 도면을 참조하여 상세히 설명하면 다음과 같다.
도 1은 본 발명에 따른 일 실시예로서, 시간에 따른 좌우 영상을 개략적으로 나타낸 도면이다. 상기 도 1에서 좌측 열은 좌측 영상 촬영 장치로 촬영된 좌측 영상을, 우측 열은 우측 영상 촬영 장치로 촬영된 우측 영상을 나타낸다. 그리고 윗 행은 시간 't=m'에서 촬영된 영상을 나타내며, 아래 행은 시간 't=n'에서 촬영된 영상을 나타낸다. 상기 도 1의 't=m' 시간에서 촬영한 객체(자동차)와 't=n' 시간에서 촬영한 객체를 비교하면, 상기 't=n' 시간에서 객체와의 거리가 더 멀어졌음을 알 수 있다.
상기 도 1에서 xl m은 't=m' 시간에 좌측 촬영 장치에 맺힌 객체가 영상의 중심으로부터 벗어난 거리, xr m은 't=m' 시간에 우측 촬영 장치에 맺힌 객체가 영상의 중심으로부터 벗어난 거리를 말하며, hl m은 't=m' 시간에 좌측 촬영 장치에 맺힌 객체의 높이, hr m은 't=m' 시간에 우측 촬영 장치에 맺힌 객체의 높이를 말한다. 마찬가지로, xl n은, xr n은, hl n은, hr n은 't=n' 시간에 상기에서 설명한 각 값에 대응되는 값이다.
도 2는 본 발명에 따른 일 실시예로서, 스테레오 비전 방식에 따라 거리를 추정방식을 개략적으로 나타낸 도면이다.
스테레오 비전 시스템을 이용하여 거리를 추정하는 방식의 경우, 좌우 영상 촬영 장치로부터 촬영된 영상을 이용하여 대응점을 찾아 깊이 맵(depth map)을 생성한다. 그리고, 상기 깊이 맵과 좌우 영상을 이용하여 이동 객체를 검출하고, 상기 검출된 이동 객체 내의 시차 평균을 구한다. 스테레오 비전 시스템에서는 상기 구해진 시차를 이용하여 객체의 거리를 추정할 수 있다. 상기 시차와 목표 객체의 거리는 하기의 수학식 1 내지 수학식 3과 상기 도 2의 각종 파라미터를 이용하여 자세히 설명하도록 한다. 상기 도 2에서 Ddisp는 목표 객체(object)와의 거리, B는 좌, 우측 영상 촬영 장치의 중심 사이의 거리, F는 영상 촬영 장치의 초점거리(렌즈와 촬상 장치(예를 들어, CCD) 사이의 거리), xl은 좌측 촬영 장치에 맺힌 영상의 중심으로부터 벗어난 거리, xr은 우측 촬영 장치에 맺힌 영상의 중심으로부터 벗어난 거리, Zd는 객체와 영상 촬영 장치의 수직 거리, Xd는 좌측 영상 촬영 장치와 우측 영상 촬영 장치의 중간 지점에서 Zd라인과 영상 촬영 장치의 수평면이 만나는 지점까지의 거리를 말한다.
Figure 112007094670928-pat00001
Figure 112007094670928-pat00002
Figure 112007094670928-pat00003
목표 객체까지의 거리 Ddisp와 Xd, Zd는 삼각형을 이루므로, 수학식 3과 같이 삼각 공식에 의해 객체까지의 거리 Ddisp를 구할 수 있다. 상기 Zd는 좌, 우측 영상 촬영 장치의 중심 사이의 거리(B)와 영상 촬영 장치의 초점거리(F)를 곱한 값을 시차(xr-xl) 값으로 나눈 값으로 구할 수 있다(수학식 1). 그리고 Xd는 xl의 절대값과 xr의 절대값 가운데 큰 값과 상기 수학식 1에서 구한 Zd 값을 곱한 값을 F로 나눈 값에서 B를 2로 나눈 값을 뺀 값으로 구할 수 있다(수학식 2).
도 3은 본 발명에 따른 일 실시예로서, 원근법을 이용하여 거리를 추정방식을 개략적으로 나타낸 도면이다. 상기 도 3은 't=m' 시간과 't=n' 시간에서 영상에서의 객체의 높이를 나타내고 있다. 상기 객체의 높이는 객체의 특징이 되는 위치를 Y축으로 투영함으로써 구할 수 있다. 't=m' 시간에서 상기 Y축으로 투영된 객체의 높이는 hm이며, 't=n' 시간에서 상기 Y축으로 투영된 객체의 높이는 hn이다. 이 때, 좌측 영상만을 이용하여 객체의 높이를 추출하거나, 우측 영상만을 이용하여 객체의 높이를 추출하여 거리 추정에 사용할 수도 있고, 좌측 영상의 객체의 높이와 우측 영상의 객체의 높이를 평균한 값을 거리 추정에 사용할 수도 있다. 이하에서는 좌측 영상의 객체의 높이와 우측 영상의 객체의 높이를 평균한 값을 거리 추정에 사용하는 경우를 가정하여 설명하기로 한다.
상기 원근법을 이용하여 구한 목표 객체의 크기와 거리는 하기의 수학식 4, 수학식 5와 도 2, 도 3의 파라미터를 이용하여 자세히 설명하도록 한다.
Figure 112007094670928-pat00004
Figure 112007094670928-pat00005
상기 수학식 4에서 나타낸 바와 같이, 't=m' 시간에서 목표 객체의 높이(H)는 hl m값과 hr m값을 더하고 't=m' 시간에 추정된 거리 Ddisp ,m를 곱한 값을 2F값으로 나눈 값으로 나타낼 수 있다. 그리고, 't=m' 시간에서 원근법을 이용한 객체의 거리 Dper ,m은 2HF 값을 hl m값과 hr m값을 더한 값으로 나눈 값으로 나타낼 수 있다.
그러나, 상기 스테레오 비전 방식의 경우, 좌우 영상 촬영 장치에서의 픽셀 간의 거리차를 이용하기 때문에, 양자화 오차가 발생하게 되고, 이러한 양자화 오차는 시점 차가 커질수록, 즉 목표 객체와의 거리가 멀어질수록 오차율이 커지게 된다. 따라서, 상기 오차를 최소화하여 객체의 정확한 위치, 거리를 추정하는 방안을 설명하기로 한다. 상기 시차와 원근법을 이용하여 정확한 위치, 거리를 추정하기 위해 우선 시차를 이용하여 거리를 추정한다. 상기 시차를 이용하여 거리를 추정하는 방법에는 여러 가지 거리 추정 및 보간 방식이 사용될 수 있다.
이하에서는 상기 거리 추정 및 보간 방식의 일 예로서, 포물선을 이용한 2차 보간 방식을 이용하여 거리를 추정하는 방식에 대해 설명하기로 한다.
상기 스테레오 비전 시스템에서는 생성된 깊이 맵(depth map)과 촬영된 좌우 영상을 이용하여 객체를 추출할 수 있다. 그리고 상기 깊이 맵을 이용하여 상기 객체의 중심을 구한다. 예를 들어, 상기 객체는 같은 시차(disparity)를 갖는 픽셀들의 영역을 객체로 추출할 수 있고, 상기 추출된 영역의 중심을 객체의 중심으로 사용할 수 있다.
상기 객체의 중심이 정해지면, 상기 기준 영상에서 객체의 중심을 중심 픽셀로 하는 윈도우를 설정한다. 상기 기준 영상은 좌측 영상 또는 우측 영상을 가운데 하나를 기준 영상으로 할 수 있으며, 구현 예에 따라 달라질 수 있다. 이하에서는 설명의 편의를 위해 좌측 영상을 기준 영상으로 한 경우에 대해 설명하도록 한다.
상기 윈도우는 픽셀단위로 홀수 크기를 가질 수 있다. 예를 들어, 디폴트(default)로 설정되는 윈도우로 3×3 크기를 갖는 윈도우를 설정할 수 있다. 상기 윈도우의 크기는 원 영상의 휘도값의 분산에 따라 조정한다. 예를 들어, 상기 설정된 윈도우 안의 영상에 대해 휘도값 분산이 설정된 임계치(TH)보다 커질때까지 상기 윈도우의 크기를 확대한다(5×5, 7×7, …). 상기 휘도의 변화가 적으면 좌우 영상의 정확한 대응점을 찾기 어려우므로, 상기 임계치는 좌우 영상의 정확한 대응점을 찾기에 충분할 정도로 설정될 수 있으며, 이는 구현 예에 따라 달라질 수 있다. 다만, 상기 추정된 객체의 경계선 영역에서는 교합(occlusion)이 발생할 수 있으므로, 상기 윈도우의 크기는 추정된 객체의 경계선을 넘지 않도록 한다.
이하에서는 설명의 편의를 위해 상기 윈도우의 크기가 3×3로 설정된 경우를 가정하여 설명하기로 한다. 상기 좌측 영상에 대해 객체의 중심을 중심 픽셀로 하는 윈도우가 설정되면, 깊이 맵을 이용하여 좌측 영상 윈도우 내 픽셀의 시차의 평균값을 구한다. 그리고 상기 평균값을 반올림하여 정수값을 얻는다. 상기 반올림된 정수값에 해당하는 시차 값을 갖는 픽셀(대응 픽셀)을 상기 우측 영상의 객체 영역에서 찾아 상기 픽셀을 중심 픽셀로 하는 같은 크기(3×3)의 윈도우를 우측 영상에 설정한다.
우측 영상에 상기 윈도우가 설정되면, 상기 우측 영상의 윈도우를 한 픽셀씩 이동하면서 좌측 영상과 우측 영상의 윈도우 내 픽셀의 정규 유사도(Normalized Cross Correlation : 이하 NCC)를 구한다. 상기 정규 유사도는 윈도우 내 픽셀의 유사도 정도를 정규화한 값을 나타낸다.
예를 들어, 상기 좌측 영상의 객체의 중심을 중심 픽셀로 하여 설정된 윈도우와 우측 영상에서 상기 대응 픽셀을 중심 픽셀로 하여 설정된 윈도우의 NCC 값을 NCC0이라고 하고, 좌측 영상의 객체의 중심을 중심 픽셀로 하여 설정된 윈도우와 상기 우측 영상의 상기 대응 픽셀에서 우측으로 한 픽셀 이동한 픽셀을 중심 픽셀로 하여 설정된 윈도우의 NCC 값을 NCC1이라고 하고, 좌측 영상의 객체의 중심을 중심 픽셀로 하여 설정된 윈도우와 상기 우측 영상의 상기 대응 픽셀에서 좌측으로 한 픽셀 이동한 픽셀을 중심 픽셀로 하여 설정된 윈도우의 NCC 구한 값을 NCC-1이라고 한다. 이하 수학식 6, 7은 상기 NCC를 구하는 수식을 나타낸다.
Figure 112007094670928-pat00006
Figure 112007094670928-pat00007
상기 수학식 6과 수학식 7에서 W(x,y)는 윈도우 안의 x,y 좌표에서의 휘도값, Wm(x,y)는 윈도우 안의 전체 픽셀에 대한 휘도의 평균값, W'(x,y)는 상기 x,y 좌표에서의 휘도값을 전체 픽셀에 대한 휘도의 평균값을 뺀 값을 놈(norm) 값으로 나눈 값을 나타낸다. 상기 수학식 7에서 연산자 ⓧ는 좌측 영상의 윈도우 안에 있는 각 픽셀의 WL'(x,y) 값과 우측 영상의 윈도우 안에 있는 각 픽셀의 WR'(x,y) 값을 크로스 코릴레이션(cross correlation)하는 연산을 나타낸다. 상기 d0는 상기 좌 측 영상의 윈도우에서 구한 윈도우 내 픽셀의 시차 평균값을 반올림한 값이다. k는 윈도우의 위치를 이동하여 NCC 값을 구하는 경우에 윈도우의 중심 픽셀이 이동한 양을 나타낸다.
상기 예에서는 좌측 영상을 기준 영상으로 하여 우측 영상의 윈도우를 이동하는 경우를 예로 하였으나, 상기에서 언급한 바와 같이 구현 예에 따라 우측 영상을 기준 영상으로 한 경우에는, 좌측 영상의 윈도우를 이동하는 경우로 구현할 수도 있다.
본 실시예에서는 NCC 값을 구하는 방식을 사용하였으나, 구현 예에 따라 윈도우 내 픽셀의 휘도 값에 대한 SSD(Sum of Squared Difference) 값, SAD(Sum of Absolute Difference) 값을 상기 NCC 값을 대신하여 사용할 수도 있다.
상기 구하여진 3개의 NCC 값(NCC-1, NCC0, NCC1)을 이용하여 정규 유사도가 최대가 되는 정밀 시차를 추정할 수 있다. 예를 들어, 상기 3개의 NCC 값이 2차 포물선을 형성한다고 가정한다.
도 4는 본 발명에 따른 일 실시예로서, 정규 유사도 값이 2차 포물선을 형성하는 경우의 예를 나타낸 도면이고, 도 5는 본 발명에 따른 일 실시예로서, 정규 유사도 값이 좌우 비대칭형의 포물선을 형성하는 경우의 예를 나타낸 도면이다.
상기 도 4는 상기 3개의 NCC 값이 좌우 대칭형의 2차 포물선을 형성하는 경우를 가정한 경우이다. 좌측 영상 윈도우의 중심 픽셀과 우측 영상 윈도우의 중심 픽셀 차이가 d0인 경우 NCC0 값이, 중심 픽셀 차이가 d0+1인 경우 NCC1 값이, 중심 픽셀 차이가 d0-1인 경우 NCC-1 값이 2차 포물선 좌표에 나타난 것을 볼 수 있다. 상기 도 4에서 정규 유사도가 최대가 되는 지점의 시차(dd)와 좌우 윈도우 중심 픽셀의 시차(d0)와 τ1만큼 차이가 남을 알 수 있다. 이는 상기에서 설명한 바와 같이 픽셀을 기초로 한 스테레오 비전 시스템에 있어서 픽셀간 양자화 오차에 기인한다. 상기 도 4에서는 중심 픽셀 차이가 d0인 경우와 d0-1인 경우의 사이에서 정규 유사도가 최대로 나타난다.
다만, 상기 NCC 값이 완전한 좌우 대칭형의 2차 포물선을 형성하는 경우는 드물다. 따라서, 상기 도 5의 좌우 비대칭 포물선과 같이 d02 를 기준으로 좌측은 내부의 2차 포물선(y1=a1x2+b1x+c1) 형태를 가지며, 우측은 외부의 2차 포물선(y2=a2x2+b2x+c2) 형태를 가지는 경우를 가정한다. 상기 도 5에서는 좌측 영상 윈도우의 중심 픽셀과 우측 영상 윈도우의 중심 픽셀 차이가 d0인 경우의 NCC0 값, 중심 픽셀 차이가 d0+1인 경우의 NCC1 값은 외부의 2차 포물선(y2=a2x2+b2x+c2) 위에 위치하며, 중심 픽셀 차이가 d0-1인 경우의 NCC-1 값은 내부의 2차 포물선(y1=a1x2+b1x+c1) 위에 나타난 것을 볼 수 있다. 따라서, 상기 두 개의 정규 유사도 2차 포물선의 합이 최대가 되는 지점의 시차를 정밀 시차로 추정하여 객체의 정 확한 거리를 추정한다. 상기 도 5에서는 정밀 시차로 추정되는 위치와 좌우 윈도우 중심 픽셀의 시차(d0)가 τ2만큼 차이가 남을 알 수 있다.
상기 정밀 시차로 추정되는 지점의 시차(d02)를 추정하기 위해서는 상기 두 개의 포물선의 계수(a1, a2, b1, b2, c1, c2)를 알아야 한다. 도 6은 본 발명에 따른 일 실시예로서, 정규 유사도 포물선의 계수를 구하는 순서를 개략적으로 나타낸 도면이다.
우선 상기 도 4에서와 같이 상기 NCC 값이 좌우 대칭형의 1개의 포물선을 형성한다고 가정하여 상기 포물선에서 정규 유사도 값이 최대(coarse extremum)가 되는 지점(d01)을 찾을 수 있다(S600). 상기 값은 포물선 피팅(parabola fitting) 방법 등을 사용해서 찾을 수 있다. 상기 포물선 상의 3개의 위치에 대한 값(NCC-1, NCC0, NCC1)을 알고 있으므로, 상기 포물선의 수학식을 이용하여 상기 최대가 되는 지점을 찾을 수 있다.
상기 S600 단계에서 정규 유사도 값이 최대가 되는 지점을 찾은 경우, 상기 최대 값을 중심으로 좌우 2개의 정규 유사도 포물선을 가정한다. 상기 가정된 포물선은 각각 y1=a1x2+b1x+c1 수학식과 y2=a2x2+b2x+c2의 수학식으로 나타낼 수 있다.
상기 2개의 포물선을 구하기 위해, 기준 영상으로 설정된 좌측 영상을 이용하여 상기 포물선의 a1과 a2 계수를 구한다(S610). 기준 영상인 상기 좌측 영상에서 객체의 중심을 중심 픽셀로 하여 설정된 윈도우와, 상기 좌측 영상의 객체의 중심에서 한 픽셀 좌측에 있는 픽셀을 중심 픽셀로 하여 설정된 윈도우에 대해 NCC(
Figure 112007094670928-pat00008
) 값을 구한다. 그리고 상기 좌측 영상에서 객체의 중심을 중심 픽셀로 하여 설전된 윈도우와, 상기 좌측 영상의 객체의 중심에서 한 픽셀 우측에 있는 픽셀을 중심 픽셀로 하여 설정된 윈도우에 대해 NCC(
Figure 112007094670928-pat00009
) 값을 구한다. 상기 IL(x) 값은 x 위치 픽셀에서의 휘도 값을 사용할 수 있다. 상기 2개의 포물선의 a1과 a2 계수는
Figure 112007094670928-pat00010
Figure 112007094670928-pat00011
를 이용하여 얻을 수 있다.
상기 S610 단계에서 a1과 a2 계수가 얻고, 나머지 b1, b2, c1 및 c2를 구하여 최대 값(coarse extremum)을 중심으로 좌우 2개의 포물선의 모든 계수를 구한다(S620). 그리고 상기 가정한 2개의 규정 유사도 포물선의 합이 최대가 되는 위치를 구한다(S630). 상기 포물선의 나머지 계수는 상기 3개의 NCC값(NCC-1, NCC0, NCC1)과 상기 좌측 영상에 설정된 윈도우 자신의 NCC값을 이용하여 구할 수 있다. 예를 들어, 상기 좌측 영상에 설정된 윈도우 자신의 NCC값과 상기 NCC-1을 이용하여 b1과 c1값을 구할 수 있고, 상기 좌측 영상에 설정된 윈도우 자신의 NCC값과 상기 NCC1값을 이용하여 b2와 c2값을 구할 수 있다.
상기와 같은 방식에 따라 얻어진 2개의 포물선의 합이 최대가 되는 위치를 양자화 오차를 보간한 정밀 시차로 추정할 수 있으며, 상기 정밀 시차는
Figure 112007094670928-pat00012
,
Figure 112007094670928-pat00013
로 나타낼 수 있다. 상기 dd는 시차 'xr-xl'를 나타내며, k는 상수, dp는 픽셀간 거리 값을 나타낸다. 상기 얻어진 정밀 시차 값(dd ≒ xr-xl)을 상기 수학식 1에 대입하여 목표 객체의 정확한 거리와 위치를 추정할 수 있다.
상기에서 언급한 바와 같이 상기 거리추정 및 보간 방식은 일 예이며, 구현 예에 따라 다른 방식으로 정밀 거리가 추정될 수도 있다.
상기와 같이 목표 객체의 거리, 위치가 추정되면 필터를 이용하여 상기 추정된 값을 필터링(filtering)한다. 상기 필터의 예로 칼만 필터(Kalman filter) 등을 사용할 수 있다. 상기 칼만 필터의 경우 가우시안(guassian) 함수를 기초로 하는 확률 모델에 따라 입력된 값을 필터링한다. 상기 필터는 시간에 따라 입력되는 거리, 위치 값들을 확률 모델에 따라 필터링하여, 확률 밀도 함수와 입력되는 값들의 평균(mean), 분산(variance), 확률 밀도가 최대가 되는 거리(Ddisp), 확률 밀도 함수 의 공분산(covariance) 값(Pdisp) 등을 얻을 수 있다. 그리고, 상기 필터는 상기 확률 밀도 함수를 통해 확률 밀도가 가장 높은 거리(Ddisp)를 시차 방식을 통해 추정된 객체의 거리, 위치로 추정할 수 있다.
상기 시차 방식을 통해 추정된 거리(Ddisp)가 설정된 임계값(Dth)보다 작고, 확률 밀도 함수의 공분산(covariance) 값(Pdisp)이 설정된 임계값(Pth)보다 작을 때, 즉, 객체와의 거리가 일정 거리보다 가깝고 공분산이 일정 값보다 작을 때 상기 필터링을 통해 추정된 거리의 신뢰도가 높다. 상기 임계값들은 요구되는 신뢰도에 따라 구현 예마다 달라질 수 있다.
상기 시차 방식을 통해 추정된 거리와 공분산 값이 해당 임계값보다 작은 경우에는 상기 추정된 거리 값과 상기 수학식 4를 이용하여 객체의 실제 높이(H)를 추정할 수 있다. 상기 실제 높이가 구해지면 상기 높이 값과 수학식 5를 이용하여 원근법에 의한 객체의 거리, 위치를 추정할 수 있다. 상기 원근법에 의한 객체의 거리, 위치가 추정되면, 상기에서 설명한 필터링을 통하여 확률 밀도가 최대가 되는 거리(Dper)와 공분산(Pper)를 추정할 수 있다. 상기 확률 밀도가 최대가 되는 거리(Dper)를 원근법 방식을 통해 추정된 객체의 거리, 위치로 추정할 수 있다. 원근법을 통해 추정된 거리의 확률 밀도가 최대가 되는 값을 구하는 방법은 상기 시차 방식에서 설명한 바와 같다.
도 7은 본 발명에 따른 일 실시예로서, 확률 밀도 함수를 개략적으로 나타낸 도면이다. 상기 도 7은 시차 방식에 따라 추정된 거리(Ddisp)와 확률 밀도 함수, 원근법에 따라 추정된 거리(Dper)와 확률 밀도 함수를 나타내며, D는 확률 밀도 함수를 보간하여 추정된 거리를 나타낸다.
상기 시차 방식에 따라 추정된 거리, 확률 밀도 함수와 상기 원근법을 이용하여 추정된 거리, 확률 밀도 함수를 보간하여 더 정확한 거리를 추정할 수 있다. 예를 들어, 상기 시차 방식에 따른 확률 밀도와 원근법에 따른 확률 밀도를 더하여 가장 높은 확률 밀도를 갖는 위치를 객체의 거리로 추정하여 정확한 거리를 추정할 수 있다. 상기 도 7에서는 D를 축으로 하는 확률 밀도 함수가 시차 방식에 따른 확률 밀도와 원근법에 따른 확률 밀도를 더한 예이다. 상기 가장 높은 확률 밀도를 갖는 위치는 상기 시차 방식에 따른 확률 밀도 함수와 원근법에 따른 확률 밀도 함수를 더한 후, 미분한 값이 0인 지점을 최대 값을 갖는 위치로 구할 수 있다.
도 8은 본 발명에 따른 일 실시예로서, 거리 추정 장치의 구성을 개략적으로 나타낸 블록도이다. 상기 거리 추정 장치는 좌측 영상 촬영장치(800), 우측 영상 촬영장치(802), 스테레오 매칭부(810), 객체 검출부(820), 제1 거리 추정부(830), 제1 필터부(840), 높이 추정부(850), 영상 높이 추정부(860), 객체 거리 추정부(870), 제2 필터부(880) 및 제3 거리 추정부(890)를 포함한다.
좌측 영상 촬영 장치(800)와 우측 영상 촬영 장치(802)는 스테레오 비전 시스템에서 거리, 속도 등의 추정에 필요한 좌측 영상과 우측 영상을 촬영한다. 상기 영상 촬영 장치는 예를 들어, 카메라 등이 사용될 수 있다. 상기 좌측 영상 촬영 장치(800)와 우측 영상 촬영 장치(802)에서 각각 얻어진 좌측 영상과 우측 영상은 스테레오 매칭부(810)로 입력된다. 상기 스테레오 매칭부(810)에서는 입력된 좌측 영상과 우측 영상을 매칭(matching)하여 촬영된 영상의 깊이 맵(depth map)을 얻을 수 있다.
객체 검출부(820)는 상기 깊이 맵 정보를 이용하여 거리나 속도 등을 추정하고자 하는 객체를 추출할 수 있다. 예를 들어, 상기에서 설명한 바와 같이 시차 값이 동일한 영역 등을 이용하여 상기 객체를 추출할 수 있다. 제1 거리 추정부(830)는 상기 객체 검출부(820)에서 추출된 객체 정보를 이용하여 추출된 객체의 거리를 추정한다. 상기 제1 거리 추정부(830)의 거리 추정 방식으로 다양한 방식의 거리 추정 방법과 보간 방법 등이 적용될 수 있다. 일 예로, 상기 제1 거리 추정부(830)는 상기에서 설명한 시차를 이용한 거리 추정 방식을 이용하여 객체의 거리를 추정할 수 있다. 제1 필터부(840)는 상기 제1 거리 추정부(830)에서 추정된 거리 정보를 필터링하여 확률 밀도가 최대가 되는 거리(Ddisp)와 확률 밀도 함수의 공분산(Pdisp)을 산출한다. 상기 제1 필터부의 예로 칼만 필터 등을 사용할 수 있다.
상기 도 8에서 높이 추정부(850), 영상 높이 추정부(860) 및 객체 거리 추정부(870)는 상기 확률 밀도가 최대가 되는 거리(Ddisp) 정보를 이용하여 객체의 거리를 추정하는 제2 거리 추정부로 볼 수 있다.
상기 높이 추정부(850)는 상기 제1 필터부(840)에서 산출된 거리 정보(Ddisp)를 이용하여 객체의 실제 높이(H)를 추정한다. 상기 높이 추정 방식은 상기에서 설명한 바와 같다. 영상 높이 추정부(860)는 촬영된 영상에서의 객체의 높이를 추정한다. 상기 영상에서의 객체의 높이는, 상기에서 설명한 바와 같이 좌측 영상에서의 높이만을 이용하거나, 우측 영상에서의 높이만을 이용하거나, 또는 좌측 영상에서의 높이와 우측 영상에서의 높이를 평균하여 사용할 수 있다.
객체 거리 추정부(870)는 상기 높이 추정부(850)에서 추정된 객체의 실제 높이(H) 정보와 영상 높이 추정부(860)에서 추정된 영상의 높이 정보를 이용하여 객체의 거리를 추정할 수 있다. 일 예로, 상기 객체 거리 추정부(870)는 원근법에 따른 거리 추정 방법을 사용하여 객체의 거리를 추정할 수 있다. 제2 필터부(880)는 상기 객체 거리 추정부(870)에서 추정된 거리 정보를 필터링하여 확률 밀도가 최대가 되는 거리(Dper)와 확률 밀도 함수의 공분산(Pper)을 산출한다. 상기 제2 필터부의 예로 칼만 필터 등을 사용할 수 있다.
제3 거리 추정부(890)는 상기 제1 필터부(840)에서 산출된 거리 정보(Ddisp)와 확률 밀도 함수의 공분산(Pdisp), 상기 제2 필터부(880)에서 산출된 거리 정보(Dper)와 확률 밀도 함수의 공분산(Pper)을 이용하여 객체의 거리를 추정할 수 있다. 예를 들어, 상기 제3 거리 추정부(890)는 확률 모델과 상기 제1 필터부(840)에 서 산출된 거리 정보(Ddisp), 확률 밀도 함수의 공분산(Pdisp) 등을 이용하여 제1 거리 추정부(830)에서 추정된 거리의 확률 밀도 함수를 구할 수 있고, 확률 모델과 상기 제2 필터부(880)에서 산출된 거리 정보(Dper), 확률 밀도 함수의 공분산(Pper) 등을 이용하여 객체 거리 추정부(870)에서 추정된 거리의 확률 밀도 함수를 구할 수 있다. 상기 제3 거리 추정부(890)는 상기에서 얻어진 각 확률 밀도의 합이 최대가 되는 위치를 객체의 거리(D)로 추정할 수 있다.
도 9는 본 발명에 따른 일 실시예로서, 거리 추정 방법을 개략적으로 나타낸 순서도이다.
스테레오 비전 시스템의 좌우 영상 촬영 장치를 이용하여 영상을 촬영하고, 상기 촬영된 영상의 목표 객체를 검출한다(S900). 상기 스테레오 비전 시스템의 메모리에 저장된 객체의 높이 값(H)을 초기화하고(S902), 상기 검출된 객체에 대한 시차를 산출한다(S904). 상기 S904 단계에서 객체의 시차가 산출되면, 상기 시차를 이용하여 목표 객체의 거리를 추정한다(S906). 상기 시차를 이용한 객체 거리 추정 방식은 상기에서 설명한 바와 같다.
상기 S906 단계에서 객체의 거리가 추정되면 상기 추정된 거리 정보를 필터링하여 확률 밀도가 최대인 거리(Ddisp)와 상기 확률 밀도의 공분산(Pdisp) 등을 산출한다(S908). 상기 필터링 방식의 예로 칼만 필터링 방식 등을 사용할 수 있다. 상기 S908 단계에서 산출된 확률 밀도가 최대인 거리(Ddisp)가 임계값(Dth)보다 작지 않 고, 공분산(Pdisp)이 임계값(Pth)보다 작지 않은 경우(S910), 상기 객체의 거리(D)를 상기 S908 단계에서 산출된 확률 밀도가 최대인 거리(Ddisp)로 추정한다(S912).
상기 S908 단계에서 산출된 확률 밀도가 최대인 거리(Ddisp)가 임계값(Dth)보다 작고, 공분산(Pdisp)이 임계값(Pth)보다 작은 경우(S910), 상기 확률 밀도가 최대인 거리(Ddisp) 정보를 이용하여 목표 객체의 실제 높이(H)를 산출한다(S914). Ddisp나 Pdisp가 임계값보다 클 경우에는 산출된 객체의 높이가 정확하지 않을 확률이 높기 때문에, 산출된 객체 거리(D)를 상기 S908 단계에서 산출된 확률 밀도가 최대인 거리(Ddisp)로 추정한다(S912).
상기 S914 단계에서 목표 객체의 실제 높이(H)가 산출되고, 상기 객체 높이(H) 정보를 이용하여 상기 객체의 거리를 추정한다(S916). 상기 객체의 거리 추정 방식의 일 예로, 상기에서 설명한 바와 같이 원근법에 의한 방식을 사용할 수 있다. 상기 S916 단계에서 객체의 거리가 추정되면 상기 추정된 거리 정보를 필터링하여 확률 밀도가 최대인 거리(Dper)와 상기 확률 밀도의 공분산(Pper) 등을 산출한다(S918). 상기 필터링 방식의 예로 칼만 필터링 방식 등을 사용할 수 있다.
그리고, 상기 S908 단계와 상기 S918 단계에서 각각 산출된 확률 밀도가 최대인 거리, 확률 밀도의 공분산 등을 이용하여 객체의 정확한 거리를 추정할 수 있 다(S920). 예를 들어, 상기 S920 단계에서는 확률 모델과 상기 S908 단계에서 구한 추정 거리(Ddisp), 공분산(Pdisp)을 이용하여 추정된 거리의 확률 밀도 함수를 구할 수 있고, 확률 모델과 상기 S918 단계에서 구한 추정 거리(Dper), 공분산(Pper)을 이용하여 추정된 거리의 확률 밀도 함수를 구할 수 있다. 그리고 각각 산출된 확률 밀도의 합이 최대인 점을 객체의 정확한 거리로 추정할 수 있다.
본 발명은 상술한 실시예에 한정되지 않으며, 첨부된 청구범위에서 알 수 있는 바와 같이 본 발명이 속한 분야의 통상의 지식을 가진 자에 의해 변형이 가능하고 이러한 변형은 본 발명의 범위에 속한다.
도 1은 본 본 발명에 따른 일 실시예로서, 시간에 따른 좌우 영상을 개략적으로 나타낸 도면
도 2는 본 발명에 따른 일 실시예로서, 스테레오 비전 방식에 따라 거리를 추정방식을 개략적으로 나타낸 도면
도 3은 본 발명에 따른 일 실시예로서, 원근법을 이용하여 거리를 추정방식을 개략적으로 나타낸 도면
도 4는 본 발명에 따른 일 실시예로서, 정규 유사도 값이 2차 포물선을 형성하는 경우의 예를 나타낸 도면
도 5는 본 발명에 따른 일 실시예로서, 정규 유사도 값이 좌우 비대칭형의 포물선을 형성하는 경우의 예를 나타낸 도면
도 6은 본 발명에 따른 일 실시예로서, 정규 유사도 포물선의 계수를 구하는 순서를 개략적으로 나타낸 도면
도 7은 본 발명에 따른 일 실시예로서, 확률 밀도 함수를 개략적으로 나타낸 도면
도 8은 본 발명에 따른 일 실시예로서, 거리 추정 장치의 구성을 개략적으로 나타낸 블록도
도 9는 본 발명에 따른 일 실시예로서, 거리 추정 방법을 개략적으로 나타낸 순서도
*도면의 주요 부분에 대한 부호의 설명
800 : 좌측 영상 촬영장치 802 : 우측 영상 촬영장치
810 : 스테레오 매칭부 820 : 객체 검출부
830 : 제1 거리 추정부 840 : 제1 필터부
850 : 높이 추정부 860 : 영상 높이 추정부
870 : 객체 거리 추정부 880 : 제2 필터부
890 : 제3 거리 추정부

Claims (18)

  1. 거리 추정 방법에 있어서,
    촬영된 좌우 영상에서 추출된 객체의 시차를 이용하여 상기 객체의 거리를 추정하고, 칼만 필터링을 이용하여 추정된 거리 값을 필터링하여 제1 확률 밀도를 구하는 단계;
    상기 제1 확률 밀도가 최대가 되는 거리 값과 제1 확률 밀도의 공분산 값이 각각 임계값보다 작은 경우, 상기 제1 확률 밀도가 최대가 되는 거리 값을 이용하여 상기 객체의 높이를 구하는 단계;
    상기 객체의 높이를 이용하여 상기 객체의 거리를 추정하고, 칼만 필터링을 이용하여 추정된 거리 값을 필터링하여 제2 확률 밀도를 구하는 단계; 및
    상기 제1 확률 밀도와 제2 확률 밀도를 더한 확률 밀도가 최대인 거리를 객체의 거리로 추정하는 단계를 포함하는 스테레오 비전을 이용한 거리 추정 방법.
  2. 삭제
  3. 삭제
  4. 제 1 항에 있어서,
    상기 제1 확률 밀도를 구하는 단계는,
    상기 제1 확률 밀도가 최대가 되는 거리 값과 상기 제1 확률 밀도의 공분산을 구하는 거리 추정 방법.
  5. 제 1 항에 있어서,
    상기 객체의 높이를 이용하여 거리를 추정하는 단계는,
    원근법을 이용하여 상기 객체의 높이에 따른 상기 객체의 거리를 추정하는 거리 추정 방법.
  6. 삭제
  7. 삭제
  8. 제 1 항에 있어서,
    상기 제2 확률 밀도를 구하는 단계는,
    상기 제2 확률 밀도가 최대가 되는 거리 값과 상기 제2 확률 밀도의 공분산을 구하는 거리 추정 방법.
  9. 삭제
  10. 삭제
  11. 거리 추정 장치에 있어서,
    촬영된 좌우 영상에서 추출된 객체의 시차를 이용하여 상기 객체의 거리를 추정하는 제1 거리 추정부;
    칼만 필터를 사용하여 상기 제1 거리 추정부에서 추정된 거리 값을 필터링하여 제1 확률 밀도를 구하는 제1 필터부;
    상기 제1 확률 밀도가 최대가 되는 거리 값을 이용하여 상기 객체의 높이를 추정하고, 상기 객체의 높이를 이용하여 객체의 거리를 추정하는 제2 거리 추정부;
    칼만 필터를 사용하여 상기 제2 거리 추정부에서 추정된 거리 값을 필터링하여 제2 확률 밀도를 구하는 제2 필터부; 및
    상기 제1 확률 밀도와 제2 확률 밀도를 더한 확률 밀도가 최대가 되는 거리를 객체의 거리로 추정하는 제3 거리 추정부를 포함하는 스테레오 비전을 이용한 거리 추정 장치.
  12. 삭제
  13. 제 11 항에 있어서,
    상기 제1 필터부는,
    상기 제1 확률 밀도가 최대가 되는 거리 값, 제1 확률 밀도의 공분산을 산출하는 스테레오 비전을 이용한 거리 추정 장치.
  14. 제 11 항에 있어서,
    상기 제2 거리 추정부는,
    상기 제1 확률 밀도가 최대가 되는 거리 값을 이용하여 객체의 실제 높이를 추정하는 높이 추정부;
    촬영된 영상에서의 객체의 높이를 추정하는 영상 높이 추정부; 및
    상기 추정된 객체의 실제 높이와 영상에서의 객체의 높이를 이용하여 객체의 거리를 추정하는 객체 거리 추정부를 포함하는 스테레오 비전을 이용한 거리 추정 장치.
  15. 삭제
  16. 제 11 항에 있어서,
    상기 제2 필터부는,
    상기 제2 확률 밀도가 최대가 되는 거리 값, 제2 확률 밀도의 공분산을 산출하는 스테레오 비전을 이용한 거리 추정 장치.
  17. 삭제
  18. 삭제
KR1020070140656A 2007-12-28 2007-12-28 시차와 원근법을 이용한 거리 추정 장치 및 추정 방법 KR100926287B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070140656A KR100926287B1 (ko) 2007-12-28 2007-12-28 시차와 원근법을 이용한 거리 추정 장치 및 추정 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070140656A KR100926287B1 (ko) 2007-12-28 2007-12-28 시차와 원근법을 이용한 거리 추정 장치 및 추정 방법

Publications (2)

Publication Number Publication Date
KR20090072520A KR20090072520A (ko) 2009-07-02
KR100926287B1 true KR100926287B1 (ko) 2009-11-12

Family

ID=41329735

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070140656A KR100926287B1 (ko) 2007-12-28 2007-12-28 시차와 원근법을 이용한 거리 추정 장치 및 추정 방법

Country Status (1)

Country Link
KR (1) KR100926287B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9842400B2 (en) 2015-01-27 2017-12-12 Samsung Electronics Co., Ltd. Method and apparatus for determining disparity

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101284798B1 (ko) * 2009-12-08 2013-07-10 한국전자통신연구원 단일 카메라 영상 기반의 객체 거리 및 위치 추정 장치 및 방법
KR101334107B1 (ko) * 2010-04-22 2013-12-16 주식회사 굿소프트웨어랩 차량용 멀티미디어 제어를 위한 사용자 인터페이스 장치 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0933249A (ja) * 1995-07-25 1997-02-07 Olympus Optical Co Ltd 三次元画像計測装置
JPH10239054A (ja) 1997-02-21 1998-09-11 Nippon Telegr & Teleph Corp <Ntt> 視点・物点位置計測方法及び装置
US20070076187A1 (en) 2005-10-05 2007-04-05 Goris Andrew C Measuring distance using perspective

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0933249A (ja) * 1995-07-25 1997-02-07 Olympus Optical Co Ltd 三次元画像計測装置
JPH10239054A (ja) 1997-02-21 1998-09-11 Nippon Telegr & Teleph Corp <Ntt> 視点・物点位置計測方法及び装置
US20070076187A1 (en) 2005-10-05 2007-04-05 Goris Andrew C Measuring distance using perspective

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9842400B2 (en) 2015-01-27 2017-12-12 Samsung Electronics Co., Ltd. Method and apparatus for determining disparity

Also Published As

Publication number Publication date
KR20090072520A (ko) 2009-07-02

Similar Documents

Publication Publication Date Title
US9374571B2 (en) Image processing device, imaging device, and image processing method
EP1944734B1 (en) Distance correcting apparatus of surrounding monitoring system and vanishing point correcting apparatus thereof
EP0762326B1 (en) Object detecting apparatus in which the position of a planar object is estimated by using Hough transform
US8120644B2 (en) Method and system for the dynamic calibration of stereovision cameras
KR100938195B1 (ko) 스테레오 매칭을 이용한 거리 추정 장치 및 추정 방법
US9485495B2 (en) Autofocus for stereo images
US20110032341A1 (en) Method and system to transform stereo content
CN105069804B (zh) 基于智能手机的三维模型扫描重建方法
EP2426642A1 (en) Method, device and system for motion detection
US8831359B2 (en) Apparatus and method for refining a value of a similarity measure
CN109840922B (zh) 基于双目光场相机的深度获取方法和系统
US20150294473A1 (en) Processing of Depth Images
US20110188736A1 (en) Reduced-Complexity Disparity MAP Estimation
KR101709317B1 (ko) 단일 카메라와 gps를 이용한 영상 내 객체의 좌표 산출 방법
JP5501084B2 (ja) 平面領域検出装置及びステレオカメラシステム
KR100926287B1 (ko) 시차와 원근법을 이용한 거리 추정 장치 및 추정 방법
EP2913998A1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, disparity value deriving method, and computer-readable storage medium
JP4394487B2 (ja) ステレオ画像処理装置
KR100938194B1 (ko) 객체 검출 방법 및 객체 검출 장치
US9113142B2 (en) Method and device for providing temporally consistent disparity estimations
Zhang et al. High quality depth maps from stereo matching and ToF camera
JP2004245701A (ja) 距離分布検知装置
KR100911493B1 (ko) 영상 처리 장치 및 영상 처리 방법
KR100928906B1 (ko) 시차를 이용한 거리 추정 장치 및 추정 방법
KR101266623B1 (ko) 차량간 거리 추정방법 및 그 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121016

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20131022

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20141014

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20151028

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20160928

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee