KR101088144B1 - Method for Measurement of Distance between Object and Camera using Stereo Camera - Google Patents

Method for Measurement of Distance between Object and Camera using Stereo Camera Download PDF

Info

Publication number
KR101088144B1
KR101088144B1 KR1020090072712A KR20090072712A KR101088144B1 KR 101088144 B1 KR101088144 B1 KR 101088144B1 KR 1020090072712 A KR1020090072712 A KR 1020090072712A KR 20090072712 A KR20090072712 A KR 20090072712A KR 101088144 B1 KR101088144 B1 KR 101088144B1
Authority
KR
South Korea
Prior art keywords
disparity
difference value
distance
probability
camera
Prior art date
Application number
KR1020090072712A
Other languages
Korean (ko)
Other versions
KR20110015142A (en
Inventor
한희일
Original Assignee
한국외국어대학교 연구산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국외국어대학교 연구산학협력단 filed Critical 한국외국어대학교 연구산학협력단
Priority to KR1020090072712A priority Critical patent/KR101088144B1/en
Publication of KR20110015142A publication Critical patent/KR20110015142A/en
Application granted granted Critical
Publication of KR101088144B1 publication Critical patent/KR101088144B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

본 개시는 최적화된 디스패리티(disparity)를 이용하여 카메라와 물체간의 거리를 보다 정확하게 측정하는 스테레오 카메라를 이용한 물체의거리 측정 방법에 관한 것으로, 스테레오 카메라의 대응하는 제 1 및 제 2 영상에서 대응하는 제 1 및 제 2 화소간의 제 1 차이값을 근거로 초기 디스패리티를 추정하는 단계 상기 제 1 차이값, 상기 제 1 화소와 인접 화소간의 제 n차 디스패리티의 제 2 차이값, 상기 제 1 차이값이 '0'과 '1'이 될 확률간의 제 1 비율 및 상기 제 2 차이값이 '0'과 '1'이 될 확률간의 제 2 비율에 따라 설정되는 상기 제 2 차이값에 대한 가중치, 및 상기 제 1 화소와 상기 인접 화소간의 제 3 차이값에 따라 상기 제 2 차이값의 제외 여부를 결정하는 결정값에 근거하여 제 n+1차 디스패리티를 추정하는 단계 및 상기 n+1차 디스패리티에 근거하여 해당 카메라와 물체간의 거리를 산출하는 단계를 포함할 수 있고, 상기 n은 자연수로서 n=1일 경우의 제 1 차 디스패리티는 상기 초기 디스패리티이고, 그 후 n을 기설정된 차수까지 순차 증가시켜 상기 제 n+1차의 최종 디스패리티를 추정할 수 있다. The present disclosure relates to a method for measuring the distance of an object using a stereo camera that more accurately measures the distance between the camera and the object by using optimized disparity, and corresponds to the corresponding first and second images of the stereo camera. Estimating an initial disparity based on a first difference value between the first and second pixels; the first difference value, a second difference value of an nth order disparity between the first pixel and an adjacent pixel, and the first difference A weight for the second difference value that is set according to a first ratio between the probability that the value is '0' and '1' and the second ratio between the probability that the second difference value is '0' and '1', And estimating an n + th order disparity based on a determination value for determining whether to exclude the second difference value according to a third difference value between the first pixel and the adjacent pixel. Based on parity Calculating a distance between the camera and the object, wherein n is a natural number, where the first disparity when n = 1 is the initial disparity, and then n is sequentially increased to a predetermined order. The final disparity of the n + th order can be estimated.

스테레오 카메라, 디스패리티, 거리 측정, 디스패리티 스페이스 이미지, 다이나믹 프로그래밍 Stereo Camera, Disparity, Distance Measurement, Disparity Space Image, Dynamic Programming

Description

스테레오 카메라를 이용한물체의 거리 측정 방법{Method for Measurement of Distance between Object and Camera using Stereo Camera}Method for Measurement of Distance between Object and Camera using Stereo Camera}

본 개시는 스테레오 카메라를 이용한 물체의 거리 측정 방법에 관한 것으로, 보다 상세하게는 최적화된 디스패리티(disparity)를 이용하여 카메라와 물체간의 거리를보다 정확하게 측정하는, 스테레오 카메라를 이용한 물체의 거리 측정 방법에 관한 것이다.The present disclosure relates to a method for measuring a distance of an object using a stereo camera, and more particularly, to measure a distance between an object and a camera using an optimized disparity more accurately. It is about.

일반적으로, 스테레오 카메라를 이용하여 촬영한 이미지에 나타난물체는 그 크기, 방향, 형태, 색상, 밝기 등 여러가지 면에서 변형된 모습을 하고 있다. 이러한 변형 요인이 고정된알고리즘의 적용을 어렵게 하고 성능을 저하시키는 원인이되었다.In general, objects appearing in images taken using a stereo camera have various shapes such as size, direction, shape, color, and brightness. These deformation factors make it difficult to apply fixed algorithms and cause performance degradation.

본 발명의 실시예는 위와 같은 종래의 문제점을 해결하기 위한 것으로, 그 목적은 고정된 알고리즘에 따른 방법에 의해 최적화된 디스패리티(disparity)를 구하고 그 최적화된 디스패리티를 이용하여 카메라와 물체간의 거리를 보다 정확하게 측정하는, 스테레오 카메라를 이용한 물체의 거리 측정 방법을 제공하는 것이다.An embodiment of the present invention is to solve the above conventional problems, the object of which is to obtain a disparity optimized by a method according to a fixed algorithm and the distance between the camera and the object using the optimized disparity To more accurately measure the distance of the object using a stereo camera to provide a method.

전술한 목적을 달성하기 위해 본 발명의 일 측면에 따른 스테레오 카메라를 이용한 물체의 거리 측정 방법은, 스테레오 카메라의 대응하는 제 1 및 제 2 영상에서 대응하는 제 1 및 제 2 화소간의 제 1 차이값을 근거로 초기 디스패리티를 추정하는 단계 상기 제 1 차이값, 상기 제 1 화소와 인접 화소간의 제 n차 디스패리티의 제 2 차이값, 상기 제 1 차이값이 '0'이 될 확률과 '1'이 될 확률간의 제 1 비율 및 상기 제 2 차이값이 '0'이 될 확률과 '1'이 될 확률간의 제 2 비율에 근거하여 설정되는 상기 제 2 차이값에 대한 가중치, 및 상기 제 1 화소와 상기 인접 화소간의 제 3 차이값에 따라 상기 제 2 차이값의 제외 여부를 결정하는 결정값에 근거하여 제 n+1차 디스패리티를 추정하는 단계 및 상기 n+1차 디스패리티에 근거하여 해당 카메라와 물체간의 거리를 산출하는 단계를 포함할 수 있고, 상기 n은 자연수로서 n=1일 경우의 제 1 차 디스패리티는 상기 초기 디스패리티이고, 그 후 n을 기설정된 차수까지 순차 증가시켜 상기 제 n+1차 디스패리티를 추정할 수 있다. 또한, 상기 초기 디스패리티를 추정하는 단계 전에, 상기 제 1 및 제 2 영상의 색상을 조정하는 단계를 수행할 수 있다.In order to achieve the above object, a method for measuring a distance of an object using a stereo camera according to an aspect of the present invention includes a first difference value between corresponding first and second pixels in corresponding first and second images of the stereo camera. Estimating an initial disparity based on the first difference value, the second difference value of the nth order disparity between the first pixel and the adjacent pixel, and the probability that the first difference value is '0' and '1'. A weight for the second difference value that is set based on a first ratio between the probability of 'to be equal to and the second ratio between the probability that the second difference to be' 0 'and the probability to become' 1 ', and the first Estimating an n + th order disparity based on a determination value for determining whether to exclude the second difference value according to a third difference value between a pixel and the adjacent pixel, and based on the n + first order disparity Calculate the distance between the camera and the object And n may be a natural number, and when n = 1, the first disparity is the initial disparity, and then n is sequentially increased to a predetermined order so that the n + first disparity is increased. Can be estimated. In addition, before the estimating of the initial disparity, the color adjustment of the first and second images may be performed.

상기 초기 디스패리티는 상기 제 1 차이값에 따라 생성된 디스패리티 스페이스 이미지(Disparity Space Image: DSI)에서

Figure 112009048315330-pat00001
를 최소화 하는 디스패리티이고, 여기서 U(di)는 상기 제 1 차이값이다. The initial disparity is determined in a disparity space image (DSI) generated according to the first difference value.
Figure 112009048315330-pat00001
Is a disparity that minimizes, where U (d i ) is the first difference value.

상기 n+1차 디스패리티는

Figure 112009048315330-pat00002
를 최소화하는 디스패리티이고, 여기서 U(di)는 상기 제 1 차이값, V(di, dj)는 상기 제 2 차이값, λ는 상기 가중치, lij는 상기 결정값을 나타낸다.The n + 1st disparity is
Figure 112009048315330-pat00002
U (d i ) is the first difference value, V (d i , d j ) is the second difference value, λ is the weight, and l ij is the determination value.

상기 가중치 λ는

Figure 112009048315330-pat00003
의 수식에 따라산출되고, 여기서
Figure 112009048315330-pat00004
이고,
Figure 112009048315330-pat00005
이며, P(e(di)=1/di)과 P(e(di)=0/di)는 각각 상기 제 1 차이값이 '1'이 될 확률과 '0'이 될 확률, P(Δdji=1/s)와 P(Δdji=0/s)는 각각 상기 제 2 차이값이 '1'이 될 확률과 '0'이 될 확률을 나타낸다.The weight λ is
Figure 112009048315330-pat00003
Is calculated according to the formula
Figure 112009048315330-pat00004
ego,
Figure 112009048315330-pat00005
P (e (di) = 1 / di) and P (e (di) = 0 / di) are the probability that the first difference value is '1' and the probability that '0' is P (Δd), respectively. ji = 1 / s) and P (Δd ji = 0 / s) represent the probability that the second difference value is '1' and the probability that it becomes '0', respectively.

상기 결정값 lij는 상기 제 3 차이값이 기 설정된 값보다 큰지의 여부에 따라 1'또는'0'으로 설정할 수 있다.The determination value l ij may be set to '1' or '0' depending on whether the third difference value is greater than a predetermined value.

상기 거리는

Figure 112009048315330-pat00006
의 수식에 의해 산출되고, 여기서 Z는 상기 거리, d는 상기 제 n+1차 디스패리티, f는 해당 카메라의 초점거리, B는 상기 스테레오 카메라의 두 카메라간의 거리를 나타낸다.The distance is
Figure 112009048315330-pat00006
Where Z is the distance, d is the n + th order disparity, f is the focal length of the camera, and B is the distance between two cameras of the stereo camera.

이상에서 설명한 바와 같이 본 발명의 일 측면에 따르면, 고정된 알고리즘에 따른 방법으로 최적화된 디스패리티(disparity)를 구할 수 있고, 그 최적화된 디스 패리티를 이용하여 카메라와 물체간의 거리를 보다 정확하게 구할 수 있는 효과가 발생한다.As described above, according to an aspect of the present invention, an optimized disparity may be obtained by a method according to a fixed algorithm, and the distance between the camera and an object may be more accurately calculated using the optimized disparity. That effect occurs.

이하, 본 발명의 실시예를 첨부된도면들을 참조하여 상세히설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. First of all, in adding reference numerals to the components of each drawing, it should be noted that the same reference numerals are used as much as possible even though they are shown in different drawings. In addition, in describing the present invention, when it is determined that the detailed description of the related well-known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다. In addition, in describing the component of this invention, terms, such as 1st, 2nd, A, B, (a), (b), can be used. These terms are only for distinguishing the components from other components, and the nature, order or order of the components are not limited by the terms. If a component is described as being "connected", "coupled" or "connected" to another component, that component may be directly connected to or connected to that other component, but there may be another configuration between each component. It is to be understood that the elements may be "connected", "coupled" or "connected".

도 1은 본 발명의 일 실시예에 따른 스테레오 카메라를 이용한 물체의 거리 측정 방법의 흐름도이다.1 is a flowchart illustrating a method of measuring an object distance using a stereo camera according to an exemplary embodiment of the present invention.

먼저, 스테레오 카메라의 대응하는 좌우 영상에서 구한 평균색상과 분산 등을 이용하여 그 좌우 영상의 해당 두 이미지의 색상을 조정한다(S101). First, the colors of the two images of the left and right images are adjusted by using the average color and the variance obtained from the corresponding left and right images of the stereo camera (S101).

이어, 사용자가 좌 영상에서 측정하고자 하는 물체를 포함하는 제 1 영역을 지정하면, 그 제 1 영역과 함께 우 영상에서 대응하는 제 2 영역이 동시에 지정되도록 하며, 그 지정된 좌우 영상의 제 1 및 제 2 영역(또는 영상이라 칭함)이 거리측정을 위한 입력 영상으로 발췌되어 이용되도록 한다(S103).Subsequently, when the user designates a first region including an object to be measured in the left image, a corresponding second region in the right image is simultaneously designated with the first region, and the first and the first images of the designated left and right images are simultaneously designated. Two regions (or referred to as images) are extracted and used as an input image for distance measurement (S103).

이어, 발췌된 제 1 및 제 2 영상에 대하여 각 행 별로 각 화소 값의 차로 구성되는 디스패리티 스페이스 이미지(disparity space image: DSI)를 구한 다음, 해당 DSI에 대해 다이나믹 프로그래밍(dynamic programming: DP) 기법을 적용하여 최소비용 경로를 추적함으로써 초기 디스패리티(또는, 제 1 디스패리티라 칭함) 값을 추정한다(S105). 즉, 제 1 및 제 2 영상에서 각 행별로 대응하는 제 1 및 제 2 화소간의 제 1 차이값을 근거로 초기 디스패리티를 추정하는데, 초기 디스패리티는 상기 제 1 차이값에 따라 생성된 DSI에서 DP 기법을 적용하여 하기 수학식(1)이 최소화 되는 디스패리티 di로 추정할 수 있다. 수학식 (1)에서 I는 영상을 구성하는 각 화소들의 집합을 의미한다. 수학식(1)에서 U(di)는 상기제 1 차이값을 나타내는 것으로, 하기 수학식(2)와 같이 표현되고, 수학식(2)에서 I(x,y)와 J(x,y-di)는 각각 상기 제 1 및 제 2 화소의 값을 나타낸다.Subsequently, a disparity space image (DSI) having a difference of pixel values for each row is obtained for the extracted first and second images, and then a dynamic programming (DP) technique is performed for the corresponding DSI. The initial disparity (or first disparity) value is estimated by tracing the least cost path (S105). That is, the initial disparity is estimated based on the first difference value between the first and second pixels corresponding to each row in the first and second images, and the initial disparity is determined in the DSI generated according to the first difference value. By applying the DP technique, it can be estimated as the disparity d i to minimize the following equation (1). In Equation (1), I means a set of pixels constituting the image. In Equation (1), U (d i ) represents the first difference value, and is expressed as Equation (2) below, and I (x, y) and J (x, yd) in Equation (2). i ) represents the values of the first and second pixels, respectively.

Figure 112009048315330-pat00007
--- 수학식(1)
Figure 112009048315330-pat00007
--- Equation (1)

Figure 112009048315330-pat00008
=
Figure 112009048315330-pat00009
--- 수학식(2)
Figure 112009048315330-pat00008
=
Figure 112009048315330-pat00009
--- Equation (2)

이어, 좌우 영상의 차이값(즉, 상기 제 1 차이값)뿐만 아니라 상기 추정된 제 1 디스패리티를 이용하여 DSI를 재차 구하고, 해당 DSI에 대하여 DP 기법을 적 용하여 최소비용 경로를추적함으로써 제 2 디스패리티 값을 추정한다. 이와 같이 상기 제 1 차이값 및 제 n차 디스패리티를 이용하여 해당 DSI를 구하고, 해당 DSI에 대하여 DP 기법을 적용하여 하기 수학식(3)이 최소화 되는 최소비용 경로의 디스패리티를 추적함으로써 제 n+1차 디스패리티 값을 추정한다(S107). Subsequently, the DSI is obtained by using the estimated first disparity as well as the difference value of the left and right images (ie, the first difference value), and the minimum cost path is traced by applying the DP technique to the corresponding DSI. Estimate the disparity value. As described above, the DSI is obtained using the first difference value and the n th order disparity, and the DP method is applied to the DSI to track the disparity of the least cost path in which Equation (3) is minimized. A first primary disparity value is estimated (S107).

Figure 112009048315330-pat00010
--- 수학식(3)
Figure 112009048315330-pat00010
--- Equation (3)

수학식 (3)에서 N은 i번째 픽셀에 인접한 화소들의 집합을 의미한다. 상기 수학식(3)에 따르면, 상기 제 1 차이값 U(di), 상기 제 1 화소와 인접 화소간의 제 n차 디스패리티의 제 2 차이값 V(di, dj), 상기 제 1 차이값 U(di)가 '0'이 될 확률과 '1'이 될 확률간의 제 1 비율 및 상기 제 2 차이값이 '0'이 될 확률과 '1'이 될 확률간의 제 2 비율에 근거하여 설정되는 상기 제 2 차이값 V(di, dj)에 대한 가중치 λ, 및 상기 제 1 화소와 상기 인접 화소간의 제 3 차이값에 따라 상기 제 2 차이값 V(di, dj)의 제외 여부를 결정하는 결정값 lij에 근거하여 제 n+1차 디스패리티를 추정하는데, 상기 n은 자연수로서 n=1일 경우의 제 1 차 디스패리티가 상기 초기 디스패리티이고, 그 후 n을 기설정된 차수까지 순차 증가시켜 상기 제 n+1차 디스패리티를 추정하여 그 n+1차 디스패리티를 최종 디스패리티로 설정하는 것이다. 결국, 상기 n+1차 디스패리티는 상기 수학식(3)을 최소화하는 디스패리티이다.In Equation (3), N means a set of pixels adjacent to the i-th pixel. According to Equation (3), the first difference value U (d i ), the second difference value V (d i , d j ) of the nth order disparity between the first pixel and the adjacent pixel, and the first The first ratio between the probability that the difference value U (d i ) becomes '0' and the probability that it becomes '1' and the second ratio between the probability that the second difference value becomes '0' and the probability that it becomes '1'. the second difference value that is set based on V (d i, d j) weights λ, and in accordance with a third difference value between the adjacent pixels with the first pixel and the second difference value V (d i, d j for ) Is estimated based on a decision value l ij that determines whether to exclude?), Where n is a natural number and the first disparity when n = 1 is the initial disparity. n is sequentially increased to a predetermined order to estimate the n + th order disparity, and the n + 1st order disparity is set as the final disparity. As a result, the n + first order disparity is a disparity that minimizes Equation (3).

상기 수학식 (3)에서, 상기 제 2 차이값

Figure 112009048315330-pat00011
이고 상기
Figure 112009048315330-pat00012
로 정의한다. 즉,
Figure 112009048315330-pat00013
는 인근 화소
Figure 112009048315330-pat00014
Figure 112009048315330-pat00015
의 값이 유사하면 동일 영역에 속해 있다고 가정할 수 있으므로 1에 근사한 값을 갖도록하여 두 화소에 대한 디스패리티
Figure 112009048315330-pat00016
Figure 112009048315330-pat00017
가 동일한 값을 갖도록 유도하고, 위 두 화소의 값의 차가 기 설정된 값 이상으로 크면 다른 영역에속해 있을 확률이 높으므로 상호 영향을 주지 못하도록
Figure 112009048315330-pat00018
이 되도록 조정한다. 마지막으로, 상기 가중치
Figure 112009048315330-pat00019
는 다음과 같이 구한다. 대응되는 좌우 영상 두화소의 차인
Figure 112009048315330-pat00020
(또는 U(di)라 표시함)와 인근 디스패리티의 차
Figure 112009048315330-pat00021
(또는 V(di, dj)라 표시함)를 각각
Figure 112009048315330-pat00022
,
Figure 112009048315330-pat00023
으로 정의하면 이들의 확률분포는 실험적으로 exponential 분포를 갖는다. 따라서, 다음의 수학식 (4) 및 수학식 (5)에 근거하여
Figure 112009048315330-pat00024
,
Figure 112009048315330-pat00025
를 구하고이를 이용하여 상기 가중치
Figure 112009048315330-pat00026
를 구할 수 있다.In Equation (3), the second difference value
Figure 112009048315330-pat00011
And said
Figure 112009048315330-pat00012
. In other words,
Figure 112009048315330-pat00013
Is a nearby pixel
Figure 112009048315330-pat00014
Wow
Figure 112009048315330-pat00015
If the values of are similar, it can be assumed that they belong to the same area.
Figure 112009048315330-pat00016
Wow
Figure 112009048315330-pat00017
Is derived to have the same value, and if the difference between the values of the two pixels is larger than the preset value, there is a high probability that they belong to different areas, so that they do not affect each other.
Figure 112009048315330-pat00018
Adjust so that Finally, the weight
Figure 112009048315330-pat00019
Is obtained as follows. Difference between the corresponding left and right video two pixels
Figure 112009048315330-pat00020
(Or denoted U (d i )) and the nearby disparity
Figure 112009048315330-pat00021
(Or denotes V (d i , d j ))
Figure 112009048315330-pat00022
,
Figure 112009048315330-pat00023
If they are defined as, their probability distribution has experimentally exponential distribution. Therefore, based on the following equations (4) and (5)
Figure 112009048315330-pat00024
,
Figure 112009048315330-pat00025
Find and use the weights
Figure 112009048315330-pat00026
Can be obtained.

Figure 112009048315330-pat00027
--- 수학식 (4)
Figure 112009048315330-pat00027
--- Equation (4)

Figure 112009048315330-pat00028
--- 수학식 (5)
Figure 112009048315330-pat00028
--- Equation (5)

수학식 (4)에서 P(e(di)=1/di)과 P(e(di)=0/di)는 각각 상기 제 1 차이값 U(di)가 '1'이 될 확률과 '0'이 될 확률을 나타내고, 수학식 (5)에서 P(∇dji=1/s)와 P(∇dji=0/s)는 각각 상기 제 2 차이값 V(di, dj)가 '1'이 될 확률과 '0'이 될 확률을 나타낸다. 또한, 상기 결정값 lij는 상기제 3 차이값이 기 설정된 값 미만이면 '1'로 설정하고 이상이면 '0'으로 설정할 수 있다. In Equation (4), P (e (di) = 1 / di) and P (e (di) = 0 / di) are respectively the probability that the first difference value U (d i ) becomes' 1 'and' 0 (?), Where P (sd ji = 1 / s) and P (∇d ji = 0 / s) are respectively represented by the second difference value V (d i , d j ). Represents the probability of becoming '1' and the probability of becoming '0'. In addition, the determination value l ij may be set to '1' if the third difference is less than a preset value, and to '0' if it is greater than or equal to.

마지막으로, 최종 디스패리티에 따른 맵이 주어지면 이 맵의 히스토그램과 함께 원하는 물체가 발췌된 이미지의 중앙 부분에위치해 있다는 가정을 종합하여 그 물체의 최종 디스패리티를 구하고 이를 이용하여 다음의 수학식 (6)에 따라 그 물체의 거리

Figure 112009048315330-pat00029
를 구한다.Finally, given the map according to the final disparity, the final disparity of the object is obtained by combining the histogram of the map and the assumption that the desired object is located in the center of the extracted image. 6) the distance of the object according to
Figure 112009048315330-pat00029
.

Figure 112009048315330-pat00030
--- 수학식 (6)
Figure 112009048315330-pat00030
--- Equation (6)

수학식 (6)에서

Figure 112009048315330-pat00031
는 관측물체의 최종 디스패리티이고,
Figure 112009048315330-pat00032
Figure 112009048315330-pat00033
카메라의 초점거리 및 두 카메라 간의 거리를 각각 나타낸다.In equation (6)
Figure 112009048315330-pat00031
Is the final disparity of the object,
Figure 112009048315330-pat00032
Wow
Figure 112009048315330-pat00033
The focal length of the camera and the distance between the two cameras are respectively shown.

참고로, 본 실시예에서 적용된 수학식의 도출 과정에 대해 설명한다.For reference, the derivation process of the equation applied in the present embodiment will be described.

스테레오 매칭을 두개의 MRF즉, 기준 이미지의 좌표에 해당하는 디스패리티 맵 D와 디스패리티의 불연속점 S로 모델링한다. Bayesian 법칙에따라 스테레오 이미지 I와 J가 주어졌을 때 D, S에 대한 조건부 확률은 다음과 같이 표현할 수 있다.Stereo matching is modeled as two MRFs, the disparity map D corresponding to the coordinates of the reference image and the discontinuity point S of the disparity. Given the stereo images I and J according to the Bayesian law, the conditional probabilities for D and S can be expressed as

Figure 112009048315330-pat00034
Figure 112009048315330-pat00034

이 식(7)에서,

Figure 112009048315330-pat00035
라고 가정할 수 있으므로
Figure 112009048315330-pat00036
를 최대화하는
Figure 112009048315330-pat00037
를 구함으로써 원하는디스패리티 맵을 구할 수 있다. 그런데,
Figure 112009048315330-pat00038
이고
Figure 112009048315330-pat00039
Figure 112009048315330-pat00040
는 각각 다음의 식(8)(9)와 같이 가정한다.In this equation (7),
Figure 112009048315330-pat00035
So we can assume
Figure 112009048315330-pat00036
To maximize
Figure 112009048315330-pat00037
By obtaining the desired disparity map can be obtained. By the way,
Figure 112009048315330-pat00038
ego
Figure 112009048315330-pat00039
Wow
Figure 112009048315330-pat00040
Are respectively assumed as in the following equations (8) and (9).

Figure 112009048315330-pat00041
Figure 112009048315330-pat00041

Figure 112009048315330-pat00042
Figure 112009048315330-pat00042

여기서

Figure 112009048315330-pat00043
는 두 화소
Figure 112009048315330-pat00044
Figure 112009048315330-pat00045
간의 차이를 나타내고,
Figure 112009048315330-pat00046
는 두 화소
Figure 112009048315330-pat00047
의 디스패리티
Figure 112009048315330-pat00048
Figure 112009048315330-pat00049
의 차이를 나타낸다. 따라서
Figure 112009048315330-pat00050
는 다음의 식(10)과 같이 정리할 수 있다.here
Figure 112009048315330-pat00043
Two pixels
Figure 112009048315330-pat00044
Wow
Figure 112009048315330-pat00045
Represents the difference between
Figure 112009048315330-pat00046
Two pixels
Figure 112009048315330-pat00047
Disparity of
Figure 112009048315330-pat00048
Wow
Figure 112009048315330-pat00049
Indicates a difference. therefore
Figure 112009048315330-pat00050
Can be summarized as Equation (10) below.

Figure 112009048315330-pat00051
Figure 112009048315330-pat00051

그런데

Figure 112009048315330-pat00052
는 세그멘테이션 정보
Figure 112009048315330-pat00053
에 무관하므로
Figure 112009048315330-pat00054
로 표현할 수 있다. By the way
Figure 112009048315330-pat00052
Segmentation information
Figure 112009048315330-pat00053
Is irrelevant to
Figure 112009048315330-pat00054
.

본 실시예에서는

Figure 112009048315330-pat00055
Figure 112009048315330-pat00056
는 다음과 같이 스테레오 정합에서 가장 보편적으로 사용되는 exponential 분포로 가정하였다.In this embodiment
Figure 112009048315330-pat00055
Wow
Figure 112009048315330-pat00056
Is assumed to be the most commonly used exponential distribution in stereo matching.

Figure 112009048315330-pat00057
Figure 112009048315330-pat00057

Figure 112009048315330-pat00058
Figure 112009048315330-pat00058

결국, 디스패리티를 구하는 문제는 다음 식 (13)의 해를 구하는 문제로귀결된다.As a result, the problem of obtaining disparity results in a problem of solving the following equation (13).

Figure 112009048315330-pat00059
Figure 112009048315330-pat00059

이 식 (13)의 근을 구하는데 있어서 계산량을 줄이기 위해 다음과 같이 양 변에

Figure 112009048315330-pat00060
를 취하면 다음의 식(14)와 같이 나타낼 수 있다.In order to reduce the calculation amount in the root of this equation (13),
Figure 112009048315330-pat00060
It can be expressed as the following equation (14).

Figure 112009048315330-pat00061
Figure 112009048315330-pat00061

그런데,

Figure 112009048315330-pat00062
,
Figure 112009048315330-pat00063
이므로식 (14)는 다음과 같이 나타낼수 있다.By the way,
Figure 112009048315330-pat00062
,
Figure 112009048315330-pat00063
Equation (14) can be expressed as

Figure 112009048315330-pat00064
(14)
Figure 112009048315330-pat00064
(14)

여기서,

Figure 112009048315330-pat00065
Figure 112009048315330-pat00066
는 상수이어서 이를 제거해도 결과에는 영향을 주지 않는다. 또한, 양변을
Figure 112009048315330-pat00067
로 나누면 식 (14)는 다음의 식(15)와 같이 간단히 정리할 수 있다. here,
Figure 112009048315330-pat00065
Wow
Figure 112009048315330-pat00066
Is a constant, so removing it does not affect the result. Also, both sides
Figure 112009048315330-pat00067
By dividing by, Equation (14) can be simply summarized as in Equation (15) below.

Figure 112009048315330-pat00068
Figure 112009048315330-pat00068

여기서,

Figure 112009048315330-pat00069
이다. 위 식을 최소화하는
Figure 112009048315330-pat00070
를 찾아냄으로써 디스패리티를 구할 수 있다. 이 식을 식 (3)과 비교하면
Figure 112009048315330-pat00071
이고
Figure 112009048315330-pat00072
에 각각 해당하는 메트릭이다. 본 실시예에서는 구현의편의를 위하여
Figure 112009048315330-pat00073
Figure 112009048315330-pat00074
를 각각
Figure 112009048315330-pat00075
,
Figure 112009048315330-pat00076
으로 정의하였으며, 전 화소에 대한 디스패리티
Figure 112009048315330-pat00077
를 추론하였다.here,
Figure 112009048315330-pat00069
to be. To minimize the above expression
Figure 112009048315330-pat00070
We can find the disparity by finding Comparing this expression with equation (3)
Figure 112009048315330-pat00071
ego
Figure 112009048315330-pat00072
Each metric corresponds to In this embodiment, for convenience of implementation
Figure 112009048315330-pat00073
Wow
Figure 112009048315330-pat00074
Each
Figure 112009048315330-pat00075
,
Figure 112009048315330-pat00076
Disparity for all pixels
Figure 112009048315330-pat00077
Deduced.

이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구 성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다. In the above description, all elements constituting the embodiments of the present invention are described as being combined or operating in combination, but the present invention is not necessarily limited to the embodiments. In other words, within the scope of the present invention, all of the components may be selectively operated in combination with one or more. In addition, although all of the components may be implemented in one independent hardware, a program in which some or all of each component is selectively combined to perform some or all functions combined in one or a plurality of hardware. It may be implemented as a computer program having a module. Codes and code segments constituting the computer program may be easily inferred by those skilled in the art. Such a computer program may be stored in a computer readable storage medium and read and executed by a computer, thereby implementing embodiments of the present invention. The storage medium of the computer program may include a magnetic recording medium, an optical recording medium, a carrier wave medium, and the like.

또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. In addition, the terms "comprise", "comprise" or "having" described above mean that the corresponding component may be included, unless otherwise stated, and thus excludes other components. It should be construed that it may further include other components instead. All terms, including technical and scientific terms, have the same meanings as commonly understood by one of ordinary skill in the art unless otherwise defined. Terms commonly used, such as terms defined in a dictionary, should be interpreted to coincide with the contextual meaning of the related art, and shall not be construed in an ideal or excessively formal sense unless explicitly defined in the present invention.

이상의 설명은 본 발명의기술 사상을 예시적으로 설명한것에 불과한 것으로서, 본 발명이 속하는기술 분야에서 통상의지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나 지 않는 범위에서 다양한수정 및 변형이 가능할것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는아래의 청구범위에 의하여해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and those skilled in the art to which the present invention pertains may make various modifications and changes without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention but to describe the present invention, and the scope of the technical spirit of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.

이상 설명한 바와 같이, 본 발명의 실시예에 따른 스테레오 카메라를 이용한 물체의거리 측정 방법은, 최근 스테레오 이미지에서 특정한 물체에 대하여 카메라와의 거리를 측정하고자 하는 연구가 급증하고 있으며, 그 응용분야 역시 계속 증가할 추세로, 예를 들어 해저나 심하게 오염되어 사람의 접근이 불가능한 지역 등에서 관측 물체를 스테레오 카메라로 촬영한 다음 원격에서 그 물체의 거리를 측정하고자 하는 응용 등에 적용되어, 고정된 알고리즘에 따른 방법으로 최적화된 디스패리티(disparity)를 구할 수 있고, 그 최적화된 디스패리티를 이용하여 카메라와 물체간의 거리를보다 정확하게 구할 수 있는 효과가 발생하는 매우 유용한 발명이다.As described above, in the method of measuring the distance of an object using a stereo camera according to an embodiment of the present invention, the recent research to measure the distance to a camera with respect to a specific object in a stereo image is increasing rapidly, the application field also continues Increasing trends, for example, in fixed algorithms, such as in applications where you want to take a stereo camera of an object on the sea floor or in a heavily polluted area, and then measure the distance of the object remotely. The optimized disparity can be obtained, and the optimized disparity can be used to more accurately calculate the distance between the camera and the object.

도 1은 본 발명의 실시예에 따른 스테레오 카메라를 이용한 물체의 거리 측정 방법의 흐름도이다.1 is a flowchart illustrating a method of measuring an object distance using a stereo camera according to an exemplary embodiment of the present invention.

< 도면의 주요 부분에 대한 부호의 설명 ><Description of Symbols for Main Parts of Drawings>

S101: 스테레오 이미지 색상 조정 단계S101: Stereo Image Color Adjustment Steps

S103: 거리 측정을 위한 입력 영상 발췌 단계S103: Input image excerpt for distance measurement

S105: 초기 디스패리티 추정 단계S105: Initial disparity estimation step

S107: 최종 디스패리티를 추정하는 단계S107: estimating final disparity

S109: 거리 계산 단계S109: distance calculation step

Claims (7)

스테레오 카메라를 이용한물체의 거리 측정 방법에있어서,In the method of measuring the distance of an object using a stereo camera, 스테레오 카메라의 대응하는 제 1 및 제 2 영상에서 대응하는 제 1 및 제 2 화소간의 제 1 차이값을 근거로 초기 디스패리티를 추정하는 단계Estimating initial disparity based on a first difference value between corresponding first and second pixels in corresponding first and second images of the stereo camera 상기 제 1 차이값, 상기 제 1 화소와 인접 화소간의 제 n차 디스패리티의 제 2 차이값, 상기 제 1 차이값이 '0'이 될 확률과 '1'이 될 확률간의 제 1 비율 및 상기 제 2 차이값이 '0'이 될 확률과 '1'이 될 확률간의 제 2 비율에 따라 설정되는 상기 제 2 차이값에 대한 가중치, 및 상기 제 1 화소와 상기 인접 화소간의 제 3 차이값에 따라 상기 제 2 차이값의 제외 여부를 결정하는 결정값에 근거하여 제 n+1차 디스패리티를 추정하는 단계 및 The first difference value, the second difference value of the nth order disparity between the first pixel and the adjacent pixel, a first ratio between a probability that the first difference value is '0' and a probability that it becomes '1' and the A weight for the second difference value that is set according to a second ratio between a probability that the second difference value becomes '0' and a probability that it becomes '1', and a third difference value between the first pixel and the adjacent pixel. Estimating an n + 1st order disparity based on a determination value for determining whether to exclude the second difference value; 상기 n+1차 디스패리티에 근거하여 해당 카메라와 물체간의 거리를 산출하는 단계를 포함하고,Calculating a distance between the camera and the object based on the n + 1st disparity; 상기 n은 자연수로서 상기 초기 디스패리티는 n=1일 경우의 제 1 차 디스패리티이고, 그 후 n을 기설정된 차수까지 순차 증가시켜 상기 제 n+1차 디스패리티를 추정하는 것을 특징으로 하는 스테레오 카메라를 이용한 물체의 거리 측정 방법.Wherein n is a natural number and the initial disparity is a first disparity when n = 1, and thereafter, n is sequentially increased to a predetermined order to estimate the n + th first disparity. How to measure the distance of an object using a camera. 제 1 항에 있어서,The method of claim 1, 상기 초기 디스패리티는 상기 제 1 차이값에 따라 생성된 디스패리티 스페이스 이미지(Disparity Space Image: DSI)에서
Figure 112011032305087-pat00078
(여기서, I는 영상을 구성하는 각 화소들의 집합)를 최소화하는 디스패리티이고, U(di)는 상기 제 1 차이값인 것을 특징으로 하는 스테레오 카메라를 이용한 물체의 거리 측정 방법.
The initial disparity is determined in a disparity space image (DSI) generated according to the first difference value.
Figure 112011032305087-pat00078
Wherein I is a disparity that minimizes the set of pixels constituting the image, and U (d i ) is the first difference value.
제 1 항에 있어서,The method of claim 1, 상기 n+1차 디스패리티는
Figure 112011032305087-pat00079
(여기서, I는 영상을 구성하는 각 화소들의 집합, N은 i번째 화소에 인접한 화소들의 집합을 의미함)를 최소화하는 디스패리티이고, U(di)는 상기 제 1 차이값, V(di, dj)는 상기 제 2 차이값, λ는 상기 가중치, lij는 상기 결정값을 나타내는 것을 특징으로 하는 스테레오 카메라를 이용한 물체의 거리 측정 방법.
The n + 1st disparity is
Figure 112011032305087-pat00079
Where I is a set of pixels constituting an image, N is a set of pixels adjacent to an i-th pixel, and U (d i ) is the first difference value, V (d i , d j ) is the second difference value, λ is the weight, l ij represents the determination value, the distance measuring method of the object using a stereo camera.
제 3 항에 있어서,The method of claim 3, wherein 상기 가중치 λ는
Figure 112011032305087-pat00080
의 수식에 따라 산출되고,
Figure 112011032305087-pat00081
이고,
Figure 112011032305087-pat00082
이며, P(e(di)=1/di)과 P(e(di)=0/di)는 각각 상기 제 1 차이값이 '1'이 될 확률과 '0'이 될 확률, P(∇dji=1/s)와 P(∇dji=0/s)는 각각 상기 제 2 차이값이 '1'이 될 확률과 '0'이 될 확률을 나타내는 것을 특징으로 하는 스테레오 카메라를 이용한 물체의 거리 측정 방법.
The weight λ is
Figure 112011032305087-pat00080
Calculated according to the formula of,
Figure 112011032305087-pat00081
ego,
Figure 112011032305087-pat00082
P (e (di) = 1 / di) and P (e (di) = 0 / di) are the probability that the first difference value is '1' and the probability that '0' is P, d ji = 1 / s) and P (∇d ji = 0 / s) respectively indicate the probability that the second difference is '1' and the probability of becoming '0'. Distance measurement method.
제 3 항에 있어서,The method of claim 3, wherein 상기 결정값 lij는 상기 제 3 차이값이 기 설정된 값 미만이면 '1', 이상이면 '0'으로 설정하는 것을 특징으로 하는 스테레오 카메라를 이용한 물체의거리 측정 방법.The determination value l ij is set to '1' if the third difference is less than a preset value, and to '0' if the third difference is greater than or equal to a predetermined value. 제 1 항에 있어서,The method of claim 1, 상기 거리는
Figure 112009048315330-pat00083
의 수식에 의해 산출되고, Z는 상기 거리, d는 상기 제 n+1차 디스패리티, f는 해당 카메라의 초점거리, B는 상기 스테레오 카메라의 두 카메라간의 거리를 나타내는 것을 특징으로 하는 스테레오 카메라를 이용한 물체의 거리 측정 방법.
The distance is
Figure 112009048315330-pat00083
Wherein the distance Z is the distance, d is the n + th order disparity, f is the focal length of the camera, and B is the distance between the two cameras of the stereo camera. Distance measurement method of the used object.
제 1 항에 있어서,The method of claim 1, 상기 초기 디스패리티를 추정하는 단계 전에, 상기 제 1 및 제 2 영상의 색상을 조정하는 단계를 수행하는 것을 특징으로 하는 스테레오 카메라를 이용한 물체의 거리 측정 방법.And adjusting the colors of the first and second images before the estimating the initial disparity.
KR1020090072712A 2009-08-07 2009-08-07 Method for Measurement of Distance between Object and Camera using Stereo Camera KR101088144B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090072712A KR101088144B1 (en) 2009-08-07 2009-08-07 Method for Measurement of Distance between Object and Camera using Stereo Camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090072712A KR101088144B1 (en) 2009-08-07 2009-08-07 Method for Measurement of Distance between Object and Camera using Stereo Camera

Publications (2)

Publication Number Publication Date
KR20110015142A KR20110015142A (en) 2011-02-15
KR101088144B1 true KR101088144B1 (en) 2011-12-02

Family

ID=43774015

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090072712A KR101088144B1 (en) 2009-08-07 2009-08-07 Method for Measurement of Distance between Object and Camera using Stereo Camera

Country Status (1)

Country Link
KR (1) KR101088144B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9547933B2 (en) 2011-11-22 2017-01-17 Samsung Electronics Co., Ltd Display apparatus and display method thereof
KR101961687B1 (en) * 2017-10-20 2019-03-25 한국항공대학교산학협력단 Scene flow learning method for scene flow estimation and scene flow estimation method
KR20190051114A (en) * 2017-11-06 2019-05-15 한국항공대학교산학협력단 scene flow Learning METHOD FOR scene flow Estimation AND scene flow Estimation METHOD
US10341634B2 (en) 2016-01-29 2019-07-02 Samsung Electronics Co., Ltd. Method and apparatus for acquiring image disparity

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101310923B1 (en) * 2012-05-04 2013-09-25 대구대학교 산학협력단 Method for depth estimation under low light level conditions using a stereoscopic passive photo-counting imaging system
KR102350232B1 (en) 2014-11-20 2022-01-13 삼성전자주식회사 Method and apparatus for matching stereo images

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070122028A1 (en) 2005-11-30 2007-05-31 Microsoft Corporation Symmetric stereo model for handling occlusion
JP2009139995A (en) 2007-12-03 2009-06-25 National Institute Of Information & Communication Technology Unit and program for real time pixel matching in stereo image pair

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070122028A1 (en) 2005-11-30 2007-05-31 Microsoft Corporation Symmetric stereo model for handling occlusion
JP2009139995A (en) 2007-12-03 2009-06-25 National Institute Of Information & Communication Technology Unit and program for real time pixel matching in stereo image pair

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9547933B2 (en) 2011-11-22 2017-01-17 Samsung Electronics Co., Ltd Display apparatus and display method thereof
US10341634B2 (en) 2016-01-29 2019-07-02 Samsung Electronics Co., Ltd. Method and apparatus for acquiring image disparity
KR101961687B1 (en) * 2017-10-20 2019-03-25 한국항공대학교산학협력단 Scene flow learning method for scene flow estimation and scene flow estimation method
KR20190051114A (en) * 2017-11-06 2019-05-15 한국항공대학교산학협력단 scene flow Learning METHOD FOR scene flow Estimation AND scene flow Estimation METHOD
KR102034024B1 (en) 2017-11-06 2019-10-18 한국항공대학교산학협력단 scene flow Learning METHOD FOR scene flow Estimation AND scene flow Estimation METHOD

Also Published As

Publication number Publication date
KR20110015142A (en) 2011-02-15

Similar Documents

Publication Publication Date Title
KR101088144B1 (en) Method for Measurement of Distance between Object and Camera using Stereo Camera
US9092875B2 (en) Motion estimation apparatus, depth estimation apparatus, and motion estimation method
US9361699B2 (en) Imaging system and method
US20100142828A1 (en) Image matching apparatus and method
US10254854B2 (en) Tracker for cursor navigation
KR20060048642A (en) Color segmentation-based stereo 3d reconstruction system and process
KR20160060358A (en) Method and apparatus for matching stereo images
JP2018151689A (en) Image processing apparatus, control method thereof, program and storage medium
JP6320115B2 (en) Image processing apparatus, image processing method, and program
US9104904B2 (en) Disparity estimation method of stereoscopic image
JP2018195084A (en) Image processing apparatus, image processing method, program, and storage medium
WO2013035457A1 (en) Stereoscopic image processing apparatus, stereoscopic image processing method, and program
KR20160098012A (en) Method and apparatus for image matchng
CN110428461B (en) Monocular SLAM method and device combined with deep learning
US9721348B2 (en) Apparatus and method for raw-cost calculation using adaptive window mask
JP5200042B2 (en) Disparity estimation apparatus and program thereof
KR20150097251A (en) Camera alignment method using correspondences between multi-images
US8594433B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
JP6221333B2 (en) Image processing apparatus, image processing circuit, and image processing method
US10212412B2 (en) Method of increasing photographing speed of photographing device
KR20140040407A (en) Stereo matching apparatus using image property
CN113965697B (en) Parallax imaging method based on continuous frame information, electronic device and storage medium
CN116188535A (en) Video tracking method, device, equipment and storage medium based on optical flow estimation
US11948328B2 (en) Image-processing device, image-processing method, and image-processing program
US11393069B2 (en) Image processing apparatus, image processing method, and computer readable recording medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20141118

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20151117

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee