KR100938195B1 - Method for distance estimation and apparatus for the same using a stereo matching - Google Patents

Method for distance estimation and apparatus for the same using a stereo matching Download PDF

Info

Publication number
KR100938195B1
KR100938195B1 KR1020080073398A KR20080073398A KR100938195B1 KR 100938195 B1 KR100938195 B1 KR 100938195B1 KR 1020080073398 A KR1020080073398 A KR 1020080073398A KR 20080073398 A KR20080073398 A KR 20080073398A KR 100938195 B1 KR100938195 B1 KR 100938195B1
Authority
KR
South Korea
Prior art keywords
distance
image
value
parallax
matching
Prior art date
Application number
KR1020080073398A
Other languages
Korean (ko)
Inventor
임영철
이충희
권순
이종훈
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020080073398A priority Critical patent/KR100938195B1/en
Application granted granted Critical
Publication of KR100938195B1 publication Critical patent/KR100938195B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

PURPOSE: A method for estimating a distance using stereo matching and an apparatus thereof are provided to reduce distance estimation error while reducing complexity of distance estimation, thereby estimating the accurate location, distance and speed of a target object. CONSTITUTION: The first matching unit(720) matches a stereo image whose resolution is reduced. An object detector(730) detects an object using a depth map. The first interpolator(740) produces parallax information about the inter space of the detected object. The second matching unit matches an area of the detected object. A distance estimator(770) estimates distance to the detected object.

Description

스테레오 매칭을 이용한 거리 추정 장치 및 추정 방법{Method for distance estimation and apparatus for the same using a stereo matching}{Method for distance estimation and apparatus for the same using a stereo matching}

본 발명은 거리 추정 장치 및 거리 추정 방법에 관한 것으로서, 더욱 자세하게는 촬영된 영상을 스테레오 매칭하여 영상에 포함된 객체의 거리를 추정하는 장치 및 거리를 추정하는 방법에 관한 것이다.The present invention relates to a distance estimating apparatus and a distance estimating method, and more particularly, to an apparatus for estimating a distance of an object included in an image by stereo matching a photographed image and a method for estimating a distance.

관찰 측으로부터 떨어져 있는 객체의 거리를 측정하는 방법에는 여러 가지가 있다. 그 가운데 상기 객체에 대해 영상을 촬영하고, 상기 촬영된 영상을 이용하여 영상에 포함된 객체까지의 거리를 측정할 수 있는 방법이 있다.There are several ways to measure the distance of an object away from the observer. Among them, there is a method of capturing an image of the object and measuring a distance to an object included in the image by using the photographed image.

촬영된 영상을 이용하여 영상에 포함된 목표 객체까지의 거리를 측정하는 기술의 하나의 예로 스테레오 비전(stereo vision) 기술을 들 수 있다. 상기 스테레오 비전 기술은 복수의 영상 촬영 장치, 예를 들어, 카메라 등으로부터 각각 획득한 좌측 영상과 우측 영상을 이용하여 영상에 포함된 객체의 위치, 거리, 속도 등을 측정할 수 있다.One example of a technique of measuring a distance to a target object included in an image by using a captured image is stereo vision technology. The stereo vision technology may measure the position, distance, and speed of an object included in an image using a left image and a right image obtained from a plurality of image capturing apparatuses, for example, cameras.

종래의 스테레오 비전 기술을 이용한 거리 측정 방법에서는 복수의 카메라로부터 획득한 좌우 영상으로부터 객체에 대한 대응점(corresponding point)을 찾아 서, 그 대응점에 대한 시차(disparity)를 이용하여 객체의 거리를 측정하였다. 상기와 같은 방식을 이용하여 차량과 같은 외부 환경에서 객체의 거리를 측정하는 경우, 거리 측정 오차가 발생할 수 있는 문제가 있다. In a conventional distance measuring method using stereo vision technology, a corresponding point for an object is found from left and right images obtained from a plurality of cameras, and the distance of the object is measured using disparity with respect to the corresponding point. If the distance of the object is measured in an external environment such as a vehicle using the above method, there is a problem that a distance measurement error may occur.

상기와 같은 문제를 해결하기 위해 영상 촬영 장치의 거리를 넓히거나, 시차의 단계(disparity level)를 높일 필요가 있다. 그러나, 영상 촬영 장치의 거리를 넓히는 경우, 근거리에서 차폐 영역이 발생할 수 있다는 문제가 있다. 그리고 시차의 단계를 높이는 경우, 시차의 단계를 높이기 위해 영상의 해상도를 높여야 하는데, 영상의 해상도를 높이면 영상을 매칭하는 과정에서 복잡성이 증가하는 문제가 있었다.In order to solve the above problems, it is necessary to increase the distance of the imaging apparatus or to increase the level of disparity. However, when the distance of the image photographing apparatus is extended, there is a problem that a shielding region may occur at a short distance. In addition, when the step of parallax is increased, the resolution of the image must be increased in order to increase the step of parallax. If the resolution of the image is increased, there is a problem of increasing complexity in matching images.

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 본 발명의 목적은 복잡성을 줄이고, 근거리뿐만 아니라 원거리에서도 객체의 정확한 위치, 거리를 추정할 수 있는 거리 추정 장치 및 거리 추정 방법을 제공하는 것이다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and an object of the present invention is to reduce the complexity, and to provide a distance estimating apparatus and a distance estimating method capable of estimating an accurate position and distance of an object not only in a short distance but also in a long distance.

본 발명에 따른 거리 추정 방법은, 촬영된 스테레오 영상의 해상도를 축소하는 단계, 상기 해상도가 축소된 스테레오 영상을 전역 매칭하여 객체를 검출하는 단계, 상기 검출된 객체의 내부 영역에 대해 부표본화 보간하여 시차 정보를 산출하는 단계, 상기 시차 정보와 원 스테레오 영상을 이용하여 상기 검출된 객체의 영역을 매칭하는 단계, 상기 객체 영역을 매칭한 결과를 이용하여 부표본화 보간하고 시차를 추정하는 단계, 및 상기 추정된 시차를 이용하여 상기 검출된 객체와의 거리를 추정하는 단계를 포함한다.The distance estimation method according to the present invention comprises the steps of: reducing the resolution of the photographed stereo image, detecting an object by globally matching the reduced stereo image, and subsampling the internal region of the detected object. Calculating parallax information, matching the detected region of the object using the parallax information and the original stereo image, subsampling interpolation and estimating the parallax using the result of matching the object region, and Estimating a distance to the detected object using the estimated parallax.

다른 관점에서 본 발명에 따른 거리 추정 장치는, 촬영된 스테레오 영상의 해상도를 축소하는 영상 처리부, 상기 해상도가 축소된 스테레오 영상을 전역 매칭하는 제1 매칭부, 상기 제1 매칭부에서 산출된 깊이 맵을 이용하여 객체를 검출하는 객체 검출부, 상기 검출된 객체의 내부 영역에 대해 부표본화 보간하여 시차 정보를 산출하는 제1 보간부, 상기 시차 정보와 원 스테레오 영상을 이용하여 상기 검출된 객체의 영역을 매칭하는 제2 매칭부, 상기 제2 매칭부에서 매칭된 결과를 이용하여 부표본화 보간하고 시차를 추정하는 제2 보간부, 및 상기 제2 보간부에서 추정된 시차를 이용하여 상기 검출된 객체와의 거리를 추정하는 거리 추정부를 포함한다.In another aspect, an apparatus for estimating distance according to an embodiment of the present invention may include an image processor that reduces a resolution of a captured stereo image, a first matching unit that globally matches the reduced stereo image, and a depth map calculated by the first matching unit. An object detector to detect an object using a first interpolation unit to calculate parallax information by sub-sampled interpolation with respect to an internal area of the detected object, and an area of the detected object by using the parallax information and the original stereo image. A second matching unit that matches, a second interpolation unit that estimates parallax by using a result of matching by the second matching unit, and the detected object by using the parallax estimated by the second interpolation unit. It includes a distance estimator for estimating the distance of.

본 발명의 거리 추정 장치 및 거리 추정 방법에 따르면, 거리 추정의 복잡도를 감소시키면서 거리 추정 오차를 줄이고, 원거리뿐만 아니라 근거리의 목표 객체의 정확한 위치, 거리, 속도 등을 추정할 수 있는 효과가 있다. 또한, 거리 추정 복잡도를 줄여 거리 추정 장치의 설계 비용을 줄일 수 있는 효과가 있다.According to the distance estimating apparatus and the distance estimating method of the present invention, it is possible to reduce the distance estimation error while reducing the complexity of the distance estimation, and to estimate the exact position, distance, and speed of the target object not only in the distance but also in the short distance. In addition, there is an effect that can reduce the design cost of the distance estimation apparatus by reducing the distance estimation complexity.

상기와 같은 추정 방법은 다양한 분야에 응용하여 정확한 위치, 거리를 추정할 수 있는 효과가 있다. 예를 들어, 로봇이나 자동차 등에 적용하는 경우 자동차의 추돌 방지, 주행 등의 운전 시스템이나 안전 운행 시스템 등에 적용하여 사용할 수 있다.The estimation method as described above has an effect of estimating an accurate position and distance by applying to various fields. For example, when applied to a robot or a car, it can be applied to a driving system such as collision prevention of a car, driving, or a safe driving system.

이하 본 발명의 목적, 특성 및 이점들은 첨부한 도면을 참조한 실시 예들의 상세한 설명을 통해 명백해질 것이다. 아울러, 본 발명에서 사용되는 용어는 가능한 한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재하였으므로, 단순한 용어의 명칭이 아닌 용어가 가지는 의미로서 본 발명을 파악하여야 함을 밝혀 두고자 한다.The objects, features and advantages of the present invention will become apparent from the following detailed description of embodiments taken in conjunction with the accompanying drawings. In addition, the terms used in the present invention was selected as a general term widely used as possible now, but in certain cases, the term is arbitrarily selected by the applicant, in which case the meaning is described in detail in the corresponding description of the invention, It is to be clear that the present invention is to be understood as the meaning of terms rather than names.

이와 같이 구성된 본 발명에 따른 거리 추정 장치 및 거리 추정 방법의 동작을 첨부한 도면을 참조하여 상세히 설명하면 다음과 같다. 도 1은 본 발명에 따른 일 실시예로서, 스테레오 비전 방식에 따라 거리를 추정방식을 개략적으로 나타낸 도면이다.The operation of the distance estimating apparatus and the distance estimating method according to the present invention configured as described above will be described in detail with reference to the accompanying drawings. 1 is a diagram schematically illustrating a distance estimating method according to an exemplary embodiment of the present invention.

스테레오 비전 시스템을 이용하여 거리를 추정하는 방식의 경우, 좌우 영상 촬영 장치로부터 촬영된 영상을 이용하여 대응점을 찾아 깊이 맵(depth map)을 생성한다. 그리고, 상기 깊이 맵과 좌우 영상을 이용하여 이동 객체를 검출하고, 상기 검출된 이동 객체 내의 시차 평균을 구한다. 스테레오 비전 시스템에서는 상기 구해진 시차를 이용하여 객체의 거리를 추정할 수 있다. 상기 시차와 목표 객체의 거리는 하기의 수학식 1 내지 수학식 3과 상기 도 1의 각종 파라미터를 이용하여 자세히 설명하도록 한다. 상기 도 1에서 B(기준선)는 좌, 우측 영상 촬영 장치의 중심 사이의 거리, F는 영상 촬영 장치의 초점거리(렌즈와 촬상 장치(예를 들어, CCD, CMOS 등) 사이의 거리), xl은 좌측 촬영 장치에 맺힌 객체가 촬영 장치의 중심으로부터 벗어난 거리, xr은 우측 촬영 장치에 맺힌 객체가 촬영 장치의 중심으로부터 벗어난 거리, Zd는 객체와 영상 촬영 장치의 수직 거리, Xd는 좌측 영상 촬영 장치와 우측 영상 촬영 장치의 중간 지점에서 Zd라인과 영상 촬영 장치의 수평면이 만나는 지점까지의 거리, Pd는 영상의 픽셀(pixel)간의 거리, k는 픽셀의 개수를 말한다.In the case of estimating distance using a stereo vision system, a depth map is generated by finding a corresponding point using images captured from the left and right image capturing apparatus. The moving object is detected using the depth map and the left and right images, and a parallax average in the detected moving object is obtained. In the stereo vision system, the distance of an object may be estimated using the obtained parallax. The distance between the parallax and the target object will be described in detail using Equation 1 to Equation 3 below and various parameters of FIG. 1. In FIG. 1, B (reference line) is the distance between the centers of the left and right imaging apparatuses, F is the focal length of the imaging apparatus (the distance between the lens and the imaging apparatus (eg, CCD, CMOS, etc.)), x l is the distance from the center of the shooting device to the object on the left shooting device, x r is the distance from the center of the shooting device to the object on the right shooting device, Z d is the vertical distance between the object and the imaging device, and X d is The distance from the middle point between the left image capture device and the right image capture device to the point where the horizontal line of the image pickup device meets the Z d line, P d is the distance between pixels of the image, and k is the number of pixels.

Figure 112008054039654-pat00001
Figure 112008054039654-pat00001

Figure 112008054039654-pat00002
Figure 112008054039654-pat00002

Figure 112008054039654-pat00003
Figure 112008054039654-pat00003

목표 객체까지의 거리 D와 Xd, Zd는 삼각형을 이루므로, 수학식 3과 같이 삼각 공식에 의해 중심 위치에서 객체까지의 거리 D를 구할 수 있다. 상기 Zd는 좌, 우측 영상 촬영 장치의 중심 사이의 거리(B)와 영상 촬영 장치의 초점거리(F)를 곱한 값을 시차(xr-xl) 값으로 나눈 값으로 구할 수 있다(수학식 1). 상기 시차(xr-xl) 값은 픽셀간의 거리(Pd)와 픽셀의 개수(k)의 곱으로 근사할 수 있다. 그리고, Xd는 xl과 xr의 합과 상기 수학식 1에서 구한 Zd 값을 곱한 값을 2F로 나눈 값으로 구할 수 있다(수학식 2). 따라서, 상기와 같은 객체와의 거리(D)를 구하기 위해서는 시차 값을 구하여야 하며, 이하에서는 복잡도를 줄이면서 상기 시차 값을 구하는 과 정을 설명하기로 한다.Since the distances D, X d , and Z d to the target object form a triangle, the distance D from the center position to the object can be obtained by a trigonometric formula as shown in Equation 3 below. Z d may be obtained by dividing the distance (B) between the centers of the left and right imaging apparatuses by the focal length (F) of the imaging apparatus divided by the parallax (x r -x l ). Equation 1). The parallax (x r -x l ) can be approximated by the product of the distance P d between the pixels and the number k of pixels. X d may be obtained by dividing the sum of x l and x r by the value of Z d obtained in Equation 1 divided by 2F (Equation 2). Therefore, in order to obtain the distance D from the object as described above, a parallax value should be obtained. Hereinafter, a process of obtaining the parallax value while reducing complexity will be described.

스테레오 비전 시스템의 경우 촬영된 좌, 우 영상을 전역 매칭이나 국부 매칭을 이용하여 매칭한 후 깊이 맵(depth map)을 구한다. 그리고, 상기 깊이 맵을 기반으로 영상 내의 객체를 검출한 후, 검출된 객체의 중심 부분에 대한 시차 값을 구하여 검출된 객체와의 거리를 구할 수 있다. 매칭 방법 가운데 하나인 전역 매칭의 경우, 국부 매칭보다 매칭 정확도가 높아 정확한 시차 값을 구할 수 있다. 그러나, 영상의 해상도가 높은 경우에는 영상을 매칭하는데 많은 시간과 계산이 소요되며, 복잡도 증가로 인하여 실시간 처리를 위한 하드웨어 구현이 어렵다. 따라서, 우선 저해상도 영상과 전역 매칭 방법으로 깊이 맵을 구하고 객체를 검출한다. 그리고, 검출된 객체에 대한 고해상도 영상과 국부 매칭 방법을 이용하여 상기 깊이 맵을 보완함으로써 복잡도를 증가시키지 않으면서 거리를 추정하도록 한다.In the case of a stereo vision system, a depth map is obtained after matching the photographed left and right images using global matching or local matching. After detecting an object in the image based on the depth map, a distance from the detected object may be obtained by obtaining a parallax value for a center portion of the detected object. In the case of global matching, which is one of the matching methods, an accurate disparity value can be obtained with higher matching accuracy than local matching. However, when the resolution of the image is high, it takes a lot of time and calculations to match the image, and it is difficult to implement hardware for real-time processing due to the increased complexity. Therefore, first, a depth map is obtained by using a low resolution image and a global matching method, and an object is detected. The depth map is compensated for by using a high resolution image of the detected object and a local matching method to estimate the distance without increasing the complexity.

도 2는 본 발명에 따른 일 실시예로서, 촬영된 스테레오 영상의 해상도를 축소하는 과정을 개략적으로 나타낸 도면이다. 상기 도 2의 상단의 도면은 각각 영상 촬영 장치를 통하여 촬영된 좌측 영상과 우측 영상을 나타낸다. 상기 각 영상은 자동차가 객체로 촬영되어 있으며, 각각 N×M(N, M은 각각 가로, 세로 픽셀의 수)의 해상도를 갖는다.2 is a diagram schematically illustrating a process of reducing a resolution of a captured stereo image according to an embodiment of the present invention. 2 shows a left image and a right image captured by the image capturing apparatus, respectively. Each image is taken of an automobile as an object, and each has a resolution of N × M (where N and M are the number of horizontal and vertical pixels, respectively).

상기와 같은 영상이 촬영된 경우, 스테레오 영상 매칭에 앞서 각 영상에 대하여 해상도를 축소한다. 예를 들어, N×M 해상도를 갖는 각 영상에 대해 2l(l은 상수)만큼 해상도를 축소할 수 있다. 상기와 같이 2l만큼 해상도를 축소한 경우, 각 영상은 하단의 도면과 같이 각각 N/2l×M/2l의 해상도를 갖는다.When the above image is captured, the resolution is reduced for each image prior to stereo image matching. For example, the resolution may be reduced by 2 l (l is a constant) for each image having N × M resolution. When the resolution is reduced by 2 l as described above, each image has a resolution of N / 2 l × M / 2 l as shown in the lower figure.

예를 들어, 1/2(l=1)만큼 해상도를 축소한 경우, 도 2의 상단과 같은 영상(원 영상)에서 4개의 픽셀을 도 2의 하단과 같은 영상(해상도가 축소된 영상)의 하나의 픽셀에 대응되도록 해상도를 축소할 수 있다. 이때, 해상도가 축소된 영상의 하나의 픽셀은 원 영상의 4개의 픽셀이 합쳐진 크기와 같다. 상기 축소는 원 영상의 4개의 픽셀 가운데 하나의 픽셀값을 대표 픽셀값으로 하여 해상도가 축소된 영상의 대응되는 픽셀값으로 할 수도 있고, 원 영상의 4개의 픽셀 값의 평균값을 축소된 영상의 대응되는 하나의 픽셀 값으로 할 수도 있다. 이는 구현 예에 따라 달라질 수 있다.For example, when the resolution is reduced by 1/2 (l = 1), four pixels of the image (the original image) as shown in the upper part of FIG. The resolution may be reduced to correspond to one pixel. In this case, one pixel of the reduced-resolution image is equal to the sum of four pixels of the original image. The reduction may be a corresponding pixel value of an image whose resolution is reduced by using one pixel value of four pixels of the original image as a representative pixel value, and the average value of the four pixel values of the original image corresponding to the reduced image. One pixel value may be used. This may vary depending on implementation.

상기 해상도 축소 비율은 일 예이며, 구현 예에 따라 축소 비율을 달리할 수 있으나, 측정 가능한 최대 거리에서 충분히 객체가 검출될 수 있을 정도의 해상도는 되어야 한다. 상기 해상도 축소 비율이 커질수록 복잡도는 감소하지만, 객체 검출 오류가 커질 수 있으므로 상기 축소 비율은 적용되는 분야의 정확도 요구량이나 매칭 알고리즘 성능 등의 다양한 요소를 고려하여 설정될 수 있다.The resolution reduction ratio is an example, and the reduction ratio may vary depending on the embodiment, but the resolution should be sufficiently high that the object can be detected at the maximum measurable distance. As the resolution reduction ratio increases, complexity decreases, but an object detection error may increase, so the reduction ratio may be set in consideration of various factors such as accuracy requirements of a field to be applied or performance of a matching algorithm.

도 3은 본 발명에 따른 일 실시예로서, 해상도가 축소된 영상의 깊이 맵을 나타낸 도면이다. 상기 도 2와 같은 해상도가 축소된 영상을 이용하여 좌측 영상과 우측 영상에 대한 전역 매칭을 수행하고, 깊이 맵(depth map)을 얻을 수 있다. 상기 도 2와 같이 N/2l×M/2l의 해상도를 갖는 좌측 영상과 우측 영상에 대해 전역 매칭하여 도 3과 같은 N/2l×M/2l의 깊이 맵을 얻는다. 상기와 같이 얻어진 깊이 맵을 이용하여 영상에 포함된 객체를 검출할 수 있다. 상기 깊이 맵을 얻기 위한 매칭 방법으로 DP(Dynamic Programming), BP(Belief Propagation), Graph-Cut 등과 같은 방법을 사용할 수 있다.3 is a diagram illustrating a depth map of an image having a reduced resolution as an embodiment according to the present invention. 2, global matching may be performed on the left image and the right image by using the reduced image as shown in FIG. 2, and a depth map may be obtained. As shown in FIG. 2, a depth map of N / 2 l × M / 2 l as shown in FIG. 3 is obtained by global matching between a left image having a resolution of N / 2 l × M / 2 l and a right image. The object included in the image may be detected using the depth map obtained as described above. As a matching method for obtaining the depth map, methods such as DP (Dynamic Programming), BP (Belief Propagation), and Graph-Cut may be used.

도 4a와 4b는 본 발명에 따른 일 실시예로서, 깊이 맵을 이용하여 객체를 검출하는 과정을 개략적으로 나타낸 도면이다. 상기 도 3과 같이 얻어진 깊이 맵을 이용하여 객체를 추출하는 경우, 다양한 방식을 이용하여 객체를 추출할 수 있으며, 구현 예에 따라 다양한 방식을 적용할 수 있다. 이하에서는 설명의 편의를 위해, 수직 시차맵(V-disparity)을 이용하여 객체를 추출하는 경우를 예로 설명하기로 한다.4A and 4B are diagrams illustrating a process of detecting an object using a depth map according to an embodiment of the present invention. When the object is extracted using the depth map obtained as shown in FIG. 3, the object may be extracted using various methods, and various methods may be applied according to an implementation example. Hereinafter, for convenience of description, a case of extracting an object using a vertical disparity map (V-disparity) will be described as an example.

촬영된 영상의 경우, 촬영 위치에서 거리가 점차적으로 멀어질수록 깊이 맵 상에서 그 밝기값이 감소한다. 예를 들어, 도 4a의 좌측 도면에서와 같이 거리가 점차적으로 멀어질수록 깊이 맵 상에서 일정한 비율로 밝기값이 감소할 수 있다. 그러나, 영상에 객체가 있는 경우, 객체로 인하여 객체가 있는 부분의 밝기값이 증가하는 현상이 발생한다. 따라서, 상기와 같은 현상을 이용하여 밝기값이 일정한 비율로 감소하지 않고 밝기값이 증가한 부분을 객체가 있는 부분으로 검출할 수 있다.In the case of the photographed image, the brightness value decreases on the depth map as the distance from the photographing position gradually increases. For example, as the distance gradually increases, as shown in the left diagram of FIG. 4A, the brightness value may decrease at a constant rate on the depth map. However, when there is an object in the image, a phenomenon occurs in which the brightness value of the part where the object exists due to the object increases. Therefore, by using the above phenomenon, the portion in which the brightness value is increased can be detected as the portion having the object without decreasing the brightness value at a constant rate.

예를 들어, 상기 도 4a의 좌측 영상과 같은 깊이 맵을 이용하여 상기 도 4a의 우측 영상과 같은 수직 시차맵을 얻을 수 있다. 상기 수직 시차맵의 수평 축은 시차값(0 ~ 255, 그레이 레벨 28의 경우)을 나타내며, 수직 축은 깊이 맵의 수직 라 인을 나타낸다. 깊이 맵에 객체가 없는 평면 영역의 경우에는 일정한 비율로 밝기값이 감소하며 시차값은 밝기값에 비례하므로, 거리가 멀수록 상기 수직 시차맵과 같이 시차값이 완만한 기울기로 감소한다. 객체가 있는 영역의 경우에는 상기 감소 경향과 다른 시차값을 갖는다. 도 4b는 상기 도 3과 같은 깊이 맵을 이용하여 얻은 수직 시차맵을 개략적으로 나타낸 예이다.For example, a vertical parallax map like the right image of FIG. 4A may be obtained using the depth map as shown in the left image of FIG. 4A. The horizontal axis of the vertical parallax map represents a parallax value (in the case of 0 to 255, gray level 2 8 ), and the vertical axis represents a vertical line of the depth map. In the case of a planar region having no object in the depth map, the brightness value decreases at a constant rate and the parallax value is proportional to the brightness value. Thus, as the distance increases, the parallax value decreases with a gentle slope as in the vertical parallax map. In the case of the region where the object is located, it has a parallax value different from the decreasing tendency. 4B is an example schematically showing a vertical parallax map obtained using the depth map as shown in FIG. 3.

상기와 같은 수직 시차맵이 얻어지면, 상기 시차맵을 이용하여 객체 영역을 검출한다. 상기 도 4b와 같은 수직 시차맵을 이용하여 감소 경향과 다른 시차값을 갖는 영역의 합을 객체 영역으로 검출하거나, 같은 시차값을 갖는 픽셀들의 영역을 객체 영역으로 검출할 수 있다.When the vertical parallax map as described above is obtained, an object region is detected using the parallax map. Using the vertical parallax map as shown in FIG. 4B, a sum of regions having a disparity value and a disparity value different from each other may be detected as the object region, or an area of pixels having the same disparity value may be detected as the object region.

상기와 같이 객체 영역이 검출되면 객체 영역의 내부 픽셀을 이용하여 시차를 추정한다. 상기 시차를 추정하는 방법에는 여러 가지 방법이 사용될 수 있다. 예를 들어, 상기 객체의 시차를 추정하기 위해 파라볼라 피팅(parabola fitting) 방법이나, ENCC(Enhanced Normalized Cross Correlation) 방법 등과 같은 부표본화 보간법(Sub-pixel interpolation)을 사용할 수 있다. 이하에서는 설명의 편의를 위해 파라볼라 피팅 방법을 사용하는 경우를 예로 설명하기로 한다.When the object region is detected as described above, the parallax is estimated using the internal pixels of the object region. Various methods may be used to estimate the parallax. For example, in order to estimate the parallax of the object, a sub-pixel interpolation method such as a parabola fitting method or an enhanced normalized cross correlation (ENCC) method may be used. Hereinafter, a case of using a parabola fitting method will be described as an example for convenience of description.

도 5는 본 발명에 따른 일 실시예로서 파라볼라 피팅 방법에 따른 시차 추정을 개략적으로 나타낸 도면이다.FIG. 5 is a diagram schematically illustrating parallax estimation according to a parabola fitting method according to an embodiment of the present invention.

상기 검출된 영역의 중심과 가장 가까운 픽셀을 객체의 중심 픽셀으로 사용할 수 있다. 상기 객체의 중심 픽셀이 정해지면, 상기 도 2 하단의 해상도가 축소된 영상 가운데 하나를 기준 영상으로 정하고 객체의 중심을 중심 픽셀로 하는 윈 도우를 설정하여 윈도우 매칭한다. 상기 기준 영상은 좌측 영상 또는 우측 영상 가운데 하나를 기준 영상으로 할 수 있으며, 이는 구현 예에 따라 달라질 수 있다. 이하에서는 설명의 편의를 위해 좌측 영상을 기준 영상으로 한 경우에 대해 설명하도록 한다.The pixel closest to the center of the detected area may be used as the center pixel of the object. When the center pixel of the object is determined, one of the reduced-resolution images at the bottom of FIG. 2 is set as a reference image, and a window is set by setting a window having the center of the object as the center pixel. The reference image may be one of a left image and a right image as a reference image, which may vary depending on implementation. Hereinafter, a case in which the left image is a reference image will be described for convenience of description.

상기 윈도우는 픽셀단위로 홀수 크기를 가질 수 있다. 예를 들어, 디폴트(default)로 설정되는 윈도우로 3×3 크기를 갖는 윈도우를 설정할 수 있다. 이는 구현 예에 따라 달라질 수 있다. 다만, 상기 객체의 경계선 영역에서는 교합(occlusion)이 발생할 수 있으므로, 상기 윈도우의 크기는 객체의 경계선을 넘지 않도록 한다.The window may have an odd size in pixels. For example, a window having a 3 × 3 size may be set as a window set as a default. This may vary depending on implementation. However, since occlusion may occur in the boundary region of the object, the size of the window may not exceed the boundary of the object.

이하에서는 설명의 편의를 위해 상기 윈도우의 크기가 3×3로 설정된 경우를 가정하여 설명하기로 한다. 상기 좌측 영상에 대해 객체의 중심을 중심 픽셀로 하는 윈도우가 설정되면, 깊이 맵을 이용하여 좌측 영상 윈도우 내 픽셀의 평균값을 구한다. 그리고 상기 평균값을 반올림하여 정수값을 얻는다. 상기 반올림된 정수값에 해당하는 값을 갖는 픽셀(대응 픽셀)을 상기 우측 영상의 객체 영역에서 찾아 상기 픽셀을 중심 픽셀로 하는 같은 크기(3×3)의 윈도우를 우측 영상에 설정한다.In the following description, it is assumed that the size of the window is set to 3 × 3 for convenience of description. When a window having the center of the object as the center pixel is set for the left image, an average value of pixels in the left image window is obtained using a depth map. Then, the average value is rounded to obtain an integer value. A pixel (corresponding pixel) having a value corresponding to the rounded integer value is found in the object area of the right image, and a window of the same size (3 × 3) having the pixel as the center pixel is set in the right image.

우측 영상에 상기 윈도우가 설정되면, 상기 우측 영상의 윈도우를 한 픽셀씩 이동하면서 좌측 영상과 우측 영상의 윈도우 내 픽셀의 정규 유사도(Normalized Cross Correlation : 이하 NCC)를 구한다. 상기 정규 유사도는 윈도우 내 픽셀의 유사도 정도를 정규화한 값을 나타낸다.When the window is set in the right image, the normalized cross correlation (hereinafter referred to as NCC) of pixels in the window of the left image and the right image is obtained by moving the window of the right image by one pixel. The normal similarity represents a value obtained by normalizing the degree of similarity of pixels in a window.

예를 들어, 상기 좌측 영상의 객체의 중심을 중심 픽셀로 하여 설정된 윈도 우와 우측 영상에서 상기 대응 픽셀을 중심 픽셀로 하여 설정된 윈도우의 NCC 값을 NCC(k1)이라고 하고, 좌측 영상의 객체의 중심을 중심 픽셀로 하여 설정된 윈도우와 상기 우측 영상의 상기 대응 픽셀에서 우측으로 한 픽셀 이동한 픽셀을 중심 픽셀로 하여 설정된 윈도우의 NCC 값을 NCC(k1-1)이라고 하고, 좌측 영상의 객체의 중심을 중심 픽셀로 하여 설정된 윈도우와 상기 우측 영상의 상기 대응 픽셀에서 좌측으로 한 픽셀 이동한 픽셀을 중심 픽셀로 하여 설정된 윈도우의 NCC 구한 값을 NCC(k1+1)이라고 한다. 이하 수학식 4, 5는 상기 NCC를 구하는 수식을 나타낸다.For example, an NCC value of a window set with the center of the object of the left image as the center pixel and a window set with the corresponding pixel as the center pixel in the right image is referred to as NCC (k1), and the center of the object of the left image is A NCC value of a window set as a center pixel and a window shifted one pixel to the right from the corresponding pixel of the right image is referred to as NCC (k1-1), and centered on the center of the object of the left image. The NCC value of the window set as the pixel and the window set as the center pixel using the pixel shifted to the left from the corresponding pixel of the right image is referred to as NCC (k1 + 1). Equations 4 and 5 below represent equations for obtaining the NCC.

Figure 112008054039654-pat00004
Figure 112008054039654-pat00004

Figure 112008054039654-pat00005
Figure 112008054039654-pat00005

상기 수학식 4와 수학식 5에서 W(x,y)는 윈도우 안의 x,y 좌표에서의 밝기값, Wm(x,y)는 윈도우 안의 전체 픽셀에 대한 휘도의 평균값, W'(x,y)는 상기 x,y 좌표에서의 휘도값을 전체 픽셀에 대한 휘도의 평균값을 뺀 값을 놈(norm) 값으로 나눈 값을 나타낸다. 상기 수학식 5에서 연산자 ⓧ는 좌측 영상의 윈도우 안에 있는 각 픽셀의 WL'(x,y) 값과 우측 영상의 윈도우 안에 있는 각 픽셀의 WR'(x,y) 값을 크로스 코릴레이션(cross correlation)하는 연산을 나타낸다. 상기 d0는 상기 좌 측 영상의 윈도우에서 구한 윈도우 내 픽셀의 시차 평균값을 반올림한 값이다. k는 윈도우의 위치를 이동하여 NCC 값을 구하는 경우에 윈도우의 중심 픽셀이 이동한 양을 나타낸다. 상기 예에서는 좌측 영상을 기준 영상으로 하여 우측 영상의 윈도우를 이동하는 경우를 예로 하였으나, 상기에서 언급한 바와 같이 구현 예에 따라 우측 영상을 기준 영상으로 한 경우에는, 좌측 영상의 윈도우를 이동하는 경우로 구현할 수도 있다.In Equations 4 and 5, W (x, y) is a brightness value at x, y coordinates in a window, and Wm (x, y) is an average value of luminance of all pixels in the window, W '(x, y). ) Denotes a value obtained by dividing a luminance value in the x and y coordinates by subtracting an average value of luminance for all pixels by a norm value. In Equation 5, the operator 크로스 cross correlates the W L '(x, y) value of each pixel in the window of the left image and the W R ' (x, y) value of each pixel in the window of the right image. Represents a cross correlation operation. The d 0 is a value obtained by rounding a parallax average value of pixels in a window obtained from the window of the left image. k indicates the amount of shift of the center pixel of the window when the NCC value is obtained by shifting the position of the window. In the above example, the case in which the window of the right image is moved using the left image as a reference image is taken as an example. However, when the right image is the reference image according to the implementation example, the window of the left image is moved. You can also implement

상기 구하여진 3개의 NCC 값(NCC(k1-1), NCC(k1), NCC(k1+1))을 이용하여 정규 유사도가 최대가 되는 정밀 시차를 추정할 수 있다. 예를 들어, 상기 3개의 NCC 값이 2차 포물선을 형성한다고 가정한다.Using the three obtained NCC values (NCC (k1-1), NCC (k1), NCC (k1 + 1)), the precise parallax at which the normal similarity is maximized can be estimated. For example, assume that the three NCC values form a secondary parabola.

상기 도 5는 상기 3개의 NCC 값이 좌우 대칭형의 2차 포물선을 형성하는 경우를 가정한 경우이다. 좌측 영상 윈도우의 중심 픽셀과 우측 영상 윈도우의 중심 픽셀 차이가 k1인 경우 NCC(k1) 값이, 중심 픽셀 차이가 k1+1인 경우 NCC(k1+1) 값이, 중심 픽셀 차이가 k1-1인 경우 NCC(k1-1) 값이 2차 포물선 좌표에 나타난 것을 볼 수 있다. 상기 도 5에서 정규 유사도가 최대가 되는 지점의 시차(k2)와 좌우 윈도우 중심 픽셀의 시차(k1)와 차이가 남을 알 수 있다. 이는 픽셀을 기초로 한 스테레오 비전 시스템에 있어서 픽셀간 양자화 오차에 기인한다. 상기 정규 유사도가 최대가 되는 지점의 시차(k2)는 상기 2차 포물선(y=ax2+bx+c)과 3개의 NCC 값을 이용하여 구할 수 있다.FIG. 5 is a case where the three NCC values form a secondary parabola of symmetry. If the center pixel difference between the center pixel of the left image window and the right image window is k1, the NCC (k1) value is the value of NCC (k1 + 1) when the center pixel difference is k1 + 1, and the center pixel difference is k1-1. In the case of, the NCC (k1-1) value can be seen in the second parabolic coordinate. In FIG. 5, it can be seen that there is a difference between the parallax k2 at the point where the normal similarity is maximum and the parallax k1 of the left and right window center pixels. This is due to the inter-pixel quantization error in pixel-based stereo vision systems. The parallax k2 at the point where the normal similarity is maximum can be obtained using the secondary parabola (y = ax 2 + bx + c) and three NCC values.

도 6은 본 발명에 따른 일 실시예로서, 검출된 객체 영역에 대한 고해상도 영상을 이용하여 시차를 추정하는 것을 개략적으로 나타낸 도면이다. 도 6의 상단의 영상은 좌, 우 원영상(N×M)과 해상도가 축소된 영상(N/2l×M/2l)의 깊이 맵 영상을 나타낸다. 그리고, 하단의 영상은 좌, 우 원영상을 이용하여 객체 영역을 국부 매칭한 깊이 맵 영상과, 해상도가 축소된 영상의 깊이 맵 영상이 합쳐진 영상을 나타낸다.FIG. 6 is a diagram schematically illustrating estimating parallax using a high resolution image of a detected object region according to an embodiment of the present invention. 6 shows a depth map image of a left and right original image N × M and a reduced resolution image N / 2 l × M / 2 l . The lower image represents an image in which a depth map image obtained by locally matching an object region using left and right images and a depth map image of a reduced resolution image are combined.

검출된 객체에 대하여 더 정확한 시차를 추정하기 위해, 상기와 같이 해상도가 축소된 영상을 이용하여 얻어진 시차값(k2)과 객체 영역에 대한 고해상도 영상을 이용할 수 있다. 예를 들어, 상기 도 6과 같이 객체 영역에 대한 원 해상도 영상(N×M)을 이용하는 경우, 상기 해상도가 축소된 영상(N/2l×M/2l)을 이용하여 얻어진 시차값(k2)에 축소 비율의 역 값을 곱하여 원 영상에서 상기 시차값(k2)에 대응되는 대응 시차값으로 변환한다.In order to estimate the parallax more accurately with respect to the detected object, a parallax value k2 obtained using the image having the reduced resolution as described above and a high resolution image of the object area may be used. For example, when using the original resolution image (N × M) for the object region as shown in FIG. 6, the parallax value k2 obtained using the reduced image (N / 2 l × M / 2 l ) ) Is converted to a corresponding parallax value corresponding to the parallax value k2 in the original image by multiplying the inverse value of the reduction ratio.

Figure 112008054039654-pat00006
Figure 112008054039654-pat00006

즉, 1/2l로 해상도를 축소한 경우 상기 수학식 6과 같이 2l 값을 상기 k2에 곱하고, 상기 곱한 값을 반올림하여 정수값을 얻는다. 상기와 같이 얻어진 원 영상에서의 대응 시차값(k3)을 기준으로 국부 매칭하여 더 정확한 시차를 얻을 수 있다.In other words, if the reduced resolution to 1/2 multiplied by l to 2 l value as the equation (6) to the k2, by rounding the value obtained by multiplying an integer value. More accurate parallax may be obtained by locally matching the corresponding parallax value k3 in the original image obtained as described above.

상기 국부 매칭은 상기에서 설명한 바와 같은 기준 영상과 윈도우 매칭을 이 용할 수 있다. 즉, 좌측 영상의 객체 영역에 대한 윈도우와 우측 영상의 객체 영역에 대한 윈도우를 설정하여 윈도우 매칭을 이용할 수 있다. 상기 윈도우 매칭을 위해 기준 영상과 상대 영상의 윈도우의 대응점을 찾기 위한 후보 구간은 축소된 해상도 영상에 대해 수행한 부표본화 보간법의 신뢰도(σ)에 따라 달라질 수 있다. 일 예로 가우시안 분포 함수에 따라 신뢰도의 3배(99.73%) 또는 4배(99.9968%)의 구간을 후보 구간으로 결정하도록 한다.The local matching may use the reference image and window matching as described above. That is, window matching may be used by setting a window for the object region of the left image and a window for the object region of the right image. The candidate interval for finding the corresponding point of the window of the reference image and the relative image for the window matching may vary according to the reliability σ of the subsampled interpolation method performed on the reduced resolution image. For example, a three-fold (99.73%) or four-times (99.9968%) interval of reliability is determined as a candidate interval according to a Gaussian distribution function.

따라서, 윈도우 매칭을 위한 상기 대응점의 시차 후보 구간(x)은 수학식 7과 같다.Accordingly, the disparity candidate interval x of the corresponding point for window matching is expressed by Equation 7.

Figure 112008054039654-pat00007
Figure 112008054039654-pat00007

상기 후보 구간(x)은 원 영상에서의 대응 시차값(k3)에서 신뢰도(σ)에 축소 비율의 역 값(2l)을 곱하고, 상기 배수(N)를 곱한 값을 반올림(round)한 값을 편차로 갖는다.The candidate interval (x) is a value obtained by multiplying the reliability (σ) by the inverse value (2 l ) of the reduction ratio from the corresponding parallax value k3 in the original image and rounding the value multiplied by the multiple (N). Has a deviation.

예를 들어, 상기 후보 구간(x)이 'k3-n'에서 'k3+n'의 구간을 갖는 경우를 가정한다. 좌측 영상을 기준 영상으로 하는 경우, k3를 시차값으로 갖는 픽셀을 중심 픽셀로 하는 좌측 영상의 윈도우와, k3-n을 시차값으로 갖는 픽셀을 중심 픽셀로 하는 우측 영상의 윈도우로부터 k3+n을 시차값으로 갖는 픽셀을 중심 픽셀로 할 때까지 1픽셀씩 이동하면서 윈도우를 각각 매칭하여 매칭 비용(matching cost)이 가장 높은 시차를 찾는다. 마찬가지로 구현 예에 따라 상기 기준 영상은 우측 영상으로 설정할 수도 있다.For example, assume that the candidate section x has a section of 'k3 + n' in 'k3-n'. In the case where the left image is the reference image, k3 + n is obtained from a window of the left image having a pixel having k3 as a parallax value as a center pixel and a window of the right image having a pixel having k3-n as a center pixel as a center pixel. The pixels having the parallax value are moved by one pixel until the pixel is the center pixel, and each window is matched to find the parallax having the highest matching cost. Similarly, according to an embodiment, the reference image may be set as the right image.

상기 윈도우 매칭 함수는, 상기에서 설명한 바와 같은 NCC(Normalized Cross Correlation)를 사용하거나, SAD(Sum of Absolute Difference), SSD(Sum of Squared Difference) 등을 사용할 수 있다. NCC를 매칭 함수로 사용하는 경우, 윈도우 매칭에 따른 NCC 값이 최대가 되는 시차값을 객체의 최종 시차로 추정할 수 있고, SAD나 SSD 등을 매칭 함수로 사용하는 경우, 윈도우 매칭에 따라 SAD나 SSD 값이 최소가 되는 시차값을 객체의 최종 시차로 추정할 수 있다. 상기 최대값 또는 최소값을 추정하기 위해 파라볼라 피팅(parabola fitting) 방법이나, ENCC(Enhanced Normalized Cross Correlation) 방법 등과 같은 부표본화 보간법(Sub-pixel interpolation)을 사용할 수 있다. 파라볼라 피팅을 사용하는 경우에는, 상기에서 설명한 바와 같이 포물선을 가정하여 최대값 또는 최소값을 추정할 수 있다.The window matching function may use Normalized Cross Correlation (NCC) as described above, or may use Sum of Absolute Difference (SAD), Sum of Squared Difference (SSD), or the like. When NCC is used as a matching function, the parallax value that maximizes the NCC value according to window matching can be estimated as the final parallax of the object. When using SAD or SSD as a matching function, SAD or The parallax value that minimizes the SSD value may be estimated as the final parallax of the object. In order to estimate the maximum value or the minimum value, a sub-pixel interpolation method such as a parabola fitting method or an enhanced normalized cross correlation (ENCC) method may be used. In the case of using the parabola fitting, as described above, a parabola can be assumed and the maximum or minimum value can be estimated.

상기 최대값 또는 최소값에 대응되는 최종 시차값이 구해진 경우, 이를 상기 수학식 1 내지 수학식 3에 적용하여 객체와의 거리를 산출할 수 있다. 상기와 같이 산출된 거리값은 칼만 필터(Kalman filter)나 파티클 필터(particle filter) 등과 같은 동적 필터(dynamic filter)를 이용하여 필터링함으로써, 영상 프레임 단위로 객체와의 거리를 추적하여 정확도를 향상시킬 수 있다.When the final parallax value corresponding to the maximum value or the minimum value is obtained, the distance from the object may be calculated by applying the same to the equations (1) to (3). The calculated distance value is filtered using a dynamic filter such as a Kalman filter or a particle filter to improve accuracy by tracking the distance to the object in units of image frames. Can be.

상기에서 설명한 바와 같이 저해상도 영상을 전역 매칭하여 객체를 검출하고, 상기 검출된 객체의 고해상도 영상을 국부 매칭하여 시차를 추정함으로써, 계 산량을 줄여 복잡도를 줄이면서 정확한 시차를 추정할 수 있다. 복수의 객체가 검출되는 경우, 검출된 각 객체에 대하여 상기 시차 추정 과정이 직렬 또는 병렬적으로 수행될 수 있다.As described above, the object is detected by global matching of the low resolution image, and the parallax is estimated by locally matching the high resolution image of the detected object, so that accurate parallax can be estimated while reducing the complexity. When a plurality of objects are detected, the parallax estimation process may be performed in series or in parallel on each detected object.

도 7은 본 발명에 따른 일 실시예로서, 거리 추정 장치의 구성을 개략적으로 나타낸 도면이다. 상기 거리 추정 장치는 제1 영상 촬영장치(700), 제2 영상 촬영장치(705), 제1 영상 처리부(710), 제2 영상 처리부(715), 제1 매칭부(720), 객체 검출부(730), 제1 보간부(740), 제2 매칭부(750), 제2 보간부(760), 거리 추정부(770) 및 필터부(780)를 포함한다.7 is a diagram schematically illustrating a configuration of a distance estimating apparatus according to an embodiment of the present invention. The distance estimating apparatus may include a first image capturing apparatus 700, a second image capturing apparatus 705, a first image processor 710, a second image processor 715, a first matching unit 720, and an object detector. 730, a first interpolator 740, a second matcher 750, a second interpolator 760, a distance estimator 770, and a filter 780.

제1 영상 촬영 장치(700)와 제2 영상 촬영 장치(705)는 스테레오 비전 시스템에서 거리, 속도 등의 추정에 필요한 좌측 영상과 우측 영상을 각각 촬영한다. 상기 영상 촬영 장치는 예를 들어, 카메라 등이 사용될 수 있다. 상기 제1 영상 촬영 장치(700)와 제2 영상 촬영 장치(705)에서 얻어진 좌측 영상과 우측 영상은 각각 제1 영상 처리부(710)와 제2 영상 처리부(715)로 전송된다. 상기 제1 영상 처리부(710)와 제2 영상 처리부(715)는 입력된 영상을 각각 같은 비율로 해상도를 축소하여 출력한다.The first image capturing apparatus 700 and the second image capturing apparatus 705 capture a left image and a right image necessary for estimating distance, speed, etc. in the stereo vision system, respectively. For example, a camera or the like may be used as the image capturing apparatus. The left image and the right image obtained by the first image capturing apparatus 700 and the second image capturing apparatus 705 are transmitted to the first image processor 710 and the second image processor 715, respectively. The first image processor 710 and the second image processor 715 reduce and output the input image at the same ratio.

상기 제1 영상 처리부(710)와 제2 영상 처리부(715)에서 각각 해상도가 축소되어 출력된 좌측 영상과 우측 영상은 제1 매칭부(720)로 입력된다. 상기 제1 매칭부(720)는 입력된 좌측 영상과 우측 영상을 전역 매칭(matching)하여 영상의 깊이 맵(depth map)을 얻을 수 있다.The left image and the right image output by reducing the resolution of the first image processor 710 and the second image processor 715 respectively are input to the first matching unit 720. The first matching unit 720 may globally match the input left image and the right image to obtain a depth map of the image.

객체 검출부(730)는 상기 깊이 맵 정보를 이용하여 거리나 속도 등을 추정하 고자 하는 객체를 추출할 수 있다. 예를 들어, 상기에서 설명한 바와 같이 수직 시차맵 방법을 이용하여 상기 객체를 추출할 수 있다. 제1 보간부(740)는 상기 객체 검출부(730)에서 검출된 객체에 대하여 부표본화 보간법 등을 사용하여 객체의 시차를 추정할 수 있다. 예를 들어, 상기에서 설명한 바와 같은 상기 제1 보간부(740)는 윈도우 매칭 및 최대 NCC 값을 이용한 시차 추정과정을 수행할 수 있다. 그리고, 상기 제1 보간부(740)는 제2 매칭부(750)에서 사용할 시차 후보 구간(x) 정보와 원 영상에서의 대응 시차값(k3)을 계산하여 전송할 수 있다.The object detector 730 may extract an object for estimating a distance or a speed using the depth map information. For example, as described above, the object may be extracted using a vertical parallax map method. The first interpolator 740 may estimate the parallax of the object by using a subsampling interpolation method on the object detected by the object detector 730. For example, the first interpolator 740 as described above may perform a parallax estimation process using window matching and a maximum NCC value. The first interpolator 740 may calculate and transmit the disparity candidate interval x information to be used by the second matching unit 750 and the corresponding disparity value k3 in the original image.

제2 매칭부(750)는 상기 대응 시차값(k3)과 시차 후보 구간(x) 정보를 이용하여, 상기 검출된 객체 부분의 원 영상을 국부 매칭한다. 상기 원 영상은 제1 영상 촬영장치(700)와 제2 영상 촬영장치(705)에서 촬영되어 버퍼(미도시) 등에 저장되어 있는 영상을 입력받아 사용한다. 상기 국부 매칭은 상기에서 설명한 바와 같이 윈도우 매칭을 이용할 수 있으며, 매칭 알고리즘으로 NCC, SAD, SSD 등을 사용할 수 있다.The second matching unit 750 locally matches the original image of the detected object part using the corresponding disparity value k3 and the disparity candidate interval x information. The original image is received by the first image capturing apparatus 700 and the second image capturing apparatus 705 and stored in a buffer (not shown). The local matching may use window matching as described above, and may use NCC, SAD, SSD, etc. as a matching algorithm.

제2 보간부(760)는 상기 제2 매칭부(750)의 국부 매칭 결과를 이용하여 부표본화 보간법 등을 사용하여 객체의 최종 시차를 추정하고, 거리 추정부(770)는 상기 추정된 최종 시차를 이용하여 객체의 거리를 추정한다. 필터부(780)는 추정된 객체의 거리를 동적 필터링하여 프레임 단위로 객체와의 거리를 추적할 수 있다. 상기 필터부(780)는 칼만 필터나 파티클 필터 등과 같은 동적 필터(dynamic filter)를 사용할 수 있다.The second interpolator 760 estimates the final parallax of the object using a subsampling interpolation method using the local matching result of the second matching unit 750, and the distance estimator 770 estimates the final parallax. Estimate the distance of the object using. The filter 780 may track the distance to the object in units of frames by dynamically filtering the estimated distance of the object. The filter unit 780 may use a dynamic filter such as a Kalman filter or a particle filter.

도 8은 본 발명에 따른 일 실시예로서, 거리 추정 방법을 개략적으로 나타낸 순서도이다.8 is a flowchart schematically illustrating a distance estimation method according to an embodiment of the present invention.

스테레오 비전 시스템의 좌우 영상 촬영 장치를 이용하여 영상을 촬영하고, 상기 촬영된 좌우 영상을 동일한 비율로 해상도를 축소한다(S800). 상기 해상도가 축소된 영상을 이용하여 전역 매칭하여 영상에 포함된 객체를 검출한다(S810). 예를 들어, 해상도가 축소된 영상을 전역 매칭하여 깊이 맵을 얻고, 상기 깊이 맵의 수직 시차맵을 이용하여 객체를 검출할 수 있다.The image is captured using the left and right image capturing apparatus of the stereo vision system, and the resolution of the captured left and right images is reduced by the same ratio (S800). An object included in the image is detected by global matching using the image having the reduced resolution (S810). For example, a depth map may be obtained by globally matching an image having a reduced resolution, and an object may be detected using a vertical parallax map of the depth map.

상기 객체가 검출되면, 검출된 객체 영역에 대해 부표본화 보간을 수행하여 검출된 객체에 대한 시차를 산출한다(S820). 상기 S820 단계에서 산출된 시차는 해상도가 축소된 영상에 대한 시차이므로, 상기 시차에 영상 축소 비율의 역을 곱하여 원 영상에서의 대응 시차를 구한다. When the object is detected, the parallax of the detected object is calculated by performing subsampling interpolation on the detected object area (S820). Since the parallax calculated in step S820 is a parallax for an image having a reduced resolution, a corresponding parallax in the original image is obtained by multiplying the parallax by the inverse of the image reduction ratio.

상기 S810단계에서 검출된 객체 영역에 대응되는 원 영상을 추출하고, 원 영상의 객체 영역을 국부 매칭하고(S830), 상기 국부 매칭된 결과를 이용하여 부표본화 보간한다(S840). 그리고 상기 S840 단계를 통해 객체의 최종 시차가 산출되면, 상기 시차를 이용하여 목표 객체의 거리를 추정한다(S850). 상기 시차를 이용한 객체 거리 추정 방식은 상기에서 설명한 바와 같다. 상기 S850 단계에서 객체의 거리가 추정되면 상기 추정된 거리 정보를 필터링하여 프레임 단위로 객체와의 거리를 추적할 수 있다.The original image corresponding to the object region detected in operation S810 is extracted, the object region of the original image is locally matched (S830), and subsampling interpolation is performed using the locally matched result (S840). When the final parallax of the object is calculated through step S840, the distance of the target object is estimated using the parallax (S850). The object distance estimation method using the parallax is as described above. When the distance of the object is estimated in step S850, the distance to the object may be tracked in units of frames by filtering the estimated distance information.

본 발명은 상술한 실시예에 한정되지 않으며, 첨부된 청구범위에서 알 수 있는 바와 같이 본 발명이 속한 분야의 통상의 지식을 가진 자에 의해 변형이 가능하고 이러한 변형은 본 발명의 범위에 속한다.The present invention is not limited to the above-described embodiments, and as can be seen in the appended claims, modifications can be made by those skilled in the art to which the invention pertains, and such modifications are within the scope of the present invention.

도 1은 본 발명에 따른 일 실시예로서, 스테레오 비전 방식에 따라 거리를 추정방식을 개략적으로 나타낸 도면1 is a diagram schematically illustrating a distance estimating method according to an exemplary embodiment of the present invention.

도 2는 본 발명에 따른 일 실시예로서, 촬영된 스테레오 영상의 해상도를 축소하는 과정을 개략적으로 나타낸 도면2 is a diagram schematically illustrating a process of reducing a resolution of a captured stereo image according to an embodiment of the present invention.

도 3은 본 발명에 따른 일 실시예로서, 해상도가 축소된 영상의 깊이 맵을 나타낸 도면3 is a diagram illustrating a depth map of an image having a reduced resolution as an embodiment according to the present invention;

도 4a와 4b는 본 발명에 따른 일 실시예로서, 깊이 맵을 이용하여 객체를 검출하는 과정을 개략적으로 나타낸 도면4A and 4B are diagrams illustrating a process of detecting an object using a depth map, according to an embodiment of the present invention.

도 5는 본 발명에 따른 일 실시예로서 파라볼라 피팅 방법에 따른 시차 추정을 개략적으로 나타낸 도면5 is a diagram schematically illustrating parallax estimation according to a parabola fitting method according to an embodiment of the present invention.

도 6은 본 발명에 따른 일 실시예로서, 검출된 객체 영역에 대한 고해상도 영상을 이용하여 시차를 추정하는 것을 개략적으로 나타낸 도면FIG. 6 is a diagram schematically illustrating estimating parallax using a high resolution image of a detected object region according to an embodiment of the present invention.

도 7은 본 발명에 따른 일 실시예로서, 거리 추정 장치의 구성을 개략적으로 나타낸 도면7 is a diagram schematically illustrating a configuration of a distance estimating apparatus according to an embodiment of the present invention.

도 8은 본 발명에 따른 일 실시예로서, 거리 추정 방법을 개략적으로 나타낸 순서도8 is a flowchart schematically illustrating a distance estimation method according to an embodiment of the present invention.

*도면의 주요 부분에 대한 부호의 설명* Explanation of symbols for the main parts of the drawings

700 : 제1 영상 촬영장치 705 : 제2 영상 촬영장치700: first video recording device 705: second video recording device

710 : 제1 영상 처리부 715 : 제2 영상 처리부710: first image processor 715: second image processor

720 : 제1 매칭부 730 : 객체 검출부720: first matching unit 730: object detection unit

740 : 제1 보간부 750 : 제2 매칭부740: First interpolation unit 750: Second matching unit

760 : 제2 보간부 770 : 거리 추정부760: second interpolation unit 770: distance estimation unit

780 : 필터부780: filter unit

Claims (20)

촬영된 스테레오 영상의 해상도를 축소하는 단계;Reducing the resolution of the captured stereo image; 상기 해상도가 축소된 스테레오 영상을 전역 매칭하여 산출된 깊이맵(depth map)을 이용하여 객체를 검출하는 단계;Detecting an object by using a depth map calculated by globally matching the reduced stereo image; 상기 검출된 객체의 내부 영역에 대해 부표본화 보간하여 시차 정보를 산출하는 단계;Calculating parallax information by subsampling interpolation on the inner region of the detected object; 상기 시차 정보와 원 스테레오 영상을 이용하여 상기 검출된 객체의 영역을 매칭하는 단계;Matching an area of the detected object by using the parallax information and the original stereo image; 상기 객체 영역을 매칭한 결과를 이용하여 부표본화 보간하고 시차를 추정하는 단계; 및Subsampling interpolation and estimating parallax using the result of matching the object region; And 상기 추정된 시차를 이용하여 상기 검출된 객체와의 거리를 추정하는 단계를 포함하는 거리 추정 방법.Estimating a distance to the detected object using the estimated parallax. 제 1 항에 있어서,The method of claim 1, 상기 스테레오 영상의 해상도를 축소하는 단계는,Reducing the resolution of the stereo image, 촬영된 좌측 영상과 우측 영상의 해상도를 같은 비율로 축소하는 거리 추정 방법.A distance estimation method of reducing the resolution of the captured left image and the right image by the same ratio. 제 1 항에 있어서,The method of claim 1, 상기 객체를 검출하는 단계는,Detecting the object, 스테레오 영상을 전역 매칭하여 얻어진 깊이 맵(depth map)의 수직 시차맵을 이용하여 객체를 검출하는 거리 추정 방법.A distance estimation method for detecting an object using a vertical parallax map of a depth map obtained by global matching of a stereo image. 제 1 항에 있어서,The method of claim 1, 시차 정보를 산출하는 단계는,Computing the time difference information, 검출된 객체의 내부 픽셀을 윈도우 매칭하고 부표본화 보간하여 시차 정보를 산출하는 거리 추정 방법.A method of estimating disparity by window matching and subsampling interpolation of internal pixels of a detected object. 제 4 항에 있어서,The method of claim 4, wherein 상기 윈도우 매칭은,The window matching, 정규 유사도(Normalized Cross Correlation: 이하, NCC) 알고리즘을 이용하여 윈도우 간 정규 유사도 값을 구하는 거리 추정 방법.Distance estimation method for obtaining normal similarity value between windows by using Normalized Cross Correlation (NCC) algorithm. 제 1 항에 있어서,The method of claim 1, 상기 시차 정보는,The time difference information, 해상도가 축소된 영상에서 객체의 시차값에 영상 축소 비율의 역값을 곱한 대응 시차값과 부표본화 보간 신뢰도에 따른 시차 후보 구간 값을 포함하는 거리 추정 방법.A method for estimating distance comprising a corresponding parallax value obtained by multiplying an object parallax value by an inverse value of an image reduction ratio in a resolution-reduced image and a disparity candidate interval value according to subsampled interpolation reliability. 제 1 항에 있어서,The method of claim 1, 상기 원 스테레오 영상을 이용하여 상기 검출된 객체의 영역을 매칭하는 단계는,Matching an area of the detected object by using the original stereo image, NCC, SAD(Sum of Absolute Difference: 차분 절대값의 합. 이하, SAD) 또는 SSD(Sum of Squared Difference: 차분 제곱의 합. 이하, SSD) 알고리즘 가운데 하나를 이용하여 객체 영역내 픽셀을 윈도우 매칭하는 거리 추정 방법.Window-matching pixels in the object region using one of NCC, Sum of Absolute Difference (SAD) or Sum of Squared Difference (SSD) algorithms. Distance estimation method. 제 1 항에 있어서,The method of claim 1, 상기 부표본화 보간하고 시차를 추정하는 단계는,The subsampling interpolation and estimating the time difference, NCC 알고리즘을 이용하여 객체 영역을 매칭한 경우, NCC 값이 최대값이 되는 지점의 값을 시차로 추정하는 거리 추정 방법.A method of estimating distance by estimating the value of a point where an NCC value becomes a maximum when an object region is matched using an NCC algorithm. 제 1 항에 있어서,The method of claim 1, 상기 부표본화 보간하고 시차를 추정하는 단계는,The subsampling interpolation and estimating the time difference, SAD 또는 SSD 알고리즘을 이용하여 객체 영역을 매칭한 경우, SAD 또는 SSD 값이 최소값이 되는 지점의 값을 시차로 추정하는 거리 추정 방법.A method of estimating distance by estimating the value of a point where the SAD or SSD value becomes the minimum value when the object area is matched using the SAD or SSD algorithm. 제 1 항에 있어서,The method of claim 1, 상기 추정된 객체와의 거리를 필터링하여 객체와의 거리를 추적하는 필터링 단계를 더 포함하는 거리 추정 방법.And filtering the distance from the estimated object to track the distance to the object. 제 10 항에 있어서,The method of claim 10, 상기 필터링 단계는,The filtering step, 동적 필터(dynamic filter)를 이용하여 객체와의 거리를 프레임 단위로 추적하는 거리 추정 방법.Distance estimation method of tracking the distance from an object in units of frames using a dynamic filter. 거리 추정 장치에 있어서,In the distance estimation device, 촬영된 스테레오 영상의 해상도를 축소하는 영상 처리부;An image processor which reduces the resolution of the captured stereo image; 상기 해상도가 축소된 스테레오 영상을 전역 매칭하는 제1 매칭부;A first matching unit which globally matches the stereo image with reduced resolution; 상기 제1 매칭부에서 산출된 깊이 맵을 이용하여 객체를 검출하는 객체 검출부;An object detector for detecting an object by using the depth map calculated by the first matching unit; 상기 검출된 객체의 내부 영역에 대해 부표본화 보간하여 시차 정보를 산출하는 제1 보간부;A first interpolation unit configured to calculate parallax information by performing subsampling interpolation on the inner region of the detected object; 상기 시차 정보와 원 스테레오 영상을 이용하여 상기 검출된 객체의 영역을 매칭하는 제2 매칭부;A second matching unit which matches the area of the detected object by using the parallax information and the original stereo image; 상기 제2 매칭부에서 매칭된 결과를 이용하여 부표본화 보간하고 시차를 추정하는 제2 보간부; 및A second interpolation unit which interpolates subsamples and estimates parallax using the result matched by the second matching unit; And 상기 제2 보간부에서 추정된 시차를 이용하여 상기 검출된 객체와의 거리를 추정하는 거리 추정부를 포함하는 거리 추정 장치.And a distance estimator for estimating a distance to the detected object using the parallax estimated by the second interpolator. 제 12 항에 있어서,The method of claim 12, 상기 객체 검출부는,The object detector, 상기 제1 매칭부에서 산출된 깊이 맵의 수직 시차맵을 이용하여 객체를 검출하는 거리 추정 장치.A distance estimating apparatus for detecting an object by using a vertical parallax map of the depth map calculated by the first matching unit. 제 12 항에 있어서,The method of claim 12, 상기 제1 보간부는,The first interpolation unit, 검출된 객체의 내부 픽셀을 윈도우 매칭하고 부표본화 보간하여 시차 정보를 산출하는 거리 추정 장치.And a parallax information calculated by window matching and subsampling interpolation of the internal pixels of the detected object. 제 14 항에 있어서,The method of claim 14, 상기 제1 보간부는,The first interpolation unit, 정규 유사도(NCC) 알고리즘을 이용하여 내부 픽셀을 윈도우 매칭하고, 윈도우 간 정규 유사도 값을 구하는 거리 추정 장치.A distance estimator for window matching internal pixels using a normal similarity (NCC) algorithm and obtaining a normal similarity value between windows. 제 12 항에 있어서,The method of claim 12, 상기 시차 정보는,The time difference information, 해상도가 축소된 영상에서 객체의 시차값에 영상 축소 비율의 역값을 곱한 대응 시차값과 부표본화 보간 신뢰도에 따른 시차 후보 구간 값을 포함하는 거리 추정 장치.A distance estimating apparatus comprising a corresponding disparity value obtained by multiplying a parallax value of an object by an inverse value of an image reduction ratio in a resolution-reduced image and a disparity candidate interval value according to subsampled interpolation reliability. 제 12 항에 있어서,The method of claim 12, 상기 제2 매칭부는,The second matching unit, NCC, SAD 또는 SSD 알고리즘 가운데 하나를 이용하여 객체 영역내 픽셀을 윈도우 매칭하는 거리 추정 장치.A distance estimation device for window matching pixels in an object region using one of NCC, SAD or SSD algorithms. 제 12 항에 있어서,The method of claim 12, 상기 제2 보간부는,The second interpolation unit, 상기 제2 매칭부에서 NCC 알고리즘을 이용하여 객체 영역을 매칭한 경우, NCC 값이 최대값이 되는 지점의 값을 시차로 추정하는 거리 추정 장치.And the second matching unit estimates the value of the point where the NCC value becomes the maximum value by parallax when the object region is matched using the NCC algorithm. 제 12 항에 있어서,The method of claim 12, 상기 제2 보간부는,The second interpolation unit, 상기 제2 매칭부에서 SAD 또는 SSD 알고리즘을 이용하여 객체 영역을 매칭한 경우, SAD 또는 SSD 값이 최소값이 되는 지점의 값을 시차로 추정하는 거리 추정 장치.And estimating a value of a point at which the SAD or SSD value becomes the minimum value with parallax when the object region is matched using the SAD or SSD algorithm in the second matching unit. 제 12 항에 있어서,The method of claim 12, 상기 추정된 객체와의 거리를 동적 필터링하여 프레임 단위로 객체와의 거리를 추적하는 필터부를 더 포함하는 거리 추정 장치.And a filter unit configured to dynamically track the distance from the estimated object and track the distance from the object in units of frames.
KR1020080073398A 2008-07-28 2008-07-28 Method for distance estimation and apparatus for the same using a stereo matching KR100938195B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080073398A KR100938195B1 (en) 2008-07-28 2008-07-28 Method for distance estimation and apparatus for the same using a stereo matching

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080073398A KR100938195B1 (en) 2008-07-28 2008-07-28 Method for distance estimation and apparatus for the same using a stereo matching

Publications (1)

Publication Number Publication Date
KR100938195B1 true KR100938195B1 (en) 2010-01-21

Family

ID=41810132

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080073398A KR100938195B1 (en) 2008-07-28 2008-07-28 Method for distance estimation and apparatus for the same using a stereo matching

Country Status (1)

Country Link
KR (1) KR100938195B1 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7910655B2 (en) 2003-11-21 2011-03-22 Cheil Industrial Inc. Polyarylene sulfide thermoplastic resin composition
KR20120013769A (en) * 2010-08-06 2012-02-15 삼성전자주식회사 Method and apparatus for processing image
KR101152606B1 (en) * 2010-03-30 2012-06-04 (주) 큐알온텍 Apparatus and method for controlling caramera of blackbox of vehicle
KR101203478B1 (en) 2010-08-30 2012-11-21 전자부품연구원 Method for extracting available object according to available section auto setup
KR101272572B1 (en) 2011-11-11 2013-06-10 재단법인대구경북과학기술원 Apparatus and Method for Estimating Depth Using 3D Image-Based Feature
KR101418167B1 (en) * 2012-11-13 2014-07-09 재단법인대구경북과학기술원 Method and device control stereoscopic camera
US9325895B2 (en) 2011-11-28 2016-04-26 Samsung Electronics Co., Ltd. Digital photographing apparatus and control method thereof
KR101739394B1 (en) * 2016-12-30 2017-05-26 재단법인대구경북과학기술원 Apparatus for estimating distance to object using stereo camera with heterogeneous angle of view and method thereof
WO2018155777A1 (en) * 2017-02-22 2018-08-30 한국과학기술원 Apparatus and method for estimating distance on basis of thermal image, and neural network learning method therefor
KR20180096980A (en) * 2017-02-22 2018-08-30 현대자동차주식회사 Method and apparatus for distance estimation using stereo camera
US10171795B2 (en) 2016-08-22 2019-01-01 Hyundai Motor Company System and method for generating disparity map by matching stereo images
KR20200023707A (en) * 2018-08-23 2020-03-06 엘지전자 주식회사 Moving robot
KR102430274B1 (en) * 2021-02-22 2022-08-09 (주)아고스비전 Wide viewing angle stereo camera-based people following system and method therefore
US11417007B2 (en) 2019-11-20 2022-08-16 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070118875A (en) * 2006-06-13 2007-12-18 삼성전자주식회사 Stereo-type distance measuring apparatus and method
KR20080022748A (en) * 2006-09-07 2008-03-12 주식회사 만도 Collision avoidance method using stereo camera
JP2008082870A (en) 2006-09-27 2008-04-10 Setsunan Univ Image processing program, and road surface state measuring system using this

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070118875A (en) * 2006-06-13 2007-12-18 삼성전자주식회사 Stereo-type distance measuring apparatus and method
KR20080022748A (en) * 2006-09-07 2008-03-12 주식회사 만도 Collision avoidance method using stereo camera
JP2008082870A (en) 2006-09-27 2008-04-10 Setsunan Univ Image processing program, and road surface state measuring system using this

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7910655B2 (en) 2003-11-21 2011-03-22 Cheil Industrial Inc. Polyarylene sulfide thermoplastic resin composition
KR101152606B1 (en) * 2010-03-30 2012-06-04 (주) 큐알온텍 Apparatus and method for controlling caramera of blackbox of vehicle
KR20120013769A (en) * 2010-08-06 2012-02-15 삼성전자주식회사 Method and apparatus for processing image
KR101690256B1 (en) * 2010-08-06 2016-12-27 삼성전자주식회사 Method and apparatus for processing image
KR101203478B1 (en) 2010-08-30 2012-11-21 전자부품연구원 Method for extracting available object according to available section auto setup
KR101272572B1 (en) 2011-11-11 2013-06-10 재단법인대구경북과학기술원 Apparatus and Method for Estimating Depth Using 3D Image-Based Feature
US9325895B2 (en) 2011-11-28 2016-04-26 Samsung Electronics Co., Ltd. Digital photographing apparatus and control method thereof
KR101418167B1 (en) * 2012-11-13 2014-07-09 재단법인대구경북과학기술원 Method and device control stereoscopic camera
US10171795B2 (en) 2016-08-22 2019-01-01 Hyundai Motor Company System and method for generating disparity map by matching stereo images
KR101739394B1 (en) * 2016-12-30 2017-05-26 재단법인대구경북과학기술원 Apparatus for estimating distance to object using stereo camera with heterogeneous angle of view and method thereof
KR20180096980A (en) * 2017-02-22 2018-08-30 현대자동차주식회사 Method and apparatus for distance estimation using stereo camera
WO2018155777A1 (en) * 2017-02-22 2018-08-30 한국과학기술원 Apparatus and method for estimating distance on basis of thermal image, and neural network learning method therefor
KR102252915B1 (en) * 2017-02-22 2021-05-18 현대자동차주식회사 Method and apparatus for distance estimation using stereo camera
US11062470B2 (en) 2017-02-22 2021-07-13 Korea Advanced Institute Of Science And Technology Apparatus and method for depth estimation based on thermal image, and neural network learning method therefof
KR20200023707A (en) * 2018-08-23 2020-03-06 엘지전자 주식회사 Moving robot
KR102560462B1 (en) * 2018-08-23 2023-07-26 엘지전자 주식회사 Moving robot
US11417007B2 (en) 2019-11-20 2022-08-16 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling thereof
KR102430274B1 (en) * 2021-02-22 2022-08-09 (주)아고스비전 Wide viewing angle stereo camera-based people following system and method therefore

Similar Documents

Publication Publication Date Title
KR100938195B1 (en) Method for distance estimation and apparatus for the same using a stereo matching
JP6253981B2 (en) Autofocus for stereoscopic cameras
JP3539788B2 (en) Image matching method
US9374571B2 (en) Image processing device, imaging device, and image processing method
US9014463B2 (en) System for real-time stereo matching
CN104685513A (en) Feature based high resolution motion estimation from low resolution images captured using an array source
US9025862B2 (en) Range image pixel matching method
JP6138861B2 (en) Distance calculation device
US20140003704A1 (en) Imaging system and method
WO2013132951A1 (en) Distance calculation device and distance calculation method
US9747690B2 (en) Image processing device, image processing method, and program
US8369609B2 (en) Reduced-complexity disparity map estimation
JP4862816B2 (en) Image correspondence point search device, distance measuring device and image motion detection device using the same
JP6694234B2 (en) Distance measuring device
JP6543935B2 (en) PARALLEL VALUE DERIVING DEVICE, DEVICE CONTROL SYSTEM, MOBILE OBJECT, ROBOT, PARALLEL VALUE DERIVING METHOD, AND PROGRAM
JP4394487B2 (en) Stereo image processing device
JP2018503195A (en) Object detection method and object detection apparatus
JPH0814861A (en) Method of measuring three-dimensional shape and device therefor
JP2961272B1 (en) Object recognition apparatus and method using feature vector
Zhang et al. High quality depth maps from stereo matching and ToF camera
US20220329771A1 (en) Method of pixel-by-pixel registration of an event camera to a frame camera
KR100926287B1 (en) Method for distance estimation and apparatus for the same using a disparity and a perspective
KR101869226B1 (en) Disparity map generating method for mono cameras
KR100928906B1 (en) Estimation device and estimation method using parallax
TW202338734A (en) Method and image processor unit for processing image data

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130124

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20131230

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150106

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160113

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee