KR100938194B1 - Method for detecting an object and apparatus for the same - Google Patents

Method for detecting an object and apparatus for the same Download PDF

Info

Publication number
KR100938194B1
KR100938194B1 KR1020080073303A KR20080073303A KR100938194B1 KR 100938194 B1 KR100938194 B1 KR 100938194B1 KR 1020080073303 A KR1020080073303 A KR 1020080073303A KR 20080073303 A KR20080073303 A KR 20080073303A KR 100938194 B1 KR100938194 B1 KR 100938194B1
Authority
KR
South Korea
Prior art keywords
depth map
distance
map
parallax
vertical
Prior art date
Application number
KR1020080073303A
Other languages
Korean (ko)
Inventor
이충희
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020080073303A priority Critical patent/KR100938194B1/en
Application granted granted Critical
Publication of KR100938194B1 publication Critical patent/KR100938194B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof

Abstract

PURPOSE: A method for detecting an object and an apparatus thereof are provided to perform stereo matching on a photographed image to detect an object included in the image, thereby estimating the accurate location, distance and speed based on the detected object. CONSTITUTION: A matching unit(810) matches photographed stereo images to produce a depth map. A converting unit(820) converts the depth map so that the depth map is placed horizontally along with a vertical line. An object detecting unit(830) maps parallax values of pixels of the converted depth map on the vertical line. The object detecting unit detects an object included in the image according to distribution of the parallax values.

Description

객체 검출 방법 및 객체 검출 장치{Method for detecting an object and apparatus for the same}Method for detecting an object and apparatus for the same

본 발명은 객체 검출 장치 및 객체 검출 방법에 관한 것으로서, 더욱 자세하게는 촬영된 영상을 스테레오 매칭하여 영상에 포함된 객체를 검출하는 장치 및 방법에 관한 것이다.The present invention relates to an object detecting apparatus and an object detecting method, and more particularly, to an apparatus and method for detecting an object included in an image by stereo matching a captured image.

관찰 측으로부터 떨어져 있는 객체의 거리를 측정하는 방법에는 여러 가지가 있다. 그 가운데 상기 객체에 대해 영상을 촬영하고, 상기 촬영된 영상을 이용하여 영상에 포함된 객체까지의 거리를 측정할 수 있는 방법이 있다.There are several ways to measure the distance of an object away from the observer. Among them, there is a method of capturing an image of the object and measuring a distance to an object included in the image by using the photographed image.

촬영된 영상을 이용하여 영상에 포함된 목표 객체까지의 거리를 측정하는 기술의 하나의 예로 스테레오 비전(stereo vision) 기술을 들 수 있다. 상기 스테레오 비전 기술은 복수의 영상 촬영 장치, 예를 들어, 카메라 등으로부터 각각 획득한 좌측 영상과 우측 영상을 이용하여 영상에 포함된 객체의 위치, 거리, 속도 등을 측정할 수 있다.One example of a technique of measuring a distance to a target object included in an image by using a captured image is stereo vision technology. The stereo vision technology may measure the position, distance, and speed of an object included in an image using a left image and a right image obtained from a plurality of image capturing apparatuses, for example, cameras.

종래의 스테레오 비전 기술을 이용한 거리 측정 방법에서는 복수의 카메라로부터 획득한 좌우 영상으로부터 객체에 대한 대응점(corresponding point)을 찾아 서, 그 대응점에 대한 시차(disparity)를 이용하여 객체의 거리를 측정하였다. In a conventional distance measuring method using stereo vision technology, a corresponding point for an object is found from left and right images obtained from a plurality of cameras, and the distance of the object is measured using disparity with respect to the corresponding point.

그러나, 종래의 스테레오 비전 기술의 경우, 객체가 전방의 어느 정도 먼 곳에 있다는 가정하에 수직 거리를 이용하여 깊이 맵을 사용함으로써, 가까운 거리에 장애물체가 존재할 경우에는 거리 오차가 발생할 수 있는 문제가 있었다.However, in the conventional stereo vision technology, a depth map using a vertical distance under the assumption that an object is far away in front of the vehicle has a problem that a distance error may occur when an obstacle exists at a close distance. .

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 본 발명의 목적은 원거리뿐만 아니라 근거리에서도 객체의 정확한 위치, 거리를 추정할 수 있는 거리 객체 검출 방법 및 객체 검출 장치를 제공하는 것이다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and an object of the present invention is to provide a distance object detection method and an object detection apparatus capable of estimating the exact position and distance of an object not only at a distance but also at a short distance.

본 발명에 따른 객체 검출 방법은, 촬영된 스테레오 영상을 객체와의 거리를 기준으로 매칭하여 중점을 중심으로 한 깊이 맵을 산출하는 단계, 상기 중점을 중심으로 한 깊이 맵이 수직 라인을 따라 수평이 되도록 깊이 맵을 변환하는 단계, 상기 변환된 깊이 맵을 이용하여 수직 시차맵을 형성하는 단계, 및 상기 수직 시차맵을 이용하여 영상에 포함된 객체를 검출하는 단계를 포함한다.In the object detecting method according to the present invention, a depth map centered on a center point is calculated by matching a photographed stereo image based on a distance from an object, and the depth map centered on the center point is horizontally aligned along a vertical line. Converting a depth map as much as possible, forming a vertical parallax map using the converted depth map, and detecting an object included in an image using the vertical parallax map.

다른 관점에서 본 발명에 따른 객체 검출 장치는, 촬영된 스테레오 영상을 객체와의 거리를 기준으로 매칭하여 중점을 중심으로 한 깊이 맵을 산출하는 매칭부, 상기 중점을 중심으로 한 깊이 맵이 수직 라인을 따라 수평이 되도록 깊이 맵을 변환하는 변환부, 및 상기 변환된 깊이 맵을 이용하여 수직 시차맵을 형성하고, 영상에 포함된 객체를 검출하는 객체 검출부를 포함한다.In another aspect, an object detecting apparatus according to the present invention includes a matching unit configured to calculate a depth map centered on a center point by matching a photographed stereo image with respect to a distance from an object, and a depth line centered on the center point is a vertical line. And a transform unit for converting the depth map to be horizontal along the form, and an object detector for forming a vertical parallax map using the converted depth map and detecting an object included in the image.

본 발명의 객체 검출 방법 및 객체 검출 장치에 따르면, 스테레오 비전 시스템에서 원거리뿐만 아니라 근거리의 목표 객체를 검출할 수 있으며, 상기 검출된 객체를 기반으로 정확한 위치, 거리, 속도 등을 추정할 수 있도록 하는 효과가 있 다. 상기와 같은 객체 검출 방법, 장치를 자동차에 적용하는 경우, 원거리뿐만 아니라 근거리 좌우측, 후방 등과 같은 자동차 주변의 객체를 정확하게 검출할 수 있어, 자동 차선 변경이나, LKS(Lane Keeping System), 측방 장애물체 경고 등의 안전주행 기능을 제공할 수 있는 효과가 있다.According to the object detecting method and the object detecting apparatus of the present invention, it is possible to detect a target object not only in the distance but also in the short distance in the stereo vision system, and to estimate the exact position, distance, speed, etc. based on the detected object. It works. When the above object detection method and apparatus are applied to a vehicle, it is possible to accurately detect not only a long distance but also an object around the vehicle such as near, right, left, and rear, so as to change an auto lane, a lane keeping system (LKS), and a side obstacle. It is effective to provide safety driving functions such as warning.

상기와 같은 검출 방법은 다양한 분야에 응용하여 객체를 정확하게 검출할 수 있는 효과가 있다. 예를 들어, 로봇이나 자동차 등에 적용하는 경우 자동차의 추돌 방지, 주행 등의 운전 시스템이나 안전 운행 시스템 등에 적용하여 사용할 수 있다. 또한, 상기 로봇, 자동차 등과 같은 이동 객체뿐만 아니라 공장, 홈 등의 일상 공간에서도 객체 검출 분야에 적용이 가능하다.Such a detection method has an effect of accurately detecting an object by applying to various fields. For example, when applied to a robot or a car, it can be applied to a driving system such as collision prevention of a car, driving, or a safe driving system. In addition, the present invention can be applied to an object detection field not only in a moving object such as a robot or a car but also in a daily space such as a factory or a home.

이하 본 발명의 목적, 특성 및 이점들은 첨부한 도면을 참조한 실시 예들의 상세한 설명을 통해 명백해질 것이다. 아울러, 본 발명에서 사용되는 용어는 가능한 한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재하였으므로, 단순한 용어의 명칭이 아닌 용어가 가지는 의미로서 본 발명을 파악하여야 함을 밝혀 두고자 한다.The objects, features and advantages of the present invention will become apparent from the following detailed description of embodiments taken in conjunction with the accompanying drawings. In addition, the terms used in the present invention was selected as a general term widely used as possible now, but in certain cases, the term is arbitrarily selected by the applicant, in which case the meaning is described in detail in the corresponding description of the invention, It is to be clear that the present invention is to be understood as the meaning of terms rather than names.

이와 같이 구성된 본 발명에 따른 객체 검출 장치 및 객체 검출 방법의 동작을 첨부한 도면을 참조하여 상세히 설명하면 다음과 같다. 도 1은 본 발명에 따른 일 실시예로서, 스테레오 비전 방식에 따라 거리를 추정하는 방식을 개략적으로 나타낸 도면이다.Operation of the object detecting apparatus and the object detecting method according to the present invention configured as described above will be described in detail with reference to the accompanying drawings. 1 is a diagram schematically illustrating a method of estimating distance according to a stereo vision method according to an embodiment of the present invention.

스테레오 비전 시스템을 이용하여 거리를 추정하는 방식의 경우, 좌우 영상 촬영 장치로부터 촬영된 영상을 이용하여 대응점을 찾아 깊이 맵(depth map)을 생성한다. 그리고, 상기 깊이 맵과 좌우 영상을 이용하여 이동 객체를 검출하고, 상기 검출된 이동 객체 내의 시차 평균을 구한다. 스테레오 비전 시스템에서는 상기 구해진 시차를 이용하여 객체의 거리를 추정할 수 있다. 상기 시차와 목표 객체의 거리는 하기의 수학식 1과 상기 도 1의 각종 파라미터를 이용하여 자세히 설명하도록 한다. 상기 도 1에서 B(기준선)는 좌, 우측 영상 촬영 장치의 중심 사이의 거리, F는 영상 촬영 장치의 초점거리(렌즈와 촬상 장치(예를 들어, CCD, CMOS 등) 사이의 거리), xl은 좌측 촬영 장치에 맺힌 객체가 촬영 장치의 중심으로부터 벗어난 거리, xr은 우측 촬영 장치에 맺힌 객체가 촬영 장치의 중심으로부터 벗어난 거리, Zd는 객체와 영상 촬영 장치의 수직 거리, Zr은 객체의 실제 거리, Xd는 좌측 영상 촬영 장치와 우측 영상 촬영 장치의 중간 지점에서 Zd라인과 영상 촬영 장치의 수평면이 만나는 지점까지의 거리를 말한다.In the case of estimating distance using a stereo vision system, a depth map is generated by finding a corresponding point using images captured from the left and right image capturing apparatus. The moving object is detected using the depth map and the left and right images, and a parallax average in the detected moving object is obtained. In the stereo vision system, the distance of an object may be estimated using the obtained parallax. The distance between the parallax and the target object will be described in detail using Equation 1 below and various parameters of FIG. 1. In FIG. 1, B (reference line) is the distance between the centers of the left and right imaging apparatuses, F is the focal length of the imaging apparatus (the distance between the lens and the imaging apparatus (eg, CCD, CMOS, etc.)), x l is the distance from the center of the shooting device to the object on the left shooting device, x r is the distance from the center of the shooting device to the object on the right shooting device, Z d is the vertical distance between the object and the image shooting device, Z r is The actual distance of the object, X d , refers to the distance from the middle point of the left image capture device and the right image capture device to the point where the horizontal line of the image pickup device meets the Z d line.

Figure 112008053952006-pat00001
Figure 112008053952006-pat00001

상기 수학식 1과 같이 상기 수직 거리 Zd는 좌, 우측 영상 촬영 장치의 중심 사이의 거리(B)와 영상 촬영 장치의 초점거리(F)를 곱한 값을 시차 값(xr-xl)으로 나눈 값으로 구할 수 있다(수학식 1). 객체가 전방에 있는 경우에는 Zr과 Zd의 차이가 크지 않으므로, 상기 도 1에서와 같이 객체와의 실제 거리는 Zr임에도 불구하고, 상기 수학식 1의 경우에는 객체와 기준선(B)과의 수직 거리인 Zd를 구할 수 있다.As shown in Equation 1, the vertical distance Z d is a parallax value (x r -x l ) obtained by multiplying the distance B between the centers of the left and right imaging apparatuses by the focal length F of the imaging apparatus. It can be obtained by dividing (Equation 1). Since the difference between Z r and Z d is not large when the object is in the front, although the actual distance from the object is Z r as shown in FIG. 1, in the case of Equation 1, the object and the reference line B The vertical distance Z d can be found.

도 2는 본 발명에 따른 일 실시예로서, 수직 거리를 이용하여 얻어진 깊이 맵(depth map)을 개략적으로 나타낸 도면이다. 깊이 맵은 촬영된 영상의 거리 정보를 그레이 값(gray value)으로 표현한 것을 말한다. 상기 깊이 맵의 경우 거리가 가까울수록 밝은 값으로 표현되며, 거리가 멀수록 어두운 값으로 표현된다.FIG. 2 is a diagram schematically illustrating a depth map obtained using a vertical distance according to an embodiment of the present invention. The depth map is a representation of distance information of a captured image as a gray value. In the case of the depth map, the closer the distance is represented by the bright value, the farther distance is represented by the dark value.

상기 수학식 1과 같이 수직 거리를 이용하여 깊이 맵을 작성하는 경우, 기준선을 기준으로 수평으로는 같은 거리 값을 가진다. 즉, 상기 도 2와 같이 수평으로는 같은 밝기 값을 가질 수 있다.When the depth map is created using the vertical distance as shown in Equation 1, the depth map has the same distance value horizontally with respect to the reference line. That is, as shown in FIG. 2, the same brightness value may be horizontally provided.

도 3은 본 발명에 따른 일 실시예로서, 수직 시차맵을 이용하여 객체를 검출하는 과정을 개략적으로 나타낸 도면이다. 상기 도 2와 같은 깊이 맵의 경우, 객체가 없는 평면 영역은 거리가 멀어질수록 밝기 값이 일정한 비율로 감소한다. 그러나, 장애물체와 같은 객체가 놓이는 경우, 평면과 달리 그 객체로 인하여 객체 부분의 밝기 값이 증가한다. 상기와 같은 현상을 이용하여 객체를 검출할 수 있다.3 is a diagram schematically illustrating a process of detecting an object using a vertical parallax map according to an embodiment of the present invention. In the depth map as shown in FIG. 2, as the distance increases, the planar region without the object decreases at a constant rate. However, when an object such as an obstacle is placed, the brightness value of the object portion is increased due to the object unlike the plane. The object can be detected using the above phenomenon.

도 3의 수직 시차맵(V-disparity)의 수평 성분은 시차값(0~255, 그레이 값이 28인 경우)을 나타내며, 수직 성분은 깊이 맵의 수직 라인을 나타낸다. 상기 수직 시차맵은 깊이 맵의 수직 라인별로 그에 해당하는 수평 라인의 각 픽셀 밝기 값을 읽어 그 값을 수직 라인별로 수직 시차맵에 맵핑한다. 예를 들어, 깊이 맵의 각 수 직 라인별로 빈도가 높은 밝기 값을 수직 시차맵에 맵핑할 수 있다. The horizontal component of the vertical parallax map V-disparity of FIG. 3 represents a parallax value (0 to 255, when the gray value is 2 8 ), and the vertical component represents a vertical line of the depth map. The vertical parallax map reads each pixel brightness value of the horizontal line corresponding to each vertical line of the depth map and maps the value to the vertical parallax map for each vertical line. For example, a high brightness value may be mapped to a vertical parallax map for each vertical line of the depth map.

상기와 같은 맵핑 결과, 도 3에서와 같이 평면 성분은 수직 라인값이 감소할수록 밝기 값이 높으며, 수직 라인값이 증가할수록 일정한 비율로 감소한다. 상기 밝기 값은 상기 깊이 맵이 작성되는 과정의 역으로 시차 값으로 전환될 수 있다.As a result of the above mapping, as shown in FIG. 3, the planar component has a higher brightness value as the vertical line value decreases, and decreases at a constant rate as the vertical line value increases. The brightness value may be converted into a parallax value in the inverse of the process of creating the depth map.

그러나, 장애 물체 또는 객체는 평면 성분의 경향과 다른 값을 가질 수 있다. 예를 들어 도 3의 경우, 장애 물체는 평면 성분의 경향과 달리 특정 밝기 값을 가지고 있으며, 상기 특정 밝기 값을 가지는 부분을 검출함으로써 영상에 포함된 객체들을 검출할 수 있다. 그리고, 상기 검출된 객체의 시차 값을 읽고, 상기 시차 값을 상기 수학식 1에 적용함으로써 객체의 거리를 추정할 수 있다.However, the obstacle or the object may have a value different from the tendency of the planar component. For example, in FIG. 3, the obstacle object has a specific brightness value different from the tendency of the planar component, and the objects included in the image may be detected by detecting a part having the specific brightness value. The distance of the object may be estimated by reading the parallax value of the detected object and applying the parallax value to Equation (1).

도 4는 본 발명에 따른 일 실시예로서, 스테레오 비전 방식에 따라 객체의 실제 거리를 추정하는 방식을 개략적으로 나타낸 도면이다. 상기 수학식 1과 도 1의 경우에는 기준선과 객체와의 수직 거리를 구하므로, 측면 또는 전후방 등의 근거리 객체와의 거리를 측정하는 데 오차가 발생할 수 있다. 따라서, 도 4와 같이 객체와의 실제 거리를 구하여 상기와 같은 오차를 줄일 수 있으며, 객체를 정확히 검출할 수 있다.4 is a diagram schematically illustrating a method of estimating an actual distance of an object according to a stereo vision method according to an embodiment of the present invention. In the case of Equation 1 and FIG. 1, since a vertical distance between the reference line and the object is obtained, an error may occur in measuring the distance between the short distance object such as a side or front and back. Therefore, the error as described above can be reduced by obtaining the actual distance from the object as shown in FIG. 4, and the object can be detected accurately.

상기 객체의 실제 거리(Zr)를 수학식으로 나타내면 아래 수학식 2와 같다. 수학식 2와 도 4의 각 파라미터는 상기 수학식 1과 도 1에서 설명한 바와 같다.The actual distance Z r of the object is represented by Equation 2 below. Each parameter of Equations 2 and 4 is as described in Equations 1 and 1 above.

Figure 112008053952006-pat00002
Figure 112008053952006-pat00002

상기 객체의 실제 거리(Zr)는 시차 값(xr-xl)의 제곱과 초점 거리 두배(2F)의 제곱을 더한 값의 루트 값과 기준선의 1/2 값(B/2)을 곱하고, 이를 시차 값으로 나눈 값으로 나타낼 수 있다.The actual distance (Z r ) of the object is multiplied by the root value of the square of the parallax value (x r -x l ) and the square of the focal length twice (2F) and the 1/2 value (B / 2) of the baseline, This can be expressed as the value divided by the parallax value.

도 5는 본 발명에 따른 일 실시예로서, 실제 거리를 이용하여 얻어진 깊이 맵(depth map)을 개략적으로 나타낸 도면이다. 상기 수학식 2와 같이 실제 거리를 이용하여 깊이 맵을 작성하는 경우, 중점(center)을 기준으로 동심원 형태로 같은 거리 값을 가진다. 즉, 상기 도 5와 같이 중점을 중심으로 중점에서 같은 거리에 있는 동심원은 같은 밝기 값을 가질 수 있다.FIG. 5 is a diagram schematically showing a depth map obtained using an actual distance as an embodiment according to the present invention. When the depth map is created using the actual distance as shown in Equation 2, the depth map has the same distance value in the form of concentric circles with respect to the center. That is, as shown in FIG. 5, concentric circles at the same distance from the center of the center may have the same brightness value.

그러나, 상기와 같은 깊이 맵의 경우 객체의 거리를 정확하게 반영할 수 있으나, 객체를 검출하는 경우 수직 시차맵을 그대로 적용할 수 없는 문제점이 있다. 따라서, 상기와 같은 깊이 맵에 수직 시차맵을 적용할 수 있는 형태로 재배열 또는 변환(이하, 변환)하도록 한다.However, in the case of the depth map as described above, the distance of the object can be accurately reflected, but there is a problem that the vertical parallax map cannot be applied as it is when the object is detected. Therefore, rearrangement or transformation (hereinafter, referred to as transformation) in a form in which a vertical parallax map may be applied to the depth map as described above.

도 6은 본 발명에 따른 일 실시예로서, 깊이 맵을 변환하여 수직 시차맵을 만드는 과정을 개략적으로 나타낸 도면이다. 상기 도 5의 깊이 맵은 동심원 형태로 밝기 값이 배열되어 있어서, 수직 라인별로 밝기 값을 맵핑하는 수직 시차맵을 바로 만들 수 없다. 따라서, 상기 도 6의 1(또는 도 5)과 같은 깊이 맵을 변환하여 도 6의 2와 같이 밝기 값이 수직 라인별로 수평이 되도록 한다.6 is a diagram schematically illustrating a process of creating a vertical parallax map by converting a depth map according to an embodiment of the present invention. In the depth map of FIG. 5, brightness values are arranged in the form of concentric circles, and thus vertical parallax maps for mapping the brightness values for each vertical line may not be directly generated. Accordingly, the depth map as shown in FIG. 6 (or FIG. 5) is converted to make the brightness value horizontal for each vertical line as shown in FIG. 6.

상기와 같이 깊이 맵을 변환하기 위해 극(polar) 좌표 변환법이나 픽셀 값을 읽어오는 순서를 이용하여 맵핑하는 방법 등을 사용할 수 있다. 예를 들어, 상기 극 좌표 변환법의 경우, Log-Polar 맵핑 방식 등을 사용할 수 있다. 또는, 깊이 맵에서 픽셀의 밝기 값을 읽어오는 순서가 저장된 룩업 테이블(Look-Up Table : 이하 LUT)을 이용하여, 중점에서 같은 거리에 있는 픽셀의 밝기 값을 순서대로 읽어와서 수직 라인별로 수평이 되도록 맵핑할 수 있다.In order to convert the depth map as described above, a polar coordinate transformation method or a mapping method using a reading order of pixel values may be used. For example, in the polar coordinate transformation method, a log-polar mapping method or the like may be used. Alternatively, by using the Look-Up Table (LUT), which stores the order of reading the brightness values of pixels in the depth map, the brightness values of the pixels at the same distance from the center point are read in order and the horizontal lines are vertically aligned. You can map as much as possible.

상기 도 6의 2는 깊이 맵을 변환한 맵을 개략적으로 나타낸다. 상기 도 6의 1에서와 같이 n번째 원의 외선과 n+1번째 원의 내선의 길이는 같으므로, 변환된 깊이 맵의 각 구간은 마름모 형태로 표시되어야 하나, 설명의 편의를 위해 직사각형 형태로 표시되었다. 또한, 상기 도 5나 도 6의 1의 경우, 설명의 편의를 위해 깊이 맵의 일부만 표시하였으나, 실제 깊이 맵은 중점을 중심으로 하는 동심원이 직사각형 화면 내부 전체에 표시될 수 있다. 따라서, 도 6의 2와 같이 중점을 중심으로 거리가 멀어질수록 같은 거리에 위치한 픽셀의 수가 증가하지만, 동심원이 직사각형 화면의 좌, 우측 또는 상부 면에 의해 잘리기 시작하면서 점점 픽셀의 수가 줄어든다.6 of FIG. 6 schematically shows a map obtained by converting a depth map. Since the length of the outer line of the nth circle and the inner line of the n + 1th circle is the same as in 1 of FIG. 6, each section of the converted depth map should be displayed in a rhombus shape. Displayed. In addition, in the case of 1 of FIG. 5 or 6, only a part of the depth map is displayed for convenience of description, but in the actual depth map, concentric circles centered on the center point may be displayed on the entire inside of the rectangular screen. Thus, as the distance from the center of gravity increases as shown in 2 of FIG. 6, the number of pixels located at the same distance increases, but as the concentric circles begin to be cut by the left, right, or top surfaces of the rectangular screen, the number of pixels gradually decreases.

상기 도 6의 2와 같이 변환된 깊이 맵이 얻어지면, 상기 깊이 맵을 이용하여 수직 시차맵을 얻을 수 있다. 도 6의 3은 상기 도 6의 2와 같은 변환 깊이 맵을 이용하여 수직 시차맵을 만들고 객체를 검출하는 과정을 개략적으로 나타낸 도면이다.When the depth map converted as shown in 2 of FIG. 6 is obtained, a vertical parallax map may be obtained using the depth map. FIG. 3 is a diagram schematically illustrating a process of creating a vertical parallax map and detecting an object by using the transform depth map as shown in FIG. 6.

상기 도 6의 2와 같은 변환 깊이 맵의 경우, 상기 도 3의 경우와 달리 수직 라인에 따라 픽셀의 수가 다르다. 즉, 상기 변환 깊이 맵 가운데 중간 부분은 픽셀의 수가 많지만, 상단부와 하단부는 픽셀의 수가 많지 않다. 따라서, 수직 시차맵 생성시 문턱 값(Thresholding Value)을 사용하여 노이즈를 제거할 수 있다. 예를 들어, 수평 라인마다 적응형 문턱 값 또는 적응형 문턱 치(Adaptive Thresholding Value)를 사용하여 노이즈를 제거하도록 한다.In the case of the transform depth map as shown in FIG. 6, the number of pixels differs depending on the vertical line, unlike in FIG. 3. That is, the middle portion of the transform depth map has a large number of pixels, but the upper and lower portions do not have many pixels. Therefore, when generating a vertical parallax map, noise may be removed using a thresholding value. For example, an adaptive threshold value or an adaptive threshold value is used for each horizontal line to remove noise.

예를 들어, 상기 적응형 문턱 값으로 수평 라인의 평균값(mean value) 또는 중간 값(medium value)을 사용할 수도 있고, 수평 라인별 픽셀 수를 고려하여 수평 라인의 픽셀 값들 가운데 가장 빈도 수가 많은 값을 문턱 값으로 사용할 수도 있다. 상기 문턱 값은 구현 예에 따라 다르게 설정될 수 있다. 상기 문턱 값이 정해지면, 상기 문턱 값을 수직 시차맵에 맵핑하여 수직 라인에 따른 수직 시차맵을 생성한다.For example, a mean value or a medium value of the horizontal line may be used as the adaptive threshold value, and the most frequent value among the pixel values of the horizontal line is determined in consideration of the number of pixels per horizontal line. It can also be used as a threshold. The threshold value may be set differently according to an implementation example. When the threshold is determined, the threshold is mapped to a vertical parallax map to generate a vertical parallax map along a vertical line.

상기 수직 시차맵의 경우, 상기에서 설명한 바와 같이 객체가 없는 평면 영역은 거리가 멀어질수록 밝기 값이 일정한 비율로 감소한다. 그러나, 장애물체와 같은 객체가 놓이는 경우, 평면과 달리 그 객체로 인하여 객체 부분의 밝기 값이 증가한다. 따라서, 상기와 같은 현상을 이용하여 객체를 검출할 수 있다. 상기 객체를 검출하고, 객체의 시차 값을 이용하여 거리를 추정하는 과정은 상기에서 설명한 바와 같다.In the case of the vertical parallax map, as described above, the planar region without the object decreases at a constant rate as the distance increases. However, when an object such as an obstacle is placed, the brightness value of the object portion is increased due to the object unlike the plane. Therefore, the object can be detected using the above phenomenon. The process of detecting the object and estimating the distance using the parallax value of the object is as described above.

만약, 객체가 충분히 크거나, 객체의 측면 부분 등이 촬영되는 경우 등과 같이 동일한 객체 내에서도 다른 시차 값이 나오는 경우에는 시차 값이 가장 큰 값 (거리가 가장 가까운 값)을 이용하여 거리를 추정할 수 있다. 예를 들어, 추돌 방지 등과 같은 자동차 운전 분야에 적용하는 경우, 안전 운행 등을 위해 상기에서 추정된 가장 가까운 거리의 값을 사용할 수 있다. 다만, 적용되는 분야의 필요에 따라 시차 값이 가장 작은 값(거리가 가장 먼 값)이나 중간 값 등을 사용할 수도 있다.If different parallax values appear within the same object, such as when the object is large enough or when the side part of the object is taken, etc., the distance can be estimated using the largest value of the parallax (the closest distance). have. For example, when applied to the field of driving a car, such as collision prevention, it is possible to use the value of the nearest distance estimated above for safe driving. However, depending on the needs of the applied field, the smallest parallax value (the farthest distance) or the middle value may be used.

도 7은 본 발명에 따른 일 실시예로서, 수직 거리를 이용한 객체 검출과 실제 거리를 이용한 객체 검출 결과를 개략적으로 나타낸 도면이다. 상기 도 7의 좌측 도면의 경우, 수직 거리를 이용한 객체 검출 결과이며, 촬영 위치를 기준으로 수평면 단위로 객체를 검출 및 거리를 추정하므로 A가 가장 가깝게 나타나며, B와 C는 동일한 거리로 추정된다.FIG. 7 is a diagram schematically illustrating an object detection using a vertical distance and an object detection result using an actual distance according to an embodiment of the present invention. In the left figure of FIG. 7, the result is the object detection using the vertical distance. Since the object is detected and the distance is estimated in units of the horizontal plane based on the photographing position, A is the closest, and B and C are the same distance.

그러나, 실제 거리를 이용하여 객체를 검출하는 경우, 상기 도 7의 우측 도면과 같이 촬영 위치를 기준으로 원형 단위로 객체를 검출 및 거리를 추정하므로, A와 B가 동일한 거리로 추정되며, C가 가장 멀리에 있는 객체로 추정된다.However, when the object is detected using the actual distance, since the object is detected and the distance is estimated in a circular unit based on the photographing position as shown in the right figure of FIG. 7, A and B are estimated to be the same distance, and C is It is assumed to be the farthest object.

도 8은 본 발명에 따른 일 실시예로서, 객체 검출 장치의 구성을 개략적으로 나타낸 도면이다. 상기 객체 검출 장치는 제1 영상 촬영장치(800), 제2 영상 촬영장치(805), 매칭부(810), 변화부(820) 및 객체 검출부(830)를 포함한다.8 is a diagram schematically illustrating a configuration of an object detecting apparatus according to an embodiment of the present invention. The object detecting apparatus includes a first image capturing apparatus 800, a second image capturing apparatus 805, a matching unit 810, a changing unit 820, and an object detecting unit 830.

제1 영상 촬영 장치(800)와 제2 영상 촬영 장치(805)는 스테레오 비전 시스템에서 객체 검출, 거리, 속도 등의 추정에 필요한 좌측 영상과 우측 영상을 각각 촬영한다. 상기 영상 촬영 장치는 예를 들어, 카메라 등이 사용될 수 있다. 상기 제1 영상 촬영 장치(800)와 제2 영상 촬영 장치(805)에서 얻어진 좌측 영상과 우측 영상은 매칭부(810)로 출력된다.The first image capturing apparatus 800 and the second image capturing apparatus 805 capture a left image and a right image, respectively, required for object detection, estimation of distance, speed, etc. in the stereo vision system. For example, a camera or the like may be used as the image capturing apparatus. The left image and the right image obtained by the first image capturing apparatus 800 and the second image capturing apparatus 805 are output to the matching unit 810.

상기 매칭부(810)는 입력된 좌측 영상과 우측 영상을 매칭하여 영상의 깊이 맵을 얻을 수 있다. 상기 깊이 맵은 실제 거리를 이용하여 스테레오 영상에 대한 깊이 맵을 얻을 수 있다. 예를 들어, 상기 수학식 2와 같은 수학식을 이용하여 중점(center)을 중심으로 거리에 따른 깊이 맵을 얻을 수 있다. 상기 얻어진 깊이 맵 정보는 변환부(820)로 전송된다.The matching unit 810 may obtain a depth map of the image by matching the input left image with the right image. The depth map may obtain a depth map of the stereo image using the actual distance. For example, a depth map according to a distance with respect to a center may be obtained using the equation as shown in Equation 2 above. The obtained depth map information is transmitted to the converter 820.

변환부(820)는 수신된 깊이 맵을 변환하여 깊이 맵의 밝기 값이 수직 라인별로 수평이 되도록 변환한다. 상기 변환부(820)는 상기와 같은 변환을 위해 극좌표 변환 방법이나, 픽셀의 읽는 순서를 이용하여 맵핑하는 방법 등을 이용하여 깊이 맵을 변환할 수 있다.The converter 820 converts the received depth map so that the brightness value of the depth map is horizontal for each vertical line. The conversion unit 820 may convert the depth map using a polar coordinate conversion method or a mapping method using a pixel reading order for the above conversion.

객체 검출부(830)는 상기 변환부(820)로부터 상기와 같이 변환된 깊이 맵 정보를 수신하여 영상에 포함된 객체를 검출한다. 상기 객체 검출부(830)는 수평 라인마다 적응형 문턱 값 또는 적응형 문턱 치를 사용하여 노이즈를 제거하도록 한다. 그리고, 상기 객체 검출부(830)는 변환된 깊이 맵의 수직 라인에 따른 수직 시차맵을 생성하고, 영상에 포함된 객체를 검출할 수 있다. 상기에서 검출된 객체를 이용하여 객체의 거리, 속도 등을 추정할 수 있다.The object detector 830 detects the object included in the image by receiving the converted depth map information as described above from the converter 820. The object detector 830 removes noise by using an adaptive threshold value or an adaptive threshold value for each horizontal line. The object detector 830 may generate a vertical parallax map along the vertical line of the converted depth map, and detect an object included in the image. The distance, speed, etc. of the object may be estimated using the detected object.

도 9는 본 발명에 따른 일 실시예로서, 거리 추정 방법을 개략적으로 나타낸 순서도이다.9 is a flowchart schematically illustrating a distance estimation method according to an embodiment of the present invention.

스테레오 비전 시스템의 영상 촬영 장치를 이용하여 좌우 영상을 촬영하고, 상기 촬영된 좌우 영상을 실제 거리를 기준으로 매칭한다(S900). 상기 S900 단계에 서의 매칭 결과, 중점을 중심으로 한 동심원 형태의 깊이 맵이 생성될 수 있다. 상기와 같은 깊이 맵이 생성되면 상기 동심원 형태의 깊이 맵이 수직 라인을 따라 수평 형태의 깊이 맵이 되도록 깊이 맵을 변환한다(S910). 예를 들어, 극좌표 변환 방법이나, 픽셀의 읽는 순서를 이용하여 맵핑하는 방법 등을 이용하여 깊이 맵을 변환할 수 있다.The left and right images are photographed using the image capturing apparatus of the stereo vision system, and the captured left and right images are matched based on the actual distance (S900). As a result of the matching in step S900, a concentric depth map centered on the midpoint may be generated. When the depth map is generated as described above, the depth map is converted such that the depth map of the concentric circles becomes a horizontal depth map along a vertical line (S910). For example, the depth map can be converted using a polar coordinate conversion method, a mapping method using a pixel reading order, or the like.

상기와 같이 변환된 깊이 맵이 생성되면, 상기 변환된 깊이 맵을 이용하여 수직 시차맵을 산출할 수 있다(S920). 이때, 상기 변환된 깊이 맵의 픽셀 수의 차이를 고려하여 수평 라인마다 적응형 문턱 값을 이용하여 수직 시차맵을 산출할 수 있다. 상기 수직 시차맵이 산출되면, 상기 수직 시차맵을 이용하여 영상에 포함된 객체들을 검출할 수 있다.When the converted depth map is generated as described above, a vertical parallax map may be calculated using the converted depth map (S920). In this case, the vertical parallax map may be calculated using an adaptive threshold value for each horizontal line in consideration of the difference in the number of pixels of the converted depth map. When the vertical parallax map is calculated, the objects included in the image may be detected using the vertical parallax map.

상기 객체가 검출되면, 검출된 객체에 대한 시차를 산출하고, 상기 시차를 이용하여 목표 객체의 거리를 추정할 수 있다. 그리고, 상기 객체의 거리가 추정되면, 상기 추정된 거리 정보를 칼만 필터나 파티클 필터 등과 같은 동적 필터(dynamic filter)를 사용하여 필터링함으로써 프레임 단위로 객체와의 거리를 추적할 수도 있다.When the object is detected, the parallax may be calculated for the detected object, and the distance of the target object may be estimated using the parallax. When the distance of the object is estimated, the distance to the object may be tracked in units of frames by filtering the estimated distance information by using a dynamic filter such as a Kalman filter or a particle filter.

본 발명은 상술한 실시예에 한정되지 않으며, 첨부된 청구범위에서 알 수 있는 바와 같이 본 발명이 속한 분야의 통상의 지식을 가진 자에 의해 변형이 가능하고 이러한 변형은 본 발명의 범위에 속한다.The present invention is not limited to the above-described embodiments, and as can be seen in the appended claims, modifications can be made by those skilled in the art to which the invention pertains, and such modifications are within the scope of the present invention.

도 1은 본 발명에 따른 일 실시예로서, 스테레오 비전 방식에 따라 거리를 추정하는 방식을 개략적으로 나타낸 도면1 is a diagram schematically illustrating a method of estimating distance according to a stereo vision method according to an embodiment of the present invention.

도 2는 본 발명에 따른 일 실시예로서, 수직 거리를 이용하여 얻어진 깊이 맵(depth map)을 개략적으로 나타낸 도면FIG. 2 is a diagram schematically illustrating a depth map obtained using a vertical distance as an embodiment according to the present invention.

도 3은 본 발명에 따른 일 실시예로서, 수직 시차맵을 이용하여 객체를 검출하는 과정을 개략적으로 나타낸 도면3 is a diagram schematically illustrating a process of detecting an object using a vertical parallax map according to an embodiment of the present invention.

도 4는 본 발명에 따른 일 실시예로서, 스테레오 비전 방식에 따라 객체의 실제 거리를 추정하는 방식을 개략적으로 나타낸 도면4 is a diagram schematically illustrating a method of estimating an actual distance of an object according to a stereo vision method according to an embodiment of the present invention.

도 5는 본 발명에 따른 일 실시예로서, 실제 거리를 이용하여 얻어진 깊이 맵을 개략적으로 나타낸 도면5 is a diagram schematically illustrating a depth map obtained using an actual distance as an embodiment according to the present invention.

도 6은 본 발명에 따른 일 실시예로서, 깊이 맵을 변환하여 수직 시차맵을 만드는 과정을 개략적으로 나타낸 도면6 is a diagram schematically illustrating a process of creating a vertical parallax map by converting a depth map according to an embodiment of the present invention.

도 7은 본 발명에 따른 일 실시예로서, 수직 거리를 이용한 객체 검출과 실제 거리를 이용한 객체 검출 결과를 개략적으로 나타낸 도면7 is a diagram schematically illustrating an object detection using a vertical distance and an object detection result using an actual distance according to an embodiment of the present invention.

도 8은 본 발명에 따른 일 실시예로서, 객체 검출 장치의 구성을 개략적으로 나타낸 도면8 is a diagram schematically illustrating a configuration of an object detecting apparatus according to an embodiment of the present invention.

도 9는 본 발명에 따른 일 실시예로서, 거리 추정 방법을 개략적으로 나타낸 순서도9 is a flowchart schematically illustrating a distance estimation method according to an embodiment of the present invention.

*도면의 주요 부분에 대한 부호의 설명* Explanation of symbols for the main parts of the drawings

800 : 제1 영상 촬영장치 805 : 제2 영상 촬영장치800: first image capturing apparatus 805: second image capturing apparatus

810 : 매칭부 820 : 변환부810 matching unit 820 conversion unit

830 : 객체 검출부830: object detector

Claims (13)

촬영된 스테레오 영상을 객체와의 거리를 기준으로 매칭하여 중점을 중심으로 한 깊이 맵을 산출하는 단계;Calculating a depth map centered on a midpoint by matching the photographed stereoscopic image based on a distance from the object; 상기 중점을 중심으로 한 깊이 맵이 수직 라인을 따라 수평이 되도록 깊이 맵을 변환하는 단계;Converting a depth map such that the depth map centered on the midpoint is horizontal along a vertical line; 상기 변환된 깊이 맵의 픽셀들의 시차 값을 해당하는 수직 라인에 맵핑하여 수직 시차맵을 형성하는 단계; 및Forming a vertical parallax map by mapping parallax values of pixels of the converted depth map to corresponding vertical lines; And 상기 수직 시차맵에 맵핑된 시차 값의 분포에 따라 영상에 포함된 객체를 검출하는 단계를 포함하는 객체 검출 방법.And detecting an object included in an image according to a distribution of parallax values mapped to the vertical parallax map. 제 1 항에 있어서,The method of claim 1, 상기 중점을 중심으로 한 깊이 맵은,The depth map centered on the above point, 중점을 중심으로 동일한 거리만큼 떨어진 지점의 픽셀은 동일한 밝기로 표현되는 깊이 맵인 객체 검출 방법.A method of detecting an object in which pixels at points separated by the same distance from the center of gravity are depth maps represented by the same brightness. 제 1 항에 있어서,The method of claim 1, 상기 깊이 맵을 변환하는 단계는,Converting the depth map, 극좌표 변환 방법을 이용하여 깊이 맵을 변환하는 객체 검출 방법.An object detection method for transforming a depth map using a polar transformation method. 제 1 항에 있어서,The method of claim 1, 상기 깊이 맵을 변환하는 단계는,Converting the depth map, 중점에서 동일한 거리에 있는 픽셀의 밝기 값을 순서대로 읽어, 수직 라인별로 수평이 되도록 맵핑하여 깊이 맵을 변환하는 객체 검출 방법.An object detection method of converting a depth map by reading brightness values of pixels at equal distances from a midpoint in order and mapping them horizontally by vertical lines. 제 1 항에 있어서,The method of claim 1, 상기 수직 시차맵을 형성하는 단계는,Forming the vertical parallax map, 변환된 깊이 맵의 수평 라인마다 문턱 값을 이용하여 노이즈를 제거하고, 수직 시차맵을 형성하는 객체 검출 방법.An object detection method for removing noise by using a threshold value for each horizontal line of the converted depth map and forming a vertical parallax map. 제 5 항에 있어서,The method of claim 5, wherein 상기 수직 시차맵을 형성하는 단계는,Forming the vertical parallax map, 수평 라인마다 픽셀의 수를 고려한 적응형 문턱 값을 이용하여 노이즈를 제거하는 객체 검출 방법.An object detection method for removing noise by using an adaptive threshold value considering the number of pixels per horizontal line. 제 1 항에 있어서,The method of claim 1, 상기 검출된 객체의 시차를 계산하여 객체의 거리를 추정하는 단계를 더 포함하는 객체 검출 방법.Estimating the distance of the object by calculating the parallax of the detected object. 객체 검출 장치에 있어서,In the object detecting apparatus, 촬영된 스테레오 영상을 객체와의 거리를 기준으로 매칭하여 중점을 중심으로 한 깊이 맵을 산출하는 매칭부;A matching unit which calculates a depth map centered on a midpoint by matching the photographed stereoscopic image with respect to a distance from an object; 상기 중점을 중심으로 한 깊이 맵이 수직 라인을 따라 수평이 되도록 깊이 맵을 변환하는 변환부; 및A conversion unit converting the depth map such that the depth map centered on the midpoint is horizontal along a vertical line; And 상기 변환된 깊이 맵의 픽셀들의 시차 값을 해당하는 수직 라인에 맵핑하여 수직 시차맵을 형성하고, 상기 수직 시차맵에 맵핑된 시차 값의 분포에 따라 영상에 포함된 객체를 검출하는 객체 검출부를 포함하는 객체 검출 장치.A parallax map formed by mapping parallax values of pixels of the converted depth map to a corresponding vertical line, and detecting an object included in an image according to a distribution of parallax values mapped to the vertical parallax map. Object detection device. 제 8 항에 있어서,The method of claim 8, 상기 매칭부는,The matching unit, 중점을 중심으로 동일한 거리만큼 떨어진 지점의 픽셀은 동일한 밝기로 표현되는 깊이 맵을 산출하는 객체 검출 장치.An object detecting apparatus for calculating a depth map in which pixels at points separated by the same distance from a center point are expressed with the same brightness. 제 8 항에 있어서,The method of claim 8, 상기 변환부는,The conversion unit, 극좌표 변환 방법을 이용하여 깊이 맵을 변환하는 객체 검출 장치.An object detection apparatus for converting a depth map using a polar coordinate conversion method. 제 8 항에 있어서,The method of claim 8, 상기 변환부는,The conversion unit, 중점에서 동일한 거리에 있는 픽셀의 밝기 값을 순서대로 읽어, 수직 라인별로 수평이 되도록 맵핑하여 깊이 맵을 변환하는 객체 검출 장치.An object detection device that converts a depth map by reading brightness values of pixels at equal distances from a midpoint in order and mapping them horizontally by vertical lines. 제 8 항에 있어서,The method of claim 8, 상기 객체 검출부는,The object detector, 변환된 깊이 맵의 수평 라인마다 문턱 값을 이용하여 노이즈를 제거하고, 수직 시차맵을 형성하는 객체 검출 장치.An object detecting apparatus for removing noise by using a threshold value for each horizontal line of the converted depth map and forming a vertical parallax map. 제 12 항에 있어서,The method of claim 12, 상기 객체 검출부는,The object detector, 수평 라인마다 픽셀의 수를 고려한 적응형 문턱 값을 이용하여 노이즈를 제거하는 객체 검출 장치.An object detection apparatus for removing noise by using an adaptive threshold value considering the number of pixels per horizontal line.
KR1020080073303A 2008-07-28 2008-07-28 Method for detecting an object and apparatus for the same KR100938194B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080073303A KR100938194B1 (en) 2008-07-28 2008-07-28 Method for detecting an object and apparatus for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080073303A KR100938194B1 (en) 2008-07-28 2008-07-28 Method for detecting an object and apparatus for the same

Publications (1)

Publication Number Publication Date
KR100938194B1 true KR100938194B1 (en) 2010-01-21

Family

ID=41810130

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080073303A KR100938194B1 (en) 2008-07-28 2008-07-28 Method for detecting an object and apparatus for the same

Country Status (1)

Country Link
KR (1) KR100938194B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101867810A (en) * 2010-04-07 2010-10-20 宁波大学 Method for pre-processing deep video sequence
KR20120030005A (en) * 2010-09-16 2012-03-27 소니 주식회사 Image processing device and method, and stereoscopic image display device
KR20140036859A (en) * 2012-09-18 2014-03-26 삼성전자주식회사 Method of recognizing contactless user interface motion and system there-of
KR20160134428A (en) * 2015-05-13 2016-11-23 삼성전자주식회사 Electronic device for processing image and method for controlling thereof
WO2018164377A1 (en) * 2017-03-07 2018-09-13 삼성전자 주식회사 Electronic device for generating map data and operating method therefor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070055210A (en) * 2005-11-25 2007-05-30 한국전자통신연구원 A game apparatus and method using motion capture and voice recognition
KR20080020214A (en) * 2006-08-31 2008-03-05 (주) 비전에스티 Stereo camera and method for recognizing stereoscopic image of stereo camera
KR20080054094A (en) * 2006-12-12 2008-06-17 현대자동차주식회사 Method for object recognizing and distance measuring

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070055210A (en) * 2005-11-25 2007-05-30 한국전자통신연구원 A game apparatus and method using motion capture and voice recognition
KR20080020214A (en) * 2006-08-31 2008-03-05 (주) 비전에스티 Stereo camera and method for recognizing stereoscopic image of stereo camera
KR20080054094A (en) * 2006-12-12 2008-06-17 현대자동차주식회사 Method for object recognizing and distance measuring

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101867810A (en) * 2010-04-07 2010-10-20 宁波大学 Method for pre-processing deep video sequence
KR20120030005A (en) * 2010-09-16 2012-03-27 소니 주식회사 Image processing device and method, and stereoscopic image display device
KR20140036859A (en) * 2012-09-18 2014-03-26 삼성전자주식회사 Method of recognizing contactless user interface motion and system there-of
KR101985674B1 (en) * 2012-09-18 2019-06-04 삼성전자 주식회사 Method of recognizing contactless user interface motion and System there-of
KR20160134428A (en) * 2015-05-13 2016-11-23 삼성전자주식회사 Electronic device for processing image and method for controlling thereof
KR102457247B1 (en) * 2015-05-13 2022-10-21 삼성전자주식회사 Electronic device for processing image and method for controlling thereof
WO2018164377A1 (en) * 2017-03-07 2018-09-13 삼성전자 주식회사 Electronic device for generating map data and operating method therefor
CN110392908A (en) * 2017-03-07 2019-10-29 三星电子株式会社 For generating the electronic equipment and its operating method of map datum
US11183056B2 (en) 2017-03-07 2021-11-23 Samsung Electronics Co., Ltd. Electronic device for generating map data and operating method therefor

Similar Documents

Publication Publication Date Title
KR100938195B1 (en) Method for distance estimation and apparatus for the same using a stereo matching
US9747524B2 (en) Disparity value deriving device, equipment control system, movable apparatus, and robot
JP6561512B2 (en) Parallax value deriving device, moving body, robot, parallax value deriving method, parallax value producing method, and program
EP3304493A1 (en) A computer implemented method of detecting the distance of an object from an image sensor
KR100938194B1 (en) Method for detecting an object and apparatus for the same
JP2015143677A (en) Parallax value derivation device, mobile body, robot, parallax value production method and program
JP2019067150A (en) Surrounding monitoring device and surrounding monitoring method
KR100934904B1 (en) Method for distance estimation and apparatus for the same
JP6543935B2 (en) PARALLEL VALUE DERIVING DEVICE, DEVICE CONTROL SYSTEM, MOBILE OBJECT, ROBOT, PARALLEL VALUE DERIVING METHOD, AND PROGRAM
JP6455164B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
JP2015207278A (en) Parallax value derivation device, equipment control system, mobile body, robot, parallax value derivation method, and program
KR20170107269A (en) Apparatus and method for depth image filtering of rgbd camera
KR101716725B1 (en) Distance measurement device and vehicle using same
TWI571099B (en) Device and method for depth estimation
KR101558805B1 (en) Interpolation factors correction apparatus for stereo matching
US9113142B2 (en) Method and device for providing temporally consistent disparity estimations
JP6337504B2 (en) Image processing apparatus, moving body, robot, device control method and program
JP5430292B2 (en) Subject distance measuring device
JP6204844B2 (en) Vehicle stereo camera system
KR100926287B1 (en) Method for distance estimation and apparatus for the same using a disparity and a perspective
KR101289386B1 (en) Obstacle detection and division method using stereo vision and apparatus for performing the same
KR100911493B1 (en) Method for image processing and apparatus for the same
JP2018146495A (en) Object detection apparatus, object detection method, object detection program, imaging apparatus, and equipment control system
KR101869226B1 (en) Disparity map generating method for mono cameras
KR101526743B1 (en) Apparatus and method for warning an obstacle in rear and side of vehicle

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130124

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20131230

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150106

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160113

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20170314

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20181212

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20191203

Year of fee payment: 11