KR20090068474A - Method for position estimation and apparatus for the same - Google Patents
Method for position estimation and apparatus for the same Download PDFInfo
- Publication number
- KR20090068474A KR20090068474A KR1020070136101A KR20070136101A KR20090068474A KR 20090068474 A KR20090068474 A KR 20090068474A KR 1020070136101 A KR1020070136101 A KR 1020070136101A KR 20070136101 A KR20070136101 A KR 20070136101A KR 20090068474 A KR20090068474 A KR 20090068474A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- outline
- depth map
- cumulative
- stereo
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0085—Motion estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 위치 추정 장치 및 위치 추정 방법에 관한 것으로서, 더욱 자세하게는 촬영된 영상을 이용하여 영상에 포함된 객체의 위치를 추정하는 장치 및 위치를 추정하는 방법에 관한 것이다.The present invention relates to a position estimating apparatus and a position estimating method, and more particularly, to an apparatus and a method for estimating a position of an object included in an image using a captured image.
관찰 측으로부터 떨어져 있는 객체의 거리, 위치를 측정하는 방법에는 여러 가지가 있다. 그 가운데 상기 객체에 대해 영상을 촬영하고, 상기 촬영된 영상을 이용하여 영상에 포함된 객체까지의 거리, 위치를 측정할 수 있는 기술의 예로 비전(vision) 기술을 들 수 있다.There are several ways to measure the distance and position of an object away from the viewing side. Among them, a vision technique may be used as an example of a technique of photographing an image of the object and measuring a distance and a position to an object included in the image by using the photographed image.
비전 기술을 이용한 객체의 위치 검출 방법은 한 개의 영상 촬영 장치로부터 촬영된 영상만을 이용하여 전처리를 하고, 외곽선, 칼라, 템플릿 등의 2차원 특징정보를 추출한다. 그리고 상기 추출한 정보와 매칭 필터(matching filter)를 이용하여 필요한 객체의 위치를 검출한다.In the object position detection method using vision technology, preprocessing is performed using only an image captured by one image capturing apparatus, and two-dimensional feature information such as an outline, a color, and a template is extracted. The location of the required object is detected using the extracted information and a matching filter.
객체의 거리 정보 추출 방법의 경우 크게 2가지 방법이 있다. 정확한 거리 정보를 추출하는 방법으로 스테레오 비전(stereo vision)의 깊이 맵(depth map)정 보를 이용하는 방법이 있고, 대략적인 거리 정보를 추출하는 방법으로 한 개의 영상(모노 영상)만을 사용하는 원근법(perspective)이 있다. 상기 원근법은 거리가 멀수록 물체가 작게 보이고, 가까이 있을수록 물체가 크게 보이는 성질과 대략적인 비례관계를 이용하여 거리를 측정하는 방법이다. 그러나 물체의 크기에 따라 오차가 생기고, 특히 물체와 카메라의 수직위치가 동일하지 않은 언덕, 내리막길 등에서는 많은 오차를 보인다.There are two main methods for extracting distance information of an object. A method of extracting accurate distance information uses a depth map information of stereo vision, and a perspective using only one image (mono image) as a method of extracting approximate distance information. There is. The above-mentioned perspective method is a method of measuring distance by using an approximate proportional relationship with the property that the object appears smaller as the distance is larger and the object becomes larger as it is closer. However, an error occurs depending on the size of the object, especially on hills and downhill roads where the object and the camera's vertical position are not the same.
상기와 같이 종래 기술은 객체의 위치를 검출함에 있어서 한 개의 영상(모노 영상)만을 이용할 경우, 여러 배경과 장애물체와의 2차원 특징 정보가 유사한 부분이 많아 정확한 객체 추출이 어렵다. 또한, 객체와의 거리를 추출함에 있어서 한 개의 영상을 이용하는 원근법은 오차가 심하므로, 스테레오 비전을 사용한다. 따라서, 객체의 위치 검출과 거리 추정에 서로 다른 시스템을 사용하여 효용성이 떨어지며, 객체 검출에 있어 신뢰성이 떨어지는 문제가 있었다.As described above, when only one image (mono image) is used to detect the position of an object, it is difficult to accurately extract an object because a lot of two-dimensional feature information of several backgrounds and obstacles is similar. In addition, the perspective using a single image in extracting a distance from an object has a high error, and thus uses stereo vision. Therefore, the use of different systems for the position detection and the distance estimation of the object is inferior in utility and inferior in reliability in object detection.
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 본 발명의 목적은 객체의 정확한 위치를 추정할 수 있는 위치 추정 장치 및 위치 추정 방법을 제공하는 것이다.The present invention has been made to solve the above problems, and an object of the present invention is to provide a position estimating apparatus and a position estimating method capable of estimating an exact position of an object.
본 발명에 따른 위치 추정 방법은, 촬영된 영상을 스테레오 매칭하여 깊이 맵 영상을 구하는 단계, 상기 깊이 맵 영상을 수평 방향으로 누적하여 누적 단면화 영상을 구하고, 상기 누적 단면화 영상의 외곽선을 추출하는 단계, 상기 외곽선을 이용하여 배경 영상을 나타내는 선을 구하고, 상기 외곽선과 배경 영상을 나타내는 선을 비교하여 객체의 수직 위치 정보를 구하는 단계, 상기 객체의 수직 위치에 해당하는 깊이 맵 영상을 추출하고, 상기 추출된 깊이 맵 영상을 수직 방향으로 누적하여 누적값을 구하는 단계, 및 상기 수직 방향으로 누적된 누적값을 이용하여 객체의 수평 위치 정보를 구하는 단계를 포함한다.According to an embodiment of the present invention, a method of estimating a depth map image by stereo matching a photographed image, accumulating the depth map image in a horizontal direction, obtaining a cumulative cross-sectional image, and extracting an outline of the cumulative cross-sectional image Obtaining a line representing a background image by using the outline, obtaining a vertical position information of the object by comparing the outline with a line representing the background image, extracting a depth map image corresponding to the vertical position of the object, Accumulating the extracted depth map image in a vertical direction to obtain a cumulative value, and obtaining horizontal position information of the object using the accumulated value accumulated in the vertical direction.
다른 관점에서 본 발명에 따른 위치 추정 장치는, 촬영된 영상을 스테레오 매칭하여 깊이 맵 영상을 구하는 스테레오 매칭부, 상기 깊이 맵 영상을 수평 방향으로 누적하여 누적 단면화 영상을 구하는 누적 단면화부, 상기 누적 단면화 영상을 이용하여 단면화 영상의 외곽선과 배경 영상을 나타내는 선을 구하고, 상기 외곽선과 배경 영상을 나타내는 선을 비교하여 객체의 수직 위치 정보를 구하고, 상기 수직 위치에 해당하는 깊이 맵 영상을 수직 방향으로 누적한 누적값을 이용하여 상기 객체의 수평 위치 정보를 구하는 누적 단면 처리부, 및 상기 객체의 수평 위치 정보와 수직 위치 정보를 이용하여 객체의 위치를 추정하는 위치 추정부를 포함한다.In another aspect, an apparatus for estimating position according to an embodiment of the present invention includes a stereo matching unit for stereo matching a photographed image to obtain a depth map image, a cumulative cross-sectional unit for accumulating the depth map image in a horizontal direction to obtain a cumulative cross-sectional image, and the accumulation. A line representing the outline of the cross-sectional image and a background image is obtained by using the cross-sectional image, the vertical position information of the object is obtained by comparing the outline and the line representing the background image, and the depth map image corresponding to the vertical position is vertically obtained. And a cumulative cross-section processing unit for obtaining horizontal position information of the object using a cumulative value accumulated in a direction, and a position estimating unit for estimating a position of the object using horizontal position information and vertical position information of the object.
본 발명의 위치 추정 장치 및 위치 추정 방법에 따르면, 위치 추정 오차를 줄이고 목표 객체의 정확한 위치, 거리 등을 추정할 수 있는 효과가 있다. 또한, 스테레오 비전을 이용하여 객체의 위치, 거리를 추정할 수 있으므로, 시스템의 효율 향상 및 비용 절감의 효과를 얻을 수 있으며, 객체의 위치, 거리 추정의 정밀도와 신뢰도를 높일 수 있는 효과가 있다.According to the position estimating apparatus and the position estimating method of the present invention, there is an effect of reducing the position estimation error and estimating the exact position and distance of the target object. In addition, since the position and distance of the object can be estimated using stereo vision, the efficiency of the system can be improved and the cost can be reduced, and the accuracy and reliability of the position and distance estimation of the object can be improved.
상기와 같은 추정 방법은 다양한 분야에 응용하여 정확한 위치, 거리 등을 추정할 수 있는 효과가 있다. 예를 들어, 로봇이나 자동차 등에 적용하는 경우 자동차의 추돌 방지, 주행 등의 운전 시스템이나 안전 운행 시스템 등에 사용할 수 있으며, 산업 공장이나 일반 가정 등에서도 사용할 수 있다.The estimation method as described above has an effect of estimating an accurate position and distance by applying to various fields. For example, when applied to a robot or a vehicle, it can be used for driving systems such as collision prevention of cars, driving, safety driving systems, and the like, and can also be used in industrial factories or general homes.
이하 본 발명의 목적, 특성 및 이점들은 첨부한 도면을 참조한 실시 예들의 상세한 설명을 통해 명백해질 것이다. 아울러, 본 발명에서 사용되는 용어는 가능한 한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재하였으므로, 단순한 용어의 명칭이 아닌 용어가 가지는 의미로서 본 발명을 파악하여야 함을 밝혀 두고자 한다.The objects, features and advantages of the present invention will become apparent from the following detailed description of embodiments taken in conjunction with the accompanying drawings. In addition, the terms used in the present invention was selected as a general term widely used as possible now, but in certain cases, the term is arbitrarily selected by the applicant, in which case the meaning is described in detail in the corresponding description of the invention, It is to be clear that the present invention is to be understood as the meaning of terms rather than names.
이와 같이 구성된 본 발명에 따른 위치 추정 장치 및 위치 추정 방법의 동작을 첨부한 도면을 참조하여 상세히 설명하면 다음과 같다.Operation of the position estimating apparatus and the position estimating method according to the present invention configured as described above will be described in detail with reference to the accompanying drawings.
도 1a는 본 본 발명에 따른 일 실시예로서, 스테레오 비전에 따른 좌측 영상을 개략적으로 나타낸 도면이고, 도 1b는 본 발명에 따른 일 실시예로서, 스테레오 비전에 따른 우측 영상을 개략적으로 나타낸 도면이다. 그리고 도 1c는 본 발명에 따른 일 실시예로서, 상기 도 1a와, 도 1b의 좌우 영상을 이용하여 만들어진 깊이 맵(depth map)을 나타낸 도면이다.1A is a diagram illustrating a left image according to stereo vision according to an embodiment of the present invention, and FIG. 1B is a diagram illustrating a right image according to stereo vision according to an embodiment according to the present invention. . 1C is a diagram illustrating a depth map made by using the left and right images of FIGS. 1A and 1B according to an embodiment of the present invention.
스테레오 비전을 이용하여 좌측 영상 촬영 장치를 이용하여 상기 도 1a와 같은 좌측 영상을 촬영할 수 있고, 우측 영상 촬영 장치를 이용하여 상기 도 1b와 같은 우측 영상을 촬영할 수 있다. 상기와 같이 촬영된 좌측 영상과 우측 영상을 스테레오 매칭(stereo matching)하여 상기 도 1c와 같은 영상의 깊이 맵(depth map)을 얻을 수 있다. 상기와 같은 깊이 맵을 얻기 전에 영상 촬영 장치의 특성에 따른 교정 값(calibration parameter)을 이용하여 상기 좌측 영상과 우측 영상을 교정(rectifying)할 수 있다. 예를 들어, 렌즈 왜곡 보정이나 수평, 수직 라인 왜곡 보정 등을 할 수 있다. 상기 도 1c의 깊이 맵에서 원뿔형의 장애 물체(객체)A와 구 형태의 장애물체(객체)B가 표시된 것을 볼 수 있다. 이하에서는 본원 발명에 따른 일 예로서, 상기 장애물체A와 장애물체B의 위치를 추정하는 방식에 대해 설명하기로 한다.The left image as shown in FIG. 1A may be photographed using the left image capturing apparatus using stereo vision, and the right image as shown in FIG. 1B may be photographed using the right image capturing apparatus. The depth map of the image as shown in FIG. 1C may be obtained by stereo matching the left image and the right image photographed as described above. Before obtaining the depth map, the left image and the right image may be rectified using a calibration parameter according to the characteristics of the imaging apparatus. For example, lens distortion correction, horizontal and vertical line distortion correction, and the like can be performed. In the depth map of FIG. 1C, the cone-shaped obstacle object (object) A and the spherical obstacle object (object) B can be seen. Hereinafter, as an example according to the present invention, a method of estimating the positions of the obstacle A and the obstacle B will be described.
상기와 같은 영상의 깊이 맵은 특성상 가까운 거리는 높은 밝기값을 가지며 먼 거리는 낮은 밝기 값을 갖는다. 따라서, 상기 깊이 맵의 밝기값을 수평으로 누 적 단면화하면 상대적으로 가까운 거리 부분은 그 누적값이 높게 나오고, 상대적으로 먼 거리 부분은 그 누적값이 낮게 나올 수 있다. 따라서 상기 누적값을 이용하여 객체의 위치를 추정할 수 있다. 예를 들어, 배경 부분은 누적값이 비례적으로 감소하는 특징이 있는데, 객체가 놓이게 되면 그로 인해 누적값이 증가하는 부분이 발생하므로, 상기 누적값이 증가하는 부분을 이용하여 객체의 위치를 추정할 수 있다. 그리고 상기 깊이 맵의 밝기값은 거리 정보이므로, 상기 깊이 맵을 이용하여 객체의 거리 정보도 알 수 있다.In the depth map of the image, the close distance has a high brightness value and the far distance has a low brightness value. Accordingly, when the brightness value of the depth map is horizontally accumulated, the cumulative value of the relatively close distance part is high and the cumulative value of the relatively long distance part is low. Therefore, the position of the object can be estimated using the accumulated value. For example, the background part has a feature that the cumulative value decreases proportionally. When the object is placed, the cumulative value increases because of this. Therefore, the position of the object is estimated using the part where the cumulative value increases. can do. In addition, since the brightness value of the depth map is distance information, distance information of an object may also be known using the depth map.
도 2a는 본 발명에 따른 일 실시예로서, 상기 깊이 맵의 밝기 값을 수평으로 누적 단면화한 것의 일 부분을 나타낸 도면이다. 상기 도 2a의 x축은 수평 누적값을 나타내며, y축은 깊이 맵 영상의 수직 라인을 나타낸다. 상기 도 2a는 상기 도 1c의 깊이 맵을 기준으로 장애물체를 포함하는 일부 영역의 누적값을 도식화한 것이다.2A is a diagram illustrating a part of horizontally accumulating and cross-sectionalizing brightness values of the depth map according to one embodiment of the present invention. The x-axis of FIG. 2A represents a horizontal cumulative value, and the y-axis represents a vertical line of the depth map image. FIG. 2A illustrates a cumulative value of a partial region including an obstacle based on the depth map of FIG. 1C.
상기 도 1c 영상의 아랫 부분은 밝기값이 높고, 거리가 먼 중간 부분은 밝기값이 낮은 걸 확인할 수 있다. 상기 깊이 맵 영상을 수직 라인별로 밝기를 수평 누적한 결과, 도 2a와 같이 수직 값이 낮은 영역(깊이 맵 영상의 아랫 부분)의 수평 누적값이 높고, 수직 값이 높아질수록 수평 누적값이 작아진다. 그러나, 상기 장애물체A, 장애물체B가 있는 영역의 경우 누적값이 주변 영역의 증가 또는 감소 비율에 비해 높게 나타난다. 이때, 상기 깊이 맵의 신뢰도를 높이기 위해 수평 누적값을 산출하기 전에, 필터링을 통해 상기 깊이 맵의 노이즈를 제거할 수도 있다.It can be seen that the lower part of the image of FIG. 1C has a high brightness value and the middle part of a long distance has a low brightness value. As a result of horizontally accumulating the brightness of the depth map image for each vertical line, as shown in FIG. 2A, the horizontal accumulation value of a region having a low vertical value (the lower portion of the depth map image) is high, and as the vertical value increases, the horizontal accumulation value decreases. . However, in the case where the obstacle A and the obstacle B are present, the cumulative value is higher than the increase or decrease ratio of the peripheral area. In this case, before calculating the horizontal cumulative value to increase the reliability of the depth map, the noise of the depth map may be removed through filtering.
도 2b는 본 발명에 따른 일 실시예로서, 수평 누적 단면화 영상의 외곽선을 추출한 것을 나타낸 도면이다. 상기 도 2a와 같은 수평 누적값이 산출되면, 상기 수평 누적값 영상을 이용하여 수평 누적 단면화 영상의 외곽선을 추출한다. 이는 객체의 위치를 추정하기 위해 누적값이 필요하며, 상기 누적값은 상기 누적 단면화 영상의 외곽선과 동일하기 때문이다. 상기 누적 단면화 영상의 외곽선이 추출되면, 상기 추출된 외곽선의 고주파 성분을 제거하는 필터링을 수행한다. 상기 추출된 외곽선의 경우 고주파 성분이 많이 포함될 수 있으며, 상기 고주파 성분은 배경 영상을 나타내는 선(line)을 추출하는 데 노이즈로 작용하므로 고주파 제거 필터링을 통해 제거할 수 있다.FIG. 2B is a diagram illustrating extracting an outline of a horizontal cumulative cross-sectional image according to an embodiment of the present invention. FIG. When the horizontal cumulative value as shown in FIG. 2A is calculated, an outline of a horizontal cumulative cross-sectional image is extracted using the horizontal cumulative value image. This is because a cumulative value is required to estimate the position of the object, and the cumulative value is the same as the outline of the cumulative cross-sectional image. When the outline of the cumulative cross-sectional image is extracted, filtering is performed to remove high frequency components of the extracted outline. The extracted outline may include many high frequency components, and the high frequency components may be removed through high frequency elimination filtering because they act as noise to extract a line representing a background image.
상기 고주파 제거 필터링된 누적 단면화 영상의 외곽선은 그레이(gray) 값을 가지므로, 설정된 임계값을 이용하여 영상을 이진화한다. 즉, 상기 고주파 성분이 제거된 외곽선을 주변 영상과 명확하게 구별하기 위해 상기 임계값을 이용하여, 임계값 이상이 되는 부분을 선으로 인식하도록 이진화한다. 상기 임계값은 구현 예에 따라 달라질 수 있다.Since the outline of the high frequency rejection filtered cumulative cross-sectional image has a gray value, the image is binarized using a set threshold value. In other words, in order to clearly distinguish the outline from which the high frequency component is removed from the surrounding image, the threshold value is binarized to recognize a portion that is above the threshold value as a line. The threshold may vary depending on implementation.
도 2c는 본 발명에 따른 일 실시예로서, 배경 영상을 나타내는 선을 추출한 것을 개략적으로 나타낸 도면이다. 외곽선이 명확하게 되면, 상기 객체의 위치를 추정하기 위해 상기 외곽선으로부터 배경 영상을 나타내는 선을 추출한다. 배경 영상의 경우 거리가 멀어 질수록 밝기값이 낮아지는데, 상기 배경 영상을 나타내는 선은 상기 밝기값이 낮아지는 경향을 나타낼 수 있다. 상기 배경 영상을 나타내는 선은 상기 외곽선의 전체적인 경향을 나타내는 선과 유사하다.2C is a diagram schematically illustrating extracting a line representing a background image according to an embodiment of the present invention. When the outline becomes clear, a line representing a background image is extracted from the outline to estimate the position of the object. In the case of the background image, as the distance increases, the brightness value is lowered. A line representing the background image may exhibit a tendency of decreasing the brightness value. The line representing the background image is similar to the line representing the overall tendency of the outline.
따라서, 상기 외곽선과 상기 배경 영상을 나타내는 선을 비교하여 객체의 위 치를 추정할 수 있다. 상기 배경 영상을 나타내는 선은 다양한 방식으로 추출될 수 있다. 일 예로, 특정 개수 이상의 연속된 픽셀이 선을 형성하는 경우에 이를 선으로 인정하는 알고리즘 등을 이용하여 선을 추출할 수 있다. 상기 알고리즘의 일 예로 허프 변환(Houth transform) 등을 들 수 있다. 상기 알고리즘 등을 통해 복수의 선이 추출되는 경우에는 상기 추출된 선들을 보간하여 상기 배경 영상을 나타내는 선을 추출할 수 있다.Therefore, the position of the object may be estimated by comparing the outline with the line representing the background image. The line representing the background image may be extracted in various ways. For example, when a certain number of consecutive pixels form a line, the line may be extracted using an algorithm that recognizes the line as a line. An example of the algorithm is a Houth transform. When a plurality of lines are extracted through the algorithm or the like, the lines representing the background image may be extracted by interpolating the extracted lines.
도 2d는 본 발명에 따른 일 실시예로서, 객체의 수직 위치를 추정하는 방식을 개략적으로 나타낸 도면이다. 상기 도 2c에서 추출된 배경의 특징이 되는 선과 상기 외곽선을 비교하여, 상기 외곽선과 배경의 특징이 되는 선의 차이가 설정된 임계값 이상 벗어나는 영역의 위치를 상기 객체의 위치로 추정할 수 있다. 상기 임계값의 경우 구현 예에 따라 달라질 수 있으며, 시스템의 신뢰도나 시스템의 성능 요구량 등을 고려하여 달라질 수 있다. 상기 도 2d에서는 장애물체(객체)A의 수직 위치와 장애물체(객체)B의 수직 위치를 추정할 수 있다.2D is a diagram schematically illustrating a method of estimating a vertical position of an object according to an embodiment of the present invention. By comparing the outline line and the outline line extracted from FIG. 2C, the position of the region where the difference between the outline line and the line feature background is out of a predetermined threshold value may be estimated as the position of the object. The threshold value may vary depending on the implementation example, and may vary in consideration of system reliability or system performance requirements. In FIG. 2D, the vertical position of the obstacle A (object) A and the vertical position of the obstacle B (object) B may be estimated.
도 2e는 본 발명에 따른 일 실시예로서, 추정된 수직 위치에 해당하는 깊이 맵 영상을 추출한 것을 대략적으로 나타낸 도면, 도 2f는 추출된 깊이 맵 영상을 수직으로 프로젝션(projection)한 값을 나타낸 도면, 도 2g는 수직 프로젝션한 값을 이용하여 객체의 수평 위치를 추정하는 것을 나타낸 도면이다.FIG. 2E is a diagram illustrating an example of extracting a depth map image corresponding to an estimated vertical position, and FIG. 2F illustrates a value of vertically projecting the extracted depth map image. 2G is a diagram illustrating estimating a horizontal position of an object using a vertically projected value.
상기 도 2d에서 추정된 장애물체A와 장애물체B의 수직 위치를 이용하여, 상기 도 1c의 깊이 맵 영상에서 장애물체가 포함된 부분의 영상을 추출한다. 그리고 상기 추출된 깊이 맵 영상을 수직으로 프로젝션하여 추출된 영상의 밝기값을 수직 으로 누적한다. 상기 도 2f에서 x축은 깊이 맵 영상의 수평 라인을 나타내며, y축은 도 2e와 같이 추출된 깊이 맵 영상의 수직 누적값을 나타낸다. 상기 도 2e와 같이 수평 라인에 따른 수직 누적값을 산출하면, 객체는 배경 영역에 비해 높은 깊이 값을 가질 수 있으며, 따라서 누적값이 높게 나올 수 있다. 따라서, 상기 배경 영역 누적값에 비해 높은 누적값을 가지는 영역의 수평 위치를 객체의 수평 위치로 추정할 수 있다. 예를 들어, 특정 수평 영역의 누적값과 주변의 누적값을 비교하여 설정된 임계값보다 높은 경우에, 상기 수평 영역의 위치를 객체의 수평 위치로 추정할 수 있다. 도 2g는 상기 추정 방식에 따라 장애물체A와 장애물체B의 수평위치가 추정된 것을 나타낸다.An image of a part including the obstacle is extracted from the depth map image of FIG. 1C by using the vertical positions of the obstacle A and the obstacle B estimated in FIG. 2D. Then, the extracted depth map image is vertically projected to accumulate the brightness values of the extracted image vertically. In FIG. 2F, the x axis represents a horizontal line of the depth map image, and the y axis represents a vertical cumulative value of the extracted depth map image as shown in FIG. 2E. When the vertical cumulative value along the horizontal line is calculated as shown in FIG. 2E, the object may have a higher depth value than the background area, and thus the cumulative value may be high. Therefore, the horizontal position of the region having a higher accumulation value than the background region accumulation value may be estimated as the horizontal position of the object. For example, when a cumulative value of a specific horizontal area is compared with a surrounding cumulative value, the position of the horizontal area may be estimated as the horizontal position of the object. 2G shows that the horizontal positions of the obstacles A and B are estimated according to the estimation method.
도 2h는 본 발명에 따른 일 실시예로서, 깊이 맵을 이용하여 객체의 위치가 추정된 것을 나타낸 도면이며, 도 2i는 추정된 객체의 위치 정보를 이용하여, 촬영된 영상에 객체의 위치를 나타낸 도면이다.FIG. 2H illustrates an example in which an object position is estimated using a depth map, and FIG. 2I illustrates an object position in a captured image by using estimated position information of the object. Drawing.
상기 도 2h와 같이 상기 도 2d, 도 2e에서 추정된 객체의 수직 위치(장애물체A의 수직위치, 장애물체B의 수직위치) 정보와 도 2g에서 추정된 객체의 수평 위치(장애물체A의 수평위치, 장애물체B의 수평위치) 정보를 이용하여 깊이 맵 영상에서 객체의 위치를 추정할 수 있다. 또한, 상기 얻어진 객체의 수직 위치 정보와 객체의 수평 위치 정보를 촬영된 영상에 적용하여, 상기 도 2i와 같이 촬영된 영상에서 객체의 위치를 나타낼 수 있다. 상기 도 2i와 같이 객체의 위치를 나타내는 영상은 좌측 영상이나 우측 영상 또는 스테레오 매칭된 영상 등에 적용할 수 있다.As shown in FIG. 2H, the vertical position (vertical position of the obstacle A and the obstacle B) of the object estimated in FIGS. 2D and 2E and the horizontal position of the object estimated in FIG. 2G (the horizontal of the obstacle A) are estimated. Location, the horizontal position of the obstacle B) can be used to estimate the position of the object in the depth map image. Also, by applying the obtained vertical position information and the horizontal position information of the object to the captured image, it is possible to indicate the position of the object in the captured image as shown in FIG. As illustrated in FIG. 2I, the image representing the position of the object may be applied to a left image, a right image, or a stereo matched image.
도 3은 본 발명에 따른 일 실시예로서, 위치 추정 장치의 구성을 개략적으로 나타낸 블록도이다. 상기 위치 추정 장치는 좌측 영상 촬영 장치(300), 우측 영상 촬영 장치(302), 스테레오 전처리부(310), 스테레오 매칭부(320), 스테레오 후처리부(330), 누적 단면화부(340), 누적 단면 처리부(350) 및 위치 추정부(360)을 포함한다.3 is a block diagram schematically illustrating a configuration of a position estimating apparatus according to an embodiment of the present invention. The position estimating apparatus includes a left
상기 좌측 영상 촬영 장치(300)와 우측 영상 촬영 장치(302)는 각각 영상을 촬영하여 스테레오 전처리부(310)로 출력한다. 상기 영상 촬영 장치는 예를 들어, 카메라 등을 사용할 수 있다. 상기 좌측 영상 촬영 장치(300)에서 촬영된 좌측 영상과 우측 영상 촬영 장치(302)에서 촬영된 우측 영상은 스테레오 전처리부(310)로 입력된다. 상기 스테레오 전처리부(310)는 입력된 좌측 영상과 우측 영상을 교정하여 출력한다. 예를 들어, 상기 스테레오 전처리부(310)는 각 영상 촬영 장치의 교정 값(calibration parameter)을 이용하여 상기 좌측 영상과 우측 영상을 교정(rectifying)할 수 있다. 상기 스테레오 전처리부(310)는 구현 예에 따라 사용되지 않을 수도 있다.The left
상기 스테레오 전처리부(310)에서 출력된 좌측 영상과 우측 영상은 스테레오 매칭부(320)에서 매칭 필터에 의해 스테레오 매칭된다. 그리고 상기 스테레오 매칭부(320)는 매칭된 영상에 대해 깊이 맵 영상을 산출한다. 상기 스테레오 매칭부(320)에서 출력된 깊이 맵 영상은 스테레오 후처리부(330)로 출력되어 후처리 필터링된다. 상기 스테레오 후처리부(330)는 깊이 맵 영상의 신뢰도를 높이기 위해, 쓰레쉬홀딩(thresholding)이나 스무딩(smoothing) 기법 등을 이용하여 노이즈를 제거할 수 있다. 상기 스테레오 후처리부(330) 또한, 구현 예에 따라 사용되지 않을 수도 있다.The left image and the right image output from the
상기 스테레오 후처리부(330)에서 출력된 깊이 맵 영상은 누적 단면화부(340)로 출력된다. 상기 누적 단면화부(340)는 깊이 맵 영상의 밝기값을 수평으로 누적하여 수평 누적된 단면화 영상을 산출한다. 상기 산출된 수평 누적 단면화 영상은 누적 단면 처리부(350)로 출력된다.The depth map image output from the
도 4는 본 발명에 따른 일 실시예로서, 누적 단면 처리부를 개략적으로 나타낸 블록도이다. 상기 누적 단면 처리부(350)는 외곽선 추출부(352), 선(line) 추출부(354), 수직 위치 추정부(356), 수평 위치 추정부(358)를 포함한다. 상기 누적 단면 처리부(350)는 수평 누적 단면화 영상을 이용하여 객체의 수직 위치와 수평 위치를 추정할 수 있다.4 is a block diagram schematically showing an accumulating cross-sectional processing unit as an embodiment according to the present invention. The cumulative
외곽선 추출부(352)는 상기 누적 단면화 영상의 외곽선을 추출하며, 선 추출부(354)는 상기 누적 단면화 영상의 외곽선을 필터링하여 고주파 성분을 제거하고, 상기 고주파 성분이 제거된 외곽선을 이진화하여 상기 외곽선을 명확히 한다. 그리고 선 추출 알고리즘을 이용하여 상기 이진화된 외곽선으로부터 배경 영상을 나타내는 선을 추출한다. 상기 선 추출 알고리즘의 예로 허프 변환 등을 사용할 수 있다. 수직 위치 추정부(356)는 상기에서 설명한 바와 같이 영상의 외곽선과 배경 영상을 나타내는 선을 비교하여 수직 위치를 추정할 수 있고, 수평 위치 추정부(358)는 상기 추정된 수직 위치의 깊이 맵 영상을 이용하여 수직 누적값을 산출하고 수평 위치를 추정할 수 있다.An
위치 추정부(360)는 상기 누적 단면 처리부(350)에서 추정된 객체의 수평 위 치 정보와 수직 위치 정보를 깊이 맵 영상 또는 촬영된 영상에 대응하여 객체의 위치를 추정할 수 있다. 상기 도 3의 위치 추정 장치에서는 객체의 위치 추정을 중심으로 설명하였으나, 상기 스테레오 비전 영상을 이용하여 객체의 거리를 추정하는 구성이 더 추가될 수 있다.The
도 5는 본 발명에 따른 일 실시예로서, 위치 추정 방법을 개략적으로 나타낸 순서도이다. 5 is a flowchart schematically illustrating a method of estimating a position according to an embodiment of the present invention.
스테레오 비전의 좌우 영상 촬영 장치로부터 촬영된 좌측 영상과 우측 영상을 이용하여 스테레오 매칭하고, 상기 스테레오 매칭된 영상의 깊이 맵 영상을 추출한다(S500). 구현 예에 따라, 상기 영상 촬영 장치의 교정 값을 이용하여 깊이 맵 영상을 추출하기 전에 상기 좌측 영상과 우측 영상을 필터링 할 수도 있다. 상기 S500 단계에서 깊이 맵 영상이 추출되면, 상기 깊이 맵 영상을 필터링하여 깊이 맵의 노이즈를 제거한다(S502). 예를 들어, 쓰레쉬홀딩(thresholding)이나 스무딩(smoothing) 기법 등을 이용하여 노이즈를 제거할 수 있으며, 상기 필터링 과정은 구현 예에 따라 사용하지 않을 수도 있다.Stereo matching is performed using the left and right images captured by the left and right image capturing apparatus of the stereo vision, and a depth map image of the stereo matched image is extracted (S500). According to an embodiment, the left image and the right image may be filtered before the depth map image is extracted using the correction value of the image capturing apparatus. When the depth map image is extracted in step S500, the depth map image is filtered to remove noise of the depth map (S502). For example, noise may be removed by using a thresholding or smoothing technique, and the filtering process may not be used depending on the implementation.
상기 깊이 맵 영상은 그 특성상 가까운 거리는 높은 밝기값으로 표현되며, 먼 거리는 낮은 밝기 값으로 표현되므로, 상기 깊이 맵 영상을 수평적으로 누적하여 누적 단면화 영상을 얻는다(S504). 상기 S504 단계에서 얻은 누적 단면화 영상을 이용하여 누적 단면의 외곽선을 추출하고(S506), 추출된 외곽선을 필터링하여 외곽선의 고주파 성분을 제거한다(S508). 그리고, 상기 필터링된 외곽선을 이진화(S510)하여 외곽선과 주변 영상의 구분을 명확히 하고, 상기 외곽선을 이용하여 배경 영상을 나타내는 선(line)을 추출한다(S512). 상기 배경 영상을 나타내는 선은 배경 영상의 특징을 나타낼 수 있다. 상기 외곽선을 추출하는 방식이나 필터링 방식, 외곽선의 선을 추출하는 방식 등은 상기에서 설명한 바와 같다.In the depth map image, a close distance is represented by a high brightness value and a far distance is represented by a low brightness value, so that the depth map image is horizontally accumulated to obtain a cumulative cross-sectional image (S504). Using the cumulative cross-sectional image obtained in step S504 to extract the outline of the cumulative cross-section (S506), the extracted outline is filtered to remove the high frequency components of the outline (S508). The filtered outline is binarized (S510) to clarify the distinction between the outline and the surrounding image, and a line representing the background image is extracted using the outline (S512). The line representing the background image may represent a feature of the background image. The method of extracting the outline, the filtering method, the method of extracting the lines of the outline, etc. are as described above.
상기 S512단계에서 배경 영상을 나타내는 선이 추출되면, 상기 추출된 선을 이용하여 객체의 수직 위치를 추출할 수 있다(S514). 상기 객체의 수직 위치에 관한 정보가 추출되면, 상기 수직 위치에 해당하는 깊이 맵 영상을 추출하고, 상기 추출된 깊이 맵 영상을 수직 방향으로 프로젝션(projection)한다(S516). 상기 S516단계에서는 추출된 깊이 맵 영상을 수직 방향으로 누적하여 누적값을 산출한다. 상기 S516단계에서 수직 방향으로 프로젝션하여 누적된 누적값을 이용하여 객체의 수평 위치를 추정할 수 있다(S518). 예를 들어, 상기 S518단계에서는 배경 영역에 비해 높은값을 가지는 영역을 객체의 수평 위치로 추정할 수 있다. 상기 S514단계에서 얻은 객체의 수직 위치 정보와 상기 S518단계에서 얻은 객체의 수평 위치 정보를 이용하여, 촬영된 영상이나 스테레오 매칭된 영상 또는 깊이 맵 영상으로부터 객체를 검출할 수 있다(S520).When the line representing the background image is extracted in step S512, the vertical position of the object may be extracted using the extracted line (S514). When the information about the vertical position of the object is extracted, the depth map image corresponding to the vertical position is extracted, and the extracted depth map image is projected in the vertical direction (S516). In operation S516, an accumulated value is calculated by accumulating the extracted depth map image in a vertical direction. In operation S516, the horizontal position of the object may be estimated using the accumulated value accumulated in the vertical direction (S518). For example, in operation S518, an area having a higher value than that of the background area may be estimated as the horizontal position of the object. The object may be detected from the captured image, the stereo matched image, or the depth map image by using the vertical position information of the object obtained in step S514 and the horizontal position information of the object obtained in step S518 (S520).
상기 도 5에서는 객체의 위치 추정 순서를 중심으로 설명하였으나, 상기 스테레오 비전 영상을 이용하여 객체의 위치 추정과 함께 객체의 거리 추정을 병렬적으로 또는 순차적으로 수행할 수도 있다.In FIG. 5, the position estimation order of the object has been described, but the distance estimation of the object may be performed in parallel or sequentially together with the position estimation of the object using the stereo vision image.
본 발명은 상술한 실시예에 한정되지 않으며, 첨부된 청구범위에서 알 수 있는 바와 같이 본 발명이 속한 분야의 통상의 지식을 가진 자에 의해 변형이 가능하고 이러한 변형은 본 발명의 범위에 속한다.The present invention is not limited to the above-described embodiments, and as can be seen in the appended claims, modifications can be made by those skilled in the art to which the invention pertains, and such modifications are within the scope of the present invention.
도 1a는 본 본 발명에 따른 일 실시예로서, 스테레오 비전에 따른 좌측 영상을 개략적으로 나타낸 도면1A is a diagram schematically showing a left image according to stereo vision according to an embodiment of the present invention.
도 1b는 본 발명에 따른 일 실시예로서, 스테레오 비전에 따른 우측 영상을 개략적으로 나타낸 도면1B is a diagram schematically illustrating a right image according to stereo vision according to an embodiment of the present invention.
도 1c는 본 발명에 따른 일 실시예로서, 상기 도 1a와, 도 1b의 좌우 영상을 이용하여 만들어진 깊이 맵(depth map)을 나타낸 도면1C is a diagram illustrating a depth map made using the left and right images of FIGS. 1A and 1B according to an embodiment of the present invention.
도 2a는 본 발명에 따른 일 실시예로서, 상기 깊이 맵의 밝기 값을 수평으로 누적 단면화한 것의 일 부분을 나타낸 도면2A is a diagram illustrating a part of horizontally accumulating and cross-sectionalizing brightness values of the depth map according to one embodiment of the present invention.
도 2b는 본 발명에 따른 일 실시예로서, 수평 누적 단면화 영상의 외곽선을 추출한 것을 나타낸 도면FIG. 2B is a diagram illustrating extracting an outline of a horizontal cumulative cross-sectional image as an embodiment according to the present invention. FIG.
도 2c는 본 발명에 따른 일 실시예로서, 배경 영상의 특징이 되는 선을 추출한 것을 개략적으로 나타낸 도면2C is a diagram schematically illustrating extracting a line that is a feature of a background image according to an embodiment of the present invention;
도 2d는 본 발명에 따른 일 실시예로서, 객체의 수직 위치를 추정하는 방식을 개략적으로 나타낸 도면2d is a diagram schematically illustrating a method of estimating a vertical position of an object according to an embodiment of the present invention.
도 2e는 본 발명에 따른 일 실시예로서, 추정된 수직 위치에 해당하는 깊이 맵 영상을 추출한 것을 대략적으로 나타낸 도면2E is a diagram schematically illustrating extracting a depth map image corresponding to an estimated vertical position according to an embodiment of the present invention.
도 2f는 추출된 깊이 맵 영상을 수직으로 프로젝션(projection)한 값을 나타낸 도면FIG. 2F illustrates a value of vertically projecting the extracted depth map image. FIG.
도 2g는 수직 프로젝션한 값을 이용하여 객체의 수평 위치를 추정하는 것을 나타낸 도면2G illustrates estimating the horizontal position of an object using vertically projected values
도 2h는 본 발명에 따른 일 실시예로서, 깊이 맵을 이용하여 객체의 위치가 추정된 것을 나타낸 도면2H illustrates an example of estimating the position of an object using a depth map according to an embodiment of the present invention.
도 2i는 추정된 객체의 위치 정보를 이용하여, 촬영된 영상에 객체의 위치를 나타낸 도면2i is a diagram illustrating the position of an object in a captured image by using estimated position information of the object.
도 3은 본 발명에 따른 일 실시예로서, 위치 추정 장치의 구성을 개략적으로 나타낸 블록도3 is a block diagram schematically showing a configuration of a position estimating apparatus according to an embodiment of the present invention.
도 4는 본 발명에 따른 일 실시예로서, 누적 단면 처리부를 개략적으로 나타낸 블록도4 is a block diagram schematically showing an accumulated cross-sectional processing unit as an embodiment according to the present invention.
도 5는 본 발명에 따른 일 실시예로서, 위치 추정 방법을 개략적으로 나타낸 순서도5 is a flowchart schematically illustrating a method of estimating a position according to an embodiment of the present invention.
*도면의 주요 부분에 대한 부호의 설명* Explanation of symbols for the main parts of the drawings
300 : 좌측 영상 촬영장치 302 : 우측 영상 촬영장치300: left video recording device 302: right video recording device
310 : 스테레오 전처리부 320 : 스테레오 매칭부310: stereo preprocessing unit 320: stereo matching unit
330 : 스테레오 후처리부 340 : 누적 단면화부330: stereo post-processing unit 340: cumulative cross-section
350 : 누적 단면 처리부 360 : 위치 추정부350: cumulative cross-section processing unit 360: position estimation unit
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070136101A KR100915880B1 (en) | 2007-12-24 | 2007-12-24 | Method for position estimation and apparatus for the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070136101A KR100915880B1 (en) | 2007-12-24 | 2007-12-24 | Method for position estimation and apparatus for the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090068474A true KR20090068474A (en) | 2009-06-29 |
KR100915880B1 KR100915880B1 (en) | 2009-09-07 |
Family
ID=40995865
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070136101A KR100915880B1 (en) | 2007-12-24 | 2007-12-24 | Method for position estimation and apparatus for the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100915880B1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110073924A (en) * | 2009-12-24 | 2011-06-30 | 중앙대학교 산학협력단 | Apparatus and method for detecting pedestrian using edge projections |
KR101227341B1 (en) * | 2011-02-24 | 2013-01-28 | 성균관대학교산학협력단 | System and method for monitoring vehicle violating traffic regulation using stereo camera |
KR101383828B1 (en) * | 2013-01-14 | 2014-04-21 | 충북대학교 산학협력단 | Apparatus and method for estimating location of mobile device using contour information of image |
KR20180069501A (en) * | 2016-12-15 | 2018-06-25 | 현대자동차주식회사 | Apparatus for estimating location of vehicle, method for thereof, apparatus for constructing map thereof, and method for constructing map |
KR20180076495A (en) * | 2016-12-28 | 2018-07-06 | 광운대학교 산학협력단 | A method of separating objects and estimating their three dimension position, using stereo vision |
KR20190004044A (en) * | 2017-07-03 | 2019-01-11 | 송승찬 | System and method for tracking human using two depth images |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101551026B1 (en) | 2013-12-24 | 2015-09-07 | 현대자동차주식회사 | Method of tracking vehicle |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6262738B1 (en) | 1998-12-04 | 2001-07-17 | Sarah F. F. Gibson | Method for estimating volumetric distance maps from 2D depth images |
JP2001241947A (en) | 2000-02-28 | 2001-09-07 | Telecommunication Advancement Organization Of Japan | Image depth computing method |
JP2005164514A (en) | 2003-12-05 | 2005-06-23 | Casio Comput Co Ltd | Size measuring device and program |
-
2007
- 2007-12-24 KR KR1020070136101A patent/KR100915880B1/en active IP Right Grant
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110073924A (en) * | 2009-12-24 | 2011-06-30 | 중앙대학교 산학협력단 | Apparatus and method for detecting pedestrian using edge projections |
KR101227341B1 (en) * | 2011-02-24 | 2013-01-28 | 성균관대학교산학협력단 | System and method for monitoring vehicle violating traffic regulation using stereo camera |
KR101383828B1 (en) * | 2013-01-14 | 2014-04-21 | 충북대학교 산학협력단 | Apparatus and method for estimating location of mobile device using contour information of image |
KR20180069501A (en) * | 2016-12-15 | 2018-06-25 | 현대자동차주식회사 | Apparatus for estimating location of vehicle, method for thereof, apparatus for constructing map thereof, and method for constructing map |
KR20180076495A (en) * | 2016-12-28 | 2018-07-06 | 광운대학교 산학협력단 | A method of separating objects and estimating their three dimension position, using stereo vision |
KR20190004044A (en) * | 2017-07-03 | 2019-01-11 | 송승찬 | System and method for tracking human using two depth images |
Also Published As
Publication number | Publication date |
---|---|
KR100915880B1 (en) | 2009-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100915880B1 (en) | Method for position estimation and apparatus for the same | |
Borkar et al. | Robust lane detection and tracking with ransac and kalman filter | |
KR101392850B1 (en) | Method and system for lane departure warning based on image recognition | |
EP2476996B1 (en) | Parallax calculation method and parallax calculation device | |
EP1796043A2 (en) | Object detection | |
JP4429298B2 (en) | Object number detection device and object number detection method | |
JP4811201B2 (en) | Runway boundary line detection apparatus and runway boundary line detection method | |
KR100818317B1 (en) | Method for recognizing a vehicle using the difference image | |
KR101773822B1 (en) | Vision based lane recognition apparatus | |
JP5561064B2 (en) | Vehicle object recognition device | |
CN109813727A (en) | A kind of pcb board weld defects detection method based on depth information | |
WO2014002692A1 (en) | Stereo camera | |
JP3072730B2 (en) | Vehicle detection method and device | |
US10672141B2 (en) | Device, method, system and computer-readable medium for determining collision target object rejection | |
EP2573708A2 (en) | Method and System for Detecting Vehicle Position by Employing Polarization Image | |
US7221789B2 (en) | Method for processing an image captured by a camera | |
KR20180098945A (en) | Method and apparatus for measuring speed of vehicle by using fixed single camera | |
KR100934904B1 (en) | Method for distance estimation and apparatus for the same | |
EP2765532A2 (en) | Object detection apparatus, program, and integrated circuit | |
KR100938194B1 (en) | Method for detecting an object and apparatus for the same | |
KR100911493B1 (en) | Method for image processing and apparatus for the same | |
JP4918615B2 (en) | Object number detection device and object number detection method | |
KR101371875B1 (en) | A vehicle detection and distance measurement system and method between the vehicles using stereo vision | |
JP4674920B2 (en) | Object number detection device and object number detection method | |
CN109993761B (en) | Ternary image acquisition method and device and vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20120903 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20130822 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20140812 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20150817 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20160628 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20170628 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20190701 Year of fee payment: 11 |