KR20090068474A - Method for position estimation and apparatus for the same - Google Patents

Method for position estimation and apparatus for the same Download PDF

Info

Publication number
KR20090068474A
KR20090068474A KR1020070136101A KR20070136101A KR20090068474A KR 20090068474 A KR20090068474 A KR 20090068474A KR 1020070136101 A KR1020070136101 A KR 1020070136101A KR 20070136101 A KR20070136101 A KR 20070136101A KR 20090068474 A KR20090068474 A KR 20090068474A
Authority
KR
South Korea
Prior art keywords
image
outline
depth map
cumulative
stereo
Prior art date
Application number
KR1020070136101A
Other languages
Korean (ko)
Other versions
KR100915880B1 (en
Inventor
이충희
임영철
권순
정우영
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020070136101A priority Critical patent/KR100915880B1/en
Publication of KR20090068474A publication Critical patent/KR20090068474A/en
Application granted granted Critical
Publication of KR100915880B1 publication Critical patent/KR100915880B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

An apparatus for estimating position and an estimating method are provided, which improve the efficiency of system and reduce expense. An apparatus for estimating position using the stereo vision comprises the stereo matching part(320), the accumulation cross section stoker(340), the accumulation cross section processing unit(350), and the location estimate part(360). The stereo matching part stereo-matches the photographed image and obtains the depth map image. The accumulation cross section processing unit obtains the line which shows outline and background image of the cross section image by making use of the accumulation cross section image. The location estimate part estimates the location of object by using the horizontal location information and vertical position information of object.

Description

위치 추정 장치 및 추정 방법{Method for position estimation and apparatus for the same}Position estimation apparatus and estimation method

본 발명은 위치 추정 장치 및 위치 추정 방법에 관한 것으로서, 더욱 자세하게는 촬영된 영상을 이용하여 영상에 포함된 객체의 위치를 추정하는 장치 및 위치를 추정하는 방법에 관한 것이다.The present invention relates to a position estimating apparatus and a position estimating method, and more particularly, to an apparatus and a method for estimating a position of an object included in an image using a captured image.

관찰 측으로부터 떨어져 있는 객체의 거리, 위치를 측정하는 방법에는 여러 가지가 있다. 그 가운데 상기 객체에 대해 영상을 촬영하고, 상기 촬영된 영상을 이용하여 영상에 포함된 객체까지의 거리, 위치를 측정할 수 있는 기술의 예로 비전(vision) 기술을 들 수 있다.There are several ways to measure the distance and position of an object away from the viewing side. Among them, a vision technique may be used as an example of a technique of photographing an image of the object and measuring a distance and a position to an object included in the image by using the photographed image.

비전 기술을 이용한 객체의 위치 검출 방법은 한 개의 영상 촬영 장치로부터 촬영된 영상만을 이용하여 전처리를 하고, 외곽선, 칼라, 템플릿 등의 2차원 특징정보를 추출한다. 그리고 상기 추출한 정보와 매칭 필터(matching filter)를 이용하여 필요한 객체의 위치를 검출한다.In the object position detection method using vision technology, preprocessing is performed using only an image captured by one image capturing apparatus, and two-dimensional feature information such as an outline, a color, and a template is extracted. The location of the required object is detected using the extracted information and a matching filter.

객체의 거리 정보 추출 방법의 경우 크게 2가지 방법이 있다. 정확한 거리 정보를 추출하는 방법으로 스테레오 비전(stereo vision)의 깊이 맵(depth map)정 보를 이용하는 방법이 있고, 대략적인 거리 정보를 추출하는 방법으로 한 개의 영상(모노 영상)만을 사용하는 원근법(perspective)이 있다. 상기 원근법은 거리가 멀수록 물체가 작게 보이고, 가까이 있을수록 물체가 크게 보이는 성질과 대략적인 비례관계를 이용하여 거리를 측정하는 방법이다. 그러나 물체의 크기에 따라 오차가 생기고, 특히 물체와 카메라의 수직위치가 동일하지 않은 언덕, 내리막길 등에서는 많은 오차를 보인다.There are two main methods for extracting distance information of an object. A method of extracting accurate distance information uses a depth map information of stereo vision, and a perspective using only one image (mono image) as a method of extracting approximate distance information. There is. The above-mentioned perspective method is a method of measuring distance by using an approximate proportional relationship with the property that the object appears smaller as the distance is larger and the object becomes larger as it is closer. However, an error occurs depending on the size of the object, especially on hills and downhill roads where the object and the camera's vertical position are not the same.

상기와 같이 종래 기술은 객체의 위치를 검출함에 있어서 한 개의 영상(모노 영상)만을 이용할 경우, 여러 배경과 장애물체와의 2차원 특징 정보가 유사한 부분이 많아 정확한 객체 추출이 어렵다. 또한, 객체와의 거리를 추출함에 있어서 한 개의 영상을 이용하는 원근법은 오차가 심하므로, 스테레오 비전을 사용한다. 따라서, 객체의 위치 검출과 거리 추정에 서로 다른 시스템을 사용하여 효용성이 떨어지며, 객체 검출에 있어 신뢰성이 떨어지는 문제가 있었다.As described above, when only one image (mono image) is used to detect the position of an object, it is difficult to accurately extract an object because a lot of two-dimensional feature information of several backgrounds and obstacles is similar. In addition, the perspective using a single image in extracting a distance from an object has a high error, and thus uses stereo vision. Therefore, the use of different systems for the position detection and the distance estimation of the object is inferior in utility and inferior in reliability in object detection.

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 본 발명의 목적은 객체의 정확한 위치를 추정할 수 있는 위치 추정 장치 및 위치 추정 방법을 제공하는 것이다.The present invention has been made to solve the above problems, and an object of the present invention is to provide a position estimating apparatus and a position estimating method capable of estimating an exact position of an object.

본 발명에 따른 위치 추정 방법은, 촬영된 영상을 스테레오 매칭하여 깊이 맵 영상을 구하는 단계, 상기 깊이 맵 영상을 수평 방향으로 누적하여 누적 단면화 영상을 구하고, 상기 누적 단면화 영상의 외곽선을 추출하는 단계, 상기 외곽선을 이용하여 배경 영상을 나타내는 선을 구하고, 상기 외곽선과 배경 영상을 나타내는 선을 비교하여 객체의 수직 위치 정보를 구하는 단계, 상기 객체의 수직 위치에 해당하는 깊이 맵 영상을 추출하고, 상기 추출된 깊이 맵 영상을 수직 방향으로 누적하여 누적값을 구하는 단계, 및 상기 수직 방향으로 누적된 누적값을 이용하여 객체의 수평 위치 정보를 구하는 단계를 포함한다.According to an embodiment of the present invention, a method of estimating a depth map image by stereo matching a photographed image, accumulating the depth map image in a horizontal direction, obtaining a cumulative cross-sectional image, and extracting an outline of the cumulative cross-sectional image Obtaining a line representing a background image by using the outline, obtaining a vertical position information of the object by comparing the outline with a line representing the background image, extracting a depth map image corresponding to the vertical position of the object, Accumulating the extracted depth map image in a vertical direction to obtain a cumulative value, and obtaining horizontal position information of the object using the accumulated value accumulated in the vertical direction.

다른 관점에서 본 발명에 따른 위치 추정 장치는, 촬영된 영상을 스테레오 매칭하여 깊이 맵 영상을 구하는 스테레오 매칭부, 상기 깊이 맵 영상을 수평 방향으로 누적하여 누적 단면화 영상을 구하는 누적 단면화부, 상기 누적 단면화 영상을 이용하여 단면화 영상의 외곽선과 배경 영상을 나타내는 선을 구하고, 상기 외곽선과 배경 영상을 나타내는 선을 비교하여 객체의 수직 위치 정보를 구하고, 상기 수직 위치에 해당하는 깊이 맵 영상을 수직 방향으로 누적한 누적값을 이용하여 상기 객체의 수평 위치 정보를 구하는 누적 단면 처리부, 및 상기 객체의 수평 위치 정보와 수직 위치 정보를 이용하여 객체의 위치를 추정하는 위치 추정부를 포함한다.In another aspect, an apparatus for estimating position according to an embodiment of the present invention includes a stereo matching unit for stereo matching a photographed image to obtain a depth map image, a cumulative cross-sectional unit for accumulating the depth map image in a horizontal direction to obtain a cumulative cross-sectional image, and the accumulation. A line representing the outline of the cross-sectional image and a background image is obtained by using the cross-sectional image, the vertical position information of the object is obtained by comparing the outline and the line representing the background image, and the depth map image corresponding to the vertical position is vertically obtained. And a cumulative cross-section processing unit for obtaining horizontal position information of the object using a cumulative value accumulated in a direction, and a position estimating unit for estimating a position of the object using horizontal position information and vertical position information of the object.

본 발명의 위치 추정 장치 및 위치 추정 방법에 따르면, 위치 추정 오차를 줄이고 목표 객체의 정확한 위치, 거리 등을 추정할 수 있는 효과가 있다. 또한, 스테레오 비전을 이용하여 객체의 위치, 거리를 추정할 수 있으므로, 시스템의 효율 향상 및 비용 절감의 효과를 얻을 수 있으며, 객체의 위치, 거리 추정의 정밀도와 신뢰도를 높일 수 있는 효과가 있다.According to the position estimating apparatus and the position estimating method of the present invention, there is an effect of reducing the position estimation error and estimating the exact position and distance of the target object. In addition, since the position and distance of the object can be estimated using stereo vision, the efficiency of the system can be improved and the cost can be reduced, and the accuracy and reliability of the position and distance estimation of the object can be improved.

상기와 같은 추정 방법은 다양한 분야에 응용하여 정확한 위치, 거리 등을 추정할 수 있는 효과가 있다. 예를 들어, 로봇이나 자동차 등에 적용하는 경우 자동차의 추돌 방지, 주행 등의 운전 시스템이나 안전 운행 시스템 등에 사용할 수 있으며, 산업 공장이나 일반 가정 등에서도 사용할 수 있다.The estimation method as described above has an effect of estimating an accurate position and distance by applying to various fields. For example, when applied to a robot or a vehicle, it can be used for driving systems such as collision prevention of cars, driving, safety driving systems, and the like, and can also be used in industrial factories or general homes.

이하 본 발명의 목적, 특성 및 이점들은 첨부한 도면을 참조한 실시 예들의 상세한 설명을 통해 명백해질 것이다. 아울러, 본 발명에서 사용되는 용어는 가능한 한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재하였으므로, 단순한 용어의 명칭이 아닌 용어가 가지는 의미로서 본 발명을 파악하여야 함을 밝혀 두고자 한다.The objects, features and advantages of the present invention will become apparent from the following detailed description of embodiments taken in conjunction with the accompanying drawings. In addition, the terms used in the present invention was selected as a general term widely used as possible now, but in certain cases, the term is arbitrarily selected by the applicant, in which case the meaning is described in detail in the corresponding description of the invention, It is to be clear that the present invention is to be understood as the meaning of terms rather than names.

이와 같이 구성된 본 발명에 따른 위치 추정 장치 및 위치 추정 방법의 동작을 첨부한 도면을 참조하여 상세히 설명하면 다음과 같다.Operation of the position estimating apparatus and the position estimating method according to the present invention configured as described above will be described in detail with reference to the accompanying drawings.

도 1a는 본 본 발명에 따른 일 실시예로서, 스테레오 비전에 따른 좌측 영상을 개략적으로 나타낸 도면이고, 도 1b는 본 발명에 따른 일 실시예로서, 스테레오 비전에 따른 우측 영상을 개략적으로 나타낸 도면이다. 그리고 도 1c는 본 발명에 따른 일 실시예로서, 상기 도 1a와, 도 1b의 좌우 영상을 이용하여 만들어진 깊이 맵(depth map)을 나타낸 도면이다.1A is a diagram illustrating a left image according to stereo vision according to an embodiment of the present invention, and FIG. 1B is a diagram illustrating a right image according to stereo vision according to an embodiment according to the present invention. . 1C is a diagram illustrating a depth map made by using the left and right images of FIGS. 1A and 1B according to an embodiment of the present invention.

스테레오 비전을 이용하여 좌측 영상 촬영 장치를 이용하여 상기 도 1a와 같은 좌측 영상을 촬영할 수 있고, 우측 영상 촬영 장치를 이용하여 상기 도 1b와 같은 우측 영상을 촬영할 수 있다. 상기와 같이 촬영된 좌측 영상과 우측 영상을 스테레오 매칭(stereo matching)하여 상기 도 1c와 같은 영상의 깊이 맵(depth map)을 얻을 수 있다. 상기와 같은 깊이 맵을 얻기 전에 영상 촬영 장치의 특성에 따른 교정 값(calibration parameter)을 이용하여 상기 좌측 영상과 우측 영상을 교정(rectifying)할 수 있다. 예를 들어, 렌즈 왜곡 보정이나 수평, 수직 라인 왜곡 보정 등을 할 수 있다. 상기 도 1c의 깊이 맵에서 원뿔형의 장애 물체(객체)A와 구 형태의 장애물체(객체)B가 표시된 것을 볼 수 있다. 이하에서는 본원 발명에 따른 일 예로서, 상기 장애물체A와 장애물체B의 위치를 추정하는 방식에 대해 설명하기로 한다.The left image as shown in FIG. 1A may be photographed using the left image capturing apparatus using stereo vision, and the right image as shown in FIG. 1B may be photographed using the right image capturing apparatus. The depth map of the image as shown in FIG. 1C may be obtained by stereo matching the left image and the right image photographed as described above. Before obtaining the depth map, the left image and the right image may be rectified using a calibration parameter according to the characteristics of the imaging apparatus. For example, lens distortion correction, horizontal and vertical line distortion correction, and the like can be performed. In the depth map of FIG. 1C, the cone-shaped obstacle object (object) A and the spherical obstacle object (object) B can be seen. Hereinafter, as an example according to the present invention, a method of estimating the positions of the obstacle A and the obstacle B will be described.

상기와 같은 영상의 깊이 맵은 특성상 가까운 거리는 높은 밝기값을 가지며 먼 거리는 낮은 밝기 값을 갖는다. 따라서, 상기 깊이 맵의 밝기값을 수평으로 누 적 단면화하면 상대적으로 가까운 거리 부분은 그 누적값이 높게 나오고, 상대적으로 먼 거리 부분은 그 누적값이 낮게 나올 수 있다. 따라서 상기 누적값을 이용하여 객체의 위치를 추정할 수 있다. 예를 들어, 배경 부분은 누적값이 비례적으로 감소하는 특징이 있는데, 객체가 놓이게 되면 그로 인해 누적값이 증가하는 부분이 발생하므로, 상기 누적값이 증가하는 부분을 이용하여 객체의 위치를 추정할 수 있다. 그리고 상기 깊이 맵의 밝기값은 거리 정보이므로, 상기 깊이 맵을 이용하여 객체의 거리 정보도 알 수 있다.In the depth map of the image, the close distance has a high brightness value and the far distance has a low brightness value. Accordingly, when the brightness value of the depth map is horizontally accumulated, the cumulative value of the relatively close distance part is high and the cumulative value of the relatively long distance part is low. Therefore, the position of the object can be estimated using the accumulated value. For example, the background part has a feature that the cumulative value decreases proportionally. When the object is placed, the cumulative value increases because of this. Therefore, the position of the object is estimated using the part where the cumulative value increases. can do. In addition, since the brightness value of the depth map is distance information, distance information of an object may also be known using the depth map.

도 2a는 본 발명에 따른 일 실시예로서, 상기 깊이 맵의 밝기 값을 수평으로 누적 단면화한 것의 일 부분을 나타낸 도면이다. 상기 도 2a의 x축은 수평 누적값을 나타내며, y축은 깊이 맵 영상의 수직 라인을 나타낸다. 상기 도 2a는 상기 도 1c의 깊이 맵을 기준으로 장애물체를 포함하는 일부 영역의 누적값을 도식화한 것이다.2A is a diagram illustrating a part of horizontally accumulating and cross-sectionalizing brightness values of the depth map according to one embodiment of the present invention. The x-axis of FIG. 2A represents a horizontal cumulative value, and the y-axis represents a vertical line of the depth map image. FIG. 2A illustrates a cumulative value of a partial region including an obstacle based on the depth map of FIG. 1C.

상기 도 1c 영상의 아랫 부분은 밝기값이 높고, 거리가 먼 중간 부분은 밝기값이 낮은 걸 확인할 수 있다. 상기 깊이 맵 영상을 수직 라인별로 밝기를 수평 누적한 결과, 도 2a와 같이 수직 값이 낮은 영역(깊이 맵 영상의 아랫 부분)의 수평 누적값이 높고, 수직 값이 높아질수록 수평 누적값이 작아진다. 그러나, 상기 장애물체A, 장애물체B가 있는 영역의 경우 누적값이 주변 영역의 증가 또는 감소 비율에 비해 높게 나타난다. 이때, 상기 깊이 맵의 신뢰도를 높이기 위해 수평 누적값을 산출하기 전에, 필터링을 통해 상기 깊이 맵의 노이즈를 제거할 수도 있다.It can be seen that the lower part of the image of FIG. 1C has a high brightness value and the middle part of a long distance has a low brightness value. As a result of horizontally accumulating the brightness of the depth map image for each vertical line, as shown in FIG. 2A, the horizontal accumulation value of a region having a low vertical value (the lower portion of the depth map image) is high, and as the vertical value increases, the horizontal accumulation value decreases. . However, in the case where the obstacle A and the obstacle B are present, the cumulative value is higher than the increase or decrease ratio of the peripheral area. In this case, before calculating the horizontal cumulative value to increase the reliability of the depth map, the noise of the depth map may be removed through filtering.

도 2b는 본 발명에 따른 일 실시예로서, 수평 누적 단면화 영상의 외곽선을 추출한 것을 나타낸 도면이다. 상기 도 2a와 같은 수평 누적값이 산출되면, 상기 수평 누적값 영상을 이용하여 수평 누적 단면화 영상의 외곽선을 추출한다. 이는 객체의 위치를 추정하기 위해 누적값이 필요하며, 상기 누적값은 상기 누적 단면화 영상의 외곽선과 동일하기 때문이다. 상기 누적 단면화 영상의 외곽선이 추출되면, 상기 추출된 외곽선의 고주파 성분을 제거하는 필터링을 수행한다. 상기 추출된 외곽선의 경우 고주파 성분이 많이 포함될 수 있으며, 상기 고주파 성분은 배경 영상을 나타내는 선(line)을 추출하는 데 노이즈로 작용하므로 고주파 제거 필터링을 통해 제거할 수 있다.FIG. 2B is a diagram illustrating extracting an outline of a horizontal cumulative cross-sectional image according to an embodiment of the present invention. FIG. When the horizontal cumulative value as shown in FIG. 2A is calculated, an outline of a horizontal cumulative cross-sectional image is extracted using the horizontal cumulative value image. This is because a cumulative value is required to estimate the position of the object, and the cumulative value is the same as the outline of the cumulative cross-sectional image. When the outline of the cumulative cross-sectional image is extracted, filtering is performed to remove high frequency components of the extracted outline. The extracted outline may include many high frequency components, and the high frequency components may be removed through high frequency elimination filtering because they act as noise to extract a line representing a background image.

상기 고주파 제거 필터링된 누적 단면화 영상의 외곽선은 그레이(gray) 값을 가지므로, 설정된 임계값을 이용하여 영상을 이진화한다. 즉, 상기 고주파 성분이 제거된 외곽선을 주변 영상과 명확하게 구별하기 위해 상기 임계값을 이용하여, 임계값 이상이 되는 부분을 선으로 인식하도록 이진화한다. 상기 임계값은 구현 예에 따라 달라질 수 있다.Since the outline of the high frequency rejection filtered cumulative cross-sectional image has a gray value, the image is binarized using a set threshold value. In other words, in order to clearly distinguish the outline from which the high frequency component is removed from the surrounding image, the threshold value is binarized to recognize a portion that is above the threshold value as a line. The threshold may vary depending on implementation.

도 2c는 본 발명에 따른 일 실시예로서, 배경 영상을 나타내는 선을 추출한 것을 개략적으로 나타낸 도면이다. 외곽선이 명확하게 되면, 상기 객체의 위치를 추정하기 위해 상기 외곽선으로부터 배경 영상을 나타내는 선을 추출한다. 배경 영상의 경우 거리가 멀어 질수록 밝기값이 낮아지는데, 상기 배경 영상을 나타내는 선은 상기 밝기값이 낮아지는 경향을 나타낼 수 있다. 상기 배경 영상을 나타내는 선은 상기 외곽선의 전체적인 경향을 나타내는 선과 유사하다.2C is a diagram schematically illustrating extracting a line representing a background image according to an embodiment of the present invention. When the outline becomes clear, a line representing a background image is extracted from the outline to estimate the position of the object. In the case of the background image, as the distance increases, the brightness value is lowered. A line representing the background image may exhibit a tendency of decreasing the brightness value. The line representing the background image is similar to the line representing the overall tendency of the outline.

따라서, 상기 외곽선과 상기 배경 영상을 나타내는 선을 비교하여 객체의 위 치를 추정할 수 있다. 상기 배경 영상을 나타내는 선은 다양한 방식으로 추출될 수 있다. 일 예로, 특정 개수 이상의 연속된 픽셀이 선을 형성하는 경우에 이를 선으로 인정하는 알고리즘 등을 이용하여 선을 추출할 수 있다. 상기 알고리즘의 일 예로 허프 변환(Houth transform) 등을 들 수 있다. 상기 알고리즘 등을 통해 복수의 선이 추출되는 경우에는 상기 추출된 선들을 보간하여 상기 배경 영상을 나타내는 선을 추출할 수 있다.Therefore, the position of the object may be estimated by comparing the outline with the line representing the background image. The line representing the background image may be extracted in various ways. For example, when a certain number of consecutive pixels form a line, the line may be extracted using an algorithm that recognizes the line as a line. An example of the algorithm is a Houth transform. When a plurality of lines are extracted through the algorithm or the like, the lines representing the background image may be extracted by interpolating the extracted lines.

도 2d는 본 발명에 따른 일 실시예로서, 객체의 수직 위치를 추정하는 방식을 개략적으로 나타낸 도면이다. 상기 도 2c에서 추출된 배경의 특징이 되는 선과 상기 외곽선을 비교하여, 상기 외곽선과 배경의 특징이 되는 선의 차이가 설정된 임계값 이상 벗어나는 영역의 위치를 상기 객체의 위치로 추정할 수 있다. 상기 임계값의 경우 구현 예에 따라 달라질 수 있으며, 시스템의 신뢰도나 시스템의 성능 요구량 등을 고려하여 달라질 수 있다. 상기 도 2d에서는 장애물체(객체)A의 수직 위치와 장애물체(객체)B의 수직 위치를 추정할 수 있다.2D is a diagram schematically illustrating a method of estimating a vertical position of an object according to an embodiment of the present invention. By comparing the outline line and the outline line extracted from FIG. 2C, the position of the region where the difference between the outline line and the line feature background is out of a predetermined threshold value may be estimated as the position of the object. The threshold value may vary depending on the implementation example, and may vary in consideration of system reliability or system performance requirements. In FIG. 2D, the vertical position of the obstacle A (object) A and the vertical position of the obstacle B (object) B may be estimated.

도 2e는 본 발명에 따른 일 실시예로서, 추정된 수직 위치에 해당하는 깊이 맵 영상을 추출한 것을 대략적으로 나타낸 도면, 도 2f는 추출된 깊이 맵 영상을 수직으로 프로젝션(projection)한 값을 나타낸 도면, 도 2g는 수직 프로젝션한 값을 이용하여 객체의 수평 위치를 추정하는 것을 나타낸 도면이다.FIG. 2E is a diagram illustrating an example of extracting a depth map image corresponding to an estimated vertical position, and FIG. 2F illustrates a value of vertically projecting the extracted depth map image. 2G is a diagram illustrating estimating a horizontal position of an object using a vertically projected value.

상기 도 2d에서 추정된 장애물체A와 장애물체B의 수직 위치를 이용하여, 상기 도 1c의 깊이 맵 영상에서 장애물체가 포함된 부분의 영상을 추출한다. 그리고 상기 추출된 깊이 맵 영상을 수직으로 프로젝션하여 추출된 영상의 밝기값을 수직 으로 누적한다. 상기 도 2f에서 x축은 깊이 맵 영상의 수평 라인을 나타내며, y축은 도 2e와 같이 추출된 깊이 맵 영상의 수직 누적값을 나타낸다. 상기 도 2e와 같이 수평 라인에 따른 수직 누적값을 산출하면, 객체는 배경 영역에 비해 높은 깊이 값을 가질 수 있으며, 따라서 누적값이 높게 나올 수 있다. 따라서, 상기 배경 영역 누적값에 비해 높은 누적값을 가지는 영역의 수평 위치를 객체의 수평 위치로 추정할 수 있다. 예를 들어, 특정 수평 영역의 누적값과 주변의 누적값을 비교하여 설정된 임계값보다 높은 경우에, 상기 수평 영역의 위치를 객체의 수평 위치로 추정할 수 있다. 도 2g는 상기 추정 방식에 따라 장애물체A와 장애물체B의 수평위치가 추정된 것을 나타낸다.An image of a part including the obstacle is extracted from the depth map image of FIG. 1C by using the vertical positions of the obstacle A and the obstacle B estimated in FIG. 2D. Then, the extracted depth map image is vertically projected to accumulate the brightness values of the extracted image vertically. In FIG. 2F, the x axis represents a horizontal line of the depth map image, and the y axis represents a vertical cumulative value of the extracted depth map image as shown in FIG. 2E. When the vertical cumulative value along the horizontal line is calculated as shown in FIG. 2E, the object may have a higher depth value than the background area, and thus the cumulative value may be high. Therefore, the horizontal position of the region having a higher accumulation value than the background region accumulation value may be estimated as the horizontal position of the object. For example, when a cumulative value of a specific horizontal area is compared with a surrounding cumulative value, the position of the horizontal area may be estimated as the horizontal position of the object. 2G shows that the horizontal positions of the obstacles A and B are estimated according to the estimation method.

도 2h는 본 발명에 따른 일 실시예로서, 깊이 맵을 이용하여 객체의 위치가 추정된 것을 나타낸 도면이며, 도 2i는 추정된 객체의 위치 정보를 이용하여, 촬영된 영상에 객체의 위치를 나타낸 도면이다.FIG. 2H illustrates an example in which an object position is estimated using a depth map, and FIG. 2I illustrates an object position in a captured image by using estimated position information of the object. Drawing.

상기 도 2h와 같이 상기 도 2d, 도 2e에서 추정된 객체의 수직 위치(장애물체A의 수직위치, 장애물체B의 수직위치) 정보와 도 2g에서 추정된 객체의 수평 위치(장애물체A의 수평위치, 장애물체B의 수평위치) 정보를 이용하여 깊이 맵 영상에서 객체의 위치를 추정할 수 있다. 또한, 상기 얻어진 객체의 수직 위치 정보와 객체의 수평 위치 정보를 촬영된 영상에 적용하여, 상기 도 2i와 같이 촬영된 영상에서 객체의 위치를 나타낼 수 있다. 상기 도 2i와 같이 객체의 위치를 나타내는 영상은 좌측 영상이나 우측 영상 또는 스테레오 매칭된 영상 등에 적용할 수 있다.As shown in FIG. 2H, the vertical position (vertical position of the obstacle A and the obstacle B) of the object estimated in FIGS. 2D and 2E and the horizontal position of the object estimated in FIG. 2G (the horizontal of the obstacle A) are estimated. Location, the horizontal position of the obstacle B) can be used to estimate the position of the object in the depth map image. Also, by applying the obtained vertical position information and the horizontal position information of the object to the captured image, it is possible to indicate the position of the object in the captured image as shown in FIG. As illustrated in FIG. 2I, the image representing the position of the object may be applied to a left image, a right image, or a stereo matched image.

도 3은 본 발명에 따른 일 실시예로서, 위치 추정 장치의 구성을 개략적으로 나타낸 블록도이다. 상기 위치 추정 장치는 좌측 영상 촬영 장치(300), 우측 영상 촬영 장치(302), 스테레오 전처리부(310), 스테레오 매칭부(320), 스테레오 후처리부(330), 누적 단면화부(340), 누적 단면 처리부(350) 및 위치 추정부(360)을 포함한다.3 is a block diagram schematically illustrating a configuration of a position estimating apparatus according to an embodiment of the present invention. The position estimating apparatus includes a left image capturing apparatus 300, a right image capturing apparatus 302, a stereo preprocessor 310, a stereo matcher 320, a stereo postprocessor 330, a cumulative cross-sectionalizing unit 340, and a cumulative cross-section. It includes a cross-sectional processing unit 350 and the position estimation unit 360.

상기 좌측 영상 촬영 장치(300)와 우측 영상 촬영 장치(302)는 각각 영상을 촬영하여 스테레오 전처리부(310)로 출력한다. 상기 영상 촬영 장치는 예를 들어, 카메라 등을 사용할 수 있다. 상기 좌측 영상 촬영 장치(300)에서 촬영된 좌측 영상과 우측 영상 촬영 장치(302)에서 촬영된 우측 영상은 스테레오 전처리부(310)로 입력된다. 상기 스테레오 전처리부(310)는 입력된 좌측 영상과 우측 영상을 교정하여 출력한다. 예를 들어, 상기 스테레오 전처리부(310)는 각 영상 촬영 장치의 교정 값(calibration parameter)을 이용하여 상기 좌측 영상과 우측 영상을 교정(rectifying)할 수 있다. 상기 스테레오 전처리부(310)는 구현 예에 따라 사용되지 않을 수도 있다.The left image capturing apparatus 300 and the right image capturing apparatus 302 respectively capture an image and output the captured image to the stereo preprocessor 310. The image capturing apparatus may use, for example, a camera. The left image captured by the left image capture device 300 and the right image captured by the right image capture device 302 are input to the stereo preprocessor 310. The stereo preprocessor 310 corrects and outputs the input left and right images. For example, the stereo preprocessor 310 may rectify the left image and the right image using a calibration parameter of each imaging apparatus. The stereo preprocessor 310 may not be used depending on implementation.

상기 스테레오 전처리부(310)에서 출력된 좌측 영상과 우측 영상은 스테레오 매칭부(320)에서 매칭 필터에 의해 스테레오 매칭된다. 그리고 상기 스테레오 매칭부(320)는 매칭된 영상에 대해 깊이 맵 영상을 산출한다. 상기 스테레오 매칭부(320)에서 출력된 깊이 맵 영상은 스테레오 후처리부(330)로 출력되어 후처리 필터링된다. 상기 스테레오 후처리부(330)는 깊이 맵 영상의 신뢰도를 높이기 위해, 쓰레쉬홀딩(thresholding)이나 스무딩(smoothing) 기법 등을 이용하여 노이즈를 제거할 수 있다. 상기 스테레오 후처리부(330) 또한, 구현 예에 따라 사용되지 않을 수도 있다.The left image and the right image output from the stereo preprocessor 310 are stereo matched by the matching filter in the stereo matching unit 320. The stereo matching unit 320 calculates a depth map image with respect to the matched image. The depth map image output from the stereo matching unit 320 is output to the stereo post processing unit 330 and post-processed filtered. The stereo postprocessor 330 may remove noise by using a thresholding or smoothing technique to increase the reliability of the depth map image. The stereo post-processing unit 330 may also not be used depending on implementation.

상기 스테레오 후처리부(330)에서 출력된 깊이 맵 영상은 누적 단면화부(340)로 출력된다. 상기 누적 단면화부(340)는 깊이 맵 영상의 밝기값을 수평으로 누적하여 수평 누적된 단면화 영상을 산출한다. 상기 산출된 수평 누적 단면화 영상은 누적 단면 처리부(350)로 출력된다.The depth map image output from the stereo post processor 330 is output to the cumulative cross sectioning unit 340. The cumulative cross-sectionalizing unit 340 calculates a horizontally accumulated cross-sectional image by accumulating the brightness values of the depth map image horizontally. The calculated horizontal cumulative cross-sectional image is output to the cumulative cross-section processor 350.

도 4는 본 발명에 따른 일 실시예로서, 누적 단면 처리부를 개략적으로 나타낸 블록도이다. 상기 누적 단면 처리부(350)는 외곽선 추출부(352), 선(line) 추출부(354), 수직 위치 추정부(356), 수평 위치 추정부(358)를 포함한다. 상기 누적 단면 처리부(350)는 수평 누적 단면화 영상을 이용하여 객체의 수직 위치와 수평 위치를 추정할 수 있다.4 is a block diagram schematically showing an accumulating cross-sectional processing unit as an embodiment according to the present invention. The cumulative cross section processor 350 includes an outline extractor 352, a line extractor 354, a vertical position estimator 356, and a horizontal position estimator 358. The cumulative cross-section processor 350 may estimate the vertical position and the horizontal position of the object by using the horizontal cumulative cross-sectional image.

외곽선 추출부(352)는 상기 누적 단면화 영상의 외곽선을 추출하며, 선 추출부(354)는 상기 누적 단면화 영상의 외곽선을 필터링하여 고주파 성분을 제거하고, 상기 고주파 성분이 제거된 외곽선을 이진화하여 상기 외곽선을 명확히 한다. 그리고 선 추출 알고리즘을 이용하여 상기 이진화된 외곽선으로부터 배경 영상을 나타내는 선을 추출한다. 상기 선 추출 알고리즘의 예로 허프 변환 등을 사용할 수 있다. 수직 위치 추정부(356)는 상기에서 설명한 바와 같이 영상의 외곽선과 배경 영상을 나타내는 선을 비교하여 수직 위치를 추정할 수 있고, 수평 위치 추정부(358)는 상기 추정된 수직 위치의 깊이 맵 영상을 이용하여 수직 누적값을 산출하고 수평 위치를 추정할 수 있다.An outline extractor 352 extracts an outline of the cumulative cross-sectional image, and a line extractor 354 filters an outline of the cumulative cross-sectional image to remove high frequency components and binarizes the outlines from which the high frequency components are removed. To clarify the outline. The line representing the background image is extracted from the binarized outline using a line extraction algorithm. As an example of the line extraction algorithm, a Hough transform may be used. As described above, the vertical position estimator 356 may estimate the vertical position by comparing the outline of the image with a line representing the background image, and the horizontal position estimator 358 may estimate the depth map image of the estimated vertical position. Using to calculate the vertical cumulative value and to estimate the horizontal position.

위치 추정부(360)는 상기 누적 단면 처리부(350)에서 추정된 객체의 수평 위 치 정보와 수직 위치 정보를 깊이 맵 영상 또는 촬영된 영상에 대응하여 객체의 위치를 추정할 수 있다. 상기 도 3의 위치 추정 장치에서는 객체의 위치 추정을 중심으로 설명하였으나, 상기 스테레오 비전 영상을 이용하여 객체의 거리를 추정하는 구성이 더 추가될 수 있다.The position estimator 360 may estimate the position of the object corresponding to the depth map image or the captured image using the horizontal position information and the vertical position information of the object estimated by the cumulative cross-section processor 350. Although the location estimation apparatus of FIG. 3 is described based on the location estimation of the object, a configuration of estimating the distance of the object using the stereo vision image may be further added.

도 5는 본 발명에 따른 일 실시예로서, 위치 추정 방법을 개략적으로 나타낸 순서도이다. 5 is a flowchart schematically illustrating a method of estimating a position according to an embodiment of the present invention.

스테레오 비전의 좌우 영상 촬영 장치로부터 촬영된 좌측 영상과 우측 영상을 이용하여 스테레오 매칭하고, 상기 스테레오 매칭된 영상의 깊이 맵 영상을 추출한다(S500). 구현 예에 따라, 상기 영상 촬영 장치의 교정 값을 이용하여 깊이 맵 영상을 추출하기 전에 상기 좌측 영상과 우측 영상을 필터링 할 수도 있다. 상기 S500 단계에서 깊이 맵 영상이 추출되면, 상기 깊이 맵 영상을 필터링하여 깊이 맵의 노이즈를 제거한다(S502). 예를 들어, 쓰레쉬홀딩(thresholding)이나 스무딩(smoothing) 기법 등을 이용하여 노이즈를 제거할 수 있으며, 상기 필터링 과정은 구현 예에 따라 사용하지 않을 수도 있다.Stereo matching is performed using the left and right images captured by the left and right image capturing apparatus of the stereo vision, and a depth map image of the stereo matched image is extracted (S500). According to an embodiment, the left image and the right image may be filtered before the depth map image is extracted using the correction value of the image capturing apparatus. When the depth map image is extracted in step S500, the depth map image is filtered to remove noise of the depth map (S502). For example, noise may be removed by using a thresholding or smoothing technique, and the filtering process may not be used depending on the implementation.

상기 깊이 맵 영상은 그 특성상 가까운 거리는 높은 밝기값으로 표현되며, 먼 거리는 낮은 밝기 값으로 표현되므로, 상기 깊이 맵 영상을 수평적으로 누적하여 누적 단면화 영상을 얻는다(S504). 상기 S504 단계에서 얻은 누적 단면화 영상을 이용하여 누적 단면의 외곽선을 추출하고(S506), 추출된 외곽선을 필터링하여 외곽선의 고주파 성분을 제거한다(S508). 그리고, 상기 필터링된 외곽선을 이진화(S510)하여 외곽선과 주변 영상의 구분을 명확히 하고, 상기 외곽선을 이용하여 배경 영상을 나타내는 선(line)을 추출한다(S512). 상기 배경 영상을 나타내는 선은 배경 영상의 특징을 나타낼 수 있다. 상기 외곽선을 추출하는 방식이나 필터링 방식, 외곽선의 선을 추출하는 방식 등은 상기에서 설명한 바와 같다.In the depth map image, a close distance is represented by a high brightness value and a far distance is represented by a low brightness value, so that the depth map image is horizontally accumulated to obtain a cumulative cross-sectional image (S504). Using the cumulative cross-sectional image obtained in step S504 to extract the outline of the cumulative cross-section (S506), the extracted outline is filtered to remove the high frequency components of the outline (S508). The filtered outline is binarized (S510) to clarify the distinction between the outline and the surrounding image, and a line representing the background image is extracted using the outline (S512). The line representing the background image may represent a feature of the background image. The method of extracting the outline, the filtering method, the method of extracting the lines of the outline, etc. are as described above.

상기 S512단계에서 배경 영상을 나타내는 선이 추출되면, 상기 추출된 선을 이용하여 객체의 수직 위치를 추출할 수 있다(S514). 상기 객체의 수직 위치에 관한 정보가 추출되면, 상기 수직 위치에 해당하는 깊이 맵 영상을 추출하고, 상기 추출된 깊이 맵 영상을 수직 방향으로 프로젝션(projection)한다(S516). 상기 S516단계에서는 추출된 깊이 맵 영상을 수직 방향으로 누적하여 누적값을 산출한다. 상기 S516단계에서 수직 방향으로 프로젝션하여 누적된 누적값을 이용하여 객체의 수평 위치를 추정할 수 있다(S518). 예를 들어, 상기 S518단계에서는 배경 영역에 비해 높은값을 가지는 영역을 객체의 수평 위치로 추정할 수 있다. 상기 S514단계에서 얻은 객체의 수직 위치 정보와 상기 S518단계에서 얻은 객체의 수평 위치 정보를 이용하여, 촬영된 영상이나 스테레오 매칭된 영상 또는 깊이 맵 영상으로부터 객체를 검출할 수 있다(S520).When the line representing the background image is extracted in step S512, the vertical position of the object may be extracted using the extracted line (S514). When the information about the vertical position of the object is extracted, the depth map image corresponding to the vertical position is extracted, and the extracted depth map image is projected in the vertical direction (S516). In operation S516, an accumulated value is calculated by accumulating the extracted depth map image in a vertical direction. In operation S516, the horizontal position of the object may be estimated using the accumulated value accumulated in the vertical direction (S518). For example, in operation S518, an area having a higher value than that of the background area may be estimated as the horizontal position of the object. The object may be detected from the captured image, the stereo matched image, or the depth map image by using the vertical position information of the object obtained in step S514 and the horizontal position information of the object obtained in step S518 (S520).

상기 도 5에서는 객체의 위치 추정 순서를 중심으로 설명하였으나, 상기 스테레오 비전 영상을 이용하여 객체의 위치 추정과 함께 객체의 거리 추정을 병렬적으로 또는 순차적으로 수행할 수도 있다.In FIG. 5, the position estimation order of the object has been described, but the distance estimation of the object may be performed in parallel or sequentially together with the position estimation of the object using the stereo vision image.

본 발명은 상술한 실시예에 한정되지 않으며, 첨부된 청구범위에서 알 수 있는 바와 같이 본 발명이 속한 분야의 통상의 지식을 가진 자에 의해 변형이 가능하고 이러한 변형은 본 발명의 범위에 속한다.The present invention is not limited to the above-described embodiments, and as can be seen in the appended claims, modifications can be made by those skilled in the art to which the invention pertains, and such modifications are within the scope of the present invention.

도 1a는 본 본 발명에 따른 일 실시예로서, 스테레오 비전에 따른 좌측 영상을 개략적으로 나타낸 도면1A is a diagram schematically showing a left image according to stereo vision according to an embodiment of the present invention.

도 1b는 본 발명에 따른 일 실시예로서, 스테레오 비전에 따른 우측 영상을 개략적으로 나타낸 도면1B is a diagram schematically illustrating a right image according to stereo vision according to an embodiment of the present invention.

도 1c는 본 발명에 따른 일 실시예로서, 상기 도 1a와, 도 1b의 좌우 영상을 이용하여 만들어진 깊이 맵(depth map)을 나타낸 도면1C is a diagram illustrating a depth map made using the left and right images of FIGS. 1A and 1B according to an embodiment of the present invention.

도 2a는 본 발명에 따른 일 실시예로서, 상기 깊이 맵의 밝기 값을 수평으로 누적 단면화한 것의 일 부분을 나타낸 도면2A is a diagram illustrating a part of horizontally accumulating and cross-sectionalizing brightness values of the depth map according to one embodiment of the present invention.

도 2b는 본 발명에 따른 일 실시예로서, 수평 누적 단면화 영상의 외곽선을 추출한 것을 나타낸 도면FIG. 2B is a diagram illustrating extracting an outline of a horizontal cumulative cross-sectional image as an embodiment according to the present invention. FIG.

도 2c는 본 발명에 따른 일 실시예로서, 배경 영상의 특징이 되는 선을 추출한 것을 개략적으로 나타낸 도면2C is a diagram schematically illustrating extracting a line that is a feature of a background image according to an embodiment of the present invention;

도 2d는 본 발명에 따른 일 실시예로서, 객체의 수직 위치를 추정하는 방식을 개략적으로 나타낸 도면2d is a diagram schematically illustrating a method of estimating a vertical position of an object according to an embodiment of the present invention.

도 2e는 본 발명에 따른 일 실시예로서, 추정된 수직 위치에 해당하는 깊이 맵 영상을 추출한 것을 대략적으로 나타낸 도면2E is a diagram schematically illustrating extracting a depth map image corresponding to an estimated vertical position according to an embodiment of the present invention.

도 2f는 추출된 깊이 맵 영상을 수직으로 프로젝션(projection)한 값을 나타낸 도면FIG. 2F illustrates a value of vertically projecting the extracted depth map image. FIG.

도 2g는 수직 프로젝션한 값을 이용하여 객체의 수평 위치를 추정하는 것을 나타낸 도면2G illustrates estimating the horizontal position of an object using vertically projected values

도 2h는 본 발명에 따른 일 실시예로서, 깊이 맵을 이용하여 객체의 위치가 추정된 것을 나타낸 도면2H illustrates an example of estimating the position of an object using a depth map according to an embodiment of the present invention.

도 2i는 추정된 객체의 위치 정보를 이용하여, 촬영된 영상에 객체의 위치를 나타낸 도면2i is a diagram illustrating the position of an object in a captured image by using estimated position information of the object.

도 3은 본 발명에 따른 일 실시예로서, 위치 추정 장치의 구성을 개략적으로 나타낸 블록도3 is a block diagram schematically showing a configuration of a position estimating apparatus according to an embodiment of the present invention.

도 4는 본 발명에 따른 일 실시예로서, 누적 단면 처리부를 개략적으로 나타낸 블록도4 is a block diagram schematically showing an accumulated cross-sectional processing unit as an embodiment according to the present invention.

도 5는 본 발명에 따른 일 실시예로서, 위치 추정 방법을 개략적으로 나타낸 순서도5 is a flowchart schematically illustrating a method of estimating a position according to an embodiment of the present invention.

*도면의 주요 부분에 대한 부호의 설명* Explanation of symbols for the main parts of the drawings

300 : 좌측 영상 촬영장치 302 : 우측 영상 촬영장치300: left video recording device 302: right video recording device

310 : 스테레오 전처리부 320 : 스테레오 매칭부310: stereo preprocessing unit 320: stereo matching unit

330 : 스테레오 후처리부 340 : 누적 단면화부330: stereo post-processing unit 340: cumulative cross-section

350 : 누적 단면 처리부 360 : 위치 추정부350: cumulative cross-section processing unit 360: position estimation unit

Claims (15)

위치 추정 방법에 있어서,In the position estimation method, 촬영된 영상을 스테레오 매칭하여 깊이 맵 영상을 구하는 단계;Obtaining a depth map image by stereo matching the captured image; 상기 깊이 맵 영상을 수평 방향으로 누적하여 누적 단면화 영상을 구하고, 상기 누적 단면화 영상의 외곽선을 추출하는 단계;Accumulating the depth map image in a horizontal direction to obtain a cumulative cross-sectional image, and extracting an outline of the cumulative cross-sectional image; 상기 외곽선을 이용하여 배경 영상을 나타내는 선을 구하고, 상기 외곽선과 배경 영상을 나타내는 선을 비교하여 객체의 수직 위치 정보를 구하는 단계;Obtaining a line representing a background image by using the outline, and obtaining vertical position information of the object by comparing the outline to a line representing the background image; 상기 객체의 수직 위치에 해당하는 깊이 맵 영상을 추출하고, 상기 추출된 깊이 맵 영상을 수직 방향으로 누적하여 누적값을 구하는 단계; 및Extracting a depth map image corresponding to a vertical position of the object, and accumulating the extracted depth map image in a vertical direction to obtain a cumulative value; And 상기 수직 방향으로 누적된 누적값을 이용하여 객체의 수평 위치 정보를 구하는 단계를 포함하는 스테레오 비전을 이용한 위치 추정 방법.And obtaining horizontal position information of the object using the accumulated value accumulated in the vertical direction. 제 1 항에 있어서,The method of claim 1, 교정 값(calibration parameter)을 이용하여, 상기 촬영된 영상을 필터링하는 단계를 더 포함하는 스테레오 비전을 이용한 위치 추정 방법.And filtering the photographed image by using a calibration parameter. 제 1 항에 있어서,The method of claim 1, 상기 스테레오 매칭하여 구한 깊이 맵 영상을 필터링하여, 깊이 맵 영상의 노이즈를 제거하는 단계를 더 포함하는 스테레오 비전을 이용한 위치 추정 방법.And filtering the depth map image obtained by the stereo matching to remove noise of the depth map image. 제 1 항에 있어서,The method of claim 1, 상기 객체의 수직 위치 정보와 수평 위치 정보를 이용하여, 촬영된 영상 또는 깊이 맵 영상 가운데 어느 한 영상으로부터 객체를 검출하는 단계를 더 포함하는 스테레오 비전을 이용한 위치 추정 방법.And detecting an object from any one of a photographed image or a depth map image by using the vertical position information and the horizontal position information of the object. 제 1 항에 있어서,The method of claim 1, 상기 배경 영상을 나타내는 선을 구하는 단계는,Obtaining a line representing the background image, 상기 추출된 외곽선을 필터링하여 고주파 성분을 제거하는 단계;Filtering the extracted outline to remove high frequency components; 상기 고주파 성분이 제거된 외곽선을 이진화하여 상기 외곽선을 명확히 하는 단계; 및Clarifying the outline by binarizing the outline from which the high frequency component has been removed; And 선 추출 알고리즘을 이용하여 상기 이진화된 외곽선으로부터 배경 영상을 나타내는 선을 구하는 단계를 포함하는 스테레오 비전을 이용한 위치 추정 방법.Obtaining a line representing a background image from the binarized outline using a line extraction algorithm. 제 5 항에 있어서,The method of claim 5, wherein 상기 선 추출 알고리즘은,The line extraction algorithm, 허프 변환(Hough transform) 알고리즘을 이용하는 스테레오 비전을 이용한 위치 추정 방법.Position estimation method using stereo vision using Hough transform algorithm. 제 1 항에 있어서,The method of claim 1, 상기 객체의 수직 위치 정보를 구하는 단계는,Obtaining vertical position information of the object, 상기 배경을 나타내는 선과 상기 외곽선이 임계값 이상 차이 나는 영역을 상기 객체의 수직 위치로 추정하는 스테레오 비전을 이용한 위치 추정 방법.And estimating an area in which the line representing the background and the outline differ by more than a threshold value as a vertical position of the object. 제 1 항에 있어서,The method of claim 1, 상기 객체의 수평 위치 정보를 구하는 단계는,Obtaining horizontal position information of the object, 주변의 누적값과 비교하여, 설정된 임계값 이상으로 주변 영역의 누적값보다 높은 누적값을 가지는 영역을 객체의 수평 위치로 추정하는 스테레오 비전을 이용한 위치 추정 방법.A method for estimating position using stereo vision, which estimates an area having a cumulative value higher than a cumulative value of a surrounding area above a set threshold value as a horizontal position of the object compared with a surrounding cumulative value. 위치 추정 장치에 있어서,In the position estimation device, 촬영된 영상을 스테레오 매칭하여 깊이 맵 영상을 구하는 스테레오 매칭부;A stereo matching unit configured to obtain a depth map image by stereo matching the captured image; 상기 깊이 맵 영상을 수평 방향으로 누적하여 누적 단면화 영상을 구하는 누적 단면화부;A cumulative sectioning unit configured to accumulate the depth map image in a horizontal direction to obtain a cumulative sectioned image; 상기 누적 단면화 영상을 이용하여 단면화 영상의 외곽선과 배경 영상을 나타내는 선을 구하고, 상기 외곽선과 배경 영상을 나타내는 선을 비교하여 객체의 수직 위치 정보를 구하고, 상기 수직 위치에 해당하는 깊이 맵 영상을 수직 방향으로 누적한 누적값을 이용하여 상기 객체의 수평 위치 정보를 구하는 누적 단면 처리부; 및Using the cumulative cross-sectional image, a line representing an outline of the cross-sectional image and a background image is obtained, and vertical position information of the object is obtained by comparing the outline and a line representing the background image, and a depth map image corresponding to the vertical position is obtained. An accumulation section processing unit for obtaining horizontal position information of the object using an accumulation value accumulated in a vertical direction; And 상기 객체의 수평 위치 정보와 수직 위치 정보를 이용하여 객체의 위치를 추 정하는 위치 추정부를 포함하는 스테레오 비전을 이용한 위치 추정 장치.And a position estimator for estimating the position of the object using the horizontal position information and the vertical position information of the object. 제 9 항에 있어서,The method of claim 9, 상기 촬영된 영상을 교정 값(calibration parameter)을 이용하여 필터링하고 스테레오 매칭부로 출력하는 스테레오 전처리부를 더 포함하는 스테레오 비전을 이용한 위치 추정 장치.And a stereo preprocessor for filtering the photographed image using a calibration parameter and outputting the filtered image to a stereo matching unit. 제 9 항에 있어서,The method of claim 9, 상기 스테레오 매칭부에서 출력된 깊이 맵 영상을 필터링하여, 깊이 맵 영상의 노이즈를 제거하고 누적 단면화부로 출력하는 스테레오 후처리부를 더 포함하는 스테레오 비전을 이용한 위치 추정 장치.And a stereo post-processing unit which filters the depth map image output from the stereo matching unit, removes noise of the depth map image, and outputs the noise to the cumulative sectioning unit. 제 9 항에 있어서,The method of claim 9, 상기 누적 단면 처리부는,The cumulative cross-section processing unit, 상기 누적 단면화 영상의 외곽선을 추출하는 외곽선 추출부;An outline extracting unit extracting an outline of the cumulative cross-sectional image; 상기 외곽선의 고주파 성분을 제거하여 이진화하고, 선 추출 알고리즘을 이용하여 상기 이진화된 외곽선으로부터 배경 영상을 나타내는 선을 구하는 선 추출부;A line extracting unit configured to binarize and remove the high frequency components of the outline and obtain a line representing a background image from the binarized outline using a line extraction algorithm; 상기 배경 영상을 나타내는 선과 외곽선을 비교하여 객체의 수직 위치를 추정하는 수직 위치 추정부; 및A vertical position estimator for estimating a vertical position of an object by comparing an outline with an outline representing the background image; And 상기 추정된 수직 위치에 해당하는 깊이 맵 영상을 수직 방향으로 누적한 누적값을 이용하여 상기 객체의 수평 위치를 추정하는 수평 위치 추정부를 포함하는 스테레오 비전을 이용한 위치 추정 장치.And a horizontal position estimator for estimating a horizontal position of the object by using a cumulative value accumulated in a vertical direction in the depth map image corresponding to the estimated vertical position. 제 12 항에 있어서,The method of claim 12, 상기 선 추출부는,The line extraction unit, 허프 변환(Hough transform) 알고리즘을 이용하여 배경 영상을 나타내는 선을 구하는 스테레오 비전을 이용한 위치 추정 장치.An apparatus for estimating position using stereo vision to obtain a line representing a background image by using a Hough transform algorithm. 제 9 항에 있어서,The method of claim 9, 상기 누적 단면 처리부는,The cumulative cross-section processing unit, 상기 배경을 나타내는 선과 상기 외곽선이 임계값 이상 차이 나는 영역을 상기 객체의 수직 위치로 추정하는 스테레오 비전을 이용한 위치 추정 장치.And a stereo vision estimating an area where the line representing the background and the outline differ by more than a threshold from the vertical position of the object. 제 9 항에 있어서,The method of claim 9, 상기 누적 단면 처리부는,The cumulative cross-section processing unit, 상기 수직 방향으로 누적한 누적값을 이용하여, 설정된 임계값 이상으로 주변 영역의 누적값보다 높은 누적값을 가지는 영역을 객체의 수평 위치로 추정하는 스테레오 비전을 이용한 위치 추정 장치.And a stereo vision for estimating an area having a cumulative value higher than a cumulative value of a peripheral area as a horizontal position of the object by using the accumulated value accumulated in the vertical direction.
KR1020070136101A 2007-12-24 2007-12-24 Method for position estimation and apparatus for the same KR100915880B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070136101A KR100915880B1 (en) 2007-12-24 2007-12-24 Method for position estimation and apparatus for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070136101A KR100915880B1 (en) 2007-12-24 2007-12-24 Method for position estimation and apparatus for the same

Publications (2)

Publication Number Publication Date
KR20090068474A true KR20090068474A (en) 2009-06-29
KR100915880B1 KR100915880B1 (en) 2009-09-07

Family

ID=40995865

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070136101A KR100915880B1 (en) 2007-12-24 2007-12-24 Method for position estimation and apparatus for the same

Country Status (1)

Country Link
KR (1) KR100915880B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110073924A (en) * 2009-12-24 2011-06-30 중앙대학교 산학협력단 Apparatus and method for detecting pedestrian using edge projections
KR101227341B1 (en) * 2011-02-24 2013-01-28 성균관대학교산학협력단 System and method for monitoring vehicle violating traffic regulation using stereo camera
KR101383828B1 (en) * 2013-01-14 2014-04-21 충북대학교 산학협력단 Apparatus and method for estimating location of mobile device using contour information of image
KR20180069501A (en) * 2016-12-15 2018-06-25 현대자동차주식회사 Apparatus for estimating location of vehicle, method for thereof, apparatus for constructing map thereof, and method for constructing map
KR20180076495A (en) * 2016-12-28 2018-07-06 광운대학교 산학협력단 A method of separating objects and estimating their three dimension position, using stereo vision
KR20190004044A (en) * 2017-07-03 2019-01-11 송승찬 System and method for tracking human using two depth images

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101551026B1 (en) 2013-12-24 2015-09-07 현대자동차주식회사 Method of tracking vehicle

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6262738B1 (en) 1998-12-04 2001-07-17 Sarah F. F. Gibson Method for estimating volumetric distance maps from 2D depth images
JP2001241947A (en) 2000-02-28 2001-09-07 Telecommunication Advancement Organization Of Japan Image depth computing method
JP2005164514A (en) 2003-12-05 2005-06-23 Casio Comput Co Ltd Size measuring device and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110073924A (en) * 2009-12-24 2011-06-30 중앙대학교 산학협력단 Apparatus and method for detecting pedestrian using edge projections
KR101227341B1 (en) * 2011-02-24 2013-01-28 성균관대학교산학협력단 System and method for monitoring vehicle violating traffic regulation using stereo camera
KR101383828B1 (en) * 2013-01-14 2014-04-21 충북대학교 산학협력단 Apparatus and method for estimating location of mobile device using contour information of image
KR20180069501A (en) * 2016-12-15 2018-06-25 현대자동차주식회사 Apparatus for estimating location of vehicle, method for thereof, apparatus for constructing map thereof, and method for constructing map
KR20180076495A (en) * 2016-12-28 2018-07-06 광운대학교 산학협력단 A method of separating objects and estimating their three dimension position, using stereo vision
KR20190004044A (en) * 2017-07-03 2019-01-11 송승찬 System and method for tracking human using two depth images

Also Published As

Publication number Publication date
KR100915880B1 (en) 2009-09-07

Similar Documents

Publication Publication Date Title
KR100915880B1 (en) Method for position estimation and apparatus for the same
Borkar et al. Robust lane detection and tracking with ransac and kalman filter
KR101392850B1 (en) Method and system for lane departure warning based on image recognition
EP2476996B1 (en) Parallax calculation method and parallax calculation device
EP1796043A2 (en) Object detection
JP4429298B2 (en) Object number detection device and object number detection method
JP4811201B2 (en) Runway boundary line detection apparatus and runway boundary line detection method
KR100818317B1 (en) Method for recognizing a vehicle using the difference image
KR101773822B1 (en) Vision based lane recognition apparatus
JP5561064B2 (en) Vehicle object recognition device
CN109813727A (en) A kind of pcb board weld defects detection method based on depth information
WO2014002692A1 (en) Stereo camera
JP3072730B2 (en) Vehicle detection method and device
US10672141B2 (en) Device, method, system and computer-readable medium for determining collision target object rejection
EP2573708A2 (en) Method and System for Detecting Vehicle Position by Employing Polarization Image
US7221789B2 (en) Method for processing an image captured by a camera
KR20180098945A (en) Method and apparatus for measuring speed of vehicle by using fixed single camera
KR100934904B1 (en) Method for distance estimation and apparatus for the same
EP2765532A2 (en) Object detection apparatus, program, and integrated circuit
KR100938194B1 (en) Method for detecting an object and apparatus for the same
KR100911493B1 (en) Method for image processing and apparatus for the same
JP4918615B2 (en) Object number detection device and object number detection method
KR101371875B1 (en) A vehicle detection and distance measurement system and method between the vehicles using stereo vision
JP4674920B2 (en) Object number detection device and object number detection method
CN109993761B (en) Ternary image acquisition method and device and vehicle

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120903

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130822

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140812

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20150817

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20160628

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20170628

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20190701

Year of fee payment: 11