JP2006078261A - Object detector - Google Patents

Object detector Download PDF

Info

Publication number
JP2006078261A
JP2006078261A JP2004261107A JP2004261107A JP2006078261A JP 2006078261 A JP2006078261 A JP 2006078261A JP 2004261107 A JP2004261107 A JP 2004261107A JP 2004261107 A JP2004261107 A JP 2004261107A JP 2006078261 A JP2006078261 A JP 2006078261A
Authority
JP
Japan
Prior art keywords
data
past
data group
feature point
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004261107A
Other languages
Japanese (ja)
Other versions
JP4151631B2 (en
Inventor
Hidekazu Nishiuchi
秀和 西内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004261107A priority Critical patent/JP4151631B2/en
Publication of JP2006078261A publication Critical patent/JP2006078261A/en
Application granted granted Critical
Publication of JP4151631B2 publication Critical patent/JP4151631B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device capable of efficiently detecting an object such as obstacles by reducing a processing load. <P>SOLUTION: From a photographed image, characteristic points are detected (step S102) and the characteristic point data groups from the past to the present are stored in a memory (step S104). The characteristic points of which the characteristic quantity is over a specific value in the present characteristic point data groups are marked as detection object candidate points (step S105), the past characteristic point data groups of the detection object candidate points are extracted and tracking processing is performed for the detection object candidate points (steps S106, S107). Based on the image position from the past to the present and the history of optical flow of the detection object candidate points obtained as the results of the tracking processing, obstacles are detected (step S109 to S113). <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は物体を検出する装置に関し、特に車両に搭載されて周囲の障害物を検出するのに好適な物体検出装置に関する。   The present invention relates to an apparatus for detecting an object, and more particularly to an object detection apparatus that is mounted on a vehicle and is suitable for detecting surrounding obstacles.

カメラで撮像した画像から、移動している物体(動体)を抽出して追跡し、その動きによって障害物であるか否かを判定することにより、前方の障害物を検出する方法が知られている(たとえば、特許文献1)。   A method of detecting a front obstacle by extracting and tracking a moving object (moving body) from an image captured by a camera and determining whether the object is an obstacle by the movement is known. (For example, Patent Document 1).

特開2001−91246号公報JP 2001-91246 A

特許文献1に開示されるような障害物の検出方法では、画像から抽出された動体を全て追跡してその動きを調べ、障害物であるか否かを判定している。しかし、実際には障害物でないものまで動体として抽出されるため、障害物でない動体についても追跡処理を行う必要があり、そのために処理負荷が大きいという問題がある。したがって、処理負荷を軽減して効率的に障害物などの対象物体を検出することができる障害物の検出方法が求められている。   In the obstacle detection method disclosed in Patent Document 1, all moving objects extracted from an image are tracked and their movements are examined to determine whether or not the obstacle is an obstacle. However, since objects that are not obstacles are actually extracted as moving objects, it is necessary to perform tracking processing for moving objects that are not obstacles, and there is a problem that the processing load is large. Therefore, there is a need for an obstacle detection method that can reduce a processing load and efficiently detect a target object such as an obstacle.

本発明による物体検出装置は、過去から現在までの時系列的なデータ群を記憶保持するデータ記憶保持手段と、データ記憶保持手段に記憶された現在のデータ群から、対象物体を検出するために有効な現在有効データを抽出する現在有効データ抽出手段と、データ記憶保持手段に記憶された過去のデータ群から、有効データ抽出手段により抽出された現在有効データに対応する過去有効データを抽出する過去有効データ抽出手段と、現在有効データと過去有効データに基づいて、対象物体を検出する物体検出手段とを備えるものである。   An object detection apparatus according to the present invention is a data storage / holding unit that stores and holds time-series data groups from the past to the present, and a current data group stored in the data storage / holding unit for detecting a target object. Past valid data extraction means for extracting valid current valid data, and past valid data corresponding to the current valid data extracted by the valid data extraction means from the past data group stored in the data storage holding means It comprises effective data extraction means, and object detection means for detecting a target object based on current valid data and past valid data.

本発明によれば、過去から現在までの時系列的なデータ群を記憶保持し、現在のデータ群から対象物体を検出するために有効な現在有効データを抽出して、その現在有効データに対応する過去有効データを過去のデータ群から抽出する。こうして抽出された現在有効データと過去有効データに基づいて、対象物体を検出することとした。このようにしたので、対象物体以外を表すデータは有効なデータとして抽出されないようにすることができ、抽出された有効なデータに基づいて対象物体の追跡処理を行うことにより、処理負荷を軽減して効率的に対象物体を検出することができる。   According to the present invention, a time-series data group from the past to the present is stored and held, current valid data effective for detecting the target object is extracted from the current data group, and the current valid data is supported. The past valid data to be extracted is extracted from the past data group. The target object is detected based on the current valid data and the past valid data thus extracted. As a result, data representing objects other than the target object can be prevented from being extracted as valid data, and the processing load is reduced by performing tracking processing of the target object based on the extracted valid data. The target object can be detected efficiently.

本発明の一実施形態による障害物検出装置の構成を図1に示す。この障害物検出装置は車両に搭載されて使用され、カメラの撮像画像に基づいて自車両の前方にある障害物を検出して、運転者に警報を発するものである。この障害物検出装置は、カメラ1、画像処理IC2、フレームメモリ3、マイコン4および警報機5を備えている。   FIG. 1 shows the configuration of an obstacle detection apparatus according to an embodiment of the present invention. This obstacle detection device is used by being mounted on a vehicle, detects an obstacle ahead of the host vehicle based on a captured image of a camera, and issues a warning to the driver. The obstacle detection apparatus includes a camera 1, an image processing IC 2, a frame memory 3, a microcomputer 4, and an alarm device 5.

カメラ1は自車両前方を撮像するように自車両の前部に設置されており、取得した撮像画像データを画像フレーム毎に所定のフレームレートで画像処理IC2へ出力する。カメラ1には、たとえばCCDカメラ等が用いられる。   The camera 1 is installed at the front of the host vehicle so as to capture the front of the host vehicle, and outputs the acquired captured image data to the image processing IC 2 at a predetermined frame rate for each image frame. As the camera 1, for example, a CCD camera or the like is used.

画像処理IC2は、カメラ1からの撮像画像データに基づいて、撮像画像中の縦方向のエッジ(縦エッジ)と横方向のエッジ(横エッジ)を抽出し、その縦エッジと横エッジの交点を求める。このエッジの抽出には、ソベルフィルタと呼ばれる周知の画像フィルタが用いられる。撮像画像からエッジ交点を抽出したら、次にそのエッジ交点の中から、マイコン4によって予め定められた所定の輝度値よりも大きい輝度値を有するエッジ交点(以下、このようなエッジ交点を特徴点という)を検出する。そして、検出した各特徴点の画像上の位置(画像位置)を特定すると共に、各特徴点の画像中の移動速度を示すオプティカルフローを算出する。   The image processing IC 2 extracts the vertical edge (vertical edge) and the horizontal edge (horizontal edge) in the captured image based on the captured image data from the camera 1, and determines the intersection of the vertical edge and the horizontal edge. Ask. For this edge extraction, a well-known image filter called a Sobel filter is used. After the edge intersection is extracted from the captured image, an edge intersection having a luminance value larger than a predetermined luminance value determined in advance by the microcomputer 4 from the edge intersection (hereinafter, such edge intersection is referred to as a feature point). ) Is detected. Then, the position of each detected feature point on the image (image position) is specified, and an optical flow indicating the moving speed of each feature point in the image is calculated.

上記の処理により、いずれかの特徴点の画像位置を各々が示す画像位置データを各特徴点について集めたもの(画像位置データ群)と、いずれかの特徴点のオプティカルフローの大きさを各々が示すオプティカルフローデータを各特徴点について集めたもの(オプティカルフローデータ群)が、フレームレートごとに画像処理IC2よりフレームメモリ3へ出力される。以下、画像処理IC2より出力されるこれらのデータ群をまとめて、特徴点データ群と称する。   With the above processing, the image position data indicating the image position of any feature point is collected for each feature point (image position data group), and the size of the optical flow of any feature point is The collected optical flow data for each feature point (optical flow data group) is output from the image processing IC 2 to the frame memory 3 for each frame rate. Hereinafter, these data groups output from the image processing IC 2 are collectively referred to as feature point data groups.

フレームメモリ3は、画像処理IC2より出力された特徴点データ群を画像フレーム毎に記憶保持する。このフレームメモリ3には、メモリ容量に応じて定められた所定の画像フレーム数分の特徴点データ群が記憶保持される。すなわちフレームメモリ3は、所定時間前に取得された撮像画像による特徴点データ群から、最新(現在)の撮像画像による特徴点データ群までを、画像フレーム単位で記憶している。なお以下の説明では、現在の撮像画像による特徴点データ群を現在の特徴点データ群と称し、それ以前の時点の撮像画像による特徴点データ群を過去の特徴点データ群と称する。   The frame memory 3 stores and holds the feature point data group output from the image processing IC 2 for each image frame. The frame memory 3 stores and holds feature point data groups for a predetermined number of image frames determined according to the memory capacity. That is, the frame memory 3 stores from the feature point data group based on the captured image acquired a predetermined time ago to the feature point data group based on the latest (current) captured image in units of image frames. In the following description, the feature point data group based on the current captured image is referred to as the current feature point data group, and the feature point data group based on the captured image at the previous time point is referred to as the past feature point data group.

マイコン4は、フレームメモリ3に記憶された特徴点データ群を読み出し、その特徴点データ群に基づいて以下に説明するような方法により障害物を検出する。マイコン4において障害物が検出されると、警報機5を動作させるための信号がマイコン4より出力され、警報機5において警報音が出力される。このようにして、自車両の運転者に障害物の存在を報知する。   The microcomputer 4 reads the feature point data group stored in the frame memory 3 and detects an obstacle based on the feature point data group by the method described below. When an obstacle is detected in the microcomputer 4, a signal for operating the alarm device 5 is output from the microcomputer 4, and an alarm sound is output in the alarm device 5. In this way, the presence of an obstacle is notified to the driver of the host vehicle.

マイコン4において障害物を検出するときの処理内容について説明する。マイコン4では、フレームメモリ3より読み出される現在の特徴点データ群に基づいて、各特徴点の中から検出対象とする障害物らしさの度合いを示す量(以下、特徴量という)が予め定められた所定値以上である特徴点を抽出する。こうして抽出される特徴点のことを検出対象候補点という。なお、特徴量には後で説明するように、たとえばオプティカルフローの大きさや、エッジの大きさの変化量などが用いられる。そして、フレームメモリ3に記憶されている現在の特徴点データ群から、この検出対象候補点の現在の画像位置とオプティカルフローの大きさを示すデータを抽出する。このようにして、障害物を検出するために有効な現在の有効データを抽出する。   Processing contents when the obstacle is detected in the microcomputer 4 will be described. In the microcomputer 4, based on the current feature point data group read from the frame memory 3, an amount (hereinafter referred to as a feature amount) indicating a degree of obstacle-likeness to be detected from each feature point is determined in advance. Feature points that are greater than or equal to a predetermined value are extracted. The feature points thus extracted are referred to as detection target candidate points. As will be described later, for example, the size of the optical flow or the amount of change in the edge size is used as the feature amount. Then, data indicating the current image position of the detection target candidate point and the size of the optical flow is extracted from the current feature point data group stored in the frame memory 3. In this way, current valid data effective for detecting an obstacle is extracted.

さらに、フレームメモリ3に記憶されている過去の特徴点データ群から、検出対象候補点の過去の画像位置とオプティカルフローの大きさを示すデータを抽出する。このようにして、障害物を検出するために有効な過去の有効データを抽出する。こうして抽出された現在および過去の有効データに基づいて、検出対象候補点を現在の撮像画像から過去の撮像画像に遡って追跡することにより、その検出対象候補点の過去から現在までの画像位置とオプティカルフローの履歴が求められる。   Further, data indicating the past image position of the detection target candidate point and the size of the optical flow is extracted from the past feature point data group stored in the frame memory 3. In this manner, past valid data effective for detecting an obstacle is extracted. Based on the current and past valid data extracted in this way, the detection target candidate point is traced back from the current captured image to the past captured image, so that the image position of the detection target candidate point from the past to the present Optical flow history is required.

検出対象候補点の追跡は、次のようにして行われる。初めに、現在よりも1つ前の画像フレームにおいて取得された過去の特徴点データ群により、各特徴点の1フレーム前の画像位置とオプティカルフローを得る。その中から、検出対象候補点の現在の画像位置とオプティカルフローに最も近いものを選ぶことにより、検出対象候補点の1フレーム前における画像位置とオプティカルフローを求める。次に、現在よりも2つ前の画像フレームにおいて取得された過去の特徴点データ群によって得られる各特徴点の2フレーム前の画像位置とオプティカルフローの中から、初めに求められた検出対象候補点の1フレーム前における画像位置とオプティカルフローに最も近いものを選ぶことにより、検出対象候補点の2フレーム前における画像位置とオプティカルフローを求める。   The detection target candidate points are tracked as follows. First, the image position and optical flow of each feature point one frame before are obtained from the past feature point data group acquired in the previous image frame. The image position and optical flow one frame before the detection target candidate point are obtained by selecting the closest detection target candidate point to the current image position and optical flow. Next, a detection target candidate first obtained from the image position and optical flow two frames before each feature point obtained from the past feature point data group acquired in the image frame two frames before the present. By selecting an image position closest to the image position and the optical flow one frame before the point, the image position and the optical flow two frames before the detection target candidate point are obtained.

上記のような処理を、過去の特徴点データ群に基づいて1画像フレームずつ所定のフレーム数について行うことで、現在により近い時点の特徴点データ群から順に過去に遡って、フレームメモリ3に記憶された過去の各時点の特徴点データ群から、検出対象候補点の画像位置とオプティカルフローがそれぞれ求められる。このようにして、検出対象候補点の過去から現在までの画像位置とオプティカルフローの履歴が求められる。   By performing the above-described processing for a predetermined number of frames for each image frame based on the past feature point data group, the feature point data group at a point closer to the present is traced back to the past and stored in the frame memory 3. The image position and the optical flow of the detection target candidate point are respectively obtained from the feature point data group at each past time point. In this manner, the image position and optical flow history of the detection target candidate points from the past to the present are obtained.

なお、上記の追跡処理において複数の画像フレームに対して処理を行った後は、その複数フレーム間における検出対象候補点の画像位置やオプティカルフローの変化を統計的に処理することで、過去の任意時点における画像位置やオプティカルフローの大きさを予測することができる。したがって、こうした予測値を用いて検出対象候補点の画像位置とオプティカルフローを求めるようにしてもよい。   In addition, after performing processing on a plurality of image frames in the tracking processing described above, it is possible to statistically process changes in the image position and the optical flow of the detection target candidate points between the plurality of frames, so that the past arbitrary It is possible to predict the image position and the size of the optical flow at the time. Therefore, the image position and the optical flow of the detection target candidate point may be obtained using such a predicted value.

さらに、上記のような予測値を用いた場合や、あるいはオプティカルフローが小さく画像フレーム間において検出対象候補点の画像位置の変化が少ない場合などには、追跡処理を行う画像フレームを間引くようにしてもよい。すなわち、検出対象候補点の画像位置とオプティカルフローの履歴を求めるときに、前述したように1画像フレームずつ求めるのではなく、複数の画像フレームずつ求めるようにしてもよい。このとき、フレームメモリ3に記憶された過去の各時点の特徴点データ群のうち、間引かれなかった過去の特徴点データ群を現在により近い時点の特徴点データ群から順に過去に遡って、検出対象候補点の画像位置とオプティカルフローがそれぞれ求められる。   Furthermore, when the predicted value as described above is used, or when the optical flow is small and the change in the image position of the detection target candidate point is small between image frames, the image frame to be tracked is thinned out. Also good. That is, when obtaining the image position of the detection target candidate point and the history of the optical flow, instead of obtaining one image frame as described above, a plurality of image frames may be obtained. At this time, among the feature point data groups stored in the frame memory 3 in the past, the past feature point data groups that have not been thinned out are traced back to the past in order from the feature point data group at the closest time point, The image position of the detection target candidate point and the optical flow are respectively obtained.

以上説明したように、現在の特徴点データ群に基づいて抽出された検出対象候補点の各々について、過去の特徴点データ群に基づいて追跡処理を行うことにより、各検出対象候補点の過去から現在までの画像位置とオプティカルフローの履歴が得られる。そして、各検出対象候補点の画像位置とオプティカルフローの履歴を用いて、各検出対象候補点を同一物体を表すもの同士でクラスタリングし、そのクラスタ内から障害物を表すものを検出する。このようにして、障害物の検出処理が行われる。   As described above, for each of the detection target candidate points extracted based on the current feature point data group, by performing tracking processing based on the past feature point data group, from the past of each detection target candidate point The image position and optical flow history up to now can be obtained. Then, using the image position of each detection target candidate point and the optical flow history, the detection target candidate points are clustered with those representing the same object, and those representing the obstacle are detected from the cluster. In this way, the obstacle detection process is performed.

以上説明したように、本装置では現在の特徴点データ群に基づいて検出対象候補点を抽出し、その検出対象候補点を現在の撮像画像から過去の撮像画像に遡って追跡する。このようにすると、通常のように検出対象候補点を抽出した後の撮像画像において追跡する場合に比べて、自車両からより近い位置で障害物を撮像して検出対象候補点を抽出することができる。その結果、検出対象候補点を抽出するときの特徴量のしきい値をより高く設定できる。この点について、図2を用いてオプティカルフローの大きさを特徴量としたときの例を、また図3を用いてエッジの大きさの変化量を特徴量としたときの例をそれぞれ説明する。以下、先に図2を用いて説明する。   As described above, the present apparatus extracts detection target candidate points based on the current feature point data group, and traces the detection target candidate points from the current captured image to the past captured image. In this way, it is possible to extract the detection target candidate point by capturing the obstacle at a position closer to the own vehicle than in the case of tracking in the captured image after extracting the detection target candidate point as usual. it can. As a result, it is possible to set a higher threshold for the feature amount when extracting the detection target candidate points. With respect to this point, an example in which the magnitude of the optical flow is used as a feature value will be described with reference to FIG. 2, and an example in which the change amount of the edge size is used as a feature value will be described with reference to FIG. Hereinafter, description will be given with reference to FIG.

図2は、オプティカルフローの大きさを特徴量に用いて検出対象候補点を抽出する場合のカメラ1の撮像面と障害物Aとの位置関係を示しており、(a)は時刻T1における位置関係、(b)は時刻T2における位置関係をそれぞれ示している。なお、(a)および(b)にはカメラ1と障害物Aを上空方向から見たときの位置関係を示している。(a)のように、撮像面から障害物Aまでの距離を縦位置L、カメラ1の視軸方向から障害物Aまでの距離を横位置W、カメラ1の焦点距離をfとそれぞれ表すと、時刻T1の撮像画像において障害物Aを表している特徴点の横方向の画像位置XA1は、幾何学的に以下の式(1)によって表される。
A1=W・f/(L−f) (1)
FIG. 2 shows the positional relationship between the imaging surface of the camera 1 and the obstacle A when extracting the detection target candidate points using the size of the optical flow as the feature amount, and (a) shows the position at time T1. The relationship (b) shows the positional relationship at time T2. Note that (a) and (b) show the positional relationship when the camera 1 and the obstacle A are viewed from above. (A) as in the vertical position the distance to the obstacle A from the image plane L A, the distance transverse position W A from the visual axis direction of the camera 1 to the obstacle A, the focal length of the camera 1 f respectively In terms of representation, the lateral image position X A1 of the feature point representing the obstacle A in the captured image at time T1 is geometrically represented by the following equation (1).
X A1 = W A · f / (L A -f) (1)

また、時刻T1から時刻T2までの間に自車両が走行した距離をdLとし、これを用いて(b)のように撮像面から障害物Aまでの距離を縦位置L−dLと表すと、時刻T2の撮像画像において障害物Aを表している特徴点の横方向の画像位置XA2は、以下の式(2)によって表される。
A2=W・f/(L−dL−f) (2)
Further, if the distance traveled by the host vehicle between time T1 and time T2 is dL, and using this distance, the distance from the imaging surface to the obstacle A is expressed as the vertical position L A -dL as shown in (b). The horizontal image position XA2 of the feature point representing the obstacle A in the captured image at time T2 is represented by the following equation (2).
X A2 = W A · f / (L A -dL-f) (2)

上記の式(1)および(2)により、時刻T1から時刻T2の間における特徴点の画像位置の移動量、すなわち時刻T2における特徴点のオプティカルフローVimgは、以下の式(3)によって表すことができる。
Vimg=XA2−XA1
=W・f・(dL/L
/[(1−dL/L−f/L)・(1−f/L)] (3)
From the above equations (1) and (2), the movement amount of the image position of the feature point between time T1 and time T2, that is, the optical flow Vimg of the feature point at time T2 is expressed by the following equation (3). Can do.
Vimg = X A2 -X A1
= W A · f · (dL / L A )
/ [(1-dL / L A -f / L A) · (1-f / L A)] (3)

焦点距離fは縦位置Lに比べ十分小さいことから、式(3)は以下の式(4)のように近似することができる。
Vimg≒W・f・(dL/L)/(1−dL/L) (4)
Since the focal length f is sufficiently small compared to the vertical position L A, Equation (3) can be approximated as the following equation (4).
Vimg≈W A · f · (dL / L A ) / (1-dL / L A ) (4)

時刻T2の撮像画像から検出対象候補点を抽出するためのオプティカルフローのしきい値には、障害物Aを表している特徴点が検出対象候補点として抽出されるような値が設定される。式(4)により、(dL/L)がより大きく、すなわち障害物Aと自車量の距離がより近づくにつれて特徴点のオプティカルフローVimgの値が増加し、(dL/L)がより小さく、すなわち障害物Aと自車量の距離がより遠ざかるにつれて特徴点のオプティカルフローVimgの値が減少することが分かる。したがって、自車両から障害物Aまでの距離が近いほどオプティカルフローのしきい値を高く設定できるため、検出対象候補点を抽出するときの特徴量のしきい値をより高く設定できることになる。その結果、背景など速度の遅い物を表す特徴点を誤って検出対象候補点として抽出しにくくなるため、抽出された各検出対象候補点を対象に行われる追跡処理の負荷を減らすことができる。 The threshold value of the optical flow for extracting the detection target candidate point from the captured image at time T2 is set such that the feature point representing the obstacle A is extracted as the detection target candidate point. According to Expression (4), (dL / L A ) is larger, that is, the value of the optical flow Vimg of the feature point increases as the distance between the obstacle A and the vehicle amount gets closer, and (dL / L A ) becomes more It can be seen that the value of the optical flow Vimg of the feature point decreases as the distance is smaller, that is, the distance between the obstacle A and the vehicle amount increases. Accordingly, since the optical flow threshold value can be set higher as the distance from the host vehicle to the obstacle A is shorter, the feature value threshold value when extracting the detection target candidate point can be set higher. As a result, it becomes difficult to erroneously extract feature points representing a slow object such as a background as detection target candidate points, so that it is possible to reduce the load of tracking processing performed on each extracted detection target candidate point.

次に図3を用いて説明する。図3は、エッジの大きさの変化量を特徴量として検出対象候補点を抽出する場合のカメラ1の撮像面と障害物Bとの位置関係を示しており、図2と同様に(a)は時刻T1における位置関係、(b)は時刻T2における位置関係をそれぞれ示している。(a)のように、撮像面から障害物Bまでの距離を縦位置L、カメラ1の視軸方向から障害物Bの両端点までの距離を横位置WB1およびWB2、カメラ1の焦点距離をfとそれぞれ表すと、時刻T1の撮像画像において障害物Bの両端点をそれぞれ表している2つの特徴点の横方向の画像位置XB1およびXB2は、以下の式(5)によって表される。
B1=WB1・f/(L−f)
B2=WB2・f/(L−f) (5)
Next, it demonstrates using FIG. FIG. 3 shows the positional relationship between the imaging surface of the camera 1 and the obstacle B in the case where the detection target candidate point is extracted using the amount of change in the edge size as a feature amount, as in FIG. Represents the positional relationship at time T1, and (b) represents the positional relationship at time T2. As in (a), the distance from the imaging surface to the obstacle B is the vertical position L B , the distance from the visual axis direction of the camera 1 to the both end points of the obstacle B is the horizontal positions W B1 and W B2 , When the focal length is represented by f, the horizontal image positions X B1 and X B2 of the two feature points respectively representing the two end points of the obstacle B in the captured image at time T1 are expressed by the following equation (5). expressed.
X B1 = W B1 · f / (L B −f)
X B2 = W B2 · f / (L B −f) (5)

式(5)により、時刻T1の撮像画像における特徴点間の幅Uは、以下の式(6)によって表される。
=XB2−XB1
=(WB2−WB1)・f/(L−f) (6)
The equation (5), the width U 1 between the feature points in the captured image at the time T1 is expressed by the following equation (6).
U 1 = X B2 −X B1
= (W B2 −W B1 ) · f / (L B −f) (6)

また、時刻T1から時刻T2までの間に自車両が走行した距離をdLとし、これを用いて(b)のように撮像面から障害物Bまでの距離を縦位置L−dLと表すと、時刻T2の撮像画像において障害物Bの両端点をそれぞれ表している2つの特徴点の横方向の画像位置XB3およびXB4は、以下の式(7)によって表される。
B3=WB1・f/(L−dL−f)
B4=WB2・f/(L−dL−f) (7)
Further, if the distance traveled by the host vehicle between time T1 and time T2 is dL, and using this, the distance from the imaging surface to the obstacle B is expressed as the vertical position L B -dL as shown in (b). The horizontal image positions X B3 and X B4 of the two feature points respectively representing the end points of the obstacle B in the captured image at time T2 are expressed by the following equation (7).
X B3 = W B1 · f / (L B −dL−f)
X B4 = W B2 · f / (L B -dL-f) (7)

式(7)により、時刻T2の撮像画像における特徴点間の幅Uは、以下の式(8)によって表される。
=XB3−XB4
=(WB2−WB1)・f/(L−dL−f) (8)
By equation (7), the width U 2 between the feature points in the captured image at time T2 is represented by the following equation (8).
U 2 = X B3 -X B4
= (W B2 −W B1 ) · f / (L B −dL−f) (8)

上記の式(6)および(8)により、時刻T1から時刻T2の間における特徴点間の幅の変化量dUは、以下の式(9)によって表すことができる。なお、この変化量dUは、撮像画像におけるエッジの大きさの変化量を表している。
dU=U−U
=(WB2−WB1)・f・(dL/L
/[(1−dL/L−f/L)・(1−f/L)] (9)
From the above equations (6) and (8), the change amount dU of the width between feature points between time T1 and time T2 can be expressed by the following equation (9). Note that the change amount dU represents the change amount of the edge size in the captured image.
dU = U 2 −U 1
= (W B2 -W B1 ) · f · (dL / L B )
/ [(1-dL / L B -f / L B) · (1-f / L B)] (9)

式(3)と同様に、焦点距離fは縦位置Lに比べ十分小さいことから、式(9)は以下の式(10)のように近似することができる。
dU≒(WB2−WB1)・f・(dL/L)/(1−dL/L) (10)
As for formula (3), since the focal length f sufficiently small compared to the vertical position L B, formula (9) can be approximated as the following equation (10).
dU ≒ (W B2 -W B1) · f · (dL / L B) / (1-dL / L B) (10)

時刻T2の撮像画像から検出対象候補点を抽出するためのエッジの大きさの変化量のしきい値には、障害物Bを表している2つの特徴点が検出対象候補点として抽出されるような値が設定される。式(4)と同様に式(10)により、障害物Bと自車量の距離がより近づくにつれて、エッジの大きさの変化量すなわち特徴点間の幅の変化量dUの値が増加し、障害物Bと自車量の距離がより遠ざかるにつれて、特徴点間の幅の変化量dUの値が減少することが分かる。したがって、エッジの大きさの変化量を特徴量としたときにも、オプティカルフローの大きさを特徴量としたときと同様に、検出対象候補点を抽出するときのしきい値をより高く設定できる。   Two feature points representing the obstacle B are extracted as detection target candidate points as the threshold value of the change amount of the edge size for extracting the detection target candidate points from the captured image at time T2. A correct value is set. As with the equation (4), according to the equation (10), as the distance between the obstacle B and the own vehicle amount gets closer, the value of the edge size change amount, that is, the width change amount dU between the feature points increases. It can be seen that as the distance between the obstacle B and the vehicle amount increases, the value of the change amount dU of the width between the feature points decreases. Therefore, even when the amount of change in the edge size is used as the feature amount, the threshold value for extracting the detection target candidate point can be set higher as in the case where the size of the optical flow is used as the feature amount. .

以上説明したようにして障害物を検出するときに実行される処理のフローチャートを図4に示す。このフローチャートは、フレームレートごとに撮像画像の各画像フレームに対して実行されるものである。ステップS100では、カメラ1による撮像画像データを画像処理IC2に入力する。ステップS101では、画像処理IC2において、ステップS100でカメラ1より入力した撮像画像データから縦エッジと横エッジを抽出し、エッジ交点を求める。   FIG. 4 shows a flowchart of processing executed when an obstacle is detected as described above. This flowchart is executed for each image frame of the captured image for each frame rate. In step S100, image data captured by the camera 1 is input to the image processing IC2. In step S101, the image processing IC 2 extracts vertical edges and horizontal edges from the captured image data input from the camera 1 in step S100, and obtains an edge intersection.

ステップS102では、画像処理IC2において、ステップS101で求められたエッジ交点の中から特徴点を検出する。このとき、前述したように予め定められた所定の輝度値よりも大きい輝度値を有するエッジ交点を特徴点として検出する。ステップS103では、ステップS102で検出された各特徴点のオプティカルフローを算出する。算出された各特徴点のオプティカルフローの大きさと画像位置(x,y座標値)は、前述の特徴点データ群として画像処理IC2からフレームメモリ3へ出力される。ステップS104では、フレームメモリ3において、画像処理IC2より出力された特徴点データ群を記憶保持する。この処理を画像フレーム毎に繰り返すことにより、フレームメモリ3において所定の画像フレーム数分の特徴点データ群が記憶保持される。   In step S102, the image processing IC 2 detects a feature point from the edge intersection obtained in step S101. At this time, as described above, an edge intersection having a luminance value larger than a predetermined luminance value determined in advance is detected as a feature point. In step S103, the optical flow of each feature point detected in step S102 is calculated. The calculated optical flow size and image position (x, y coordinate values) of each feature point are output from the image processing IC 2 to the frame memory 3 as the aforementioned feature point data group. In step S104, the feature point data group output from the image processing IC 2 is stored and held in the frame memory 3. By repeating this process for each image frame, a feature point data group for a predetermined number of image frames is stored and held in the frame memory 3.

ステップS105では、マイコン4においてフレームメモリ3から現在の特徴点データ群を読み出し、読み出した現在の特徴点データ群に基づいて、現在の撮像画像において特徴量が予め定められた所定値以上である特徴点、すなわち検出対象候補点が存在するか否かを判定する。フレームメモリ3に特徴点データ群が記憶された各特徴点の中に、その特徴量が所定値以上である検出対象候補点が存在する場合には、その検出対象候補点を特徴点の中から抽出してステップS106へ進む。一方、ステップS105において検出対象候補点がないと判定した場合は、図4の処理フローを終了する。この場合、検出対象候補点は抽出されず、障害物が検出されない。   In step S105, the microcomputer 4 reads the current feature point data group from the frame memory 3, and based on the read current feature point data group, the feature amount of the current captured image is equal to or greater than a predetermined value. It is determined whether there is a point, that is, a detection target candidate point. If there is a detection target candidate point whose feature value is equal to or greater than a predetermined value among the feature points whose feature point data group is stored in the frame memory 3, the detection target candidate point is selected from the feature points. Extract and proceed to step S106. On the other hand, when it determines with there being no detection target candidate point in step S105, the processing flow of FIG. 4 is complete | finished. In this case, detection target candidate points are not extracted, and no obstacle is detected.

ステップS106とS107では、前述したような追跡処理をステップS105において抽出された各検出対象候補点について行う。ステップS106では、フレームメモリ3から過去の特徴点データ群を1画像フレーム分読み出す。ステップS107では、ステップS106において読み出した過去の特徴点データ群に基づいて、ステップS105において抽出された各検出対象候補点を追跡し、過去の撮像画像における画像位置とオプティカルフローを求める。このような追跡処理を所定のフレーム数について繰り返し行うことにより、前述したように1画像フレームずつ、あるいは追跡処理を行う画像フレームを間引きした場合には複数の画像フレームずつ、現在の撮像画像から過去の撮像画像に遡って検出対象候補点を追跡する。その結果、検出対象候補点の過去から現在までの画像位置とオプティカルフローの履歴が求められる。   In steps S106 and S107, the tracking process as described above is performed for each detection target candidate point extracted in step S105. In step S106, a past feature point data group is read from the frame memory 3 for one image frame. In step S107, each detection target candidate point extracted in step S105 is tracked based on the past feature point data group read in step S106, and the image position and optical flow in the past captured image are obtained. By repeatedly performing such tracking processing for a predetermined number of frames, as described above, one image frame or a plurality of image frames when the image frame to be tracked is thinned out from the current captured image. The detection target candidate points are traced back to the captured image. As a result, the image position and optical flow history of the detection target candidate points from the past to the present are obtained.

ステップS108では、ステップS106およびS107による検出対象候補点の追跡処理を、予め定められた所定の繰り返し回数以上実行したか否かを判定する。検出対象候補点の追跡処理は、この繰り返し回数と同じフレーム数について行われる。追跡処理の実行回数が所定の繰り返し回数以上である場合はステップS109へ進み、繰り返し回数に満たない場合はステップS106へ戻って上記の追跡処理を繰り返す。   In step S108, it is determined whether or not the detection target candidate point tracking process in steps S106 and S107 has been executed a predetermined number of repetitions or more. The detection target candidate point tracking process is performed for the same number of frames as the number of repetitions. If the number of executions of the tracking process is equal to or greater than the predetermined number of repetitions, the process proceeds to step S109. If the number of repetitions is less than the number of repetitions, the process returns to step S106 and the above tracking process is repeated.

ステップS109では、ステップS106およびS107の追跡処理によって求められた各検出対象候補点のオプティカルフローの履歴を統計的に処理することにより、過去から現在までの間における各検出対象候補点の画像速度を算出する。ここでいう画像速度とは、オプティカルフローの履歴から障害物の移動以外の要因によって発生するオプティカルフロー成分を取り除いたものである。これには、たとえば自車両のピッチング挙動によって重畳されるピッチング変動成分などがある。このようなオプティカルフロー成分を取り除く統計的な処理の方法としては、たとえばピッチング変動成分を取り除くためのピッチング周波数成分の除去処理や、ノイズ成分を除去するための平滑化処理などがあるが、ここでは詳しい説明を省略する。   In step S109, the history of the optical flow of each detection target candidate point obtained by the tracking processing in steps S106 and S107 is statistically processed, whereby the image speed of each detection target candidate point between the past and the present is determined. calculate. The image speed here is obtained by removing an optical flow component generated by a factor other than the movement of an obstacle from the history of the optical flow. This includes, for example, a pitching fluctuation component superimposed by the pitching behavior of the host vehicle. Statistical processing methods for removing such optical flow components include, for example, pitching frequency component removal processing for removing pitching fluctuation components and smoothing processing for removing noise components. Detailed description is omitted.

ステップS110では、各検出対象候補点の画像位置と、ステップS109によって算出された各検出対象候補点の画像速度に基づいて、検出対象候補点のクラスタリングを行う。このとき、画像速度の差が所定値以下であり、かつ画像位置が所定の範囲内にある検出対象候補点同士が、同一物体を表す1つのクラスタとしてクラスタリングされる。こうして物体ごとに検出対象候補点がクラスタリングされることにより生じる各クラスタのことを、以下では検出対象候補クラスタと称する。   In step S110, clustering of the detection target candidate points is performed based on the image position of each detection target candidate point and the image speed of each detection target candidate point calculated in step S109. At this time, detection target candidate points whose image speed difference is equal to or smaller than a predetermined value and whose image position is within a predetermined range are clustered as one cluster representing the same object. Each cluster generated by clustering the detection target candidate points for each object is hereinafter referred to as a detection target candidate cluster.

ステップS111では、ステップS110でクラスタリングされた各検出対象候補クラスタについて、自車両から当該検出対象候補クラスタが表している物体までの実空間上の距離を算出する。この距離は、検出対象候補クラスタの画像位置に基づいてカメラ1の視軸方向に対する角度を求めることにより、既知であるカメラ1の地面に対する高さおよび視軸方向の角度を用いて、三角測量法によって算出することができる。なお、検出対象候補クラスタの画像位置は、同一物体を表すものとしてクラスタリングされた検出対象候補点同士の画像位置を平均することによって求められる。ステップS112では、各検出対象候補クラスタの画像サイズと、ステップS111で算出された実空間上の距離に基づいて、各検出対象候補クラスタが表している物体の実空間上の大きさを算出する。   In step S111, for each detection target candidate cluster clustered in step S110, a distance in real space from the own vehicle to the object represented by the detection target candidate cluster is calculated. This distance is obtained by obtaining an angle with respect to the visual axis direction of the camera 1 based on the image position of the detection target candidate cluster, and using the known height of the camera 1 with respect to the ground and the angle in the visual axis direction, a triangulation method. Can be calculated. Note that the image positions of the detection target candidate clusters are obtained by averaging the image positions of the detection target candidate points clustered as representing the same object. In step S112, the size in real space of the object represented by each detection target candidate cluster is calculated based on the image size of each detection target candidate cluster and the distance in real space calculated in step S111.

ステップS113では、各検出対象候補クラスタが表す物体が障害物であるか否かを判定する。ステップS112で算出された実空間上の大きさが予め定められた所定のサイズ範囲内にあり、かつ画像速度が予め定められた所定の速度範囲内にある場合、その検出対象候補クラスタが表す物体は障害物であると判定する。いずれかの検出対象候補クラスタがこの判定条件を満たす場合はステップS114へ進み、ステップS114において警報機5をオンして警報音を出力する。ステップS114を実行した後は、図4のフローチャートを終了する。一方、上記の判定条件を満たす検出対象候補クラスタがない場合は、ステップS114を実行せずに図4のフローチャートを終了する。以上説明したようにして、本装置における障害物の検出が行われる。   In step S113, it is determined whether or not the object represented by each detection target candidate cluster is an obstacle. The object represented by the detection target candidate cluster when the size in the real space calculated in step S112 is in a predetermined size range and the image speed is in a predetermined speed range. Is determined to be an obstacle. If any detection target candidate cluster satisfies this determination condition, the process proceeds to step S114, where the alarm device 5 is turned on and an alarm sound is output in step S114. After executing step S114, the flowchart of FIG. 4 is terminated. On the other hand, if there is no detection target candidate cluster that satisfies the above determination condition, step S114 is not executed and the flowchart of FIG. As described above, the obstacle is detected in the present apparatus.

以上説明した実施の形態によれば、次の作用効果が得られる。
(1)過去から現在までの時系列的なデータ群を記憶保持し、現在のデータ群から対象物体である障害物を検出するために有効な現在有効データを抽出して、その現在有効データに対応する過去有効データを過去のデータ群から抽出する。こうして抽出された現在有効データと過去有効データに基づいて、障害物を検出することとした。このようにしたので、障害物以外を表すデータは有効なデータとして抽出されないようにすることができ、抽出された有効なデータに基づいて障害物の追跡処理を行うことにより、処理負荷を軽減して効率的に障害物を検出することができる。
According to the embodiment described above, the following operational effects can be obtained.
(1) A time-series data group from the past to the present is stored and held, current valid data effective for detecting an obstacle as a target object is extracted from the current data group, and the current valid data is extracted. Corresponding past valid data is extracted from the past data group. An obstacle is detected based on the current valid data and the past valid data thus extracted. As a result, data representing objects other than the obstacle can be prevented from being extracted as valid data, and the processing load is reduced by performing the obstacle tracking process based on the extracted valid data. Obstacles can be detected efficiently.

具体的には、撮像画像から抽出された特徴点に関する特徴点データ群を所定の周期ごとに画像処理IC2からフレームメモリ3へ出力して、フレームメモリ3において過去から現在までの特徴点データ群を記憶保持する(ステップS104)。マイコン4において、最新の特徴点データ群において特徴量が予め定められた所定値以上である特徴点を検出対象候補点として抽出し(ステップS105)、その検出対象候補点の現在の画像位置とオプティカルフローを示すデータを現在の特徴点データ群から抽出する。その後、当該検出対象候補点の過去の画像位置とオプティカルフローを示すデータを過去の特徴点データ群から抽出することにより、検出対象候補点の追跡処理を行う(ステップS106、S107)。この追跡処理の結果として求められる検出対象候補点の過去から現在までの画像位置とオプティカルフローの履歴に基づいて、障害物を検出する(ステップS109〜S113)。   Specifically, a feature point data group related to feature points extracted from the captured image is output from the image processing IC 2 to the frame memory 3 at predetermined intervals, and the feature point data group from the past to the present is stored in the frame memory 3. Store and hold (step S104). In the microcomputer 4, a feature point having a feature amount equal to or larger than a predetermined value in the latest feature point data group is extracted as a detection target candidate point (step S105), and the current image position and optical of the detection target candidate point are extracted. Data indicating the flow is extracted from the current feature point data group. Thereafter, the detection target candidate point is tracked by extracting data indicating the past image position and optical flow of the detection target candidate point from the past feature point data group (steps S106 and S107). An obstacle is detected based on the past and present image positions of the detection target candidate points obtained as a result of the tracking process and the optical flow history (steps S109 to S113).

(2)過去の複数時点の特徴点データ群をフレームメモリ3に記憶保持しておき(ステップS104)、現在により近い時点の特徴点データ群から順に過去に遡って、過去の各時点の特徴点データ群から検出対象候補点の画像位置とオプティカルフローを示すデータをそれぞれ抽出することとした(ステップS106、S107)。このようにしたので、過去の各時点のデータから障害物を検出するために有効な過去の有効データを確実に抽出することができる。 (2) Feature point data groups at a plurality of past times are stored and held in the frame memory 3 (step S104), and feature points at each past time point are traced back in order from the feature point data group at a time point closer to the present time. Data indicating the image position of the detection target candidate point and the optical flow are extracted from the data group (steps S106 and S107). Since it did in this way, the past effective data effective in order to detect an obstacle from the data of each past time can be extracted reliably.

(3)ステップS106およびS107の処理において、フレームメモリ3に記憶されている過去の複数の時点の特徴点データを間引き、間引かれなかった過去の特徴点データ群を、現在により近い過去の時点の特徴点データ群から順に過去に遡ることとすることもできる。このようにすれば、追跡処理の対象を減らしてより一層処理負荷を軽減することができる。 (3) In the processes of steps S106 and S107, feature point data at a plurality of past points stored in the frame memory 3 are thinned out, and past feature point data groups that have not been thinned out are past points closer to the present time. The feature point data group can be traced back to the past in order. In this way, it is possible to further reduce the processing load by reducing the number of tracking processing targets.

(4)特徴点データ群として、画像処理IC2において抽出した各特徴点の画像位置データによる画像位置データ群や、各特徴点のオプティカルフローデータによるオプティカルフローデータ群を画像処理IC2からフレームメモリ3へ出力し、フレームメモリ3において記憶保持することとした。このようにしたので、追跡処理に必要なデータのみを特徴点データ群として記憶保持することができ、メモリ容量の節約が図れる。 (4) As the feature point data group, the image position data group based on the image position data of each feature point extracted by the image processing IC 2 and the optical flow data group based on the optical flow data of each feature point are transferred from the image processing IC 2 to the frame memory 3. The data is output and stored in the frame memory 3. Since it did in this way, only the data required for the tracking process can be stored and held as a feature point data group, and the memory capacity can be saved.

(5)各特徴点の画像位置に基づいて求められるエッジ交点の大きさの変化量や、各特徴点のオプティカルフローの大きさを特徴量として、これらが所定値以上である特徴点を検出対象候補点として抽出する。そして、抽出された検出対象候補点の画像位置やオプティカルフローの大きさを、現在の画像位置データ群とオプティカルフローデータ群によって構成される特徴点データ群から抽出することとした。このようにしたので、特徴点データ群から現在と過去の有効データを容易に抽出することができる。 (5) Using the amount of change in the size of the edge intersection obtained based on the image position of each feature point and the optical flow size of each feature point as a feature amount, feature points that are greater than or equal to a predetermined value are detected. Extract as candidate points. Then, the image position of the extracted detection target candidate point and the size of the optical flow are extracted from the feature point data group composed of the current image position data group and the optical flow data group. Since it did in this way, the present and past effective data can be easily extracted from the feature point data group.

なお、上記実施の形態では、カメラ1の撮像画像から特徴点を抽出し、各特徴点の画像位置とオプティカルフローを示す特徴点データ群を画像フレームごとに記憶保持することにより、過去から現在まで時系列的に取得されて記憶保持されたデータ群を用いて障害物を検出するときの例について説明した。しかし、本発明はこの内容には限定されず、時系列的に取得されて記憶保持された様々なデータ群を用いて対象物体を検出する場合にも適用することができる。たとえば、レーザレーダによって対象物体までの距離と方向のデータ群を時系列的に取得し、このデータ群を用いて対象物体を検出するときに、本発明の手法を適用してもよい。   In the above-described embodiment, feature points are extracted from the captured image of the camera 1, and a feature point data group indicating the image position and optical flow of each feature point is stored and held for each image frame. An example in which an obstacle is detected using a data group acquired and stored in time series has been described. However, the present invention is not limited to this content, and can be applied to the case where a target object is detected using various data groups acquired and stored in time series. For example, the method of the present invention may be applied when a data group of distances and directions to a target object is acquired in time series by a laser radar and the target object is detected using the data group.

また、上記実施の形態では、オプティカルフローの大きさやエッジの大きさの変化量などの特徴量が所定値以上である特徴点を検出対象候補点として抽出していたが、これを所定値以下や所定範囲内などとしてもよい。すなわち、特徴量が予め定められた所定の範囲に含まれている特徴点、言い換えると特徴量が予め定められた所定条件を満たしている特徴点を、検出対象候補点として抽出することができる。   Further, in the above-described embodiment, feature points whose feature amounts such as optical flow size and edge size change amount are greater than or equal to a predetermined value are extracted as detection target candidate points. It may be within a predetermined range. That is, feature points whose feature amounts are included in a predetermined range, that is, feature points whose feature amounts satisfy a predetermined condition can be extracted as detection target candidate points.

上記実施の形態では、カメラ1を用いて自車両の前方を撮像し、その撮像画像に基づいて自車両の前方に存在する障害物を検出する例について説明した。しかし、本発明はこの内容に限定されるものではなく、自車両周囲の他の方向、たとえば前方や側方などを撮像し、撮像画像に基づいてその方向に存在する障害物を検出する場合にも適用できる。   In the above-described embodiment, an example has been described in which the camera 1 is used to image the front of the host vehicle and an obstacle existing in front of the host vehicle is detected based on the captured image. However, the present invention is not limited to this content, and when other directions around the host vehicle, for example, the front or side are imaged, and an obstacle existing in that direction is detected based on the captured image. Is also applicable.

上記実施の形態では、車両に搭載されて車両周囲の障害物を検出する障害物検出装置を例に説明したが、本発明はこの内容に限定されるものではない。必ずしも車両に搭載される必要はなく、また様々な物体を検出対象とする物体検出装置について、本発明を適用することができる。   In the above embodiment, the obstacle detection device that is mounted on a vehicle and detects an obstacle around the vehicle has been described as an example. However, the present invention is not limited to this. The present invention is not necessarily installed in a vehicle, and the present invention can be applied to an object detection device that detects various objects.

上記の実施形態では、撮像手段をカメラ1、特徴点抽出手段を画像処理IC2、データ記憶保持手段をフレームメモリ3よってそれぞれ実現し、その他の各手段をマイコン4の処理によって実現しているが、これはあくまで一例であって、本発明の特徴が損なわれない限り、各構成要素は上記実施の形態に限定されない。   In the above embodiment, the imaging means is realized by the camera 1, the feature point extraction means is realized by the image processing IC 2, the data storage holding means is realized by the frame memory 3, and the other means are realized by the processing of the microcomputer 4. This is merely an example, and each component is not limited to the above embodiment as long as the characteristics of the present invention are not impaired.

本発明の一実施形態による障害物検出装置の構成を示す図である。It is a figure which shows the structure of the obstruction detection apparatus by one Embodiment of this invention. オプティカルフローの大きさを特徴量に用いて検出対象候補点を抽出する場合のカメラ撮像面と障害物との位置関係を示す図である。It is a figure which shows the positional relationship of a camera imaging surface and an obstruction in the case of extracting a detection target candidate point using the magnitude | size of an optical flow as a feature-value. エッジの大きさの変化量を特徴量に用いて検出対象候補点を抽出する場合のカメラ撮像面と障害物との位置関係を示す図である。It is a figure which shows the positional relationship of a camera imaging surface and an obstruction in the case of extracting a detection target candidate point using the variation | change_quantity of the magnitude | size of an edge as a feature-value. 障害物を検出するときに実行される処理のフローチャートである。It is a flowchart of the process performed when an obstruction is detected.

符号の説明Explanation of symbols

1:カメラ
2:画像処理IC
3:フレームメモリ
4:マイコン
5:警報機
1: Camera 2: Image processing IC
3: Frame memory 4: Microcomputer 5: Alarm

Claims (8)

過去から現在までの時系列的なデータ群を記憶保持するデータ記憶保持手段と、
前記データ記憶保持手段に記憶された現在のデータ群から、対象物体を検出するために有効な現在有効データを抽出する現在有効データ抽出手段と、
前記データ記憶保持手段に記憶された過去のデータ群から、前記有効データ抽出手段により抽出された現在有効データに対応する過去有効データを抽出する過去有効データ抽出手段と、
前記現在有効データと過去有効データに基づいて、前記対象物体を検出する物体検出手段とを備えることを特徴とする物体検出装置。
Data storage and holding means for storing and holding time-series data groups from the past to the present;
Current effective data extraction means for extracting current effective data effective for detecting a target object from the current data group stored in the data storage holding means;
Past valid data extraction means for extracting past valid data corresponding to current valid data extracted by the valid data extraction means from past data groups stored in the data storage holding means;
An object detection apparatus comprising: object detection means for detecting the target object based on the current valid data and past valid data.
請求項1の物体検出装置において、
前記データ記憶保持手段は、過去の複数時点のデータ群を記憶保持し、
前記過去有効データ抽出手段は、現在により近い時点のデータ群から順に過去に遡って、前記過去の複数時点のデータ群から前記過去有効データをそれぞれ抽出することを特徴とする物体検出装置。
The object detection device according to claim 1.
The data storage and holding means stores and holds a data group of a plurality of past points in time,
The past valid data extracting means extracts each of the past valid data from the data group at a plurality of past time points sequentially from the data group at a time point closer to the present time.
請求項2の物体検出装置において、
前記データ記憶保持手段に記憶されている過去の複数時点のデータ群を間引くデータ間引き手段をさらに備え、
前記過去有効データ抽出手段は、前記データ間引き手段により間引かれなかった過去のデータ群を、現在により近い時点のデータ群から順に過去に遡ることを特徴とする物体検出装置。
The object detection apparatus according to claim 2, wherein
A data thinning means for thinning out a plurality of past data points stored in the data storage holding means;
The past valid data extracting unit traces a past data group that has not been thinned out by the data thinning unit in order from a data group at a time point closer to the present.
請求項1〜3のいずれかの物体検出装置において、
自車両の周囲の撮像画像を取得する撮像手段と、
前記撮像手段により取得された撮像画像から所定の特徴を有する特徴点を複数抽出し、その各特徴点に関するデータ群(特徴点データ群)を所定の周期ごとに出力する特徴点抽出手段とをさらに備え、
前記データ記憶保持手段は、前記特徴点抽出手段により所定の周期ごとに出力される特徴点データ群を過去から現在まで時系列的に記憶保持し、
前記現在有効データ抽出手段は、前記データ記憶保持手段に記憶された現在の特徴点データ群から、前記現在有効データとして、前記対象物体らしさの度合いを表す特徴量が予め定められた所定条件を満たす特徴点(検出対象候補点)に関するデータを抽出し、
前記過去有効データ抽出手段は、前記データ記憶保持手段に記憶された過去の特徴点データ群から、前記過去有効データとして、前記検出対象候補点に関するデータを抽出することを特徴とする物体検出装置。
In the object detection apparatus in any one of Claims 1-3,
Imaging means for acquiring a captured image around the host vehicle;
A feature point extracting unit that extracts a plurality of feature points having a predetermined feature from the captured image acquired by the imaging unit and outputs a data group (feature point data group) related to each feature point at a predetermined period; Prepared,
The data storage / holding means stores and holds the feature point data group output by the feature point extracting means at predetermined intervals in a time series from the past to the present,
The current valid data extracting unit satisfies a predetermined condition in which a feature amount representing the degree of the target object is determined as the current valid data from the current feature point data group stored in the data storage holding unit. Extract data about feature points (candidate points for detection)
The past valid data extracting unit extracts data relating to the detection target candidate point as the past valid data from the past feature point data group stored in the data storage holding unit.
請求項4の物体検出装置において、
前記特徴点抽出手段は、前記撮像画像からエッジ交点を前記特徴点として複数抽出し、その各エッジ交点の画像上の位置を示すデータ群(画像位置データ群)を前記特徴点データ群として所定の周期ごとに出力し、
前記データ記憶保持手段は、前記画像位置データ群を過去から現在まで時系列的に記憶保持することを特徴とする物体検出装置。
The object detection apparatus according to claim 4.
The feature point extracting means extracts a plurality of edge intersections as the feature points from the captured image, and a data group (image position data group) indicating the positions of the edge intersections on the image as a predetermined feature point data group. Output every cycle,
The object storage device stores and holds the image position data group in time series from the past to the present.
請求項5の物体検出装置において、
前記現在有効データ抽出手段は、前記画像位置データ群に基づいて求められる前記エッジの大きさの変化量が予め定められた所定の範囲に含まれる特徴点を前記検出対象候補点として、その検出対象候補点の画像位置を現在の画像位置データ群から抽出することを特徴とする物体検出装置。
The object detection apparatus according to claim 5.
The present effective data extraction means uses, as the detection target candidate points, feature points that are included in a predetermined range in which a change amount of the edge size obtained based on the image position data group is the detection target An object detection apparatus that extracts an image position of a candidate point from a current image position data group.
請求項4の物体検出装置において、
前記特徴点抽出手段は、前記各特徴点の前記撮像画像中の移動速度を表すオプティカルフローの大きさを示すデータ群(オプティカルフローデータ群)を前記特徴点データ群として所定の周期ごとに出力し、
前記データ記憶保持手段は、前記オプティカルフローデータ群を過去から現在まで時系列的に記憶保持することを特徴とする物体検出装置。
The object detection apparatus according to claim 4.
The feature point extraction means outputs a data group (optical flow data group) indicating the magnitude of the optical flow representing the moving speed of the feature points in the captured image as the feature point data group at predetermined intervals. ,
The data storage and holding means stores and holds the optical flow data group in a time series from the past to the present.
請求項7の物体検出装置において、
前記現在有効データ抽出手段は、前記オプティカルフローの大きさが予め定められた所定の範囲に含まれる特徴点を前記検出対象候補点として、その検出対象候補点のオプティカルフローの大きさを現在のオプティカルフローデータ群から抽出することを特徴とする物体検出装置。
The object detection device according to claim 7.
The present effective data extraction means uses a feature point included in a predetermined range in which the size of the optical flow is determined in advance as the detection target candidate point, and determines the optical flow size of the detection target candidate point as the current optical data An object detection apparatus characterized by extracting from a flow data group.
JP2004261107A 2004-09-08 2004-09-08 Object detection device Expired - Fee Related JP4151631B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004261107A JP4151631B2 (en) 2004-09-08 2004-09-08 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004261107A JP4151631B2 (en) 2004-09-08 2004-09-08 Object detection device

Publications (2)

Publication Number Publication Date
JP2006078261A true JP2006078261A (en) 2006-03-23
JP4151631B2 JP4151631B2 (en) 2008-09-17

Family

ID=36157854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004261107A Expired - Fee Related JP4151631B2 (en) 2004-09-08 2004-09-08 Object detection device

Country Status (1)

Country Link
JP (1) JP4151631B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008171140A (en) * 2007-01-10 2008-07-24 Omron Corp Image processing apparatus, method and program
JP2010521757A (en) * 2007-03-20 2010-06-24 インターナショナル・ビジネス・マシーンズ・コーポレーション Method, apparatus and program for classifying moving objects into common colors in video (Classification of moving objects into common colors in video)
JP2013020616A (en) * 2011-07-07 2013-01-31 Ricoh Co Ltd Object tracking method and object tracking device
JP2014109875A (en) * 2012-11-30 2014-06-12 Fujitsu Ltd Intersection detecting method and intersection detecting system
US9767367B2 (en) 2013-08-21 2017-09-19 Denso Corporation Object estimation apparatus and object estimation method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012128096A1 (en) 2011-03-24 2012-09-27 古河電気工業株式会社 Radar device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008171140A (en) * 2007-01-10 2008-07-24 Omron Corp Image processing apparatus, method and program
JP2010521757A (en) * 2007-03-20 2010-06-24 インターナショナル・ビジネス・マシーンズ・コーポレーション Method, apparatus and program for classifying moving objects into common colors in video (Classification of moving objects into common colors in video)
US8223835B2 (en) 2007-03-20 2012-07-17 International Business Machines Corporation Categorizing moving objects into familiar colors in video
JP2013020616A (en) * 2011-07-07 2013-01-31 Ricoh Co Ltd Object tracking method and object tracking device
JP2014109875A (en) * 2012-11-30 2014-06-12 Fujitsu Ltd Intersection detecting method and intersection detecting system
US9767367B2 (en) 2013-08-21 2017-09-19 Denso Corporation Object estimation apparatus and object estimation method

Also Published As

Publication number Publication date
JP4151631B2 (en) 2008-09-17

Similar Documents

Publication Publication Date Title
JP6670071B2 (en) Vehicle image recognition system and corresponding method
KR101609303B1 (en) Method to calibrate camera and apparatus therefor
JP6328327B2 (en) Image processing apparatus and image processing method
KR101961571B1 (en) Object recognition device using plurality of object detection means
JP4884096B2 (en) Object identification system
JP5754470B2 (en) Road surface shape estimation device
JP2000357233A (en) Body recognition device
WO2017138245A1 (en) Image processing device, object recognition device, device control system, and image processing method and program
JP2007249309A (en) Obstacle tracking system and method
WO2019021876A1 (en) In-vehicle camera calibration device and method
WO2014002692A1 (en) Stereo camera
KR101427032B1 (en) Apparatus and method for recognizing pedestrian in vehicle, and apparatus and method for warning and preventing collision with pedestrian in vehicle using thereof
JP2012123642A (en) Image identifying device and program
JP2018096709A (en) Distance measurement device and distance measurement method
JP2021033510A (en) Driving assistance device
EP3690802A1 (en) Vehicle exterior recognition device
JP6069938B2 (en) Pop-up detection device
JP2009083632A (en) Moving object detecting device
JP2019164521A (en) Tracking device
JP5107154B2 (en) Motion estimation device
JP4151631B2 (en) Object detection device
JP2005156199A (en) Vehicle detection method and vehicle detector
CN113838125A (en) Target position determining method and device, electronic equipment and storage medium
JP2003308599A (en) Traveling route environment detector
JP5464073B2 (en) Outside environment recognition device, outside environment recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080325

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080610

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080623

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4151631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110711

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120711

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120711

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130711

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees