JP2001338281A - Moving object detector - Google Patents

Moving object detector

Info

Publication number
JP2001338281A
JP2001338281A JP2000159640A JP2000159640A JP2001338281A JP 2001338281 A JP2001338281 A JP 2001338281A JP 2000159640 A JP2000159640 A JP 2000159640A JP 2000159640 A JP2000159640 A JP 2000159640A JP 2001338281 A JP2001338281 A JP 2001338281A
Authority
JP
Japan
Prior art keywords
image
object image
edge
moving
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000159640A
Other languages
Japanese (ja)
Other versions
JP3859429B2 (en
Inventor
Shinji Nagaoka
伸治 長岡
Takayuki Tsuji
孝之 辻
Hiroshi Hattori
弘 服部
Masato Watanabe
正人 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2000159640A priority Critical patent/JP3859429B2/en
Publication of JP2001338281A publication Critical patent/JP2001338281A/en
Application granted granted Critical
Publication of JP3859429B2 publication Critical patent/JP3859429B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a moving object detector capable of preventing the relative moving direction of an subject from being detected erroneously, when the subject provided by a camera touches the terminal part of an image. SOLUTION: When the subject contained in a reference image provided by a camera 1R touches the terminal part of the reference image, a representative deciding point at the position of that subject is moved from a center of gravity G in the area of the subject to a point GE at the terminal part of a circumscribing rectangle close to the center of the image and on the basis of the moved deciding point, the moving direction of the subject is detected.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、互いに離間して配
置された2つカメラにより得られる対象物の画像情報に
基づいて、対象物の移動方向を検出する移動対象物検出
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving object detecting apparatus for detecting a moving direction of an object based on image information of the object obtained by two cameras arranged apart from each other.

【0002】[0002]

【従来の技術】車両に2つのCCDカメラを搭載し、2
つのカメラから得られる画像のずれ、すなわち視差に基
づいて、対象物と当該車両との距離を検出し、車両の3
0〜60m前方の歩行者を検出するようにした横断物の
検出装置が従来より知られている(特開平9−2264
90号公報)。
2. Description of the Related Art A vehicle is equipped with two CCD cameras and has two CCD cameras.
The distance between the target object and the vehicle is detected based on the displacement of images obtained from the two cameras, that is, based on the parallax.
2. Description of the Related Art A crossing object detecting device for detecting a pedestrian in front of 0 to 60 m has been conventionally known (Japanese Patent Laid-Open No. 9-2264).
No. 90).

【0003】[0003]

【発明が解決しようとする課題】しかしながら上記従来
の装置は、カメラにより得られる画像に基づいて検出し
た対象物のオプティカルフローの方向をそのまま使用し
て、衝突の可能性を判定しているため、自車両と対象物
との相対距離や車速によっては判定精度が低下するとい
う問題があった。すなわち、例えば対象物の移動速度に
比べて車速が大きい場合には、実際には道路の中心に向
かって移動している対象物に対応する画像上のオプティ
カルフローが道路の外側に向かうベクトルとなってとら
えられることがあり、誤判定が発生する。
However, in the above-mentioned conventional apparatus, the possibility of collision is determined by directly using the optical flow direction of the object detected based on the image obtained by the camera. There is a problem that the determination accuracy is reduced depending on the relative distance between the host vehicle and the target or the vehicle speed. That is, for example, when the vehicle speed is higher than the moving speed of the object, the optical flow on the image corresponding to the object that is actually moving toward the center of the road is a vector that goes to the outside of the road. Erroneous judgment occurs.

【0004】そこで、対象物の移動ベクトルを正確に検
出するために、カメラにより得られる画像に含まれる対
象物像の面積重心を、対象物像の位置を代表する判定点
として使用し、判定点の実空間上の位置を示す時系列デ
ータを、2つのカメラにより得られる画像に基づいて求
めるようにすると、対象物像がカメラにより得られる画
像の端部に接する場合には、以下のような問題が発生す
る。なお、面積重心とは、3次元空間において対象物像
が均一な厚さを持つ薄板であると仮定した場合の重心を
意味する。
Therefore, in order to accurately detect the movement vector of the object, the area centroid of the object image included in the image obtained by the camera is used as a determination point representing the position of the object image, and the determination point is determined. Is obtained based on the images obtained by the two cameras. When the object image contacts the end of the image obtained by the cameras, the following is performed. Problems arise. The area center of gravity means the center of gravity on the assumption that the target object image is a thin plate having a uniform thickness in a three-dimensional space.

【0005】すなわち図23(a)に示すように、対象
物101が静止しているか若しくは走行中の車両102
に向かって移動している場合に、車両102に搭載され
たカメラ103により得られる、時刻t=k−2,k−
1,kにおける時系列の対象物像101a,101b,
101cは、同図(b)にハッチングを付して示すよう
に推移し、面積重心Gは、画像上を左方向へ移動する。
この画像(右側のカメラ103により得られる画像)に
含まれる対象物像の判定点、すなわち面積重心の位置
と、左側のカメラ104により得られる画像に含まれる
対象物像(図示せず)の判定点の位置とから視差を算出
し、その視差から対象物101と車両102との距離を
求め、対象物101の相対移動ベクトルを求めると、対
象物101が実際は図24に実線で示すように静止また
は車両102の進行方向と平行に移動しているにもかか
わらず、破線で示すような相対移動ベクトルが得られ
る。その結果、車両102と衝突する可能性がないの
に、可能性ありと誤判定する可能性があった。
That is, as shown in FIG. 23 (a), an object 101 is stationary or a moving vehicle 102
At the time t = k−2, k− obtained by the camera 103 mounted on the vehicle 102 when moving toward
1, k, the time-series object images 101a, 101b,
101c changes as shown by hatching in FIG. 11B, and the area centroid G moves leftward on the image.
The determination points of the object image included in this image (the image obtained by the right camera 103), that is, the position of the area centroid, and the determination of the object image (not shown) included in the image obtained by the left camera 104 When the parallax is calculated from the position of the point and the distance between the object 101 and the vehicle 102 is obtained from the parallax and the relative movement vector of the object 101 is obtained, the object 101 is actually stationary as shown by a solid line in FIG. Alternatively, a relative movement vector as indicated by a broken line is obtained even though the vehicle is moving in parallel with the traveling direction of the vehicle 102. As a result, there is a possibility that there is no possibility of colliding with the vehicle 102 but erroneous determination is made.

【0006】本発明はこの点に着目してなされたもので
あり、カメラにより得られる対象物像が画像の端部に接
しているような場合において、対象物の相対的な移動方
向を誤って検出することを防止できる移動対象物検出装
置を提供することを目的とする。
The present invention has been made in view of this point, and when the object image obtained by the camera is in contact with the edge of the image, the relative movement direction of the object is erroneously determined. It is an object of the present invention to provide a moving object detection device that can prevent detection.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
請求項1に記載の発明は、互いに離間して配置された2
つのカメラにより得られる対象物の画像情報に基づい
て、前記対象物の移動方向を検出する移動対象物検出装
置において、前記2つのカメラのうち、少なくとも何れ
か一方のカメラにより得られる対象物像が、画像の端部
に接することを判定する画像端部判定手段と、該画像端
部判定手段により、画像の端部に接すると判定された対
象物像については、該対象物像の位置を代表する判定点
を、前記対象物像の面積重心から、前記画像の中心に近
い所定点に移動させる判定点移動手段と、該移動後の判
定点に基づいて前記対象物の移動方向を検出する移動方
向検出手段とを備えることを特徴とする。
In order to achieve the above-mentioned object, the invention according to the first aspect is provided by the present invention, in which two
In a moving object detection device that detects a moving direction of the object based on image information of the object obtained by the two cameras, an object image obtained by at least one of the two cameras is an image of the object. The image edge determining means for determining that the image is in contact with the edge of the image, and the target image determined to be in contact with the edge of the image by the image edge determining means is representative of the position of the object image. Determination point moving means for moving the determination point to be moved from the area center of gravity of the object image to a predetermined point close to the center of the image, and movement for detecting the moving direction of the object based on the determination point after the movement. And a direction detecting means.

【0008】この構成によれば、画像の端部に接すると
判定された対象物像については、その対象物像の位置を
代表する判定点が、対象物像の面積重心から、画像の中
心に近い所定点に移動され、該移動後の判定点に基づい
て対象物の移動方向が検出されるので、対象物像の面積
重心の時系列データから移動方向を検出する場合のよう
な不具合がなく、正確な移動方向を検出することができ
る。
According to this configuration, for an object image determined to be in contact with the edge of the image, a determination point representing the position of the object image is located at the center of the image from the area center of gravity of the object image. Since the moving direction of the object is detected based on the determined point after the movement to the predetermined point close to the moving point, there is no such a problem that the moving direction is detected from the time series data of the area center of gravity of the object image. , An accurate moving direction can be detected.

【0009】「前記画像の中心に近い所定点」は、前記
画像の中心に近い、前記対象物像及び対応対象物像の端
部、または前記画像の中心に近い、前記対象物像及び対
応対象物像の外接四角形の端部とする。前記判定点移動
手段は、前記2つのカメラにより得られる画像のうちの
一方を基準画像とし、基準画像中の対象物像について前
記判定点の移動を行う。また前記判定点移動手段は、前
記判定点を移動させた対象物については、過去に取得
し、記憶している位置データを、移動後の判定点を用い
た位置データに変更することが望ましい。
[0009] The "predetermined point near the center of the image" may be an end of the object image and the corresponding object image near the center of the image, or the object image and the corresponding object near the center of the image. It is the end of the circumscribed rectangle of the object image. The determination point moving means moves one of the images obtained by the two cameras as a reference image and moves the determination point with respect to an object image in the reference image. In addition, it is preferable that the determination point moving means changes the position data acquired and stored in the past to the position data using the determined determination point after the movement of the object to which the determination point has been moved.

【0010】請求項2に記載の発明は、互いに離間して
配置された2つのカメラにより得られる対象物の画像情
報に基づいて、前記対象物の移動方向を検出する移動対
象物検出装置において、前記2つのカメラのうち、少な
くとも何れか一方のカメラにより得られる対象物像が、
画像の端部に接することを判定する画像端部判定手段を
備え、該画像端部判定手段により画像の端部に接すると
判定された対象物像に対応する対象物については移動方
向の検出を行わないことを特徴とする。
According to a second aspect of the present invention, there is provided a moving object detecting apparatus for detecting a moving direction of an object based on image information of the object obtained by two cameras arranged apart from each other. An object image obtained by at least one of the two cameras,
An image edge determining unit that determines that the edge of the image is in contact with the edge of the image is provided. It is characterized by not being performed.

【0011】この構成によれば、画像の端部に接すると
判定された対象物像に対応する対象物については移動方
向の検出が行われないので、そのような対象物の移動方
向を誤って認識することを防止することができる。ま
た、互いに離間して配置された2つのカメラにより得ら
れる対象物の画像情報に基づいて、前記対象物までの距
離を検出する距離検出装置を構成する場合には、前記2
つのカメラのうち、何れか一方のカメラにより得られる
画像に含まれる対象物像(OBJR2)に基づいて、他
方のカメラにより得られる画像に対して相関演算を実行
し、その結果得られた第1の対応対象物像(COBJL
2)が、画像の端部に接するときは、その第1の対応対
象物像(COBJL2)に基づいて前記一方のカメラに
より得られる画像に対して相関演算を実行し、その結果
得られた第2の対応対象物像(COBJR2)と、前記
第1の対応対象物像(COBJL2)とに基づいて視差
を算出し、該算出した視差からその対象物までの距離を
算出することが望ましい。
According to this configuration, since the moving direction is not detected for the object corresponding to the object image determined to be in contact with the end of the image, the moving direction of such an object is erroneously determined. Recognition can be prevented. Further, in the case where a distance detecting device configured to detect a distance to the target based on image information of the target obtained by two cameras disposed apart from each other is configured as described above,
Based on an object image (OBJR2) included in an image obtained by one of the two cameras, a correlation operation is performed on an image obtained by the other camera, and a first obtained result is obtained. Corresponding object image (COBJL
When 2) touches the end of the image, a correlation operation is performed on the image obtained by the one camera based on the first corresponding object image (COBJL2), and the resulting second image is obtained. It is desirable to calculate a parallax based on the second corresponding target object image (COBJR2) and the first corresponding target object image (COBJL2), and calculate a distance to the target object from the calculated parallax.

【0012】[0012]

【発明の実施の形態】以下本発明の実施の形態を図面を
参照して説明する。 (第1の実施形態)図1は本発明の第1の実施形態にか
かる、車両に搭載された移動対象物検出装置の構成を示
す図であり、この装置は、遠赤外線を検出可能な2つの
赤外線カメラ1R,1Lと、当該車両のヨーレートを検
出するヨーレートセンサ5と、当該車両の走行速度(車
速)VCARを検出する車速センサ6と、ブレーキの操
作量を検出するためのブレーキセンサ7と、これらのカ
メラ1R,1Lによって得られる画像データの基づいて
車両前方の動物等の対象物を検出し、衝突の可能性が高
い場合に警報を発する画像処理ユニット2と、音声で警
報を発するためのスピーカ3と、カメラ1Rまたは1L
によって得られる画像を表示するとともに、衝突の可能
性が高い対象物を運転者に認識させるためのヘッドアッ
プディスプレイ(以下「HUD」という)4とを備えて
いる。
Embodiments of the present invention will be described below with reference to the drawings. (First Embodiment) FIG. 1 is a view showing a configuration of a moving object detecting device mounted on a vehicle according to a first embodiment of the present invention. This device has a structure capable of detecting far infrared rays. Two infrared cameras 1R and 1L, a yaw rate sensor 5 for detecting a yaw rate of the vehicle, a vehicle speed sensor 6 for detecting a traveling speed (vehicle speed) VCAR of the vehicle, and a brake sensor 7 for detecting an operation amount of a brake. An image processing unit 2 that detects an object such as an animal in front of the vehicle based on the image data obtained by the cameras 1R and 1L and issues an alarm when there is a high possibility of a collision, and issues an audio alert. Speaker 3 and camera 1R or 1L
And a head-up display (hereinafter, referred to as “HUD”) 4 for displaying an image obtained by the above-mentioned method and allowing the driver to recognize an object having a high possibility of collision.

【0013】カメラ1R、1Lは、図2に示すように車
両10の前部に、車両10の横方向の中心軸に対してほ
ぼ対象な位置に配置されており、2つのカメラ1R、1
Lの光軸が互いに平行となり、両者の路面からの高さが
等しくなるように固定されている。赤外線カメラ1R、
1Lは、対象物の温度が高いほど、その出力信号レベル
が高くなる(輝度が増加する)特性を有している。
As shown in FIG. 2, the cameras 1R and 1L are arranged in front of the vehicle 10 at positions substantially symmetrical with respect to the central axis of the vehicle 10 in the lateral direction.
The optical axes of L are fixed so that they are parallel to each other and their heights from the road surface are equal. Infrared camera 1R,
1L has the characteristic that the higher the temperature of the object, the higher the output signal level (the higher the luminance).

【0014】画像処理ユニット2は、入力アナログ信号
をディジタル信号に変換するA/D変換回路、ディジタ
ル化した画像信号を記憶する画像メモリ、各種演算処理
を行うCPU(Central Processing Unit)、CPUが
演算途中のデータを記憶するために使用するRAM(Ra
ndom Access Memory)、CPUが実行するプログラムや
テーブル、マップなどを記憶するROM(Read Only Me
mory)、スピーカ3の駆動信号、HUD4の表示信号な
どを出力する出力回路などを備えており、カメラ1R,
1L及びセンサ5〜7の出力信号は、ディジタル信号に
変換されて、CPUに入力されるように構成されてい
る。HUD4は、図2に示すように、車両10のフロン
トウインドウの、運転者の前方位置に画面4aが表示さ
れるように設けられている。
The image processing unit 2 includes an A / D conversion circuit for converting an input analog signal into a digital signal, an image memory for storing a digitized image signal, a CPU (Central Processing Unit) for performing various types of arithmetic processing, and a CPU for performing arithmetic operations. RAM used to store intermediate data (Ra
ROM (Read Only Memory) for storing programs, tables, maps, etc., executed by the CPU.
mory), an output circuit for outputting a drive signal for the speaker 3, a display signal for the HUD 4, and the like.
1L and the output signals of the sensors 5 to 7 are converted into digital signals and input to the CPU. As shown in FIG. 2, the HUD 4 is provided such that a screen 4a is displayed at a position in front of the driver in a front window of the vehicle 10.

【0015】図3は画像処理ユニット2における処理の
手順を示すフローチャートであり、先ずカメラ1R、1
Lの出力信号をA/D変換して画像メモリに格納する
(ステップS11,S12,S13)。画像メモリに格
納される画像のデータは、輝度情報を含んだグレースケ
ール画像のデータである。図5(a)(b)は、それぞ
れはカメラ1R,1Lによって得られるグレースケール
画像(カメラ1Rにより右画像が得られ、カメラ1Lに
より左画像が得られる)を説明するための図であり、ハ
ッチングを付した領域は、中間階調(グレー)の領域で
あり、太い実線で囲んだ領域が、輝度レベルが高く(高
温で)、画面上に白色として表示される対象物の領域
(以下「高輝度領域」という)である。右画像と左画像
では、同一の対象物の画面上の水平位置がずれて表示さ
れるので、このずれ(視差)によりその対象物までの距
離を算出することができる。
FIG. 3 is a flowchart showing the processing procedure in the image processing unit 2. First, the camera 1R, 1
The output signal of L is A / D converted and stored in the image memory (steps S11, S12, S13). The image data stored in the image memory is grayscale image data including luminance information. FIGS. 5A and 5B are diagrams for explaining grayscale images (a right image is obtained by the camera 1R and a left image is obtained by the camera 1L) obtained by the cameras 1R and 1L, respectively. The hatched area is an intermediate gray level (gray) area, and an area surrounded by a thick solid line has a high luminance level (at a high temperature) and an area of an object displayed as white on a screen (hereinafter, “ High brightness area "). In the right image and the left image, the horizontal position of the same object on the screen is shifted, so that the distance to the object can be calculated from the shift (parallax).

【0016】図3のステップS14では、右画像を基準
画像とし、そのディジタル画像データの2値化、すなわ
ち、実験的に決定される輝度閾値ITHより明るい領域
を「1」(白)とし、暗い領域を「0」(黒)とする処
理を行う。図6に図5(a)の画像を2値化した画像を
示す。この図は、ハッチングを付した領域が黒であり、
太い実線で囲まれた高輝度領域が白であることを示して
いる。なお、本明細書では、基準画像(右画像)と対を
なす画像(左画像)を、「探索画像」という。
In step S14 of FIG. 3, the right image is used as a reference image, and the digital image data is binarized, that is, an area brighter than an experimentally determined luminance threshold value ITH is set to "1" (white) and darkened. A process for setting the area to “0” (black) is performed. FIG. 6 shows an image obtained by binarizing the image shown in FIG. In this figure, the hatched area is black,
The high brightness area surrounded by the thick solid line indicates that it is white. In this specification, an image (left image) paired with the reference image (right image) is referred to as a “search image”.

【0017】続くステップS15では、2値化した画像
データをランレングスデータに変換する処理を行う。図
7(a)はこれを説明するための図であり、この図では
2値化により白となった領域を画素レベルでラインL1
〜L8として示している。ラインL1〜L8は、いずれ
もy方向には1画素の幅を有しており、実際にはy方向
には隙間なく並んでいるが、説明のために離間して示し
ている。またラインL1〜L8は、x方向にはそれぞれ
2画素、2画素、3画素、8画素、7画素、8画素、8
画素、8画素の長さを有している。ランレングスデータ
は、ラインL1〜L8を各ラインの開始点(各ラインの
左端の点)の座標と、開始点から終了点(各ラインの右
端の点)までの長さ(画素数)とで示したものである。
例えばラインL3は、(x3,y5)、(x4,y5)
及び(x5,y5)の3画素からなるので、ランレング
スデータとしては、(x3,y5,3)となる。
In the following step S15, a process for converting the binarized image data into run-length data is performed. FIG. 7A is a diagram for explaining this. In FIG. 7A, an area whitened due to binarization is represented by a line L1 at a pixel level.
LL8. Each of the lines L1 to L8 has a width of one pixel in the y direction and is actually arranged without a gap in the y direction, but is shown apart for the sake of explanation. Lines L1 to L8 are respectively 2 pixels, 2 pixels, 3 pixels, 8 pixels, 7 pixels, 8 pixels, 8 pixels in the x direction.
Pixels have a length of 8 pixels. The run-length data indicates the lines L1 to L8 by using the coordinates of the start point of each line (the left end point of each line) and the length (the number of pixels) from the start point to the end point (the right end point of each line). It is shown.
For example, the line L3 is (x3, y5), (x4, y5)
And (x5, y5), the run-length data is (x3, y5, 3).

【0018】ステップS16、S17では、図7(b)
に示すように対象物のラベリングをすることにより、対
象物を抽出する処理を行う。すなわち、ランレングスデ
ータ化したラインL1〜L8のうち、y方向に重なる部
分のあるラインL1〜L3を1つの対象物1とみなし、
ラインL4〜L8を1つの対象物2とみなし、ランレン
グスデータに対象物ラベル1,2を付加する。この処理
により、例えば図6に示す高輝度領域が、それぞれ対象
物1から4として把握されることになる。
In steps S16 and S17, FIG.
A process of extracting the target object is performed by labeling the target object as shown in FIG. That is, among the lines L1 to L8 converted into run-length data, the lines L1 to L3 having a portion overlapping in the y direction are regarded as one object 1,
The lines L4 to L8 are regarded as one object 2, and object labels 1 and 2 are added to the run-length data. By this processing, for example, the high luminance areas shown in FIG.

【0019】ステップS18では図7(c)に示すよう
に、抽出した対象物像の面積重心G、面積S及び破線で
示す外接四角形の縦横比ASPECTを算出する。面積
Sは、ランレングスデータの長さを同一対象物について
積算することにより算出し、縦横比APECTは、図7
(c)に示すDyとDxとの比Dy/Dxとして算出
し、面積重心Gの座標(xg,yg)は、下記式(1)
により算出する。
In step S18, as shown in FIG. 7 (c), the area gravity center G and area S of the extracted object image and the aspect ratio ASPECT of the circumscribed rectangle shown by the broken line are calculated. The area S is calculated by integrating the length of the run-length data for the same object, and the aspect ratio APECT is calculated as shown in FIG.
The ratio (Dy / Dx) of Dy and Dx shown in (c) is calculated, and the coordinates (xg, yg) of the area centroid G are calculated by the following equation (1).
It is calculated by:

【数1】 ここで、Sは面積、x(i),y(i)は、対象物像を
構成する画素の座標である。なお、面積重心Gの位置
は、外接四角形の重心位置で代用してもよい。
(Equation 1) Here, S is the area, and x (i) and y (i) are the coordinates of the pixels forming the object image. The position of the area center of gravity G may be replaced by the position of the center of gravity of a circumscribed rectangle.

【0020】ステップS19では、対象物の時刻間追
跡、すなわちサンプリング周期毎に同一対象物の認識を
行う。アナログ量としての時刻tをサンプリング周期で
離散化した時刻をkとし、図8(a)に示すように時刻
kで対象物像1,2を抽出した場合において、時刻(k
+1)で抽出した対象物像3,4と、対象物像1,2と
の同一性判定を行う。具体的には、以下の同一性判定条
件1)〜3)を満たすときに、対象物像1、2と対象物
像3、4とは同一であると判定し、対象物像3、4をそ
れぞれ1,2というラベルに変更することにより、時刻
間追跡が行われる。
In step S19, the object is tracked over time, that is, the same object is recognized at each sampling period. The time at which the time t as the analog amount is discretized at the sampling period is k, and when the object images 1 and 2 are extracted at the time k as shown in FIG.
The identity judgment is performed between the object images 3 and 4 extracted in +1) and the object images 1 and 2. Specifically, when the following identity determination conditions 1) to 3) are satisfied, the object images 1 and 2 are determined to be the same as the object images 3 and 4, and the object images 3 and 4 are determined. By changing the labels to 1, 2 respectively, time tracking is performed.

【0021】1)時刻kにおける対象物像i(=1,
2)の面積重心位置座標を、それぞれ(xi(k),y
i(k))とし、時刻(k+1)における対象物像j
(=3,4)の面積重心位置座標を、(xj(k+
1),yj(k+1))としたとき、 |xj(k+1)−xi(k)|<Δx |yj(k+1)−yi(k)|<Δy であること。ただし、Δx、Δyは、それぞれx方向及
びy方向の画像上の移動量の許容値である。
1) Object image i (= 1, 1) at time k
The coordinates of the area centroid position in 2) are expressed as (xi (k), y
i (k)), and an object image j at time (k + 1)
The coordinates of the area centroid position of (= 3, 4) are expressed as (xj (k +
1), yj (k + 1)), | xj (k + 1) −xi (k) | <Δx | yj (k + 1) −yi (k) | <Δy. Here, Δx and Δy are allowable values of the moving amount on the image in the x direction and the y direction, respectively.

【0022】2)時刻kにおける対象物像i(=1,
2)の面積をSi(k)とし、時刻(k+1)における
対象物像j(=3,4)の面積をSj(k+1)とした
とき、 Sj(k+1)/Si(k)<1±ΔS であること。ただし、ΔSは面積変化の許容値である。
2) Object image i (= 1, 1) at time k
When the area of 2) is Si (k) and the area of the object image j (= 3, 4) at time (k + 1) is Sj (k + 1), Sj (k + 1) / Si (k) <1 ± ΔS That. Here, ΔS is an allowable value of the area change.

【0023】3)時刻kにおける対象物像i(=1,
2)の外接四角形の縦横比をASPECTi(k)と
し、時刻(k+1)における対象物像j(=3,4)の
外接四角形の縦横比をASPECTj(k+1)とした
とき、 ASPECTj(k+1)/ASPECTi(k)<1
±ΔASPECT であること。ただし、ΔASPECTは縦横比変化の許
容値である。
3) Object image i (= 1, 1) at time k
If the aspect ratio of the circumscribed rectangle in 2) is ASPECTi (k) and the aspect ratio of the circumscribed rectangle of the object image j (= 3, 4) at time (k + 1) is ASPECTj (k + 1), ASPECTj (k + 1) / ASPECTi (k) <1
± ΔASPECT. However, ΔASPECT is an allowable value of the change in the aspect ratio.

【0024】図8(a)と(b)とを対比すると、各対
象物像はその大きさが大きくなっているが、対象物像1
と3とが上記同一性判定条件を満たし、対象物像2と4
とが上記同一性判定条件を満たすので、対象物像3、4
はそれぞれ対象物像1、2に対応すると認識される。こ
のようにして認識された各対象物像の面積重心の位置座
標は、時系列位置データとしてメモリに格納され、後の
演算処理に使用される。なお以上説明したステップS1
4〜S19の処理は、2値化した基準画像(本実施形態
では、右画像)ついて実行する。
8 (a) and 8 (b), each object image has a larger size, but the object image 1 is larger.
And 3 satisfy the above-mentioned identity determination condition, and the object images 2 and 4
Satisfies the above-mentioned conditions for determining identity,
Are recognized as corresponding to the object images 1 and 2, respectively. The position coordinates of the area barycenter of each object image recognized in this way are stored in the memory as time-series position data, and are used in subsequent arithmetic processing. Step S1 described above
The processing of 4 to S19 is executed for the binarized reference image (the right image in the present embodiment).

【0025】図3のステップS20では、車速センサ6
により検出される車速VCAR及びヨーレートセンサ5
より検出されるヨーレートYRを読み込み、ヨーレート
YRを時間積分することより、自車両10の回頭角θr
(図18参照)を算出する。
In step S20 of FIG. 3, the vehicle speed sensor 6
Speed VCAR and yaw rate sensor 5 detected by
By reading the detected yaw rate YR and integrating the yaw rate YR with time, the turning angle θr of the host vehicle 10 is obtained.
(See FIG. 18).

【0026】一方、ステップS31では、ステップS1
9,S20の処理と平行して、対象物と自車両10と距
離zを算出する処理(図4)を実行する。この演算はス
テップS19,S20より長い時間を要するため、ステ
ップS19,S20より長い周期(例えばステップS1
1〜S20の実行周期の3倍程度の周期)で実行され
る。
On the other hand, in step S31, step S1
In parallel with the processing of S9 and S20, processing of calculating the distance z between the target object and the host vehicle 10 (FIG. 4) is executed. Since this calculation requires a longer time than steps S19 and S20, a period longer than steps S19 and S20 (for example, step S1
1 to about 20 times the execution cycle of S20).

【0027】図4のステップS41では、1)基準画像
(右画像)の2値化画像によって追跡される対象物像の
中の1つを選択することにより、図9(a)に示すよう
に右画像から対象物像OBJR1(ここでは、外接四角
形で囲まれる領域全体を対象物像とする)を抽出し、
2)探索画像(左画像)中から対象物像OBJR1に対
応する画像(以下「対応対象物像」という)を探索する
探索領域を設定し、相関演算を実行する。
In step S41 of FIG. 4, 1) one of the object images tracked by the binarized image of the reference image (right image) is selected, as shown in FIG. From the right image, an object image OBJR1 (here, the entire area surrounded by a circumscribed rectangle is extracted as an object image)
2) A search area for searching for an image corresponding to the target object image OBJR1 (hereinafter referred to as “corresponding target image”) is set from the search image (left image), and a correlation operation is performed.

【0028】具体的には、対象物像OBJR1の各頂点
座標に応じて探索画像中に図9(b)に示すように、探
索領域SL1を設定し、探索領域SL1内で対象物像O
BJR1との相関度の高さを示す相関度パラメータC
(a,b)を下記式(2)により算出する。相関度パラ
メータCはその値が小さくなるほど、相関が高いことを
示す。なお、この相関演算は、2値画像ではなくグレー
スケール画像を用いて行う。また同一対象物についての
過去の位置データがあるときは、その位置データに基づ
いて探索領域SL1より狭い領域SL1a(図9(b)
に破線で示す)を探索領域として設定する。
More specifically, as shown in FIG. 9B, a search area SL1 is set in the search image according to each vertex coordinate of the object image OBJR1, and the object image O is set in the search area SL1.
Correlation parameter C indicating the degree of correlation with BJR1
(A, b) is calculated by the following equation (2). The correlation parameter C indicates that the smaller the value is, the higher the correlation is. Note that this correlation operation is performed using a grayscale image instead of a binary image. When there is past position data on the same object, an area SL1a narrower than the search area SL1 based on the position data (FIG. 9B)
Is indicated by a broken line) as a search area.

【数2】 ここで、IR(m,n)は、図10に示す対象物像OB
JR1内の座標(m,n)の位置の輝度値であり、IL
(a+m−M,b+n−N)は、探索領域内の座標
(a,b)を基点とした、対象物像OBJR1と同一形
状の局所領域LR内の座標(m,n)の位置の輝度値で
ある。基点の座標(a,b)を変化させて相関度パラメ
ータC(a,b)が最小となる位置及びそのときの相関
度パラメータの値(以下「最小値」という)CMINを
求める。
(Equation 2) Here, IR (m, n) is the object image OB shown in FIG.
The luminance value at the position of the coordinates (m, n) in JR1, IL
(A + m−M, b + n−N) is the luminance value at the position of the coordinates (m, n) in the local region LR having the same shape as the target object image OBJR1, based on the coordinates (a, b) in the search region. It is. By changing the coordinates (a, b) of the base point, the position at which the correlation parameter C (a, b) is minimized and the value of the correlation parameter at that time (hereinafter referred to as “minimum value”) CMIN are obtained.

【0029】続くステップS42では、相関度が高いか
否か、すなわちステップS41で算出した最小値CMI
Nが、所定閾値CMINTH以下であるか否かをを判別
する。CMIN>CMINTHであって、相関度が低い
ときは、探索画像中に対応対象物像が存在しないと判定
する。この場合、視差は算出できないので、距離が定ま
らない(不定)として(ステップS49)、本処理を終
了する。
In a succeeding step S42, it is determined whether or not the degree of correlation is high, that is, the minimum value CMI calculated in the step S41.
It is determined whether or not N is equal to or less than a predetermined threshold value CMINTH. When CMIN> CMINTH and the degree of correlation is low, it is determined that the corresponding target image does not exist in the search image. In this case, since the parallax cannot be calculated, the distance is not determined (undefined) (step S49), and the process ends.

【0030】一方CMIN≦CMINTHであって、相
関度が高いときは、ステップS43に進む。ステップS
43〜S45では、基準画像中の対象物像及び/または
探索画像中の対応対象物像が、それぞれの画像の端部に
接している(かかっている)か否か応じてケースC0〜
C4に場合分けし、距離の算出を行う。
On the other hand, if CMIN ≦ CMINTH and the degree of correlation is high, the process proceeds to step S43. Step S
In steps 43 to S45, cases C0 to C45 are determined depending on whether the target object image in the reference image and / or the corresponding target image in the search image is in contact with (hangs over) the end of each image.
The distance is calculated by dividing the case into C4.

【0031】図11は、基準画像中の対象物像OBJ1
〜OBJ3が、基準画像の端部(以下「画像端」とい
う)WRに接しており、対象物像OBJ4が画像端WR
に接していない状態を示している。各対象物像は、前述
したようにランレングスデータで把握されているので、
同図中に黒丸で示す始点の座標が画像端WRに存在する
対象物像は、画像端WRに接していると判定される。同
様に、始点座標に長さ(ランレングス)を加算して得ら
れる終点座標が画像端WRに存在する対象物像は、画像
端WRに接していると判定される。
FIG. 11 shows an object image OBJ1 in the reference image.
To OBJ3 are in contact with the end of the reference image (hereinafter referred to as “image end”) WR, and the target object image OBJ4 is
Indicates a state where it is not in contact with. As each object image is grasped by run-length data as described above,
It is determined that the target object image in which the coordinates of the starting point indicated by the black circles are present at the image edge WR is in contact with the image edge WR. Similarly, an object image whose end point coordinates obtained by adding the length (run length) to the start point coordinates are present at the image end WR is determined to be in contact with the image end WR.

【0032】図12には、基準画像中の対象物像及び探
索画像中の対応対象物像がいずれも画像端に接してない
場合(ケースC0)と、基準画像中の対象物像が画像端
に接していないが、探索画像中の対応対象物像が画像端
に接している場合(ケースC2)とが示されている。同
図に示すケースC0では、基準画像中の対象物像OBJ
R1と、相関演算により抽出される対応対象物像COB
JL1は、いずれも画像端に接していないので、両者の
面積重心Gを用いて視差を算出し、その対象物までの距
離zを算出することができる。なお、相関演算は、実際
には背景部分を少し含むように対象物像OBJR1より
若干広い領域ついて行われるので、対応対象物像COB
JL1は、対象物像OBJR1と同一形状の真の対応対
象物像OBJL1より少し広い領域として抽出される。
FIG. 12 shows the case where neither the object image in the reference image nor the corresponding object image in the search image touches the image edge (case C0), and the object image in the reference image is , But the corresponding object image in the search image is in contact with the end of the image (case C2). In case C0 shown in the figure, the object image OBJ in the reference image
R1 and the corresponding object image COB extracted by the correlation operation
Since neither JL1 is in contact with the end of the image, the parallax can be calculated using the area centroid G of both, and the distance z to the object can be calculated. Note that the correlation operation is actually performed on an area slightly larger than the object image OBJR1 so as to include a little background portion.
JL1 is extracted as an area slightly wider than the true corresponding object image OBJL1 having the same shape as the object image OBJR1.

【0033】一方ケースC2では、対象物像OBJR2
は、画像端に接していないが、対象物像OBJR2と同
一形状の真の対応対象物像が、実線及び破線によりOB
JL2として示すように位置している場合(破線部は、
実際には画像として得られない部分を示している)に
は、相関演算により抽出される対応対象物像COBJL
2は、探索画像の画像端に接した状態で抽出される。な
お、図12に示す領域SL1,SL2は、探索領域であ
る。
On the other hand, in case C2, the object image OBJR2
Indicates that a true corresponding object image having the same shape as the object image OBJR2, which is not in contact with the image edge, is indicated by a solid line and a broken line.
When it is located as shown as JL2 (the broken line part is
The part which is not actually obtained as an image) is shown in the corresponding object image COBJL extracted by the correlation operation.
2 is extracted in a state where it is in contact with the image end of the search image. Note that regions SL1 and SL2 shown in FIG. 12 are search regions.

【0034】図13(a)は、基準画像中の対象物像O
BJR1が画像端に接しており、かつ探索画像中の真の
対応対象物像OBJL1が画像端に接していない場合
(ケースC1)を示し、同図(b)は、前述したケース
C2、すなわち基準画像中の対象物像OBJR2が画像
端に接していないが、探索画像中の真の対応対象物像O
BJL2が画像端に接している場合を示し、同図(c)
は、基準画像中の対象物像OBJR3が画像端に接して
おり、かつ探索画像中の真の対応対象物像OBJL3も
画像端に接しており、かつ基準画像中の対象物像OBJ
R3の方が真の対応対象物像OBJL3より小さい場合
(ケースC3)を示し、同図(d)は、基準画像中の対
象物像OBJR4が画像端に接しており、かつ探索画像
中の対応対象物像COBJL4も画像端に接しており、
かつ基準画像中の対象物像OBJR4の方が真の対応対
象物像OBJL4より大きい場合(ケースC4)を示
す。図13において、領域SL1〜SL4及びSR1,
SR2は、探索領域である。
FIG. 13A shows an object image O in the reference image.
The case where BJR1 is in contact with the image end and the true corresponding object image OBJL1 in the search image is not in contact with the image end (case C1) is shown. FIG. Although the object image OBJR2 in the image does not touch the end of the image, the true corresponding object image O in the search image
FIG. 13C shows a case where BJL2 is in contact with the edge of the image.
Is that the object image OBJR3 in the reference image is in contact with the image edge, the true corresponding object image OBJL3 in the search image is also in contact with the image edge, and the object image OBJR in the reference image is
A case where R3 is smaller than the true corresponding target object image OBJL3 (case C3) is shown, and FIG. 4D shows that the target object image OBJR4 in the reference image is in contact with the image edge and the corresponding one in the search image. The object image COBJL4 is also in contact with the image edge,
The case where the object image OBJR4 in the reference image is larger than the true corresponding object image OBJL4 (case C4) is shown. In FIG. 13, regions SL1 to SL4 and SR1,
SR2 is a search area.

【0035】ケースC1では、探索画像に含まれる真の
対応対象物像OBJL1が、画像端に接していないた
め、正しいマッチングが行われて、対応対象物像COB
JL1が抽出される。したがって、対象物像OBJR1
及び対応対象物像COBJL1の面積重心を用いて視差
を算出し、この対象物までの距離する。
In case C1, since the true corresponding object image OBJL1 included in the search image is not in contact with the end of the image, correct matching is performed and the corresponding object image COB
JL1 is extracted. Therefore, the object image OBJR1
Then, the parallax is calculated using the area centroid of the corresponding object image COBJL1, and the distance to the object is calculated.

【0036】ケースC2では、基準画像から探索画像へ
の相関演算により抽出される対応対象物像COBJL2
と、対象物像OBJR2とは、正しいマッチング関係に
ない。そこでこの場合には、探索画像から基準画像への
相関演算、すなわち対応対象物像COBJL2に対応す
る対象物像を基準画像中から探索する相関演算を実行す
る。その結果得られた基準画像中の対応対象物像COB
JR2と、探索画像中の対応対象物像COBJL2と
は、正しいマッチング関係にあるので、これらの像の面
積重心を用いて視差を算出し、この対象物までの距離を
算出する。
In case C2, the corresponding object image COBJL2 extracted by the correlation operation from the reference image to the search image
And the object image OBJR2 do not have a correct matching relationship. Therefore, in this case, a correlation calculation from the search image to the reference image, that is, a correlation calculation for searching the reference image for the target image corresponding to the corresponding target image COBJL2 is executed. Corresponding target object image COB in the resulting reference image
Since JR2 and the corresponding target object image COBJL2 in the search image have a correct matching relationship, the parallax is calculated using the area centroid of these images, and the distance to the target object is calculated.

【0037】ケースC3では、ケースC1と同様に正し
いマッチングが行われるので、対象物像OBJR3及び
対応対象物像COBJL3の面積重心を用いて視差を算
出し、この対象物までの距離を算出する。ケースC4で
は、ケースC2と同様に、基準画像から探索画像への相
関演算により抽出される対応対象物像COBJL4と、
対象物像OBJR4とは、正しいマッチング関係にな
い。そこでこの場合も、探索画像から基準画像への相関
演算、すなわち対応対象物像COBJL4に対応する対
象物像を基準画像中から探索する相関演算を実行する。
その結果得られた基準画像中の対応対象物像COBJR
4と、探索画像中の対応対象物像COBJL4とは、正
しいマッチング関係にあるので、これらの像の面積重心
を用いて視差を算出し、この対象物までの距離を算出す
る。
In case C3, since correct matching is performed as in case C1, parallax is calculated using the area centroids of the object image OBJR3 and the corresponding object image COBJL3, and the distance to this object is calculated. In case C4, as in case C2, a corresponding target object image COBJL4 extracted by a correlation operation from the reference image to the search image,
The target object image OBJR4 does not have a correct matching relationship. Therefore, also in this case, the correlation calculation from the search image to the reference image, that is, the correlation calculation for searching the reference image for the target image corresponding to the corresponding target image COBJL4 is executed.
Corresponding target object image COBJR in the resulting reference image
4 and the corresponding target object image COBJL4 in the search image have a correct matching relationship. Therefore, the parallax is calculated using the area centroid of these images, and the distance to the target object is calculated.

【0038】図4に戻り、ステップS43では、基準画
像中の対象物像が画像端に接しておらずかつ探索画像中
の対応対象物像が画像端に接していないか否か、すなわ
ちケースC0に該当するか否かを判別し、相関演算の結
果がケースC0に該当するときは、直ちにステップS4
8に進んで、視差から距離を算出し、本処理を終了す
る。
Returning to FIG. 4, in step S43, it is determined whether or not the object image in the reference image is in contact with the image edge and whether the corresponding object image in the search image is in contact with the image edge, that is, case C0. Is determined, and if the result of the correlation operation corresponds to case C0, step S4 is immediately performed.
Proceeding to 8, the distance is calculated from the parallax, and this processing ends.

【0039】相関演算の結果がケースC0に該当しない
ときは、基準画像中の対象物像が画像端に接しておりか
つ探索画像中の対応対象物像が画像端に接しているか否
か、すなわちケースC4に該当するか否かを判別し、相
関演算の結果がケースC4に該当するときは、上述した
ように探索画像から基準画像への相関演算を実行する
(ステップS46)。次いで相関度が高いか否か、すな
わち相関度パラメータの最小値CMINが所定閾値CM
INTH以下か否かを判別し(ステップS47)、CM
IN>CMINTHであるときは、前記ステップS49
に進む。またCMIN≦CMINTHであって相関度が
高いときは、前記ステップS48に進んで距離の算出を
行う。
When the result of the correlation operation does not correspond to case C0, it is determined whether the object image in the reference image is in contact with the image edge and the corresponding object image in the search image is in contact with the image edge. It is determined whether or not the case corresponds to Case C4. If the result of the correlation operation corresponds to Case C4, the correlation operation from the search image to the reference image is executed as described above (Step S46). Next, whether the degree of correlation is high, that is, the minimum value CMIN of the degree of correlation parameter is equal to the predetermined threshold CM
It is determined whether or not the value is less than or equal to INTH (step S47).
If IN> CMINTH, the process proceeds to step S49.
Proceed to. If CMIN ≦ CMINTH and the degree of correlation is high, the process proceeds to step S48 to calculate the distance.

【0040】ステップS44で相関演算の結果がケース
C4に該当しないとき、すなわちケースC1〜C3に該
当するときは、対応対象物像が画像端に接しているか、
すなわちケースC2に該当するか否かを判別し(ステッ
プS45)、ケースC2に該当するときは、前記ステッ
プS46に進む。また、ケースC1またはC3に該当す
るときは、ステップS45から直ちにステップS48に
進む。
If the result of the correlation operation does not correspond to case C4 in step S44, that is, if it corresponds to cases C1 to C3, whether the corresponding object image is in contact with the edge of the image,
That is, it is determined whether or not the case C2 applies (step S45). If the case C2 applies, the process proceeds to the step S46. If the case corresponds to the case C1 or C3, the process immediately proceeds from the step S45 to the step S48.

【0041】ステップS48における視差から距離を算
出する処理は、以下のように行う。図14に示すように
対象物像OJBR1の面積重心位置と、画像左端との距
離dR(画素数)及び対応対象物像COBJL1の面積
重心位置と画像左端との距離dL(画素数)を求め、下
記式(3)に適用して、自車両10と、対象物との距離
zを算出する。
The process of calculating the distance from the parallax in step S48 is performed as follows. As shown in FIG. 14, the area dG (number of pixels) between the area centroid position of the object image OJBR1 and the left end of the image and the distance dL (number of pixels) between the area centroid position of the corresponding object image COBJL1 and the image left end are obtained. The distance z between the host vehicle 10 and the target object is calculated by applying the following equation (3).

【数3】 ここで、Bは基線長、すなわち図15に示すようにカメ
ラ1Rの撮像素子11Rの中心位置と、カメラ1Lの撮
像素子11Lの中心位置との水平方向(x方向)の距離
(両カメラの光軸の間隔)、Fはレンズ12R、12L
の焦点距離、pは、撮像素子11R、11L内の画素間
隔であり、Δd(=dL−dR)が視差である。以上の
ようにして距離zの算出が行われる。
(Equation 3) Here, B is the base line length, that is, the distance in the horizontal direction (x direction) between the center position of the image sensor 11R of the camera 1R and the center position of the image sensor 11L of the camera 1L as shown in FIG. F is the lens 12R, 12L
Is the pixel interval in the imaging elements 11R and 11L, and Δd (= dL−dR) is the parallax. The calculation of the distance z is performed as described above.

【0042】図3に戻り、ステップS21では、画像内
の座標(x,y)及び式(3)により算出した距離zを
下記式(4)に適用し、実空間座標(X,Y,Z)に変
換する。ここで、実空間座標(X,Y,Z)は、図16
(a)に示すように、カメラ1R、1Lの取り付け位置
の中点の位置(自車両10に固定された位置)を原点O
として、図示のように定め、画像内の座標は同図(b)
に示すように、画像の中心を原点として水平方向をx、
垂直方向をyと定めている。
Returning to FIG. 3, in step S21, the coordinates (x, y) in the image and the distance z calculated by the equation (3) are applied to the following equation (4), and the real space coordinates (X, Y, Z) are obtained. ). Here, the real space coordinates (X, Y, Z) are shown in FIG.
As shown in (a), the position of the middle point of the mounting positions of the cameras 1R and 1L (the position fixed to the host vehicle 10) is the origin O
The coordinates in the image are determined as shown in FIG.
As shown in the figure, the horizontal direction is x,
The vertical direction is defined as y.

【数4】 (Equation 4)

【0043】ここで、(xc,yc)は、右画像上の座
標(x,y)を、カメラ1Rの取り付け位置と、実空間
原点Oとの相対位置関係に基づいて、実空間原点Oと画
像の中心とを一致させた仮想的な画像内の座標に変換し
たものである。またfは、焦点距離Fと画素間隔pとの
比である。
Here, (xc, yc) represents the coordinates (x, y) on the right image with the real space origin O based on the relative positional relationship between the mounting position of the camera 1R and the real space origin O. This is converted into coordinates in a virtual image in which the center of the image is matched. F is a ratio between the focal length F and the pixel interval p.

【0044】なお、この実空間座標の変換をする際に
は、前述したステップS31の処理により、基準画像中
の対象物像のうち画像端に接していると判定された対象
物像(図11に示す例では、対象物像OBJ1〜3)に
ついて、図17(a)に示すように、対象物像の位置を
代表する判定点を、面積重心Gからより基準画像の中心
に近い、外接四角形の端部の点GEに移動させ、該移動
後の座標を実空間座標に変換する。すなわち、基準画像
の左端に接している対象物像OBJ1については、面積
重心G1のy座標と同一のy座標を有し、外接四角形の
右端に位置する点GE1に判定点を移動し、基準画像の
上端に接している対象物像OBJ2については、面積重
心G2のx座標と同一のx座標を有し、外接四角形の下
端に位置する点GE2に判定点を移動し、基準画像の右
端に接している対象物像OBJ3については、面積重心
G3のy座標と同一のy座標を有し、外接四角形の左端
に位置する点GE3に判定点を移動する。
When converting the real space coordinates, the object image determined to be in contact with the image edge among the object images in the reference image by the processing in step S31 described above (see FIG. 11). In the example shown in FIG. 17, for the object images OBJ1 to OBJ3), as shown in FIG. 17A, a determination point representing the position of the object image is defined by a circumscribed rectangle closer to the center of the reference image from the area centroid G. And the coordinates after the movement are converted into real space coordinates. That is, with respect to the target object image OBJ1 that is in contact with the left end of the reference image, the determination point is moved to a point GE1 that has the same y coordinate as the area center of gravity G1 and is located at the right end of the circumscribed rectangle. Of the object image OBJ2 in contact with the upper end of the reference image, the determination point is moved to a point GE2 having the same x coordinate as the area center of gravity G2 and located at the lower end of the circumscribed rectangle, and in contact with the right end of the reference image. With respect to the target object image OBJ3, the determination point is moved to a point GE3 that has the same y coordinate as the area gravity center G3 and is located at the left end of the circumscribed rectangle.

【0045】そしてこのように判定点を移動させた対象
物については、過去の位置データも、同様に面積重心G
に対応するデータからより基準画像の中心に近い、外接
四角形の端部の点GEに対応するデータに変更する処理
を行う。このようにすることにより、後述する相対移動
ベクトルの算出に用いる時系列データが、移動後の判定
点で統一された時系列データとなり、正確な相対移動ベ
クトルを求めることができる。なお、判定点は図17
(b)に示すように、外接四角形の端部ではなく、対象
物像の端部に位置する点GE1a,GE2a,GE3a
に移動させるようにしてもよい。
For the object whose judgment point has been moved in this manner, the past position data is similarly calculated for the area centroid G.
From the data corresponding to the point GE at the end of the circumscribed rectangle closer to the center of the reference image. By doing so, the time-series data used for calculating the relative movement vector, which will be described later, becomes unified time-series data at the determination point after the movement, and an accurate relative movement vector can be obtained. Note that the determination points are shown in FIG.
As shown in (b), points GE1a, GE2a, and GE3a located at the end of the target object image, not at the end of the circumscribed rectangle.
May be moved.

【0046】ステップS22では、自車両10が回頭す
ることによる画像上の位置ずれを補正するための回頭角
補正を行う。図18に示すように、時刻kから(k+
1)までの期間中に自車両が例えば左方向に回頭角θr
だけ回頭すると、カメラによって得られる画像上では、
図19に示すようにΔxだけx方向にずれるので、これ
を補正する処理である。具体的には、下記式(5)に実
空間座標(X,Y,Z)を適用して、補正座標(Xr,
Yr,Zr)を算出する。算出した実空間位置データ
(Xr,Yr,Zr)は、対象物毎に対応づけてメモリ
に格納する。なお、以下の説明では、回頭角補正後の座
標を(X,Y,Z)と表示する。
In step S22, a turning angle correction for correcting a positional shift on the image due to the turning of the host vehicle 10 is performed. As shown in FIG. 18, from time k (k +
During the period up to 1), the own vehicle is turned to the left, for example, by a turning angle θr.
Just turning around, on the image obtained by the camera,
As shown in FIG. 19, since it is shifted in the x direction by Δx, this is a process for correcting this. Specifically, by applying the real space coordinates (X, Y, Z) to the following equation (5), the corrected coordinates (Xr,
Yr, Zr) is calculated. The calculated real space position data (Xr, Yr, Zr) is stored in the memory in association with each object. In the following description, the coordinates after the turning angle correction are displayed as (X, Y, Z).

【数5】 (Equation 5)

【0047】ステップS23では、図20に示すように
同一対象物について、ΔTの期間内に得られた、回頭角
補正後のN個の実空間位置データ(例えばN=10程
度)、すなわち時系列データから、対象物と自車両10
との相対移動ベクトルに対応する近似直線LMVを求め
る。具体的には、近似直線LMVの方向を示す方向ベク
トルL=(lx,ly,lz)(|L|=1)とする
と、下記式(6)で表される直線を求める。
In step S23, as shown in FIG. 20, for the same object, N real space position data (for example, about N = 10) obtained during the period of ΔT after turning angle correction, ie, a time series From the data, the object and the vehicle 10
An approximate straight line LMV corresponding to the relative movement vector is obtained. Specifically, assuming that a direction vector L = (lx, ly, lz) (| L | = 1) indicating the direction of the approximate straight line LMV, a straight line represented by the following equation (6) is obtained.

【数6】 (Equation 6)

【0048】ここでuは、任意の値をとる媒介変数であ
り、Xav,Yav及びZavは、それぞれ実空間位置
データ列のX座標の平均値、Y座標の平均値及びZ座標
の平均値である。なお、式(6)は媒介変数uを消去す
れば下記式(6a)のようになる。 (X−Xav)/lx=(Y−Yav)/ly=(Z−Zav)/lz …(6a)
Here, u is a parameter having an arbitrary value, and Xav, Yav, and Zav are the average value of the X coordinate, the average value of the Y coordinate, and the average value of the Z coordinate of the real space position data sequence, respectively. is there. The equation (6) becomes the following equation (6a) if the parameter u is eliminated. (X-Xav) / lx = (Y-Yav) / ly = (Z-Zav) / lz (6a)

【0049】図20は、近似直線LMVを説明するため
の図であり、同図のP(0),P(1),P(2),
…,P(N−2),P(N−1)が回頭角補正後の時系
列データを示し、近似直線LMVは、この時系列データ
の平均位置座標Pav(=(Xav,Yav,Za
v))を通り、各データ点からの距離の2乗の平均値が
最小となるような直線として求められる。ここで各デー
タ点の座標を示すPに付した()内の数値はその値が増
加するほど過去のデータであることを示す。例えば、P
(0)は最新の位置座標、P(1)は1サンプル周期前
の位置座標、P(2)は2サンプル周期前の位置座標を
示す。以下の説明におけるD(j)、X(j)、Y
(j)、Z(j)等も同様である。
FIG. 20 is a diagram for explaining the approximate straight line LMV, in which P (0), P (1), P (2),
, P (N-2) and P (N-1) indicate the time series data after the turning angle correction, and the approximate straight line LMV indicates the average position coordinates Pav (= (Xav, Yav, Za) of the time series data.
v)) is obtained as a straight line that minimizes the average value of the square of the distance from each data point. Here, the numerical value in parentheses attached to P indicating the coordinates of each data point indicates that the larger the value is, the more past the data is. For example, P
(0) indicates the latest position coordinates, P (1) indicates the position coordinates one sample cycle ago, and P (2) indicates the position coordinates two sample cycles ago. D (j), X (j), Y in the following description
The same applies to (j), Z (j), and the like.

【0050】より具体的には、平均位置座標Pavから
各データ点の座標P(0)〜P(N−1)に向かうベク
トルD(j)=(DX(j),DY(j),DZ
(j))=(X(j)−Xav,Y(j)−Yav,Z
(j)−Zav)と、方向ベクトルLとの内積sを下記
式(7)により算出し、この内積sの分散が最大となる
方向ベクトルL=(lx,ly,lz)を求める。 s=lx・DX(j)+ly・DY(j)+lz・DZ(j) (7)
More specifically, a vector D (j) = (DX (j), DY (j), DZ) from the average position coordinates Pav to the coordinates P (0) to P (N-1) of each data point.
(J)) = (X (j) -Xav, Y (j) -Yav, Z
An inner product s of (j) -Zav) and the direction vector L is calculated by the following equation (7), and a direction vector L = (lx, ly, lz) that maximizes the variance of the inner product s is obtained. s = lx.DX (j) + ly.DY (j) + lz.DZ (j) (7)

【0051】各データ点の座標の分散共分散行列Vは、
下記式(8)で表され、この行列の固有値σが内積sの
分散に相当するので、この行列から算出される3つの固
有値のうち最大の固有値に対応する固有ベクトルが求め
る方向ベクトルLとなる。なお、式(8)の行列から固
有値と固有ベクトルを算出するには、ヤコビ法(例えば
「数値計算ハンドブック」(オーム社)に示されてい
る)として知られている手法を用いる。
The variance-covariance matrix V of the coordinates of each data point is
Since the eigenvalue σ of this matrix corresponds to the variance of the inner product s, the directional vector L corresponding to the largest eigenvalue among the three eigenvalues calculated from this matrix is the directional vector L to be obtained. In order to calculate eigenvalues and eigenvectors from the matrix of Expression (8), a method known as the Jacobi method (for example, shown in “Numerical Calculation Handbook” (Ohm)) is used.

【数7】 (Equation 7)

【0052】次いで最新の位置座標P(0)=(X
(0),Y(0),Z(0))と、(N−1)サンプル
前(時間ΔT前)の位置座標P(Nー1)=(X(N−
1),Y(N−1),Z(N−1))を近似直線LMV
上の位置に補正する。具体的には、前記式(6a)にZ
座標Z(0)、Z(N−1)を適用することにより、す
なわち下記式(9)により、補正後の位置座標Pv
(0)=(Xv(0),Yv(0),Zv(0))及び
Pv(N−1)=(Xv(N−1),Yv(N−1),
Zv(N−1))を求める。
Next, the latest position coordinates P (0) = (X
(0), Y (0), Z (0)) and the position coordinates P (N−1) = (X (N−) before (N−1) samples (before time ΔT).
1), Y (N-1), Z (N-1)) are approximated to the straight line LMV
Correct to the upper position. Specifically, Z in the above equation (6a)
By applying the coordinates Z (0) and Z (N-1), that is, by the following equation (9), the corrected position coordinates Pv
(0) = (Xv (0), Yv (0), Zv (0)) and Pv (N-1) = (Xv (N-1), Yv (N-1),
Zv (N-1)).

【数8】 (Equation 8)

【0053】式(9)で算出された位置座標Pv(N−
1)からPv(0)に向かうベクトルとして、相対移動
ベクトルが得られる。このようにモニタ期間ΔT内の複
数(N個)のデータから対象物の自車両10に対する相
対移動軌跡を近似する近似直線を算出して相対移動ベク
トルを求めることにより、位置検出誤差の影響を軽減し
て対象物との衝突の可能性をより正確に予測することが
可能となる。
The position coordinates Pv (N−
A relative movement vector is obtained as a vector from 1) toward Pv (0). In this manner, the influence of the position detection error is reduced by calculating the approximate straight line that approximates the relative movement trajectory of the target object with respect to the own vehicle 10 from the plurality (N) of data within the monitoring period ΔT. As a result, it is possible to more accurately predict the possibility of collision with the object.

【0054】図3に戻り、ステップS24では、ステッ
プS23で算出した相対移動ベクトルに基づいて、対象
物が自車両10に衝突する可能性が高いか否かを判定
し、高い場合には、スピーカ3やHUD4を用いた音声
や表示により、運転者への警報を発する処理を実行す
る。ステップS24実行後は、ステップS11に戻る。
Returning to FIG. 3, in step S24, it is determined based on the relative movement vector calculated in step S23 whether or not there is a high possibility that the object collides with the host vehicle 10. A process for issuing a warning to the driver by voice or display using HUD3 or HUD4 is executed. After executing step S24, the process returns to step S11.

【0055】以上のように本実施形態では、基準画像中
の対象物像が画像端に接しているときは、その対象物像
の位置を代表する判定点を、その対象物像の面積重心か
ら寄り基準画像の画像端に近い、その対象物像の外接四
角形の端部に位置する点(またはその対象物像の端部に
位置する点)に移動させ、移動後の判定点を用いて相対
移動ベクトルを算出するようにしたので、対象物の相対
移動方向を正確に検出することができる。
As described above, in the present embodiment, when an object image in the reference image is in contact with the edge of the image, the determination point representing the position of the object image is determined from the area center of gravity of the object image. Move to a point located at the end of the circumscribed rectangle of the target object image (or a point located at the end of the target object image) near the image end of the shift reference image, and use the determination point after the movement to perform relative movement. Since the movement vector is calculated, the relative movement direction of the object can be accurately detected.

【0056】また例えば図13(b)に示すように、基
準画像に含まれる対象物像OBJR2に基づいて、探索
画像に対して相関演算を実行し、その結果得られた対応
対象物像COBJL2が、画像の端部に接するときは、
その対応対象物像COBJL2に基づいて、基準画像に
対して相関演算を実行し、その結果得られた対応対象物
像COBJR2と、対応対象物像COBJL2とに基づ
いて視差を算出し、該算出した視差からその対象物まで
の距離を算出するようにしたので、相関演算により抽出
された探索画像中の対応対象物像が画像端に接する場合
でも、正確な距離を算出することができる。
For example, as shown in FIG. 13B, a correlation operation is performed on the search image based on the object image OBJR2 included in the reference image, and the corresponding object image COBJL2 obtained as a result is obtained. , When touching the edge of the image,
Based on the corresponding target object image COBJL2, a correlation operation is performed on the reference image, and a parallax is calculated based on the resulting corresponding target object image COBJR2 and corresponding target object image COBJL2, and the calculated disparity is calculated. Since the distance to the target object is calculated from the parallax, an accurate distance can be calculated even when the corresponding target object image in the search image extracted by the correlation operation touches the image end.

【0057】本実施形態では、画像処理ユニット2が、
画像端部判定手段、判定点移動手段、及び移動方向検出
手段を構成する。より具体的には、図4のステップS4
3〜S45が画像端部判定手段に相当し、図4のステッ
プS41,S42,S46,S47及び図3のステップ
S21が判定点移動手段に相当し、図3のステップS2
3が移動方向検出手段に相当する。
In the present embodiment, the image processing unit 2
An image edge determining unit, a determination point moving unit, and a moving direction detecting unit are configured. More specifically, step S4 in FIG.
Steps S41, S42, S46, S47 in FIG. 4 and step S21 in FIG. 3 correspond to the determination point moving means, and steps S2 in FIG.
Reference numeral 3 corresponds to a moving direction detecting means.

【0058】(第2の実施形態)図21は本発明の第2
の実施形態にかかる障害物検出・警報処理のフローチャ
ートである。この処理は、図3に示す処理に、ステップ
S17aを追加するとともに、図3のステップS31を
ステップS31aに変更したものである。また図22
は、ステップS31aにおける距離算出処理を示すフロ
ーチャートであり、この処理は図4に示す処理から、ス
テップS43,S44及びS47を削除するとともに、
ステップS46をステップS46aに変更したものであ
る。以上の点以外は、第1の実施形態と同一である。
(Second Embodiment) FIG. 21 shows a second embodiment of the present invention.
It is a flowchart of the obstacle detection / warning process according to the embodiment. This processing is obtained by adding step S17a to the processing shown in FIG. 3 and changing step S31 in FIG. 3 to step S31a. FIG.
Is a flowchart showing the distance calculation processing in step S31a. This processing deletes steps S43, S44 and S47 from the processing shown in FIG.
Step S46 is changed to step S46a. Except for the above points, it is the same as the first embodiment.

【0059】ステップS17aでは、ステップS17で
抽出された対象物のうち、その基準画像中の対象物像が
画像端に接するものは、監視対象から除く処理を行う。
ステップS31aでは、図22に示す距離算出処理を実
行する。ステップS42で相関度が高いと判別されたと
きは、相関演算により得られた対応対象物像が探索画像
の画像端に接しているか否かを判別し(ステップS4
5)、接していなければ、視差から距離を算出する(ス
テップS48)。一方対応対象物像が画像端に接してい
るときは、この対象物を監視対象から除く処理を行い
(ステップS46a)、直ちに本処理を終了する。
In step S17a, among the objects extracted in step S17, those whose target image in the reference image is in contact with the image edge are excluded from monitoring.
In step S31a, a distance calculation process shown in FIG. 22 is executed. When it is determined in step S42 that the degree of correlation is high, it is determined whether or not the corresponding target image obtained by the correlation calculation is in contact with the image end of the search image (step S4).
5) If not in contact, the distance is calculated from the parallax (step S48). On the other hand, when the corresponding target object image is in contact with the end of the image, a process of removing this target object from the monitoring target is performed (step S46a), and the present process ends immediately.

【0060】以上のように本実施形態では、対象物像が
基準画像の画像端に接する対象物、及び相関演算により
抽出された対応対象物像が探索画像の画像端に接する対
象物を監視対象から除くようにしたので、そのような対
象物の移動方向及びその対象物までの距離を誤って認識
することを防止することができる。
As described above, in the present embodiment, the object whose object image is in contact with the image end of the reference image and the object whose corresponding object image extracted by the correlation operation is in contact with the image end of the search image are monitored. Therefore, it is possible to prevent the moving direction of the object and the distance to the object from being erroneously recognized.

【0061】本実施形態では、画像処理ユニット2が、
画像端部判定手段を構成し、より具体的には、図22の
ステップS45が画像端部判定手段に相当する。なお本
発明は上述した実施形態に限るものではなく、種々の変
形が可能である。例えば、本実施形態では、対象物像を
得るためのカメラとして赤外線カメラを使用したが、例
えば特開平9−226490号公報に示されるように通
常の可視光線のみ検出可能なテレビカメラを使用しても
よい。ただし、赤外線カメラを用いることにより、動物
あるいは走行中の車両などの抽出処理を簡略化すること
ができ、演算装置の演算能力が比較的低いものでも実現
できる。
In this embodiment, the image processing unit 2
The image edge determining means is constituted, and more specifically, step S45 in FIG. 22 corresponds to the image edge determining means. Note that the present invention is not limited to the above-described embodiment, and various modifications are possible. For example, in the present embodiment, an infrared camera is used as a camera for obtaining an object image. However, for example, as shown in JP-A-9-226490, a television camera that can detect only ordinary visible light is used. Is also good. However, by using an infrared camera, the extraction processing of an animal, a running vehicle, and the like can be simplified, and even an arithmetic device having a relatively low arithmetic capability can be realized.

【0062】[0062]

【発明の効果】以上詳述したように請求項1に記載の発
明によれば、画像の端部に接すると判定された対象物像
については、その対象物像の位置を代表する判定点が、
対象物像の面積重心から、画像の中心に近い所定点に移
動され、該移動後の判定点に基づいて対象物の移動方向
が検出されるので、対象物像の面積重心の時系列データ
から移動方向を検出する場合のような不具合がなく、正
確な移動方向を検出することができる。
As described above in detail, according to the first aspect of the present invention, with respect to an object image determined to be in contact with an edge of an image, a determination point representing the position of the object image is determined. ,
From the area centroid of the object image, it is moved to a predetermined point near the center of the image, and the moving direction of the object is detected based on the determination point after the movement. It is possible to detect an accurate moving direction without any trouble as in the case of detecting the moving direction.

【0063】請求項2に記載の発明によれば、画像の端
部に接すると判定された対象物像に対応する対象物につ
いては移動方向の検出が行われないので、そのような対
象物の移動方向を誤って認識することを防止することが
できる。
According to the second aspect of the present invention, since the moving direction is not detected for the object corresponding to the object image determined to be in contact with the edge of the image, the moving object is not detected. It is possible to prevent erroneous recognition of the moving direction.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態にかかる移動対象物検出装
置の構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a moving object detection device according to an embodiment of the present invention.

【図2】図1に示すカメラの取り付け位置を説明するた
めの図である。
FIG. 2 is a view for explaining a mounting position of the camera shown in FIG. 1;

【図3】図1の画像処理ユニットによる処理の手順を示
すフローチャートである。
FIG. 3 is a flowchart illustrating a procedure of a process performed by the image processing unit in FIG. 1;

【図4】図3の距離算出処理を詳細に示すフローチャー
トである。
FIG. 4 is a flowchart illustrating a distance calculation process of FIG. 3 in detail;

【図5】赤外線カメラにより得られるグレースケール画
像を説明するために、中間階調部にハッチングを付して
示す図である。
FIG. 5 is a diagram showing a gray scale image obtained by an infrared camera with hatching applied to a halftone portion;

【図6】グレースケール画像を2値化した画像を説明す
るために、黒の領域をハッチングを付して示す図であ
る。
FIG. 6 is a diagram showing a black area with hatching to explain an image obtained by binarizing a grayscale image.

【図7】ランレングスデータへの変換処理及びラベリン
グを説明するための図である。
FIG. 7 is a diagram for explaining a conversion process to run-length data and labeling.

【図8】対象物の時刻間追跡を説明するための図であ
る。
FIG. 8 is a diagram for explaining time tracking of an object.

【図9】右画像中の探索対象物像と、左画像に設定する
探索領域を説明するための図である。
FIG. 9 is a diagram for explaining a search target object image in a right image and a search region set in a left image.

【図10】探索領域を対象とした相関演算処理を説明す
るための図である。
FIG. 10 is a diagram for explaining a correlation calculation process for a search area.

【図11】対象物像が画像の端部に接する場合を説明す
るための図である。
FIG. 11 is a diagram illustrating a case where an object image contacts an end of an image.

【図12】探索画像中の対象物像が画像の端部に接して
いる場合を説明するための図である。
FIG. 12 is a diagram for explaining a case where an object image in a search image is in contact with an end of the image.

【図13】対象物像が画像の端部に接する4つの場合を
説明するための図である。
FIG. 13 is a diagram for explaining four cases where an object image is in contact with an end of an image.

【図14】視差の算出方法を説明するための図である。FIG. 14 is a diagram illustrating a method of calculating parallax.

【図15】視差から距離を算出する手法を説明するため
の図である。
FIG. 15 is a diagram for explaining a method of calculating a distance from parallax.

【図16】本実施形態における座標系を示す図である。FIG. 16 is a diagram illustrating a coordinate system according to the present embodiment.

【図17】判定点の移動を説明するための図である。FIG. 17 is a diagram for explaining movement of a determination point.

【図18】回頭角補正を説明するための図である。FIG. 18 is a diagram for explaining turning angle correction.

【図19】車両の回頭により発生する画像上の対象物位
置のずれを示す図である。
FIG. 19 is a diagram illustrating a displacement of an object position on an image caused by turning of the vehicle.

【図20】相対移動ベクトルの算出手法を説明するため
の図である。
FIG. 20 is a diagram for describing a calculation method of a relative movement vector.

【図21】本発明の第2の実施形態における、画像処理
ユニットによる処理の手順を示すフローチャートであ
る。
FIG. 21 is a flowchart illustrating a procedure of processing by an image processing unit according to the second embodiment of the present invention.

【図22】図21の距離算出処理を詳細に示すフローチ
ャートである。
FIG. 22 is a flowchart showing the distance calculation processing of FIG. 21 in detail.

【図23】従来の手法の問題点を説明するための図であ
る。
FIG. 23 is a diagram for explaining a problem of the conventional method.

【図24】従来の手法の問題点を説明するための図であ
る。
FIG. 24 is a diagram for explaining a problem of the conventional method.

【符号の説明】[Explanation of symbols]

1R、1L 赤外線カメラ(カメラ) 2 画像処理ユニット(画像端部判定手段、判定点移動
手段、移動方向検出手段) 5 ヨーレートセンサ 6 車速センサ
1R, 1L infrared camera (camera) 2 Image processing unit (image end determining means, determining point moving means, moving direction detecting means) 5 Yaw rate sensor 6 Vehicle speed sensor

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G08G 1/16 G08G 1/16 C (72)発明者 服部 弘 埼玉県和光市中央1丁目4番1号 株式会 社本田技術研究所内 (72)発明者 渡辺 正人 埼玉県和光市中央1丁目4番1号 株式会 社本田技術研究所内 Fターム(参考) 5B057 AA16 BA02 CA12 CA16 CB13 CB16 DA07 5H180 AA01 CC02 CC04 LL01 LL07 5L096 BA04 CA05 HA04 JA24 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification FI theme coat ゛ (Reference) G08G 1/16 G08G 1/16 C (72) Inventor Hiroshi Hattori 1-4-1, Chuo, Wako-shi, Saitama Inside the Honda R & D Co., Ltd. (72) Inventor Masato Watanabe 1-4-1 Chuo, Wako-shi, Saitama F-term in the Honda R & D Co., Ltd. 5B057 AA16 BA02 CA12 CA16 CB13 CB16 DA07 5H180 AA01 CC02 CC04 LL01 LL07 5L096 BA04 CA05 HA04 JA24

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 互いに離間して配置された2つのカメラ
により得られる対象物の画像情報に基づいて、前記対象
物の移動方向を検出する移動対象物検出装置において、 前記2つのカメラのうち、少なくとも何れか一方のカメ
ラにより得られる対象物像が、画像の端部に接すること
を判定する画像端部判定手段と、 該画像端部判定手段により、画像の端部に接すると判定
された対象物像については、該対象物像の位置を代表す
る判定点を、前記対象物像の面積重心から、前記画像の
中心に近い所定点に移動させる判定点移動手段と、 該移動後の判定点に基づいて前記対象物の移動方向を検
出する移動方向検出手段とを備えることを特徴とする移
動対象物検出装置。
1. A moving object detecting apparatus for detecting a moving direction of an object based on image information of the object obtained by two cameras arranged apart from each other, wherein: Image edge determining means for determining that an object image obtained by at least one of the cameras is in contact with an edge of the image, and an object determined by the image edge determining means to be in contact with the edge of the image For the object image, a judgment point moving means for moving a judgment point representing the position of the object image from a center of area of the object image to a predetermined point close to the center of the image, and a judgment point after the movement. And a moving direction detecting means for detecting a moving direction of the object based on the moving object.
【請求項2】 互いに離間して配置された2つのカメラ
により得られる対象物の画像情報に基づいて、前記対象
物の移動方向を検出する移動対象物検出装置において、 前記2つのカメラのうち、少なくとも何れか一方のカメ
ラにより得られる対象物像が、画像の端部に接すること
を判定する画像端部判定手段を備え、 該画像端部判定手段により、画像の端部に接すると判定
された対象物像に対応する対象物については移動方向の
検出を行わないことを特徴とする移動対象物検出装置。
2. A moving object detecting apparatus for detecting a moving direction of an object based on image information of the object obtained by two cameras arranged apart from each other, wherein: The image processing apparatus further includes image edge determining means for determining that an object image obtained by at least one of the cameras touches an edge of the image, and the image edge determining means determines that the image touches an edge of the image. A moving object detection device, wherein a moving direction is not detected for an object corresponding to the object image.
JP2000159640A 2000-05-30 2000-05-30 Moving object detection device Expired - Fee Related JP3859429B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000159640A JP3859429B2 (en) 2000-05-30 2000-05-30 Moving object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000159640A JP3859429B2 (en) 2000-05-30 2000-05-30 Moving object detection device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006068492A Division JP4040657B2 (en) 2006-03-14 2006-03-14 Moving object detection device

Publications (2)

Publication Number Publication Date
JP2001338281A true JP2001338281A (en) 2001-12-07
JP3859429B2 JP3859429B2 (en) 2006-12-20

Family

ID=18663938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000159640A Expired - Fee Related JP3859429B2 (en) 2000-05-30 2000-05-30 Moving object detection device

Country Status (1)

Country Link
JP (1) JP3859429B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7158664B2 (en) 2001-11-09 2007-01-02 Honda Giken Kogyo Kabushiki Kaisha Image recognition apparatus
CN108082107A (en) * 2017-12-19 2018-05-29 奇瑞汽车股份有限公司 Information prompting method, device and computer readable storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8594370B2 (en) 2004-07-26 2013-11-26 Automotive Systems Laboratory, Inc. Vulnerable road user protection system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7158664B2 (en) 2001-11-09 2007-01-02 Honda Giken Kogyo Kabushiki Kaisha Image recognition apparatus
US7474765B2 (en) 2001-11-09 2009-01-06 Honda Giken Kogyo Kabushiki Kaisha Image recognition apparatus
CN108082107A (en) * 2017-12-19 2018-05-29 奇瑞汽车股份有限公司 Information prompting method, device and computer readable storage medium
CN108082107B (en) * 2017-12-19 2019-07-09 奇瑞汽车股份有限公司 Information prompting method, device and computer readable storage medium

Also Published As

Publication number Publication date
JP3859429B2 (en) 2006-12-20

Similar Documents

Publication Publication Date Title
JP3515926B2 (en) Vehicle periphery monitoring device
JP4615139B2 (en) Vehicle periphery monitoring device
JP3764086B2 (en) Vehicle information providing device
JP3739693B2 (en) Image recognition device
US8144195B2 (en) Vehicle zone monitoring apparatus
US8005266B2 (en) Vehicle surroundings monitoring apparatus
JP2010097541A (en) Vehicular periphery monitoring apparatus
JP2001169310A (en) Distance detector
JP3919975B2 (en) Vehicle periphery monitoring device
JP3910345B2 (en) Position detection device
JP4425852B2 (en) Vehicle periphery monitoring device
JP2009075124A (en) Distance detector
JP3999088B2 (en) Obstacle detection device
JP3916930B2 (en) Approach warning device
JP2010089661A (en) Vehicle periphery monitoring device
JP2004126905A (en) Image processor
JP3808287B2 (en) Position detection device
JP3949628B2 (en) Vehicle periphery monitoring device
JP4040657B2 (en) Moving object detection device
JP4176558B2 (en) Vehicle periphery display device
JP3859429B2 (en) Moving object detection device
JP4943403B2 (en) Vehicle periphery monitoring device
JP4567072B2 (en) Vehicle periphery monitoring device
JP3961269B2 (en) Obstacle alarm device
JP2001147117A (en) Distance detecting device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060117

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060530

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060919

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100929

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100929

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110929

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110929

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120929

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120929

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130929

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140929

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees