JP2003157498A - Obstacle warning device - Google Patents

Obstacle warning device

Info

Publication number
JP2003157498A
JP2003157498A JP2001353462A JP2001353462A JP2003157498A JP 2003157498 A JP2003157498 A JP 2003157498A JP 2001353462 A JP2001353462 A JP 2001353462A JP 2001353462 A JP2001353462 A JP 2001353462A JP 2003157498 A JP2003157498 A JP 2003157498A
Authority
JP
Japan
Prior art keywords
vehicle
image
distance
area
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001353462A
Other languages
Japanese (ja)
Other versions
JP3961269B2 (en
Inventor
Masato Watanabe
正人 渡辺
Takayuki Tsuji
孝之 辻
Shinji Nagaoka
伸治 長岡
Hiroshi Hattori
弘 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2001353462A priority Critical patent/JP3961269B2/en
Publication of JP2003157498A publication Critical patent/JP2003157498A/en
Application granted granted Critical
Publication of JP3961269B2 publication Critical patent/JP3961269B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Abstract

PROBLEM TO BE SOLVED: To provide an obstacle warning device, capable of altering the dimensions of a determination area for determining the possibility of a collision between an own vehicle and an object, which is set on an image photographed by a camera, depending on the distance from the vehicle. SOLUTION: An image processing unit obtains a distance where an extracted object collides within a fixed time as an approach determination area setting depending on the obstacle distance (S17). It is determined whether the obtained distance is equal to or longer than L1 or not (S18). When the obtained distance is equal to or larger than L1, the width X of the approach determination area is set to a distance of X1 from the left car body side (S19). When the obtained distance is shorter than L1, it is determined whether the obtained distance is equal to or longer than L2 or not (S20). When the obtained distance L2 is equal to or longer than L2, the width X of the approach determination area is set to a distance of X2 (X1>X2) from the left car body side (S21). When the obtained distance is equal to or shorter than L2, the width X of the approach determination area is set to a distance of X3 (X2>X3) from the left car body side (S22).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、撮像手段により
得られた画像から、車両の走行路上における障害物の存
在を検出する障害物警報装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an obstacle warning device for detecting the presence of an obstacle on a traveling path of a vehicle from an image obtained by an image pickup means.

【0002】[0002]

【従来の技術】従来、車両や歩行者等の走行路上の障害
物を運転者に通知するために、車両の前方に搭載された
1つあるいは複数の赤外線カメラの画像を、運転席から
目視可能な位置に表示し、運転者の前方視界を補助する
ものがある。運転者に表示される画像は、例えば自車両
のコンソールに設置されるNAVIDisplayやフ
ロントウィンドウの運転者の前方視界を妨げない位置に
情報を表示するHUD(Head Up Display )、更には自
車両の走行状態を数字で表すメータと一体化されたメー
タ一体Display等の画像表示装置に表示される。
また、このように車両の周辺の環境をカメラによって撮
影し、運転者に表示する周辺監視装置としては、例えば
特開2001−6096号公報に示すようなものが知ら
れている。この周辺監視装置は、車両に備えた撮像手段
により撮影された赤外線画像から、車両の周辺に存在す
る歩行者や動物等の生体を検出して表示するものであ
る。そのために、周辺監視装置は、2つの赤外線カメラ
により得られる画像から車両周辺の対象物と自車両との
距離を算出し、更に、時系列に求められる対象物の位置
データから該対象物の移動ベクトルを算出している。そ
して、自車両の進行方向と対象物の移動ベクトルの関係
から、自車両と衝突する可能性の高い対象物を抽出して
表示する。
2. Description of the Related Art Conventionally, an image of one or a plurality of infrared cameras mounted in front of a vehicle can be visually observed from a driver's seat in order to notify the driver of an obstacle on a road such as a vehicle or a pedestrian. There are those that are displayed at various positions to assist the driver's forward vision. The image displayed to the driver is, for example, a NAVIDisplay installed on the console of the own vehicle or a HUD (Head Up Display) that displays information at a position in the front window that does not obstruct the driver's forward visibility, and further, the traveling of the own vehicle. It is displayed on an image display device such as a meter-integrated display which is integrated with a meter that represents the state by numbers.
Further, as a peripheral monitoring device for photographing the environment around the vehicle with a camera and displaying it to the driver, for example, a device as disclosed in Japanese Patent Laid-Open No. 2001-6096 is known. This perimeter monitoring device detects and displays living bodies such as pedestrians and animals existing in the vicinity of the vehicle from an infrared image taken by an imaging means provided in the vehicle. To this end, the surroundings monitoring device calculates the distance between the object around the vehicle and the own vehicle from the images obtained by the two infrared cameras, and further moves the object based on the position data of the object obtained in time series. The vector is calculated. Then, the target object that is likely to collide with the host vehicle is extracted and displayed from the relationship between the traveling direction of the host vehicle and the movement vector of the target vehicle.

【0003】[0003]

【発明が解決しようとする課題】上述のような従来の装
置では、自車両の走行ラインに対象物の存在が有る場合
には衝突する可能性が高いと判断して障害物として警報
するように、自車両の左右車両側を基準とした車幅を延
長した接近判定領域が設定されている。これにより、例
えば車両が左側通行を採用する交通システムにおける自
車両進行方向左側の接近判定領域は、車体側を基準に固
定であり、その接近判定領域において警報を与える為、
障害物までの距離によっては運転者の考える側方安全マ
ージン(車両走行ラインと横方向のズレ量)との間にず
れの存在する可能性があった。具体的には、障害物まで
の距離が近い場合、運転者が障害物位置を認識する空間
距離分解能は高いため、自車両と障害物の位置関係を正
確に認識でき、自車両と障害物が衝突しない、或いは危
険でない側方安全マージンを正確に判断できる。しか
し、障害物までの距離が遠い場合、運転者の上記空間距
離分解能が低下し、自車両と障害物の位置関係を正確に
認識できない場合があり、側方安全マージンを近距離よ
りも大きく取る傾向があった。
In the conventional device as described above, when there is an object on the traveling line of the vehicle, it is judged that there is a high possibility of collision and an alarm is issued as an obstacle. , An approach determination area in which the vehicle width is extended with reference to the left and right vehicle sides of the host vehicle is set. Thereby, for example, the approach determination area on the left side of the vehicle traveling direction in a traffic system in which the vehicle adopts left-hand traffic is fixed with respect to the vehicle body side, and an alarm is given in the approach determination area,
Depending on the distance to the obstacle, there may be a gap between the driver's lateral safety margin (the amount of deviation from the vehicle running line and the lateral direction). Specifically, when the distance to the obstacle is short, the spatial distance resolution for the driver to recognize the obstacle position is high, so the positional relationship between the own vehicle and the obstacle can be accurately recognized, and the own vehicle and the obstacle are It is possible to accurately determine the side safety margin that does not collide or is not dangerous. However, if the distance to the obstacle is too long, the spatial distance resolution of the driver may be reduced, and the positional relationship between the vehicle and the obstacle may not be recognized accurately, and the side safety margin should be set larger than the short distance. There was a tendency.

【0004】本発明は、上記課題に鑑みてなされたもの
で、カメラにより撮影された画像上に設定する自車両と
対象物との衝突の可能性を判断する判定領域の大きさ
を、車両からの距離によって変更する障害物警報装置を
提供することを目的とする。
The present invention has been made in view of the above-mentioned problems, and the size of the determination area for determining the possibility of collision between the vehicle and the object set on the image captured by the camera is set from the vehicle. It is an object of the present invention to provide an obstacle warning device that changes depending on the distance.

【0005】[0005]

【課題を解決するための手段】上記課題を解決するため
に、請求項1の発明に係わる障害物警報装置は、撮像手
段により得られる画像情報に基づいて、車両と対象物と
の衝突判定を行う警報判定領域内における障害物を警報
する障害物警報装置において、前記警報判定領域内に設
定され、前記対象物の存在により警報を行うための接近
判定領域の幅を、車両からの距離が離れるほど拡張して
設定する判定領域設定手段を備えたことを特徴とする。
以上の構成を備えた障害物警報装置は、判定領域設定手
段により、車両から距離が離れるほど判定領域の大きさ
を拡張することで、車両の運転者の視覚特性に合わせた
判定領域を設定することができる。
In order to solve the above-mentioned problems, an obstacle warning device according to the invention of claim 1 determines a collision between a vehicle and an object on the basis of image information obtained by an image pickup means. In an obstacle warning device for warning an obstacle in the warning judgment area to be performed, the distance from the vehicle deviates from the width of the approach judgment area which is set in the warning judgment area and is used for warning due to the presence of the object. It is characterized in that it further comprises a judgment area setting means for expanding and setting.
In the obstacle warning device having the above configuration, the determination area setting means sets the determination area according to the visual characteristics of the driver of the vehicle by expanding the size of the determination area as the distance from the vehicle increases. be able to.

【0006】請求項2の発明に係わる障害物警報装置
は、請求項1に記載の障害物警報装置において、前記判
定領域設定手段が、前記判定領域における前記車両の走
行車線に隣接した歩道方向に幅を拡張することを特徴と
する。以上の構成を備えた障害物警報装置は、判定領域
設定手段により、特に判定領域内に生体が存在する可能
性が大きい歩道方向の判定領域の大きさを変更すること
ができる。
An obstacle warning device according to a second aspect of the present invention is the obstacle warning device according to the first aspect, wherein the determination area setting means is provided in a sidewalk direction adjacent to the traveling lane of the vehicle in the determination area. Characterized by expanding the width. The obstacle warning device having the above configuration can change the size of the judgment area in the sidewalk direction in which the living body is likely to exist in the judgment area by the judgment area setting means.

【0007】[0007]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態について説明する。図1は、本発明の一実施の
形態の障害物警報装置の構成を示すブロック図である。
なお、本実施の形態では、障害物警報装置を搭載した車
両を、一例として車両が左側通行を行う対面交通を採用
する交通形式において使用する場合を説明する。図1に
おいて、符号1は、本実施の形態の障害物警報装置を制
御するCPU(中央演算装置)を備えた画像処理ユニッ
トであって、遠赤外線を検出可能な2つの赤外線カメラ
2R、2Lと当該車両のヨーレートを検出するヨーレー
トセンサ3、更に、当該車両の走行速度(車速)を検出
する車速センサ4とブレーキの操作を検出するためのブ
レーキセンサ5が接続される。これにより、画像処理ユ
ニット1は、車両の周辺の赤外線画像と車両の走行状態
を示す信号から、車両前方の歩行者や動物等の動く物体
を検出し、衝突の可能性が高いと判断したときに警報を
発する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the configuration of an obstacle warning device according to an embodiment of the present invention.
In the present embodiment, a case where a vehicle equipped with an obstacle warning device is used in a traffic format that employs face-to-face traffic in which the vehicle travels to the left will be described as an example. In FIG. 1, reference numeral 1 denotes an image processing unit including a CPU (central processing unit) for controlling the obstacle warning device of the present embodiment, and two infrared cameras 2R and 2L capable of detecting far infrared rays. A yaw rate sensor 3 for detecting a yaw rate of the vehicle, a vehicle speed sensor 4 for detecting a traveling speed (vehicle speed) of the vehicle, and a brake sensor 5 for detecting a brake operation are connected. As a result, the image processing unit 1 detects a moving object such as a pedestrian or an animal in front of the vehicle from the infrared image of the periphery of the vehicle and a signal indicating the traveling state of the vehicle, and determines that the possibility of collision is high. Give an alarm to.

【0008】また、画像処理ユニット1には、音声で警
報を発するためのスピーカ6と、赤外線カメラ2R、2
Lにより撮影された画像を表示し、衝突の危険性が高い
対象物を車両の運転者に認識させるための、例えば自車
両の走行状態を数字で表すメータと一体化されたメータ
一体Displayや自車両のコンソールに設置される
NAVIDisplay、更にフロントウィンドウの運
転者の前方視界を妨げない位置に情報を表示するHUD
(Head Up Display )7a等を含む画像表示装置7が接
続されている。
Further, the image processing unit 1 includes a speaker 6 for issuing an alarm by voice and infrared cameras 2R, 2R.
For example, a display integrated with a meter or a display integrated with a meter that displays a running state of the vehicle by a numerical value for displaying an image captured by L so that the driver of the vehicle recognizes an object having a high risk of collision. NAVIDisplay installed on the console of the vehicle, and HUD that displays information in a position that does not obstruct the driver's forward view of the front window
An image display device 7 including (Head Up Display) 7a and the like is connected.

【0009】また、画像処理ユニット1は、入力アナロ
グ信号をディジタル信号に変換するA/D変換回路、デ
ィジタル化した画像信号を記憶する画像メモリ、各種演
算処理を行うCPU(中央演算装置)、CPUが演算途
中のデータを記憶するために使用するRAM(Random A
ccess Memory)、CPUが実行するプログラムやテーブ
ル、マップなどを記憶するROM(Read Only Memor
y)、スピーカ6の駆動信号、HUD7a等の表示信号
などを出力する出力回路を備えており、赤外線カメラ2
R、2L及びヨーレートセンサ3、車速センサ4、ブレ
ーキセンサ5の各出力信号は、ディジタル信号に変換さ
れてCPUに入力されるように構成されている。
The image processing unit 1 includes an A / D conversion circuit for converting an input analog signal into a digital signal, an image memory for storing a digitized image signal, a CPU (central processing unit) for performing various arithmetic processes, and a CPU. RAM (Random A) used to store data during calculation
ccess Memory), ROM (Read Only Memor) that stores programs executed by the CPU, tables, maps, etc.
y), an output circuit for outputting a driving signal for the speaker 6, a display signal for the HUD 7a, etc., and the infrared camera 2
The output signals of the R, 2L, yaw rate sensor 3, vehicle speed sensor 4, and brake sensor 5 are converted into digital signals and input to the CPU.

【0010】また、図2に示すように、赤外線カメラ2
R、2Lは、自車両10の前部に、自車両10の車幅方
向中心部に対してほぼ対象な位置に配置されており、2
つの赤外線カメラ2R、2Lの光軸が互いに平行であっ
て、かつ両者の路面からの高さが等しくなるように固定
されている。なお、赤外線カメラ2R、2Lは、対象物
の温度が高いほど、その出力信号レベルが高くなる(輝
度が増加する)特性を有している。また、HUD7a
は、自車両10のフロントウインドウの運転者の前方視
界を妨げない位置に表示画面が表示されるように設けら
れている。
Further, as shown in FIG. 2, the infrared camera 2
R and 2L are arranged in the front part of the host vehicle 10 at positions substantially symmetrical to the center of the host vehicle 10 in the vehicle width direction.
The optical axes of the two infrared cameras 2R and 2L are parallel to each other, and they are fixed so that their heights from the road surface are equal. The infrared cameras 2R and 2L have a characteristic that the output signal level thereof increases (luminance increases) as the temperature of the object increases. Also, HUD7a
Is provided so that the display screen is displayed at a position in the front window of the host vehicle 10 that does not hinder the driver's forward visibility.

【0011】次に、本実施の形態の動作について図面を
参照して説明する。図3及び図4は、本実施の形態の障
害物警報装置の画像処理ユニット1における処理手順を
示すフローチャートである。まず、画像処理ユニット1
は、赤外線カメラ2R、2Lの出力信号である赤外線画
像を取得して(ステップS1)、A/D変換し(ステッ
プS2)、グレースケール画像を画像メモリに格納する
(ステップS3)。なお、ここでは赤外線カメラ2Rに
より右画像が得られ、赤外線カメラ2Lにより左画像が
得られる。また、右画像と左画像では、同一の対象物の
表示画面上の水平位置がずれて表示されるので、このず
れ(視差)によりその対象物までの距離を算出すること
ができる。
Next, the operation of this embodiment will be described with reference to the drawings. 3 and 4 are flowcharts showing a processing procedure in the image processing unit 1 of the obstacle warning device according to the present embodiment. First, the image processing unit 1
Acquires an infrared image that is an output signal of the infrared cameras 2R and 2L (step S1), performs A / D conversion (step S2), and stores the grayscale image in an image memory (step S3). Here, the right image is obtained by the infrared camera 2R, and the left image is obtained by the infrared camera 2L. Further, in the right image and the left image, the horizontal position of the same target object on the display screen is displaced, and thus the distance to the target object can be calculated from this displacement (parallax).

【0012】次に、赤外線カメラ2Rにより得られた右
画像を基準画像とし、その画像信号の2値化処理、すな
わち、輝度閾値ITHより明るい領域を「1」(白)と
し、暗い領域を「0」(黒)とする処理を行う(ステッ
プS4)。図5(a)は、赤外線カメラ2Rにより得ら
れたグレースケール画像を示し、これに2値化処理を行
うことにより、図5(b)に示すような画像を得る。な
お、図5(b)において、例えばP1からP4の枠で囲
った物体を、表示画面上に白色として表示される対象物
(以下「高輝度領域」という)とする。赤外線画像から
2値化された画像データを取得したら、2値化した画像
データをランレングスデータに変換する処理を行う(ス
テップS5)。
Next, the right image obtained by the infrared camera 2R is used as a reference image, and the image signal is binarized, that is, the area brighter than the brightness threshold ITH is set to "1" (white) and the dark area is set to " A process of setting it to "0" (black) is performed (step S4). FIG. 5A shows a grayscale image obtained by the infrared camera 2R, and by binarizing the grayscale image, an image as shown in FIG. 5B is obtained. Note that, in FIG. 5B, for example, an object surrounded by a frame of P1 to P4 is an object displayed as white on the display screen (hereinafter, referred to as “high brightness area”). When binarized image data is acquired from the infrared image, a process of converting the binarized image data into run length data is performed (step S5).

【0013】図6(a)は、これを説明するための図で
あり、この図では2値化により白となった領域を画素レ
ベルでラインL1〜L8として示している。ラインL1
〜L8は、いずれもy方向には1画素の幅を有してお
り、実際にはy方向には隙間なく並んでいるが、説明の
ために離間して示している。またラインL1〜L8は、
x方向にはそれぞれ2画素、2画素、3画素、8画素、
7画素、8画素、8画素、8画素の長さを有している。
ランレングスデータは、ラインL1〜L8を各ラインの
開始点(各ラインの左端の点)の座標と、開始点から終
了点(各ラインの右端の点)までの長さ(画素数)とで
示したものである。例えばラインL3は、(x3,y
5)、(x4,y5)及び(x5,y5)の3画素から
なるので、ランレングスデータとしては、(x3,y
5,3)となる。
FIG. 6 (a) is a diagram for explaining this, and in this figure, the regions turned white by binarization are shown as lines L1 to L8 at the pixel level. Line L1
All of L8 to L8 have a width of one pixel in the y direction, and are actually arranged in the y direction without any gap, but they are shown separated for the sake of explanation. The lines L1 to L8 are
2 pixels, 2 pixels, 3 pixels, 8 pixels in the x direction,
It has a length of 7 pixels, 8 pixels, 8 pixels, and 8 pixels.
The run length data includes the lines L1 to L8 as coordinates of the start point of each line (the left end point of each line) and the length (pixel number) from the start point to the end point (the right end point of each line). It is shown. For example, the line L3 is (x3, y
5), (x4, y5) and (x5, y5), the run length data is (x3, y).
5, 3).

【0014】次に、ランレングスデータに変換された画
像データから、対象物のラベリングをする(ステップS
6)ことにより、対象物を抽出する処理を行う(ステッ
プS7)。すなわち、ランレングスデータ化したライン
L1〜L8のうち、図6(b)に示すように、y方向に
重なる部分のあるラインL1〜L3を1つの対象物1と
みなし、ラインL4〜L8を1つの対象物2とみなし、
ランレングスデータに対象物ラベル1、2を付加する。
この処理により、例えば図5(b)に示す高輝度領域
が、それぞれ対象物1から4として把握されることにな
る。
Next, the object is labeled from the image data converted into the run length data (step S).
By performing 6), the process of extracting the object is performed (step S7). That is, among the lines L1 to L8 converted into run length data, as shown in FIG. 6B, the lines L1 to L3 having a portion overlapping in the y direction are regarded as one object 1, and the lines L4 to L8 are set to one. Regarded as two objects 2,
Object labels 1 and 2 are added to the run length data.
By this processing, for example, the high-brightness regions shown in FIG. 5B are recognized as the objects 1 to 4, respectively.

【0015】対象物の抽出が完了したら、次に、図6
(c)に示すように、抽出した対象物の重心G、面積S
及び破線で示す外接四角形の縦横比ASPECTを算出
する(ステップS8)。ここで、面積Sは、下記式
(1)によりランレングスデータの長さを同一対象物に
ついて積算することにより算出する。ラベルAの対象物
のランレングスデータを(x[i]、y[i]、run
[i]、A)(i=0,1,2,・・・N−1)とする
と、
After the extraction of the object is completed, the process shown in FIG.
As shown in (c), the center of gravity G and the area S of the extracted target object
And the aspect ratio ASPECT of the circumscribed quadrangle shown by the broken line is calculated (step S8). Here, the area S is calculated by integrating the lengths of the run length data for the same object by the following formula (1). The run length data of the object of label A is (x [i], y [i], run
[I], A) (i = 0, 1, 2, ... N-1),

【数1】 また、対象物Aの重心Gの座標(xc、yc)は、ラン
レングスデータの長さを考慮した下記(2)、(3)式
により算出する。
[Equation 1] Further, the coordinates (xc, yc) of the center of gravity G of the object A are calculated by the following equations (2) and (3) in consideration of the length of the run length data.

【数2】 更に、縦横比ASPECTは、図6(c)に示すDyと
Dxとの比Dy/Dxとして算出する。なお、式
(1)、(2)、(3)に示すように、ランレングスデ
ータは画素数(座標数)run[i]で示されているの
で、実際の長さは「−1」する必要がある。また、重心
Gの位置は、外接四角形の重心位置で代用してもよい。
[Equation 2] Further, the aspect ratio ASPECT is calculated as the ratio Dy / Dx between Dy and Dx shown in FIG. As shown in the equations (1), (2), and (3), the run length data is represented by the number of pixels (the number of coordinates) run [i], so the actual length is "-1". There is a need. Further, the position of the center of gravity G may be replaced by the position of the center of gravity of the circumscribing quadrangle.

【0016】対象物の重心、面積、外接四角形の縦横比
が算出できたら、次に、対象物の時刻間追跡、すなわち
サンプリング周期毎の同一対象物の認識を行う(ステッ
プS9)。時刻間追跡は、アナログ量としての時刻tを
サンプリング周期で離散化した時刻をkとし、図7
(a)に示すように時刻kで対象物A、Bを抽出した場
合、時刻(k+1)で抽出した対象物C、Dと、対象物
A、Bとの同一性判定を行う。具体的には、以下の同一
性判定条件1)〜3)を満たすときに、対象物A、Bと
対象物C、Dとは同一であると判定し、対象物C、Dを
それぞれ対象物A、Bというラベルに変更することによ
り、時刻間追跡が行われる。
After the center of gravity of the object, the area, and the aspect ratio of the circumscribed quadrangle can be calculated, the object is time-tracked, that is, the same object is recognized for each sampling cycle (step S9). In the time tracking, the time t as an analog quantity is discretized in the sampling cycle as k, and
When the objects A and B are extracted at time k as shown in (a), the identities of the objects C and D extracted at time (k + 1) and the objects A and B are determined. Specifically, when the following identity determination conditions 1) to 3) are satisfied, it is determined that the objects A and B and the objects C and D are the same, and the objects C and D are respectively the objects. By changing the labels to A and B, time tracking is performed.

【0017】1)時刻kにおける対象物i(=A,B)
の画像上での重心位置座標を、それぞれ(xi(k),
yi(k))とし、時刻(k+1)における対象物j
(=C,D)の画像上での重心位置座標を、(xj(k
+1),yj(k+1))としたとき、|xj(k+
1)−xi(k)|<Δx|yj(k+1)−yi
(k)|<Δyであること。ただし、Δx、Δyは、そ
れぞれx方向及びy方向の画像上の移動量の許容値であ
る。2)時刻kにおける対象物i(=A,B)の画像上
での面積をSi(k)とし、時刻(k+1)における対
象物j(=C,D)の画像上での面積をSj(k+1)
としたとき、Sj(k+1)/Si(k)<1±ΔSで
あること。ただし、ΔSは面積変化の許容値である。
3)時刻kにおける対象物i(=A,B)の外接四角形
の縦横比をASPECTi(k)とし、時刻(k+1)
における対象物j(=C,D)の外接四角形の縦横比を
ASPECTj(k+1)としたとき、ASPECTj
(k+1)/ASPECTi(k)<1±ΔASPEC
Tであること。ただし、ΔASPECTは縦横比変化の
許容値である。
1) Object i (= A, B) at time k
The barycentric position coordinates on the image of (xi (k),
yi (k)) and the object j at time (k + 1)
The coordinates of the position of the center of gravity on the image of (= C, D) are represented by (xj (k
+1), yj (k + 1)), | xj (k +
1) -xi (k) | <Δx | yj (k + 1) -yi
(K) | <Δy. However, Δx and Δy are allowable values of the amount of movement on the image in the x direction and the y direction, respectively. 2) Let Si (k) be the area of the object i (= A, B) on the image at time k, and let Sj (be the area of the object j (= C, D) on the image at time (k + 1). k + 1)
Then, Sj (k + 1) / Si (k) <1 ± ΔS. However, ΔS is the allowable value of the area change.
3) Let ASPECTi (k) be the aspect ratio of the circumscribed quadrangle of the object i (= A, B) at time k, and set it to time (k + 1).
Assuming that the aspect ratio of the circumscribed quadrangle of the object j (= C, D) is ASPECTj (k + 1), ASPECTj
(K + 1) / ASPECTi (k) <1 ± ΔASPEC
Be T. However, ΔASPECT is the allowable value of the aspect ratio change.

【0018】例えば、図7(a)と(b)とを対比する
と、各対象物は画像上での大きさが大きくなっている
が、対象物Aと対象物Cとが上記同一性判定条件を満た
し、対象物Bと対象物Dとが上記同一性判定条件を満た
すので、対象物C、Dはそれぞれ対象物A、Bと認識さ
れる。このようにして認識された各対象物の(重心の)
位置座標は、時系列位置データとしてメモリに格納さ
れ、後の演算処理に使用される。なお、以上説明したス
テップS4〜S9の処理は、2値化した基準画像(本実
施形態では、右画像)について実行する。次に、車速セ
ンサ4により検出される車速VCAR及びヨーレートセ
ンサ3より検出されるヨーレートYRを読み込み、ヨー
レートYRを時間積分することより、図8に示すように
自車両10の回頭角θrを算出する(ステップS1
0)。
For example, comparing FIGS. 7 (a) and 7 (b), the size of each target object on the image is large, but the target object A and the target object C have the above-described identity determination conditions. And the object B and the object D satisfy the above-described identity determination condition, the objects C and D are recognized as the objects A and B, respectively. Each object (of the center of gravity) recognized in this way
The position coordinates are stored in the memory as time-series position data and used in the subsequent arithmetic processing. The processes of steps S4 to S9 described above are executed for the binarized reference image (the right image in this embodiment). Next, the vehicle speed VCAR detected by the vehicle speed sensor 4 and the yaw rate YR detected by the yaw rate sensor 3 are read and the yaw rate YR is integrated over time to calculate the turning angle θr of the host vehicle 10 as shown in FIG. (Step S1
0).

【0019】一方、ステップS9とステップS10の処
理に平行して、ステップS11〜S13では、対象物と
自車両10との距離zを算出する処理を行う。この演算
はステップS9、及びステップS10より長い時間を要
するため、ステップS9、S10より長い周期(例えば
ステップS1〜S10の実行周期の3倍程度の周期)で
実行される。まず、基準画像(右画像)の2値化画像に
よって追跡される対象物の中の1つを選択することによ
り、図9(a)に示すように右画像から探索画像R1
(ここでは、外接四角形で囲まれる領域全体を探索画像
とする)を抽出する(ステップS11)。
On the other hand, in parallel with the processing in steps S9 and S10, in steps S11 to S13, processing for calculating the distance z between the object and the vehicle 10 is performed. Since this calculation requires a longer time than steps S9 and S10, it is executed at a cycle longer than steps S9 and S10 (for example, a cycle about three times the execution cycle of steps S1 to S10). First, by selecting one of the objects tracked by the binarized image of the reference image (right image), the search image R1 from the right image is selected as shown in FIG.
(Here, the entire area surrounded by the circumscribed quadrangle is used as the search image) is extracted (step S11).

【0020】次に、左画像中から探索画像に対応する画
像(以下「対応画像」という)を探索する探索領域を設
定し、相関演算を実行して対応画像を抽出する(ステッ
プS12)。具体的には、図9(b)に示すように、探
索画像R1の各頂点座標に応じて、左画像中に探索領域
R2を設定し、探索領域R2内で探索画像R1との相関
の高さを示す輝度差分総和値C(a,b)を下記式
(4)により算出し、この総和値C(a,b)が最小と
なる領域を対応画像として抽出する。なお、この相関演
算は、2値化画像ではなくグレースケール画像を用いて
行う。また同一対象物についての過去の位置データがあ
るときは、その位置データに基づいて探索領域R2より
狭い領域R2a(図9(b)に破線で示す)を探索領域
として設定する。
Next, a search area for searching an image (hereinafter referred to as "corresponding image") corresponding to the search image from the left image is set, and correlation calculation is executed to extract the corresponding image (step S12). Specifically, as shown in FIG. 9B, a search region R2 is set in the left image according to the coordinates of each vertex of the search image R1, and a high correlation with the search image R1 is set in the search region R2. The brightness difference sum total value C (a, b) indicating the brightness is calculated by the following equation (4), and the area where the sum total value C (a, b) is minimum is extracted as the corresponding image. Note that this correlation calculation is performed using a grayscale image instead of a binarized image. If there is past position data for the same object, a region R2a (shown by a broken line in FIG. 9B) narrower than the search region R2 is set as the search region based on the position data.

【数3】 ここで、IR(m,n)は、図10に示す探索画像R1
内の座標(m,n)の位置の輝度値であり、IL(a+
m−M,b+n−N)は、探索領域内の座標(a,b)
を基点とした、探索画像R1と同一形状の局所領域R3
内の座標(m,n)の位置の輝度値である。基点の座標
(a,b)を変化させて輝度差分総和値C(a,b)が
最小となる位置を求めることにより、対応画像の位置が
特定される。
[Equation 3] Here, IR (m, n) is the search image R1 shown in FIG.
The brightness value at the position of coordinates (m, n) in
m−M, b + n−N) is the coordinates (a, b) in the search area
The local region R3 having the same shape as the search image R1 with the base point
It is the luminance value at the position of the coordinates (m, n) within. The position of the corresponding image is specified by changing the coordinates (a, b) of the base point and obtaining the position where the luminance difference summation value C (a, b) is the minimum.

【0021】ステップS12の処理により、図11に示
すように探索画像R1と、この対象物に対応する対応画
像R4とが抽出されるので、次に、探索画像R1の重心
位置と、画像中心線LCTRとの距離dR(画素数)及
び対応画像R4の重心位置と画像中心線LCTRとの距
離dL(画素数)を求め、下記式(5)に適用して、自
車両10と、対象物との距離zを算出する(ステップS
13)。
Since the search image R1 and the corresponding image R4 corresponding to this object are extracted by the processing of step S12, as shown in FIG. 11, the center of gravity position of the search image R1 and the image center line are next extracted. The distance dR (the number of pixels) from the LCTR and the distance dL (the number of pixels) between the center of gravity of the corresponding image R4 and the image center line LCTR are obtained and applied to the following equation (5) to determine the own vehicle 10 and the object. To calculate the distance z (step S
13).

【数4】 ここで、Bは基線長、赤外線カメラ2Rの撮像素子の中
心位置と、赤外線カメラ2Lの撮像素子の中心位置との
水平方向の距離(両赤外線カメラの光軸の間隔)、Fは
赤外線カメラ2R、2Lのレンズの焦点距離、pは赤外
線カメラ2R、2Lの撮像素子内の画素間隔であり、Δ
d(=dR+dL)が視差量である。
[Equation 4] Here, B is the baseline length, the horizontal distance between the center position of the image sensor of the infrared camera 2R and the center position of the image sensor of the infrared camera 2L (the distance between the optical axes of both infrared cameras), and F is the infrared camera 2R. , 2L is the focal length of the lens, p is the pixel interval in the image sensor of the infrared camera 2R, 2L, and Δ
d (= dR + dL) is the amount of parallax.

【0022】ステップS10における回頭角θrの算出
と、ステップS13における対象物との距離算出が完了
したら、画像内の座標(x,y)及び式(5)により算
出した距離zを下記式(6)に適用し、実空間座標
(X,Y,Z)に変換する(ステップS14)。ここ
で、実空間座標(X,Y,Z)は、図2に示すように、
赤外線カメラ2R、2Lの取り付け位置の中点の位置
(自車両10に固定された位置)を原点Oとして、図示
のように定め、画像内の座標は、画像の中心を原点とし
て水平方向をx、垂直方向をyと定めている。
When the calculation of the turning angle θr in step S10 and the calculation of the distance to the object in step S13 are completed, the coordinate z (x, y) in the image and the distance z calculated by the equation (5) are calculated by the following equation (6). ), And transforms into real space coordinates (X, Y, Z) (step S14). Here, the real space coordinates (X, Y, Z) are as shown in FIG.
The position of the midpoint of the mounting position of the infrared cameras 2R, 2L (the position fixed to the vehicle 10) is set as the origin O, and is defined as shown in the figure. The coordinates in the image are the origin of the center of the image and the horizontal direction is x , And the vertical direction is defined as y.

【数5】 ここで、(xc,yc)は、右画像上の座標(x,y)
を、赤外線カメラ2Rの取り付け位置と、実空間原点O
との相対位置関係に基づいて、実空間原点Oと画像の中
心とを一致させた仮想的な画像内の座標に変換したもの
である。またfは、焦点距離Fと画素間隔pとの比であ
る。
[Equation 5] Here, (xc, yc) is the coordinate (x, y) on the right image.
Is the mounting position of the infrared camera 2R and the real space origin O
Based on the relative positional relationship between the real space origin O and the center of the image, the coordinates are converted into virtual coordinates in the virtual image. Further, f is the ratio of the focal length F and the pixel interval p.

【0023】また、実空間座標が求められたら、自車両
10が回頭することによる画像上の位置ずれを補正する
ための回頭角補正を行う(ステップS15)。回頭角補
正は、図8に示すように、時刻kから(k+1)までの
期間中に自車両10が例えば左方向に回頭角θrだけ回
頭すると、カメラによって得られる画像上では、図12
に示すようにΔxだけx方向にずれるので、これを補正
する処理である。具体的には、下記式(7)に実空間座
標(X,Y,Z)を適用して、補正座標(Xr,Yr,
Zr)を算出する。算出した実空間位置データ(Xr,
Yr,Zr)は、対象物毎に対応づけてメモリに格納す
る。なお、以下の説明では、回頭角補正後の座標を
(X,Y,Z)と表示する。
Further, when the real space coordinates are obtained, turning angle correction for correcting the positional deviation on the image due to the turning of the vehicle 10 is performed (step S15). As shown in FIG. 8, when the host vehicle 10 turns, for example, to the left by the turning angle θr during the period from time k to (k + 1), the turning angle correction is performed as shown in FIG.
As shown in (4), it is shifted in the x direction by Δx, and this is the process for correcting this. Specifically, the real space coordinates (X, Y, Z) are applied to the following equation (7) to obtain the corrected coordinates (Xr, Yr,
Zr) is calculated. Calculated real space position data (Xr,
Yr, Zr) is stored in the memory in association with each object. In the following description, the coordinates after the turning angle correction are displayed as (X, Y, Z).

【数6】 [Equation 6]

【0024】実空間座標に対する回頭角補正が完了した
ら、次に、同一対象物について、ΔTのモニタ期間内に
得られた、回頭角補正後のN個の実空間位置データ(例
えばN=10程度)、すなわち時系列データから、対象
物と自車両10との相対移動ベクトルに対応する近似直
線LMVを求める(ステップS16)。具体的には、近
似直線LMVの方向を示す方向ベクトルL=(lx,l
y,lz)(|L|=1)とすると、下記式(8)で表
される直線を求める。
After the turning angle correction for the real space coordinates is completed, next, for the same object, N pieces of real space position data after the turning angle correction (for example, about N = 10) obtained within the monitoring period of ΔT. ) That is, the approximate straight line LMV corresponding to the relative movement vector between the object and the vehicle 10 is obtained from the time series data (step S16). Specifically, a direction vector L = (lx, l indicating the direction of the approximate straight line LMV
y, lz) (| L | = 1), a straight line represented by the following equation (8) is obtained.

【数7】 ここでuは、任意の値をとる媒介変数であり、Xav、
Yav、及びZavは、それぞれ実空間位置データ列の
X座標の平均値、Y座標の平均値、及びZ座標の平均値
である。なお、式(8)は媒介変数uを消去すれば下記
式(8a)のようになる。 (X−Xav)/lx=(Y−Yav)/ly=(Z−Zav)/lz ・・・(8a)
[Equation 7] Here, u is a parameter that takes an arbitrary value, and Xav,
Yav and Zav are the average value of the X coordinate, the average value of the Y coordinate, and the average value of the Z coordinate of the real space position data string, respectively. Note that the equation (8) becomes the following equation (8a) if the parameter u is deleted. (X-Xav) / lx = (Y-Yav) / ly = (Z-Zav) / lz (8a)

【0025】また、例えばP(0),P(1),P
(2),…,P(N−2),P(N−1)が回頭角補正
後の時系列データを示す場合、近似直線LMVは、この
時系列データの平均位置座標Pav=(Xav,Ya
v,Zav)を通り、各データ点からの距離の2乗の平
均値が最小となるような直線として求められる。ここ
で、各データ点の座標を示すPに付した()内の数値は
その値が増加するほど過去のデータであることを示す。
例えば、P(0)は最新の位置座標、P(1)は1サン
プル周期前の位置座標、P(2)は2サンプル周期前の
位置座標を示す。
Further, for example, P (0), P (1), P
When (2), ..., P (N-2), P (N-1) indicate the time series data after turning angle correction, the approximate straight line LMV is the average position coordinate Pav = (Xav, Ya
v, Zav), and the average value of the square of the distance from each data point is obtained as a minimum straight line. Here, the numerical value in parentheses attached to P indicating the coordinates of each data point indicates that the data increases as the value increases.
For example, P (0) indicates the latest position coordinate, P (1) indicates the position coordinate one sampling period before, and P (2) indicates the position coordinate two sampling periods before.

【0026】次いで、最新の位置座標P(0)=(X
(0),Y(0),Z(0))と、(N−1)サンプル
前(時間ΔT前)の位置座標P(Nー1)=(X(N−
1),Y(N−1),Z(N−1))を近似直線LMV
上の位置に補正する。具体的には、前記式(8a)にZ
座標Z(0)、Z(N−1)を適用することにより、す
なわち下記式(9)により、補正後の位置座標Pv
(0)=(Xv(0),Yv(0),Zv(0))及び
Pv(N−1)=(Xv(N−1),Yv(N−1),
Zv(N−1))を求める。
Next, the latest position coordinate P (0) = (X
(0), Y (0), Z (0)) and position coordinates P (N-1) = (X (N-) before (N-1) samples (before time ΔT).
1), Y (N-1), Z (N-1)) to the approximate straight line LMV
Correct to the upper position. Specifically, in the formula (8a), Z
By applying the coordinates Z (0) and Z (N-1), that is, by the following formula (9), the corrected position coordinates Pv
(0) = (Xv (0), Yv (0), Zv (0)) and Pv (N-1) = (Xv (N-1), Yv (N-1),
Zv (N-1)) is calculated.

【数8】 [Equation 8]

【0027】式(9)で算出された位置座標Pv(N−
1)からPv(0)に向かうベクトルとして、相対移動
ベクトルが得られる。このようにモニタ期間ΔT内の複
数(N個)のデータから対象物の自車両10に対する相
対移動軌跡を近似する近似直線を算出して相対移動ベク
トルを求めることにより、位置検出誤差の影響を軽減し
て対象物との衝突の可能性をより正確に予測することが
可能となる。また、ステップS16において、相対移動
ベクトルが求められたら、次に、自車両10と検出した
対象物との衝突の可能性を判定するために、赤外線カメ
ラ2R、2Lで監視可能な領域内に警報判定領域を設定
する。
The position coordinates Pv (N- calculated by the equation (9)
A relative movement vector is obtained as a vector from 1) to Pv (0). As described above, the influence of the position detection error is reduced by calculating the relative movement vector by calculating the approximate straight line that approximates the relative movement locus of the object with respect to the own vehicle 10 from the plurality (N pieces) of data within the monitoring period ΔT. Therefore, it is possible to more accurately predict the possibility of collision with the object. Further, when the relative movement vector is obtained in step S16, next, in order to determine the possibility of collision between the vehicle 10 and the detected object, an alarm is issued within an area that can be monitored by the infrared cameras 2R and 2L. Set the judgment area.

【0028】警報判定領域は、図13に示すように、例
えば、赤外線カメラ2R、2Lで監視可能な領域を太い
実線で示す外側の三角形の領域AR0で示し、更に領域
AR0内の、Z1=Vs×Tより自車両10に近い領域
AR1、AR2、AR3を、警報判定領域とする。ここ
で、Tは、余裕時間であり、衝突の可能性を予測衝突時
刻より時間Tだけ前に判定することを意図したものであ
る。従って、余裕時間Tは例えば2〜5秒程度に設定さ
れる。また、領域AR1は、自車両10の車幅方向中心
部の軸の両側に所定の幅を有する領域であって、対象物
がそのまま存在し続ければ衝突の可能性がきわめて高い
と判断される接近判定領域である。一方、領域AR2、
AR3は、接近判定領域AR1よりX座標の絶対値が大
きい(接近判定領域AR1の横方向外側の)領域であ
り、この領域内にある対象物については、後述する進入
衝突判定を行うので、進入判定領域と呼ぶ。なお、これ
らの領域は、Y方向、すなわち高さ方向の範囲を規定す
る所定高さHを有するものとする。なお所定高さHは、
例えば自車両10の車高の2倍程度に設定される。
As shown in FIG. 13, the alarm determination area is, for example, an outer triangular area AR0 indicated by a thick solid line, which is an area that can be monitored by the infrared cameras 2R and 2L, and Z1 = Vs in the area AR0. Areas AR1, AR2, and AR3 that are closer to the host vehicle 10 than xT are set as alarm determination areas. Here, T is a margin time, and is intended to determine the possibility of a collision by a time T before the predicted collision time. Therefore, the allowance time T is set to, for example, about 2 to 5 seconds. Further, the area AR1 is an area having a predetermined width on both sides of the axis of the vehicle width direction central portion of the own vehicle 10, and the approach is determined to have a very high possibility of collision if the object continues to be present. This is a judgment area. On the other hand, the area AR2,
AR3 is an area in which the absolute value of the X coordinate is larger than that of the approach determination area AR1 (outer side of the approach determination area AR1), and the approach collision determination to be described later is performed on an object in this area, so It is called a judgment area. Note that these regions have a predetermined height H that defines the range in the Y direction, that is, the height direction. The predetermined height H is
For example, it is set to about twice the vehicle height of the host vehicle 10.

【0029】具体的な警報判定領域の求め方を説明する
と、まず画像処理ユニット1は、障害物距離による接近
判定領域設定として、抽出対象物が一定時間内に衝突す
る距離を求める(ステップS17)。次に、求められた
距離がL1以上か否かを判定する(ステップS18)。
ステップS18において、求められた距離がL1以上で
あった場合(ステップS18のYES)、図13に示す
ように、接近判定領域AR1の幅Xを左車体側よりX1
の距離(左車体側+X1)に設定する(ステップS1
9)。また、ステップS18において、求められた距離
がL1より短い場合(ステップS18のNO)、求めら
れた距離がL2以上か否かを判定する(ステップS2
0)。
Explaining how to specifically determine the warning determination area, the image processing unit 1 first determines the distance at which the extraction target collides within a certain time as the approach determination area setting based on the obstacle distance (step S17). . Next, it is determined whether the obtained distance is L1 or more (step S18).
When the obtained distance is equal to or greater than L1 in step S18 (YES in step S18), the width X of the approach determination area AR1 is set to X1 from the left vehicle body side as shown in FIG.
To the distance (left vehicle side + X1) (step S1)
9). If the obtained distance is shorter than L1 in step S18 (NO in step S18), it is determined whether the obtained distance is L2 or more (step S2).
0).

【0030】ステップS20において、求められた距離
がL2以上であった場合(ステップS20のYES)、
図13に示すように、接近判定領域AR1の幅Xを左車
体側よりX2の距離(左車体側+X2)に設定する(ス
テップS21)。また、ステップS20において、求め
られた距離がL2より短い場合(ステップS20のN
O)、図13に示すように、接近判定領域AR1の幅X
を左車体側よりX3の距離(左車体側+X3)に設定す
る(ステップS22)。このように、ステップS17か
らステップS22の処理により、抽出対象物が一定時間
内に衝突する距離に基づいて、接近判定領域AR1を自
車両10側から実空間距離を用いて設定する。
In step S20, when the obtained distance is L2 or more (YES in step S20),
As shown in FIG. 13, the width X of the approach determination area AR1 is set to a distance X2 from the left vehicle body side (left vehicle body side + X2) (step S21). Further, in step S20, when the obtained distance is shorter than L2 (N in step S20
O), as shown in FIG. 13, the width X of the approach determination area AR1
Is set to a distance X3 from the left vehicle body side (left vehicle body side + X3) (step S22). In this way, by the processing from step S17 to step S22, the approach determination area AR1 is set using the actual space distance from the vehicle 10 side based on the distance at which the extraction target collides within a fixed time.

【0031】また、ステップS17からステップS22
の処理により、接近判定領域AR1の設定が実行された
ら、次に、検出した対象物との衝突の可能性を判定する
衝突判定処理を行う(ステップS23)。ステップS2
3において衝突判定処理を行った結果、自車両10と検
出した対象物との衝突の可能性がないと判定された場合
(ステップS23のNO)、ステップS1へ戻り、上述
の処理を繰り返す。また、ステップS23において衝突
判定処理を行った結果、自車両10と検出した対象物と
の衝突の可能性があると判定された場合(ステップS2
3のYES)、更に詳細に自車両10と検出した対象物
との衝突の可能性を判定する接近判定領域内か否かの判
定処理(ステップS24)と進入衝突判定処理(ステッ
プS25)を行う。以下、図14に示すように、自車両
10の進行方向に対してほぼ90°の方向から、速度V
pで進行してくる動物20がいる場合を例に取って、衝
突判定処理、接近判定領域内か否かの判定処理、進入衝
突判定処理について詳細に説明する。
Further, steps S17 to S22
When the setting of the approach determination area AR1 is performed by the processing of step 1, the collision determination processing of determining the possibility of collision with the detected object is performed (step S23). Step S2
As a result of performing the collision determination process in 3, when it is determined that there is no possibility of collision between the vehicle 10 and the detected object (NO in step S23), the process returns to step S1 and the above process is repeated. When it is determined that there is a possibility of collision between the vehicle 10 and the detected object as a result of the collision determination process in step S23 (step S2).
3), the determination process (step S24) and the approach collision determination process (step S25) of whether or not the vehicle is within the approach determination region for determining the possibility of collision with the detected object are performed in more detail. . Hereinafter, as shown in FIG. 14, from the direction of approximately 90 ° with respect to the traveling direction of the host vehicle 10, the speed V
Taking as an example the case where there is an animal 20 advancing at p, the collision determination process, the determination process of whether or not it is within the approach determination region, and the approach collision determination process will be described in detail.

【0032】<衝突判定処理>まず、画像処理ユニット
1は、動物20が時間ΔTの間に距離Zv(N−1)か
ら距離Zv(0)に接近したことにより、下記式(1
0)を用いてZ方向の相対速度Vsを算出し、衝突判定
処理を行う。衝突判定処理は、下記式(11)及び(1
2)が成立するとき、衝突の可能性があると判定する処
理である。 Vs=(Zv(N−1)−Zv(0))/ΔT ・・・(10) Zv(0)/Vs≦T ・・・(11) |Yv(0)|≦H ・・・(12) ここで、Zv(0)は最新の距離検出値(vは近似直線
LMVによる補正後のデータであることを示すために付
しているが、Z座標は補正前と同一の値である)であ
り、Zv(N−1)は、時間ΔT前の距離検出値であ
る。またT及びHは、それぞれ上述した余裕時間と、Y
方向、すなわち高さ方向の範囲を規定する所定高さであ
る。
<Collision Judgment Process> First, the image processing unit 1 calculates the following equation (1) when the animal 20 approaches the distance Zv (0) from the distance Zv (N-1) during the time ΔT.
0) is used to calculate the relative velocity Vs in the Z direction, and the collision determination process is performed. The collision determination process is performed by the following equations (11) and (1
When 2) is established, it is a process of determining that there is a possibility of collision. Vs = (Zv (N−1) −Zv (0)) / ΔT ... (10) Zv (0) / Vs ≦ T ... (11) | Yv (0) | ≦ H ... (12) ) Here, Zv (0) is the latest distance detection value (v is added to indicate that the data is corrected by the approximate straight line LMV, but the Z coordinate is the same value as before correction). And Zv (N-1) is a distance detection value before time ΔT. Further, T and H are respectively the above-mentioned allowance time and Y
Direction, that is, a predetermined height that defines a range in the height direction.

【0033】<接近判定領域内か否かの判定処理>ここ
では、対象物がステップS19、またはステップS20
において設定した接近判定領域AR1内に存在するか否
かを判定する。もし、対象物が接近判定領域AR1内に
存在する場合、そのまま存在し続ければ自車両10との
衝突の可能性がきわめて高いと判断する。また、接近判
定領域よりX座標の絶対値が大きい(接近判定領域の横
方向外側の)進入判定領域AR2、またはAR3内に対
象物が存在する場合、以下に示す進入衝突判定を行う。
<Determination Processing for Whether or not it is Within Approach Determination Area> Here, the object is step S19 or step S20.
It is determined whether or not it exists within the approach determination area AR1 set in. If the object exists in the approach determination area AR1, it is determined that the possibility of collision with the host vehicle 10 is extremely high if the object continues to exist. Further, when an object exists in the approach determination area AR2 or AR3 whose absolute value of the X coordinate is larger than that of the approach determination area (laterally outside the approach determination area), the following approach collision determination is performed.

【0034】<進入衝突判定処理>進入衝突判定処理
は、具体的には、画像上での最新のx座標であるxc
(0)(文字cは前述したように画像の中心位置を実空
間原点Oに一致させる補正を行った座標であることを示
すために付している)と、時間ΔT前のx座標であるx
c(N−1)との差が下記式(13)を満たすか否かを
判別し、満たす場合に衝突の可能性が高いと判定する。
<Incoming Collision Judgment Process> Specifically, the incoming collision judgment process is xc which is the latest x coordinate on the image.
(0) (letter c is added to indicate that the center position of the image is corrected to match the real space origin O as described above) and the x coordinate before time ΔT. x
It is determined whether or not the difference from c (N-1) satisfies the following equation (13), and if so, it is determined that the possibility of collision is high.

【数9】 なお、図14に示すように、自車両10の進行方向に対
してほぼ90°の方向から進行してくる動物20がいた
場合、Xv(Nー1)/Zv(N−1)=Xv(0)/
Zr(0)であるとき、換言すれば動物の速度Vpと相
対速度Vsの比Vp/Vs=Xr(Nー1)/Zr(N
−1)であるとき、自車両10から動物20を見る方位
角θdは一定となり、衝突の可能性が高い。式(13)
は、この可能性を自車両10の車幅αを考慮して判定す
るものである。
[Equation 9] Note that, as shown in FIG. 14, when there is an animal 20 traveling from a direction of approximately 90 ° with respect to the traveling direction of the vehicle 10, Xv (N-1) / Zv (N-1) = Xv ( 0) /
When it is Zr (0), in other words, the ratio Vp / Vs of the animal velocity Vp and the relative velocity Vs / Xr (N-1) / Zr (N
In the case of -1), the azimuth angle θd for viewing the animal 20 from the vehicle 10 is constant, and the possibility of collision is high. Formula (13)
Is to determine this possibility in consideration of the vehicle width α of the vehicle 10.

【0035】従って、上述の接近判定領域内か否かの判
定処理(ステップS24)、及び進入衝突判定処理(ス
テップS25)のいずれにおいても、自車両10と検出
した対象物との衝突の可能性がないと判定された場合
(ステップS24のNOに続いてステップS25のNO
へ進む)、ステップS1へ戻り、上述の処理を繰り返
す。また、接近判定領域内か否かの判定処理、及び進入
衝突判定処理のいずれかにより、自車両10と検出した
対象物との衝突の可能性があると判定された場合(ステ
ップS24のYES、またはステップS25のYE
S)、ステップS26の警報出力判定処理へ進む。
Therefore, in both the determination processing (step S24) and the approach collision determination processing (step S25) whether or not the vehicle is within the approach determination area, there is a possibility of collision between the host vehicle 10 and the detected object. If it is determined that there is not (NO in step S24 and then NO in step S25
Process), the process returns to step S1 and the above-described processing is repeated. Further, when it is determined that there is a possibility of collision between the vehicle 10 and the detected object by one of the determination processing whether the vehicle is in the approach determination area and the approach collision determination processing (YES in step S24, Or YE in step S25
S), and proceeds to the alarm output determination process of step S26.

【0036】ステップS26では、以下のようにして警
報出力判定処理、すなわち警報出力を行うか否かの判定
を行う(ステップS26)。警報出力判定処理は、まず
ブレーキセンサ5の出力BRから自車両10の運転者が
ブレーキ操作を行っているか否かを判別する。もし、自
車両10の運転者がブレーキ操作を行っている場合に
は、それによって発生する加速度Gs(減速方向を正と
する)を算出し、この加速度Gsが所定閾値GTHより
大きいときは、ブレーキ操作により衝突が回避されると
判定して警報出力判定処理を終了し(ステップS26の
NO)、ステップS1へ戻り、上述の処理を繰り返す。
これにより、適切なブレーキ操作が行われているとき
は、警報を発しないようにして、運転者に余計な煩わし
さを与えないようにすることができる。
In step S26, an alarm output determination process, that is, determination of whether or not to output an alarm, is performed as follows (step S26). In the alarm output determination process, first, it is determined from the output BR of the brake sensor 5 whether or not the driver of the vehicle 10 is performing a brake operation. If the driver of the host vehicle 10 is performing a braking operation, the acceleration Gs (the deceleration direction is positive) generated thereby is calculated, and if this acceleration Gs is larger than the predetermined threshold value GTH, the brake is applied. When it is determined that the collision is avoided by the operation, the alarm output determination process ends (NO in step S26), the process returns to step S1, and the above-described process is repeated.
As a result, when an appropriate brake operation is performed, an alarm is not issued, and it is possible to prevent the driver from getting annoyed.

【0037】また、加速度Gsが所定閾値GTH以下で
あるとき、または自車両10の運転者がブレーキ操作を
行っていなければ、直ちにステップS27の処理へ進み
(ステップS26のYES)、対象物と接触する可能性
が高いので、スピーカ3を介して音声による警報を発す
る(ステップS27)とともに、画像表示装置7に対し
て、例えば赤外線カメラ2Rにより得られる画像を出力
し、接近してくる対象物を自車両10の運転者に対する
強調映像として表示する(ステップS28)。ここで、
所定閾値GTHは、下記式(14)のように定める。こ
れは、ブレーキ操作中の加速度Gsがそのまま維持され
た場合に、距離Zv(0)以下の走行距離で自車両10
が停止する条件に対応する値である。
When the acceleration Gs is less than or equal to the predetermined threshold value GTH, or when the driver of the own vehicle 10 is not performing the brake operation, the process immediately proceeds to step S27 (YES in step S26) to contact the object. Therefore, an audio alarm is issued via the speaker 3 (step S27), and an image obtained by, for example, the infrared camera 2R is output to the image display device 7 to detect an approaching object. The image is displayed as a highlighted image for the driver of the vehicle 10 (step S28). here,
The predetermined threshold GTH is defined by the following equation (14). This is because when the acceleration Gs during the brake operation is maintained as it is, the vehicle 10 travels at a travel distance equal to or less than the distance Zv (0).
Is a value corresponding to the condition that stops.

【数10】 [Equation 10]

【0038】なお、上述した実施の形態では、自車両の
前方を監視する例を示したが、自車両の後方など、いず
れの方向を監視するようにしてもよい。また、本発明
は、上述した実施形態に限るものではなく、種々の変形
が可能である。例えば、上述の実施の形態では、対象物
の画像を得るための撮像手段として赤外線カメラを使用
したが、例えば特開平9−226490号公報に示され
るように、通常の可視光線のみを検出可能なテレビカメ
ラを使用しても良い。但し、赤外線カメラを用いること
により、動物あるいは走行中の車両などの抽出処理を簡
略化することができるため、演算装置の演算能力が比較
的低いものでも実現できる。また、街灯の少ない道路の
夜間走行時には、対向車へのグレア等を考慮すると、ヘ
ッドライトで照射されて認識可能な距離は、100
[m]レンジまで認識可能な赤外線カメラを使用したナ
イトビジョンカメラと比較して短い。従って、長いレン
ジを持つナイトビジョンカメラを使用することで、夜間
走行時であっても昼間走行時と同様の認識を可能にでき
る。
In the above-described embodiment, an example of monitoring the front of the host vehicle is shown, but any direction such as the rear of the host vehicle may be monitored. Further, the present invention is not limited to the above-described embodiment, but various modifications can be made. For example, in the above-mentioned embodiment, the infrared camera is used as the image pickup means for obtaining the image of the object, but as shown in, for example, Japanese Patent Laid-Open No. 9-226490, only normal visible light can be detected. You may use a TV camera. However, since the infrared camera can be used to simplify the extraction processing of animals or moving vehicles, it is possible to realize a computing device having a relatively low computing capability. In addition, when driving on a road with few street lights at night, considering the glare to oncoming vehicles and the like, the distance recognizable by irradiation with headlights is 100
Shorter than a night vision camera that uses an infrared camera that can recognize up to the [m] range. Therefore, by using a night vision camera having a long range, it is possible to perform the same recognition even during nighttime driving as during daytime driving.

【0039】更に、上述した実施の形態では、障害物警
報装置を搭載した車両を、一例として車両が左側通行を
行う対面交通を採用する交通形式において使用する場合
を説明したが、障害物警報装置を搭載した車両を、車両
が右側通行を行う対面交通を採用する交通形式において
使用する場合は、上述の説明の車両の「左車体側」を
「右車体側」、「右車体側」を「左車体側」に読み替え
るものとする。また、本実施の形態では、画像処理ユニ
ット1が、判定領域設定手段を含んでいる。より具体的
には、図4のS17〜S22が判定領域設定手段に相当
する。
Further, in the above-described embodiment, the case where the vehicle equipped with the obstacle warning device is used in the traffic form adopting the face-to-face traffic in which the vehicle drives on the left side has been described. When a vehicle equipped with is used in a traffic format in which the vehicle uses right-to-side traffic, the "left body side" and "right body side" of the vehicle described above are referred to as "left body side" and "right body side", respectively. It should be read as "left vehicle side". Further, in the present embodiment, the image processing unit 1 includes a determination area setting unit. More specifically, S17 to S22 in FIG. 4 correspond to the determination area setting means.

【0040】以上説明したように、本実施の形態の障害
物警報装置は、接近判定領域において、抽出対象物が一
定時間内に衝突する距離を求め、その距離が自車両10
から離れているほど、自車両10の歩道側(左側通行対
面交通形式の場合は左車体側)から歩行者等の障害物が
自車両10の走行車線上に進入する可能性が高いと共
に、自車両10の運転者が障害物との位置関係を正確に
認識できないと判断する。そして、抽出対象物が一定時
間内に衝突する距離が自車両10から離れるほど、接近
判定領域AR1の幅Xを左車体側より遠くへ拡張するこ
とで、自車両10から離れた領域に存在する、ほぼ静止
した状態から移動を開始する可能性が高い障害物の検出
率を向上させつつ、運転者が障害物の位置関係の認識を
正確に行える自車両10の近傍では、過警報を抑制でき
るという効果が得られる。また、接近判定領域AR1の
歩道側の幅のみを変更することで、対向車等、警報対象
以外の物体に警報を発することを抑制できるという効果
が得られる。
As described above, the obstacle warning device of the present embodiment obtains the distance at which the object to be extracted collides within a fixed time in the approach determination area, and the distance is the own vehicle 10
The farther away from the vehicle 10, the more likely it is that an obstacle such as a pedestrian will enter the lane of the vehicle 10 from the sidewalk side of the vehicle 10 (or the left vehicle body side in the case of the left-hand traffic type). It is determined that the driver of the vehicle 10 cannot accurately recognize the positional relationship with the obstacle. Then, the width X of the approach determination area AR1 is extended farther from the left vehicle body side as the distance at which the extraction target collides within a certain time is farther from the own vehicle 10, so that the extraction object exists in an area far from the own vehicle 10. The over-alarm can be suppressed in the vicinity of the vehicle 10 where the driver can accurately recognize the positional relationship of the obstacle while improving the detection rate of the obstacle that is likely to start moving from a substantially stationary state. The effect is obtained. Further, by changing only the width of the approach determination area AR1 on the sidewalk side, it is possible to obtain an effect that it is possible to suppress issuing an alarm to an object other than the alarm target, such as an oncoming vehicle.

【0041】[0041]

【発明の効果】以上の如く、請求項1に記載の障害物警
報装置によれば、判定領域設定手段により、車両から距
離が離れるほど判定領域の大きさを拡張することで、車
両の運転者の視覚特性に合わせた判定領域を設定するこ
とができる。従って、車両の運転者が側方安全マージン
を正確に判断できる領域、すなわち車両から近い領域で
は判定領域の大きさを必要最低限の大きさとし、車両の
運転者が側方安全マージンを正確に判断しにくい領域、
すなわち車両から距離が離れた領域ほど判定領域の大き
さを拡大することにより、車両近傍の領域では過警報を
抑制し、車両より離れた領域では十分な警報判定を実行
できるという効果が得られる。
As described above, according to the obstacle warning device of the first aspect, the driver of the vehicle is extended by expanding the size of the determination area as the distance from the vehicle is increased by the determination area setting means. It is possible to set the determination area according to the visual characteristics of. Therefore, in the area where the driver of the vehicle can accurately determine the lateral safety margin, that is, in the area near the vehicle, the size of the determination area is set to the minimum necessary size, and the vehicle driver accurately determines the lateral safety margin. Difficult areas,
That is, by increasing the size of the determination region in a region farther from the vehicle, it is possible to suppress an over-alarm in a region near the vehicle and to perform a sufficient alarm determination in a region distant from the vehicle.

【0042】請求項2に記載の障害物警報装置によれ
ば、判定領域設定手段により、特に判定領域内に生体が
存在する可能性が大きい歩道方向の判定領域の大きさを
変更することができる。従って、生体が存在する可能性
の大きい歩道側の警報判定を十分に行いつつ、反対側の
対向車線側に存在する対向車両等、警報対象以外の物体
を障害物として認識し、警報を発する動作を抑制するこ
とができるという効果が得られる。
According to the obstacle warning device of the second aspect, the size of the judgment area in the sidewalk direction in which there is a high possibility that a living body exists particularly in the judgment area can be changed by the judgment area setting means. . Therefore, while sufficiently performing the warning judgment on the sidewalk where the living body is likely to exist, an operation that recognizes an object other than the warning target such as an oncoming vehicle existing on the opposite lane side on the opposite side as an obstacle and issues a warning The effect of being able to suppress is obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の一実施の形態の障害物警報装置の構
成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an obstacle warning device according to an embodiment of the present invention.

【図2】 車両における赤外線カメラやセンサ、ディス
プレイ等の取り付け位置を示す図である。
FIG. 2 is a diagram showing mounting positions of an infrared camera, a sensor, a display and the like in a vehicle.

【図3】 同実施の形態の障害物警報装置の全体動作を
示すフローチャートである。
FIG. 3 is a flowchart showing the overall operation of the obstacle warning device of the same embodiment.

【図4】 同実施の形態の障害物警報装置の全体動作を
示すフローチャートである。
FIG. 4 is a flowchart showing the overall operation of the obstacle warning device of the same embodiment.

【図5】 赤外線カメラにより得られるグレースケール
画像とその2値化画像を示す図である。
FIG. 5 is a diagram showing a grayscale image obtained by an infrared camera and a binarized image thereof.

【図6】 ランレングスデータへの変換処理及びラベリ
ングを示す図である。
FIG. 6 is a diagram showing conversion processing to run length data and labeling.

【図7】 対象物の時刻間追跡を示す図である。FIG. 7 is a diagram showing time tracking of an object.

【図8】 対象物画像の回頭角補正を示す図である。FIG. 8 is a diagram showing a turning angle correction of an object image.

【図9】 右画像中の探索画像と、左画像に設定する探
索領域を示す図である。
FIG. 9 is a diagram showing a search image in the right image and a search area set in the left image.

【図10】 探索領域を対象とした相関演算処理を示す
図である。
FIG. 10 is a diagram showing a correlation calculation process for a search area.

【図11】 対象物の距離算出における対象物視差の算
出方法を示す図である。
[Fig. 11] Fig. 11 is a diagram illustrating a method of calculating an object parallax in calculating an object distance.

【図12】 車両の回頭により発生する画像上の対象物
位置のずれを示す図である。
FIG. 12 is a diagram showing a displacement of an object position on an image caused by turning of a vehicle.

【図13】 車両前方の領域区分を示す図である。FIG. 13 is a diagram showing an area division in front of the vehicle.

【図14】 衝突が発生しやすい場合を示す図である。FIG. 14 is a diagram showing a case where a collision easily occurs.

【符号の説明】[Explanation of symbols]

1 画像処理ユニット 2R、2L 赤外線カメラ 3 ヨーレートセンサ 4 車速センサ 5 ブレーキセンサ 6 スピーカ 7 画像表示装置 10 自車両 S17〜S22 判定領域設定手段 1 Image processing unit 2R, 2L infrared camera 3 Yaw rate sensor 4 vehicle speed sensor 5 Brake sensor 6 speakers 7 Image display device 10 own vehicle S17 to S22 determination area setting means

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/60 180 G06T 7/60 180B G08B 21/00 G08B 21/00 E H04N 7/18 H04N 7/18 J (72)発明者 長岡 伸治 埼玉県和光市中央1丁目4番1号 株式会 社本田技術研究所内 (72)発明者 服部 弘 埼玉県和光市中央1丁目4番1号 株式会 社本田技術研究所内 Fターム(参考) 5B057 AA16 CH01 DA06 DA15 DA16 DC30 5C054 CA05 CC05 CH02 EA05 EB05 FA00 FC01 FC05 FC12 FD07 FE09 FE28 FF03 FF06 HA30 5C086 AA52 BA22 CA28 CB36 DA02 EA40 FA02 5H180 AA01 CC02 CC04 LL01 LL07 5L096 BA02 BA04 CA02 DA03 FA66Front page continuation (51) Int.Cl. 7 identification code FI theme code (reference) G06T 7/60 180 G06T 7/60 180B G08B 21/00 G08B 21/00 E H04N 7/18 H04N 7/18 J (72 ) Inventor Shinji Nagaoka 1-4-1 Chuo, Wako City, Saitama Prefecture Honda R & D Co., Ltd. (72) Inventor Hiroshi Hattori 1-4-1 Chuo, Wako City Saitama Prefecture F-term in Honda R & D Co., Ltd. (Reference) 5B057 AA16 CH01 DA06 DA15 DA16 DC30 5C054 CA05 CC05 CH02 EA05 EB05 FA00 FC01 FC05 FC12 FD07 FE09 FE28 FF03 FF06 HA30 5C086 AA52 BA22 CA28 CB36 DA02 EA40 FA02 5H180 AA01 CC02 BA06 LL02 BA07 LL01 BA02 BA04 LL01 BA02

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 撮像手段により得られる画像情報に基づ
いて、車両と対象物との衝突判定を行う警報判定領域内
における障害物を警報する障害物警報装置において、 前記警報判定領域内に設定され、前記対象物の存在によ
り警報を行うための接近判定領域の幅を、車両からの距
離が離れるほど拡張して設定する判定領域設定手段を備
えたことを特徴とする障害物警報装置。
1. An obstacle warning device for warning an obstacle in an alarm judgment area for judging a collision between a vehicle and an object based on image information obtained by an image pickup means, wherein the obstacle warning device is set in the warning judgment area. An obstacle warning device comprising a judgment area setting means for setting the width of the approach judgment area for issuing an alarm due to the presence of the target object so as to be expanded as the distance from the vehicle increases.
【請求項2】 前記判定領域設定手段が、前記判定領域
における前記車両の走行車線に隣接した歩道方向に幅を
拡張することを特徴とする請求項1に記載の障害物警報
装置。
2. The obstacle warning device according to claim 1, wherein the judgment area setting means expands the width in the sidewalk direction adjacent to the traveling lane of the vehicle in the judgment area.
JP2001353462A 2001-11-19 2001-11-19 Obstacle alarm device Expired - Fee Related JP3961269B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001353462A JP3961269B2 (en) 2001-11-19 2001-11-19 Obstacle alarm device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001353462A JP3961269B2 (en) 2001-11-19 2001-11-19 Obstacle alarm device

Publications (2)

Publication Number Publication Date
JP2003157498A true JP2003157498A (en) 2003-05-30
JP3961269B2 JP3961269B2 (en) 2007-08-22

Family

ID=19165475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001353462A Expired - Fee Related JP3961269B2 (en) 2001-11-19 2001-11-19 Obstacle alarm device

Country Status (1)

Country Link
JP (1) JP3961269B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007293487A (en) * 2006-04-24 2007-11-08 Honda Motor Co Ltd Periphery monitoring method for vehicle, vehicle, periphery monitoring method for vehicle and periphery monitoring program for vehicle
JP2013173404A (en) * 2012-02-23 2013-09-05 Toyota Motor Corp Collision damage reduction system, device control device, and method for reducing collision damage
WO2015025984A1 (en) * 2014-09-01 2015-02-26 株式会社小松製作所 Transport vehicle and control method for same
CN106875691A (en) * 2017-03-15 2017-06-20 北汽福田汽车股份有限公司 Vehicle identifier and vehicle

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108638999B (en) * 2018-05-16 2020-04-10 浙江零跑科技有限公司 Anti-collision early warning system and method based on 360-degree look-around input

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05196736A (en) * 1992-01-20 1993-08-06 Nissan Motor Co Ltd Automobile radar apparatus
JPH06321011A (en) * 1993-05-17 1994-11-22 Mitsubishi Electric Corp Peripheral visual field display
JPH07294251A (en) * 1994-04-22 1995-11-10 Nippon Soken Inc Obstacle detector
JPH08327722A (en) * 1995-05-30 1996-12-13 Fujitsu Ten Ltd Apparatus for adjusting optical axis of beam
JPH0918863A (en) * 1995-06-26 1997-01-17 Yazaki Corp Vehicle rear side monitoring device
JPH1095291A (en) * 1996-09-24 1998-04-14 Honda Access Corp Collision warning system of vehicle
JPH1139596A (en) * 1997-07-17 1999-02-12 Fuji Heavy Ind Ltd Outside monitoring device
JP2001023091A (en) * 1999-07-07 2001-01-26 Honda Motor Co Ltd Picture display device for vehicle
JP2001076298A (en) * 1999-09-07 2001-03-23 Mazda Motor Corp On-vehicle display device
JP2001101596A (en) * 1999-09-27 2001-04-13 Mazda Motor Corp Display device for vehicle
JP2001101593A (en) * 1999-09-29 2001-04-13 Mazda Motor Corp Display device for vehicle

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05196736A (en) * 1992-01-20 1993-08-06 Nissan Motor Co Ltd Automobile radar apparatus
JPH06321011A (en) * 1993-05-17 1994-11-22 Mitsubishi Electric Corp Peripheral visual field display
JPH07294251A (en) * 1994-04-22 1995-11-10 Nippon Soken Inc Obstacle detector
JPH08327722A (en) * 1995-05-30 1996-12-13 Fujitsu Ten Ltd Apparatus for adjusting optical axis of beam
JPH0918863A (en) * 1995-06-26 1997-01-17 Yazaki Corp Vehicle rear side monitoring device
JPH1095291A (en) * 1996-09-24 1998-04-14 Honda Access Corp Collision warning system of vehicle
JPH1139596A (en) * 1997-07-17 1999-02-12 Fuji Heavy Ind Ltd Outside monitoring device
JP2001023091A (en) * 1999-07-07 2001-01-26 Honda Motor Co Ltd Picture display device for vehicle
JP2001076298A (en) * 1999-09-07 2001-03-23 Mazda Motor Corp On-vehicle display device
JP2001101596A (en) * 1999-09-27 2001-04-13 Mazda Motor Corp Display device for vehicle
JP2001101593A (en) * 1999-09-29 2001-04-13 Mazda Motor Corp Display device for vehicle

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007293487A (en) * 2006-04-24 2007-11-08 Honda Motor Co Ltd Periphery monitoring method for vehicle, vehicle, periphery monitoring method for vehicle and periphery monitoring program for vehicle
JP2013173404A (en) * 2012-02-23 2013-09-05 Toyota Motor Corp Collision damage reduction system, device control device, and method for reducing collision damage
WO2015025984A1 (en) * 2014-09-01 2015-02-26 株式会社小松製作所 Transport vehicle and control method for same
JP5990285B2 (en) * 2014-09-01 2016-09-07 株式会社小松製作所 Transport vehicle
CN105993039A (en) * 2014-09-01 2016-10-05 株式会社小松制作所 Transport vehicle and control method for same
US9550493B2 (en) 2014-09-01 2017-01-24 Komatsu Ltd. Transporter vehicle and transporter vehicle control method
JPWO2015025984A1 (en) * 2014-09-01 2017-03-02 株式会社小松製作所 Transport vehicle
CN105993039B (en) * 2014-09-01 2017-11-24 株式会社小松制作所 The control method of carrying vehicle and carrying vehicle
CN106875691A (en) * 2017-03-15 2017-06-20 北汽福田汽车股份有限公司 Vehicle identifier and vehicle

Also Published As

Publication number Publication date
JP3961269B2 (en) 2007-08-22

Similar Documents

Publication Publication Date Title
JP3739693B2 (en) Image recognition device
JP3515926B2 (en) Vehicle periphery monitoring device
JP4615139B2 (en) Vehicle periphery monitoring device
JP3764086B2 (en) Vehicle information providing device
US7050908B1 (en) Lane marker projection method for a motor vehicle vision system
JP4426535B2 (en) Vehicle periphery monitoring device
JP5503728B2 (en) Vehicle periphery monitoring device
JP4410292B1 (en) Vehicle periphery monitoring device
EP2993654B1 (en) Method and system for forward collision warning
JP2003016429A (en) Vehicle periphery monitor device
JP4528283B2 (en) Vehicle periphery monitoring device
JP2003216949A (en) Infrared image processor
JP2002314989A (en) Peripheral monitor for vehicle
JP3916930B2 (en) Approach warning device
JP5292047B2 (en) Vehicle periphery monitoring device
JP3919975B2 (en) Vehicle periphery monitoring device
JP4887537B2 (en) Vehicle periphery monitoring device
JP3949628B2 (en) Vehicle periphery monitoring device
JP3961269B2 (en) Obstacle alarm device
JP4567072B2 (en) Vehicle periphery monitoring device
JP4943403B2 (en) Vehicle periphery monitoring device
JP2004348645A (en) Infrared image recognition apparatus and alarm equipment using the same
JP5430633B2 (en) Vehicle periphery monitoring device
JP2003306103A (en) Alarm display device
JP2001338281A (en) Moving object detector

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070516

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110525

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110525

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130525

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130525

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140525

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees