JP2001018738A - Apparatus for monitoring ambient condition of vehicle - Google Patents

Apparatus for monitoring ambient condition of vehicle

Info

Publication number
JP2001018738A
JP2001018738A JP11192434A JP19243499A JP2001018738A JP 2001018738 A JP2001018738 A JP 2001018738A JP 11192434 A JP11192434 A JP 11192434A JP 19243499 A JP19243499 A JP 19243499A JP 2001018738 A JP2001018738 A JP 2001018738A
Authority
JP
Japan
Prior art keywords
image
vehicle
collision
alarm
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11192434A
Other languages
Japanese (ja)
Other versions
JP3919975B2 (en
Inventor
Hiroshi Hattori
弘 服部
Takayuki Tsuji
孝之 辻
Shinji Nagaoka
伸治 長岡
Masato Watanabe
正人 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP19243499A priority Critical patent/JP3919975B2/en
Publication of JP2001018738A publication Critical patent/JP2001018738A/en
Application granted granted Critical
Publication of JP3919975B2 publication Critical patent/JP3919975B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an apparatus for monitoring ambient conditions of a vehicle that can effectively arouse a driver's attention is a collision with an object detected is highly likely, especially during night driving. SOLUTION: When an object is detected ahead of a vehicle and a collision with the object is determined to be highly likely (S41-S44), an alarm in the form of voice is issued and an image of the object obtained by an infrared camera is displayed on the screen of a head-up display (S51, S52) if the position of the object detected is out of the range of irradiation of the headlight of the vehicle.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、当該車両に衝突す
るおそれのある対象物を検出すべく、当該車両の周辺を
監視し、衝突の可能性が高いときに運転者に警報を発す
る車両の周辺監視装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle for monitoring the periphery of a vehicle to detect an object that may collide with the vehicle and issuing a warning to a driver when the possibility of collision is high. Peripheral monitoring device.

【0002】[0002]

【従来の技術】車両の前方に存在する障害物を検出し、
その障害物の危険度が高いときは、ヘッドアップディス
プレイによりその障害物を赤枠で囲む表示をすることに
より、運転者に確実に危険を知らせるようにした危険情
報警報装置が従来より知られている(特開平6−215
300号公報)。
2. Description of the Related Art An obstacle existing in front of a vehicle is detected,
When the danger of the obstacle is high, a danger information warning device has been conventionally known in which a head-up display displays the obstacle in a red frame so as to reliably inform the driver of the danger. (Japanese Patent Laid-Open No. 6-215)
No. 300).

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記従
来の装置では、検出した障害物の実物の像と表示される
赤枠とがフロントウインドウ上で重畳して示されるよう
に赤枠の表示位置の計算を行い、ヘッドアップディスプ
レイの表示制御を行うようにしているので、表示制御が
複雑化するという問題や、夜間においては遠方に存在す
る障害物の実物像が見えないため警報としての効果が不
十分であるという問題がある。
However, in the above-mentioned conventional apparatus, the display position of the red frame is displayed so that the detected real image of the obstacle and the displayed red frame are superimposed on the front window. Since calculations are performed to control the display of the head-up display, the display control becomes complicated, and at night, the actual image of a distant obstacle cannot be seen, so that the effect as an alarm is not effective. There is a problem that is enough.

【0004】本発明はこの点に着目してなされたもので
あり、特に夜間走行中において検出した対象物との衝突
の可能性が高いときに、運転者の注意を効果的に喚起す
ることができる車両の周辺監視装置を提供することを目
的とする。
The present invention has been made in view of this point. In particular, when the possibility of collision with an object detected during traveling at night is high, it is possible to effectively draw the driver's attention. It is an object of the present invention to provide a vehicle surroundings monitoring device that can be used.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するため
請求項1に記載の発明は、車両の周辺に存在する対象物
の位置を検出する対象物検出手段と、検出された対象物
と当該車両との衝突の可能性を判定する判定手段と、該
判定手段により衝突の可能性が高いと判定されたとき、
運転者に警報を発する警報手段とを備えた車両の周辺監
視装置において、赤外線を検出可能な撮像手段と、前記
運転者が見ることができる位置に配置され、画像を表示
する画像表示手段とを備え、前記警報手段は、前記判定
手段により衝突の可能性が高いと判定された場合におい
て、前記位置検出手段により検出された前記対象物の位
置が、当該車両のヘッドライトの照射範囲外にあるとき
は、音声による警報を発するとともに前記撮像手段によ
り得られる前記対象物の画像を前記画像表示手段に表示
することを特徴とする。
According to a first aspect of the present invention, there is provided an object detecting means for detecting a position of an object existing around a vehicle, and a detecting means for detecting the position of the detected object. Determining means for determining the possibility of collision with the vehicle, and when the determination means determines that the possibility of collision is high,
In a vehicle periphery monitoring device provided with alarm means for issuing an alarm to a driver, an image pickup means capable of detecting infrared rays, and an image display means arranged at a position where the driver can see and displaying an image. The warning means includes: when the determination means determines that the possibility of collision is high, the position of the object detected by the position detection means is out of an irradiation range of headlights of the vehicle. At this time, an alarm by voice is issued and an image of the object obtained by the imaging means is displayed on the image display means.

【0006】この構成によれば、衝突の可能性が高いと
判定され、かつヘッドライトの照射範囲外にある対象物
については警報音声とともに画像表示手段にその対象物
の画像が表示されるので、音声のみの警報に比べて運転
者の注意をより効果的に喚起することができる。
According to this configuration, for an object that is determined to have a high possibility of collision and is out of the irradiation range of the headlight, an image of the object is displayed on the image display means together with an alarm sound. The driver's attention can be more effectively called as compared with the sound-only warning.

【0007】前記警報手段は、検出した対象物が前記ヘ
ッドライトの照射範囲外にある場合であっても、所定時
間以内に前記照射範囲内に入ると予測されるときは、前
記画像表示手段による表示は行わないことが望ましい。
ここで「所定時間」は、運転者が車外前方に向けている
視線を前記画像表示手段へ移し、再度車外前方に移すの
に要する視線移動時間と、対象物の認識に要する認識時
間とを合計した時間とする。この構成によれば、対象物
像を画像表示手段に表示することによる効果が期待でき
る場合のみ表示を行うようにすることができる。
[0007] Even if the detected object is out of the irradiation range of the headlight, the alarm means is provided by the image display means when it is predicted that the detected object enters the irradiation range within a predetermined time. It is desirable not to display.
Here, the “predetermined time” is the sum of the line-of-sight movement time required to move the driver's line of sight toward the front outside the vehicle to the image display means and to move the driver back outside the vehicle again, and the recognition time required to recognize the target object. Time. According to this configuration, the display can be performed only when the effect of displaying the target object image on the image display means can be expected.

【0008】[0008]

【発明の実施の形態】以下本発明の実施の形態を図面を
参照して説明する。図1は本発明の一実施形態にかかる
車両の周辺監視装置の構成を示す図であり、この装置
は、遠赤外線を検出可能な撮像手段としての2つの赤外
線カメラ1R,1Lと、当該車両のヨーレートを検出す
るヨーレートセンサ5と、当該車両の走行速度(車速)
VCARを検出する車速センサ6と、ブレーキの操作量
を検出するためのブレーキセンサ7と、これらのカメラ
1R,1Lによって得られる画像データの基づいて車両
前方の動物等の対象物を検出し、衝突の可能性が高い場
合に警報を発する画像処理ユニット2と、音声で警報を
発するためのスピーカ3と、カメラ1Rまたは1Lによ
って得られる画像を表示するとともに、衝突の可能性が
高い対象物を運転者に認識させるためのヘッドアップデ
ィスプレイ(以下「HUD」という)4とを備えてい
る。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing a configuration of a vehicle periphery monitoring device according to one embodiment of the present invention. This device includes two infrared cameras 1R and 1L as imaging means capable of detecting far infrared rays, and A yaw rate sensor 5 for detecting a yaw rate and a traveling speed (vehicle speed) of the vehicle
A vehicle speed sensor 6 for detecting a VCAR, a brake sensor 7 for detecting an operation amount of a brake, and an object such as an animal in front of the vehicle are detected based on image data obtained by the cameras 1R and 1L, and a collision is detected. The image processing unit 2 that issues an alarm when the possibility of collision is high, the speaker 3 that issues an alarm by voice, the image obtained by the camera 1R or 1L, and the driving of an object with a high possibility of collision And a head-up display (hereinafter, referred to as “HUD”) 4 for allowing a person to recognize.

【0009】カメラ1R、1Lは、図2に示すように車
両10の前部に、車両10の横方向の中心軸に対してほ
ぼ対象な位置に配置されており、2つのカメラ1R、1
Lの光軸が互いに平行となり、両者の路面からの高さが
等しくなるように固定されている。赤外線カメラ1R、
1Lは、対象物の温度が高いほど、その出力信号レベル
が高くなる(輝度が増加する)特性を有している。
As shown in FIG. 2, the cameras 1R and 1L are arranged in front of the vehicle 10 at positions substantially symmetrical with respect to the central axis of the vehicle 10 in the lateral direction.
The optical axes of L are fixed so that they are parallel to each other and their heights from the road surface are equal. Infrared camera 1R,
1L has the characteristic that the higher the temperature of the object, the higher the output signal level (the higher the luminance).

【0010】画像処理ユニット2は、入力アナログ信号
をディジタル信号に変換するA/D変換回路、ディジタ
ル化した画像信号を記憶する画像メモリ、各種演算処理
を行うCPU(Central Processing Unit)、CPUが
演算途中のデータを記憶するために使用するRAM(Ra
ndom Access Memory)、CPUが実行するプログラムや
テーブル、マップなどを記憶するROM(Read Only Me
mory)、スピーカ3の駆動信号、HUD4の表示信号な
どを出力する出力回路などを備えており、カメラ1R,
1L及びセンサ5〜7の出力信号は、ディジタル信号に
変換されて、CPUに入力されるように構成されてい
る。HUD4は、図2に示すように、車両10のフロン
トウインドウの、運転者の前方位置に画面4aが表示さ
れるように設けられている。
The image processing unit 2 includes an A / D conversion circuit for converting an input analog signal into a digital signal, an image memory for storing digitized image signals, a CPU (Central Processing Unit) for performing various types of arithmetic processing, and a CPU for performing arithmetic operations. RAM used to store intermediate data (Ra
ROM (Read Only Memory) for storing programs, tables, maps, etc., executed by the CPU.
mory), an output circuit for outputting a drive signal for the speaker 3, a display signal for the HUD 4, and the like.
1L and the output signals of the sensors 5 to 7 are converted into digital signals and input to the CPU. As shown in FIG. 2, the HUD 4 is provided such that a screen 4a is displayed at a position in front of the driver in a front window of the vehicle 10.

【0011】図3は画像処理ユニット2における処理の
手順を示すフローチャートであり、先ずカメラ1R、1
Lの出力信号をA/D変換して画像メモリに格納する
(ステップS11,S12,S13)。画像メモリに格
納される画像は、輝度情報を含んだグレースケール画像
である。図5(a)(b)は、それぞれはカメラ1R,
1Lによって得られるグレースケール画像(カメラ1R
により右画像が得られ、カメラ1Lにより左画像が得ら
れる)を説明するための図であり、ハッチングを付した
領域は、中間階調(グレー)の領域であり、太い実線で
囲んだ領域が、輝度レベルが高く(高温で)、画面上に
白色として表示される対象物の領域(以下「高輝度領
域」という)である。右画像と左画像では、同一の対象
物の画面上の水平位置がずれて表示されるので、このず
れ(視差)によりその対象物までの距離を算出すること
ができる。
FIG. 3 is a flowchart showing the procedure of processing in the image processing unit 2. First, the camera 1R, 1
The output signal of L is A / D converted and stored in the image memory (steps S11, S12, S13). The image stored in the image memory is a gray scale image including luminance information. FIGS. 5A and 5B respectively show the camera 1R,
1L (camera 1R)
To obtain a right image and a camera 1L to obtain a left image). The hatched area is an area of intermediate gradation (gray), and the area surrounded by a thick solid line is , An area of the object having a high luminance level (at a high temperature) and displayed on the screen as white (hereinafter, referred to as a “high luminance area”). In the right image and the left image, the horizontal position of the same object on the screen is shifted, so that the distance to the object can be calculated from the shift (parallax).

【0012】図3のステップS14では、右画像を基準
画像とし、その画像信号の2値化、すなわち、実験的に
決定される輝度閾値ITHより明るい領域を「1」
(白)とし、暗い領域を「0」(黒)とする処理を行
う。図6に図5(a)の画像を2値化した画像を示す。
この図は、ハッチングを付した領域が黒であり、太い実
線で囲まれた高輝度領域が白であることを示している。
In step S14 of FIG. 3, the right image is used as a reference image, and the image signal is binarized, that is, an area brighter than an experimentally determined luminance threshold ITH is set to "1".
(White) and the dark area is set to “0” (black). FIG. 6 shows an image obtained by binarizing the image shown in FIG.
This figure shows that the hatched area is black, and the high-luminance area surrounded by the thick solid line is white.

【0013】続くステップS15では、2値化した画像
データをランレングスデータに変換する処理を行う。図
7(a)はこれを説明するための図であり、この図では
2値化により白となった領域を画素レベルでラインL1
〜L8として示している。ラインL1〜L8は、いずれ
もy方向には1画素の幅を有しており、実際にはy方向
には隙間なく並んでいるが、説明のために離間して示し
ている。またラインL1〜L8は、x方向にはそれぞれ
2画素、2画素、3画素、8画素、7画素、8画素、8
画素、8画素の長さを有している。ランレングスデータ
は、ラインL1〜L8を各ラインの開始点(各ラインの
左端の点)の座標と、開始点から終了点(各ラインの右
端の点)までの長さ(画素数)とで示したものである。
例えばラインL3は、(x3,y5)、(x4,y5)
及び(x5,y5)の3画素からなるので、ランレング
スデータとしては、(x3,y5,3)となる。
In the following step S15, a process for converting the binarized image data into run-length data is performed. FIG. 7A is a diagram for explaining this. In FIG. 7A, an area whitened due to binarization is represented by a line L1 at a pixel level.
LL8. Each of the lines L1 to L8 has a width of one pixel in the y direction and is actually arranged without a gap in the y direction, but is shown apart for the sake of explanation. Lines L1 to L8 are respectively 2 pixels, 2 pixels, 3 pixels, 8 pixels, 7 pixels, 8 pixels, 8 pixels in the x direction.
Pixels have a length of 8 pixels. The run-length data indicates the lines L1 to L8 by using the coordinates of the start point of each line (the left end point of each line) and the length (the number of pixels) from the start point to the end point (the right end point of each line). It is shown.
For example, the line L3 is (x3, y5), (x4, y5)
And (x5, y5), the run-length data is (x3, y5, 3).

【0014】ステップS16、S17では、図7(b)
に示すように対象物のラベリングをすることにより、対
象物を抽出する処理を行う。すなわち、ランレングスデ
ータ化したラインL1〜L8のうち、y方向に重なる部
分のあるラインL1〜L3を1つの対象物1とみなし、
ラインL4〜L8を1つの対象物2とみなし、ランレン
グスデータに対象物ラベル1,2を付加する。この処理
により、例えば図6に示す高輝度領域が、それぞれ対象
物1から4として把握されることになる。
In steps S16 and S17, FIG.
A process of extracting the target object is performed by labeling the target object as shown in FIG. That is, among the lines L1 to L8 converted into run-length data, the lines L1 to L3 having a portion overlapping in the y direction are regarded as one object 1,
The lines L4 to L8 are regarded as one object 2, and object labels 1 and 2 are added to the run-length data. By this processing, for example, the high luminance areas shown in FIG.

【0015】ステップS18では図7(c)に示すよう
に、抽出した対象物の重心G、面積S及び破線で示す外
接四角形の縦横比ASPECTを算出する。面積Sは、
ランレングスデータの長さを同一対象物について積算す
ることにより算出し、重心Gの座標は、面積Sをx方向
に2等分する線のx座標及びy方向に2等分する線のy
座標として算出し、縦横比APECTは、図7(c)に
示すDyとDxとの比Dy/Dxとして算出する。な
お、重心Gの位置は、外接四角形の重心位置で代用して
もよい。
In step S18, as shown in FIG. 7C, the center of gravity G, the area S, and the aspect ratio ASPECT of the circumscribed rectangle indicated by the broken line are calculated. The area S is
The length of the run-length data is calculated by integrating the same object, and the coordinates of the center of gravity G are calculated as x-coordinates of a line that bisects the area S in the x-direction and y of a line that bisects the area S in the y-direction.
Calculated as coordinates, and the aspect ratio APECT is calculated as the ratio Dy / Dx between Dy and Dx shown in FIG. The position of the center of gravity G may be replaced by the position of the center of gravity of a circumscribed rectangle.

【0016】ステップS19では、対象物の時刻間追
跡、すなわちサンプリング周期毎に同一対象物の認識を
行う。アナログ量としての時刻tをサンプリング周期で
離散化した時刻をkとし、図8(a)に示すように時刻
kで対象物1,2を抽出した場合において、時刻(k+
1)で抽出した対象物3,4と、対象物1,2との同一
性判定を行う。具体的には、以下の同一性判定条件1)
〜3)を満たすときに、対象物1、2と対象物3、4と
は同一であると判定し、対象物3、4をそれぞれ1,2
というラベルに変更することにより、時刻間追跡が行わ
れる。
In step S19, the object is tracked over time, that is, the same object is recognized in each sampling cycle. The time at which the time t as the analog quantity is discretized at the sampling period is k, and when the objects 1 and 2 are extracted at the time k as shown in FIG.
The identity of the objects 3 and 4 extracted in 1) and the objects 1 and 2 is determined. Specifically, the following identity determination conditions 1)
When 3) are satisfied, it is determined that the objects 1 and 2 are the same as the objects 3 and 4, and the objects 3 and 4 are respectively 1 and 2.
The time tracking is performed by changing the label to "."

【0017】1)時刻kにおける対象物i(=1,2)
の画像上での重心位置座標を、それぞれ(xi(k),
yi(k))とし、時刻(k+1)における対象物j
(=3,4)の画像上での重心位置座標を、(xj(k
+1),yj(k+1))としたとき、 |xj(k+1)−xi(k)|<Δx |yj(k+1)−yi(k)|<Δy であること。ただし、Δx、Δyは、それぞれx方向及
びy方向の画像上の移動量の許容値である。
1) Object i at time k (= 1, 2)
The coordinates of the position of the center of gravity on the image of (xi (k),
yi (k)) and the object j at time (k + 1)
The coordinates of the position of the center of gravity of the image of (= 3, 4) are represented by (xj (k
+1), yj (k + 1)), | xj (k + 1) −xi (k) | <Δx | yj (k + 1) −yi (k) | <Δy. Here, Δx and Δy are allowable values of the moving amount on the image in the x direction and the y direction, respectively.

【0018】2)時刻kにおける対象物i(=1,2)
の画像上での面積をSi(k)とし、時刻(k+1)に
おける対象物j(=3,4)の画像上での面積をSj
(k+1)としたとき、 Sj(k+1)/Si(k)<1±ΔS であること。ただし、ΔSは面積変化の許容値である。
2) Object i at time k (= 1, 2)
Is the area on the image Si (k), and the area of the object j (= 3, 4) on the image at time (k + 1) is Sj
When (k + 1), Sj (k + 1) / Si (k) <1 ± ΔS. Here, ΔS is an allowable value of the area change.

【0019】3)時刻kにおける対象物i(=1,2)
の外接四角形の縦横比をASPECTi(k)とし、時
刻(k+1)における対象物j(=3,4)の外接四角
形の縦横比をASPECTj(k+1)としたとき、 ASPECTj(k+1)/ASPECTi(k)<1
±ΔASPECT であること。ただし、ΔASPECTは縦横比変化の許
容値である。
3) Object i at time k (= 1, 2)
Let ASPECTi (k) denote the aspect ratio of the circumscribed rectangle of ASPECTj (k + 1), and let ASPECTj (k + 1) denote the aspect ratio of the circumscribed rectangle of the object j (= 3, 4) at time (k + 1). ) <1
± ΔASPECT. However, ΔASPECT is an allowable value of the change in the aspect ratio.

【0020】図8(a)と(b)とを対比すると、各対
象物は画像上での大きさが大きくなっているが、対象物
1と3とが上記同一性判定条件を満たし、対象物2と4
とが上記同一性判定条件を満たすので、対象物3、4は
それぞれ対象物1、2と認識される。このようにして認
識された各対象物の(重心の)位置座標は、時系列位置
データとしてメモリに格納され、後の演算処理に使用さ
れる。なお以上説明したステップS14〜S19の処理
は、2値化した基準画像(本実施形態では、右画像)つ
いて実行する。
8 (a) and 8 (b), each object has a large size on the image, but objects 1 and 3 satisfy the above-described identity determination condition, and Things 2 and 4
Satisfy the above-described identity determination condition, the objects 3 and 4 are recognized as the objects 1 and 2, respectively. The position coordinates (of the center of gravity) of each object recognized in this way are stored in a memory as time-series position data, and are used in subsequent arithmetic processing. The processes in steps S14 to S19 described above are executed for the binarized reference image (the right image in the present embodiment).

【0021】図3のステップS20では、車速センサ6
により検出される車速VCAR及びヨーレートセンサ5
より検出されるヨーレートYRを読み込み、ヨーレート
YRを時間積分することより、自車両10の回頭角θr
(図14参照)を算出する。
In step S20 of FIG. 3, the vehicle speed sensor 6
Speed VCAR and yaw rate sensor 5 detected by
By reading the detected yaw rate YR and integrating the yaw rate YR with time, the turning angle θr of the host vehicle 10 is obtained.
(See FIG. 14).

【0022】一方、ステップS31〜S33では、ステ
ップS19,S20の処理と平行して、対象物と自車両
10と距離zを算出する処理を行う。この演算はステッ
プS19,S20より長い時間を要するため、ステップ
S19,S20より長い周期(例えばステップS11〜
S20の実行周期の3倍程度の周期)で実行される。
On the other hand, in steps S31 to S33, processing for calculating the distance z between the object and the host vehicle 10 is performed in parallel with the processing in steps S19 and S20. Since this operation requires a longer time than steps S19 and S20, a period longer than steps S19 and S20 (for example, steps S11 to S20)
(The cycle is about three times the execution cycle of S20).

【0023】ステップS31では、基準画像(右画像)
の2値化画像によって追跡される対象物の中の1つを選
択することにより、図9(a)に示すように右画像から
探索画像R1(ここでは、外接四角形で囲まれる領域全
体を探索画像とする)を抽出する。続くステップS32
では、左画像中から探索画像に対応する画像(以下「対
応画像」という)を探索する探索領域を設定し、相関演
算を実行して対応画像を抽出する。具体的には、探索画
像R1の各頂点座標に応じて左画像中に図9(b)に示
すように、探索領域R2を設定し、探索領域R2内で探
索画像R1との相関の高さを示す輝度差分総和値C
(a,b)を下記式(1)により算出し、この総和値C
(a,b)が最小となる領域を対応画像として抽出す
る。なお、この相関演算は、2値画像ではなくグレース
ケール画像を用いて行う。また同一対象物についての過
去の位置データがあるときは、その位置データに基づい
て探索領域R2より狭い領域R2a(図9(b)に破線
で示す)を探索領域として設定する。
In step S31, a reference image (right image)
By selecting one of the objects tracked by the binarized image of (1), the search image R1 (here, the entire region surrounded by the circumscribed rectangle is searched from the right image as shown in FIG. Image). Subsequent step S32
Then, a search area for searching for an image corresponding to the search image (hereinafter referred to as “corresponding image”) is set from the left image, and a correlation operation is executed to extract the corresponding image. Specifically, as shown in FIG. 9B, a search region R2 is set in the left image according to each vertex coordinate of the search image R1, and the height of the correlation with the search image R1 in the search region R2. Brightness difference sum C indicating
(A, b) is calculated by the following equation (1), and the sum C
An area where (a, b) is minimum is extracted as a corresponding image. Note that this correlation operation is performed using a grayscale image instead of a binary image. When there is past position data for the same object, a region R2a (shown by a broken line in FIG. 9B) smaller than the search region R2 is set as a search region based on the position data.

【数1】 (Equation 1)

【0024】ここで、IR(m,n)は、図10に示す
探索画像R1内の座標(m,n)の位置の輝度値であ
り、IL(a+m−M,b+n−N)は、探索領域内の
座標(a,b)を基点とした、探索画像R1と同一形状
の局所領域R3内の座標(m,n)の位置の輝度値であ
る。基点の座標(a,b)を変化させて輝度差分総和値
C(a,b)が最小となる位置を求めることにより、対
応画像の位置が特定される。
Here, IR (m, n) is the luminance value at the position of the coordinates (m, n) in the search image R1 shown in FIG. 10, and IL (a + m-M, b + n-N) is the search value. The luminance value at the position of the coordinates (m, n) in the local region R3 having the same shape as the search image R1 with the coordinates (a, b) in the region as a base point. The position of the corresponding image is specified by changing the coordinates (a, b) of the base point and obtaining the position where the luminance difference total value C (a, b) is minimized.

【0025】ステップS32の処理により、図11に示
すように探索画像R1と、この対象物に対応する対応画
像R4とが抽出されるので、ステップS33では、探索
画像R1の重心位置と、画像中心線LCTRとの距離d
R(画素数)及び対応画像R4の重心位置と画像中心線
LCTRとの距離dL(画素数)を求め、下記式(2)
に適用して、自車両10と、対象物との距離zを算出す
る。
As shown in FIG. 11, the search image R1 and the corresponding image R4 corresponding to the target object are extracted by the processing in step S32, so that in step S33, the center of gravity of the search image R1 and the center of the image are extracted. Distance d from line LCTR
R (the number of pixels) and the distance dL (the number of pixels) between the center of gravity of the corresponding image R4 and the image center line LCTR are obtained, and the following equation (2) is obtained.
To calculate the distance z between the host vehicle 10 and the target object.

【数2】 (Equation 2)

【0026】ここで、Bは基線長、すなわち図12に示
すようにカメラ1Rの撮像素子11Rの中心位置と、カ
メラ1Lの撮像素子11Lの中心位置との水平方向(x
方向)の距離(両カメラの光軸の間隔)、Fはレンズ1
2R、12Lの焦点距離、pは、撮像素子11R、11
L内の画素間隔であり、Δd(=dR+dL)が視差量
である。
Here, B is the base line length, that is, the horizontal direction (x) between the center position of the image sensor 11R of the camera 1R and the center position of the image sensor 11L of the camera 1L as shown in FIG.
Direction) (the distance between the optical axes of both cameras), F is the lens 1
The focal lengths of 2R and 12L and p are the image pickup devices 11R and 11R.
This is the pixel interval within L, and Δd (= dR + dL) is the amount of parallax.

【0027】ステップS21では、画像内の座標(x,
y)及び式(2)により算出した距離zを下記式(3)
に適用し、実空間座標(X,Y,Z)に変換する。ここ
で、実空間座標(X,Y,Z)は、図13(a)に示す
ように、カメラ1R、1Lの取り付け位置の中点の位置
(自車両10に固定された位置)を原点Oとして、図示
のように定め、画像内の座標は同図(b)に示すよう
に、画像の中心を原点として水平方向をx、垂直方向を
yと定めている。
In step S21, the coordinates (x,
y) and the distance z calculated by the equation (2) are expressed by the following equation (3).
To convert to real space coordinates (X, Y, Z). Here, the real space coordinates (X, Y, Z) are, as shown in FIG. 13A, the origin O, which is the position of the midpoint of the mounting position of the cameras 1R and 1L (the position fixed to the host vehicle 10). The coordinates in the image are defined as x in the horizontal direction and y in the vertical direction with the center of the image as the origin, as shown in FIG.

【数3】 (Equation 3)

【0028】ここで、(xc,yc)は、右画像上の座
標(x,y)を、カメラ1Rの取り付け位置と、実空間
原点Oとの相対位置関係に基づいて、実空間原点Oと画
像の中心とを一致させた仮想的な画像内の座標に変換し
たものである。またfは、焦点距離Fと画素間隔pとの
比である。
Here, (xc, yc) represents the coordinates (x, y) on the right image with the real space origin O based on the relative position relationship between the mounting position of the camera 1R and the real space origin O. This is converted into coordinates in a virtual image in which the center of the image is matched. F is a ratio between the focal length F and the pixel interval p.

【0029】ステップS22では、自車両10が回頭す
ることによる画像上の位置ずれを補正するための回頭角
補正を行う。図14に示すように、時刻kから(k+
1)までの期間中に自車両が例えば左方向に回頭角θr
だけ回頭すると、カメラによって得られる画像上では、
図15に示すようにΔxだけx方向にずれるので、これ
を補正する処理である。具体的には、下記式(4)に実
空間座標(X,Y,Z)を適用して、補正座標(Xr,
Yr,Zr)を算出する。算出した実空間位置データ
(Xr,Yr,Zr)は、対象物毎に対応づけてメモリ
に格納する。なお、以下の説明では、回頭角補正後の座
標を(X,Y,Z)と表示する。
In step S22, a turning angle correction for correcting a positional shift on the image due to the turning of the vehicle 10 is performed. As shown in FIG. 14, (k +
During the period up to 1), the own vehicle is turned to the left, for example, by a turning angle θr
Just turning around, on the image obtained by the camera,
Since it is shifted in the x direction by Δx as shown in FIG. 15, this is a process for correcting this. Specifically, by applying the real space coordinates (X, Y, Z) to the following equation (4), the corrected coordinates (Xr,
Yr, Zr) is calculated. The calculated real space position data (Xr, Yr, Zr) is stored in the memory in association with each object. In the following description, the coordinates after the turning angle correction are displayed as (X, Y, Z).

【数4】 (Equation 4)

【0030】ステップS23では、図16に示すように
同一対象物について、ΔTの期間内に得られた、回頭角
補正後のN個の実空間位置データ(例えばN=10程
度)、すなわち時系列データから、対象物と自車両10
との相対移動ベクトルに対応する近似直線LMVを求め
る。具体的には、近似直線LMVの方向を示す方向ベク
トルL=(lx,ly,lz)(|L|=1)とする
と、下記式(5)で表される直線を求める。
In step S23, as shown in FIG. 16, for the same object, N real space position data (for example, about N = 10) obtained during the period of ΔT after turning angle correction, ie, time series From the data, the object and the vehicle 10
An approximate straight line LMV corresponding to the relative movement vector is obtained. Specifically, assuming that a direction vector L = (lx, ly, lz) (| L | = 1) indicating the direction of the approximate straight line LMV, a straight line represented by the following equation (5) is obtained.

【数5】 (Equation 5)

【0031】ここでuは、任意の値をとる媒介変数であ
り、Xav,Yav及びZavは、それぞれ実空間位置
データ列のX座標の平均値、Y座標の平均値及びZ座標
の平均値である。なお、式(5)は媒介変数uを消去す
れば下記式(5a)のようになる。 (X−Xav)/lx=(Y−Yav)/ly=(Z−Zav)/lz …(5a)
Here, u is a parameter having an arbitrary value, and Xav, Yav, and Zav are the average value of the X coordinate, the average value of the Y coordinate, and the average value of the Z coordinate of the real space position data sequence, respectively. is there. The equation (5) becomes the following equation (5a) if the parameter u is eliminated. (X-Xav) / lx = (Y-Yav) / ly = (Z-Zav) / lz (5a)

【0032】図16は、近似直線LMVを説明するため
の図であり、同図のP(0),P(1),P(2),
…,P(N−2),P(N−1)が回頭角補正後の時系
列データを示し、近似直線LMVは、この時系列データ
の平均位置座標Pav(=(Xav,Yav,Za
v))を通り、各データ点からの距離の2乗の平均値が
最小となるような直線として求められる。ここで各デー
タ点の座標を示すPに付した()内の数値はその値が増
加するほど過去のデータであることを示す。例えば、P
(0)は最新の位置座標、P(1)は1サンプル周期前
の位置座標、P(2)は2サンプル周期前の位置座標を
示す。以下の説明におけるD(j)、X(j)、Y
(j)、Z(j)等も同様である。
FIG. 16 is a diagram for explaining the approximate straight line LMV, in which P (0), P (1), P (2),
, P (N-2) and P (N-1) indicate the time series data after the turning angle correction, and the approximate straight line LMV indicates the average position coordinates Pav (= (Xav, Yav, Za) of the time series data.
v)) is obtained as a straight line that minimizes the average value of the square of the distance from each data point. Here, the numerical value in parentheses attached to P indicating the coordinates of each data point indicates that the larger the value is, the more past the data is. For example, P
(0) indicates the latest position coordinates, P (1) indicates the position coordinates one sample cycle ago, and P (2) indicates the position coordinates two sample cycles ago. D (j), X (j), Y in the following description
The same applies to (j), Z (j), and the like.

【0033】より具体的には、平均位置座標Pavから
各データ点の座標P(0)〜P(N−1)に向かうベク
トルD(j)=(DX(j),DY(j),DZ
(j))=(X(j)−Xav,Y(j)−Yav,Z
(j)−Zav)と、方向ベクトルLとの内積sを下記
式(6)により算出し、この内積sの分散が最大となる
方向ベクトルL=(lx,ly,lz)を求める。 s=lx・DX(j)+ly・DY(j)+lz・DZ(j) (6)
More specifically, a vector D (j) = (DX (j), DY (j), DZ) from the average position coordinates Pav to the coordinates P (0) to P (N-1) of each data point.
(J)) = (X (j) -Xav, Y (j) -Yav, Z
The inner product s of (j) -Zav) and the direction vector L is calculated by the following equation (6), and the direction vector L = (lx, ly, lz) that maximizes the variance of the inner product s is obtained. s = lx.DX (j) + ly.DY (j) + lz.DZ (j) (6)

【0034】各データ点の座標の分散共分散行列Vは、
下記式(7)で表され、この行列の固有値σが内積sの
分散に相当するので、この行列から算出される3つの固
有値のうち最大の固有値に対応する固有ベクトルが求め
る方向ベクトルLとなる。なお、式(7)の行列から固
有値と固有ベクトルを算出するには、ヤコビ法(例えば
「数値計算ハンドブック」(オーム社)に示されてい
る)として知られている手法を用いる。
The variance-covariance matrix V of the coordinates of each data point is
Since the eigenvalue σ of this matrix corresponds to the variance of the inner product s, the directional vector L corresponding to the largest eigenvalue among the three eigenvalues calculated from this matrix is the direction vector L to be obtained. In order to calculate the eigenvalues and eigenvectors from the matrix of Expression (7), a method known as the Jacobi method (for example, shown in “Numerical Calculation Handbook” (Ohm)) is used.

【数6】 (Equation 6)

【0035】次いで最新の位置座標P(0)=(X
(0),Y(0),Z(0))と、(N−1)サンプル
前(時間ΔT前)の位置座標P(Nー1)=(X(N−
1),Y(N−1),Z(N−1))を近似直線LMV
上の位置に補正する。具体的には、前記式(5a)にZ
座標Z(0)、Z(N−1)を適用することにより、す
なわち下記式(8)により、補正後の位置座標Pv
(0)=(Xv(0),Yv(0),Zv(0))及び
Pv(N−1)=(Xv(N−1),Yv(N−1),
Zv(N−1))を求める。
Next, the latest position coordinates P (0) = (X
(0), Y (0), Z (0)) and the position coordinates P (N−1) = (X (N−) before (N−1) samples (before time ΔT).
1), Y (N-1), Z (N-1)) are approximated to the straight line LMV
Correct to the upper position. Specifically, Z in the above equation (5a)
By applying the coordinates Z (0) and Z (N-1), that is, by the following equation (8), the corrected position coordinates Pv
(0) = (Xv (0), Yv (0), Zv (0)) and Pv (N-1) = (Xv (N-1), Yv (N-1),
Zv (N-1)).

【数7】 (Equation 7)

【0036】式(8)で算出された位置座標Pv(N−
1)からPv(0)に向かうベクトルとして、相対移動
ベクトルが得られる。このようにモニタ期間ΔT内の複
数(N個)のデータから対象物の自車両10に対する相
対移動軌跡を近似する近似直線を算出して相対移動ベク
トルを求めることにより、位置検出誤差の影響を軽減し
て対象物との衝突の可能性をより正確に予測することが
可能となる。
The position coordinates Pv (N−
A relative movement vector is obtained as a vector from 1) toward Pv (0). In this manner, the influence of the position detection error is reduced by calculating the approximate straight line that approximates the relative movement trajectory of the target object with respect to the own vehicle 10 from the plurality (N) of data within the monitoring period ΔT. As a result, it is possible to more accurately predict the possibility of collision with the object.

【0037】図3に戻り、ステップS24では、検出し
た対象物との衝突の可能性を判定し、その可能性が高い
ときに警報を発する警報判定処理(図4(a))を実行
する。ステップS41では、下記式(9)によりZ方向
の相対速度Vsを算出し、下記式(10)及び(11)
が成立するとき、衝突の可能性があると判定してステッ
プS42に進み、式(10)及び/または式(11)が
不成立のときは、この処理を終了する。 Vs=(Zv(N−1)−Zv(0))/ΔT (9) Zv(0)/Vs≦T (10) |Yv(0)|≦H (11)
Returning to FIG. 3, in step S24, the possibility of collision with the detected object is determined, and an alarm determination process (FIG. 4 (a)) for issuing an alarm when the possibility is high is executed. In step S41, the relative velocity Vs in the Z direction is calculated by the following equation (9), and the following equations (10) and (11) are calculated.
Is satisfied, it is determined that there is a possibility of a collision, and the process proceeds to step S42. If Expression (10) and / or Expression (11) is not satisfied, the process ends. Vs = (Zv (N−1) −Zv (0)) / ΔT (9) Zv (0) / Vs ≦ T (10) | Yv (0) | ≦ H (11)

【0038】ここで、Zv(0)は最新の距離検出値
(vは近似直線LMVによる補正後のデータであること
を示すために付しているが、Z座標は補正前と同一の値
である)であり、Zv(N−1)は、時間ΔT前の距離
検出値である。またTは、余裕時間であり、衝突の可能
性を予測衝突時刻より時間Tだけ前に判定することを意
図したものであり、例えば2〜5秒程度に設定される。
またHは、Y方向、すなわち高さ方向の範囲を規定する
所定高さであり、例えば自車両10の車高の2倍程度に
設定される。式(10)の関係を図示すると図17に示
すようになり、検出した相対速度Vsと距離Zv(0)
とに対応する座標が、ハッチングを付した領域にあり、
かつ|Yv(0)|≦Hであるとき、ステップS42以
下の判定が実行される。
Here, Zv (0) is added to indicate the latest distance detection value (v is data after correction by the approximate straight line LMV, but the Z coordinate is the same value as before correction. And Zv (N−1) is the distance detection value before the time ΔT. T is a margin time, which is intended to determine the possibility of a collision by the time T before the predicted collision time, and is set to, for example, about 2 to 5 seconds.
H is a predetermined height that defines a range in the Y direction, that is, the height direction, and is set to, for example, about twice the height of the host vehicle 10. FIG. 17 shows the relationship of the equation (10), and the detected relative velocity Vs and the distance Zv (0)
The coordinates corresponding to and are in the hatched area,
When | Yv (0) | ≦ H, the determination in step S42 and subsequent steps is performed.

【0039】図18は、カメラ1R、1Lで監視可能な
領域を、太い実線で示す外側の三角形の領域AR0で示
し、さらに領域AR0内の、Z1=Vs×Tより自車両
10に近い領域AR1,AR2,AR3を、警報判定領
域としている。ここで領域AR1は、自車両10の車幅
αの両側に余裕β(例えば50〜100cm程度とす
る)を加えた範囲に対応する領域、換言すれば自車両1
0の横方向の中心軸の両側に(α/2+β)の幅を有す
る領域であって、対象物がそのまま存在し続ければ衝突
の可能性がきわめて高いので、接近判定領域と呼ぶ。領
域AR2,AR3は、接近判定領域よりX座標の絶対値
が大きい(接近判定領域の横方向外側の)領域であり、
この領域内にある対象物については、後述する侵入衝突
判定を行うので、侵入判定領域と呼ぶ。なおこれらの領
域は、前記式(11)に示したようにY方向には、所定
高さHを有する。
FIG. 18 shows an area that can be monitored by the cameras 1R and 1L by an outer triangular area AR0 indicated by a thick solid line, and furthermore, an area AR1 in the area AR0 closer to the vehicle 10 than Z1 = Vs × T. , AR2, and AR3 are defined as alarm determination areas. Here, the area AR1 is an area corresponding to a range obtained by adding a margin β (for example, about 50 to 100 cm) to both sides of the vehicle width α of the host vehicle 10, in other words, the host vehicle 1
This is an area having a width of (α / 2 + β) on both sides of the center axis in the horizontal direction of 0, and if the object continues to exist as it is, the possibility of collision is extremely high, and is therefore called an approach determination area. The areas AR2 and AR3 are areas where the absolute value of the X coordinate is larger than the approach determination area (outside the approach determination area in the horizontal direction).
The target in this area is referred to as an intrusion determination area because an intrusion collision determination, which will be described later, is performed. These regions have a predetermined height H in the Y direction as shown in the above equation (11).

【0040】前記ステップS41の答が肯定(YES)
となるのは、対象物が接近判定領域AR1または侵入判
定領域AR2,AR3のいずれかに存在する場合であ
る。続くステップS42では、対象物が接近判定領域A
R1内にあるか否かを判別し、この答が肯定(YES)
であるときは、直ちにステップS44に進む一方、否定
(NO)であるときは、ステップS43で侵入衝突判定
を行う。具体的には、画像上での最新のx座標xc
(0)(cは前述したように画像の中心位置を実空間原
点Oに一致させる補正を行った座標であることを示すた
めに付している)と、時間ΔT前のx座標xc(N−
1)との差が下記式(12)を満たすか否かを判別し、
満たす場合に衝突の可能性が高いと判定する。
The answer to step S41 is affirmative (YES).
Is when the object is present in any of the approach determination area AR1 and the intrusion determination areas AR2 and AR3. In a succeeding step S42, the object moves to the approach determination area A.
It is determined whether or not it is within R1, and this answer is affirmative (YES).
If, the process immediately proceeds to step S44, while if negative (NO), an intrusion collision determination is made in step S43. Specifically, the latest x coordinate xc on the image
(0) (c is added to indicate that the coordinates have been corrected so that the center position of the image matches the real space origin O as described above) and the x coordinate xc (N −
It is determined whether or not the difference from 1) satisfies the following equation (12).
If the conditions are satisfied, it is determined that the possibility of collision is high.

【数8】 (Equation 8)

【0041】図19に示すように、自車両10の進行方
向に対してほぼ90°の方向から進行してくる動物20
がいた場合、Xv(Nー1)/Zv(N−1)=Xv
(0)/Zr(0)であるとき、換言すれば動物の速度
Vpと相対速度Vsの比Vp/Vs=Xr(Nー1)/
Zr(N−1)であるとき、自車両10から動物20と
見る方位角θdは一定となり、衝突の可能性が高い。式
(12)は、この可能性を自車両10の車幅αを考慮し
て判定するものである。以下図20を参照して式(1
2)の導出手法を説明する。
As shown in FIG. 19, the animal 20 traveling from a direction substantially 90 ° to the traveling direction of the vehicle 10
Xv (N-1) / Zv (N-1) = Xv
When (0) / Zr (0), in other words, the ratio Vp / Vs = Xr (N−1) / of the animal speed Vp and the relative speed Vs.
When Zr (N-1), the azimuth θd at which the vehicle 10 sees the animal 20 is constant, and the possibility of collision is high. Equation (12) determines this possibility in consideration of the vehicle width α of the host vehicle 10. Hereinafter, with reference to FIG.
The derivation method of 2) will be described.

【0042】対象物20の最新の位置座標と時間ΔT前
の位置座標と通る直線、すなわち近似直線LMVとXY
平面(X軸とY軸とを含む平面、すなわち車両10の先
端部に対応する線(X軸)を含み車両10の進行方向に
垂直な面)との交点のX座標をXCLとすると、車幅α
を考慮した衝突発生の条件は、下記式(13)で与えら
れる。 −α/2≦XCL≦α/2 (13) 一方近似直線LMVをXZ平面に投影した直線は、下記
式(14)で与えられる。
A straight line passing through the latest position coordinates of the object 20 and the position coordinates before the time ΔT, that is, the approximate straight lines LMV and XY
Assuming that an X coordinate of an intersection with a plane (a plane including the X axis and the Y axis, that is, a plane including the line (X axis) corresponding to the tip of the vehicle 10 and perpendicular to the traveling direction of the vehicle 10) is XCL, Width α
Is given by the following equation (13). −α / 2 ≦ XCL ≦ α / 2 (13) On the other hand, a straight line obtained by projecting the approximate straight line LMV on the XZ plane is given by the following equation (14).

【数9】 この式にZ=0,X=XCLを代入してXCLを求める
と下記式(15)のようになる。
(Equation 9) When X = 0 and X = XCL are substituted into this equation to obtain XCL, the following equation (15) is obtained.

【数10】 (Equation 10)

【0043】また実空間座標Xと、画像上の座標xcと
は、前記式(3)に示した関係があるので、 Xv(0)=xc(0)×Zv(0)/f (16) Xv(N−1)=xc(N−1)×Zv(N−1)/f (17) であり、これらを式(15)に適用すると、交点X座標
XCLは下記式(18)で与えられる。これを式(1
3)に代入して整理することにより、式(12)の条件
が得られる。
Since the real space coordinates X and the coordinates xc on the image have the relationship shown in the above equation (3), Xv (0) = xc (0) × Zv (0) / f (16) Xv (N−1) = xc (N−1) × Zv (N−1) / f (17) When these are applied to the equation (15), the intersection X coordinate XCL is given by the following equation (18). Can be This is given by equation (1)
By substituting into 3) and rearranging, the condition of equation (12) is obtained.

【数11】 [Equation 11]

【0044】図4(a)に戻り、ステップS43で衝突
の可能性が高いと判定したときは、ステップS44に進
み、低いと判定したときは本処理を終了する。ステップ
S44では、以下のようにして警報出力判定、すなわち
警報出力を行うか否かの判定を行う。先ずブレーキセン
サ7の出力から自車両10の運転者がブレーキ操作を行
っているか否かを判別し、ブレーキ操作を行っていなけ
れば直ちにステップS45に進んで、警報処理を実行す
る。ブレーキ操作を行っている場合には、それによって
発生する加速度Gs(減速方向を正とする)を算出し、
この加速度Gsが所定閾値GTH以下であるときは、ス
テップS45に進む一方、Gx>GTHであるときは、
ブレーキ操作により衝突が回避されると判定して本処理
を終了する。これにより、適切なブレーキ操作が行われ
ているときは、警報を発しないようにして、運転者に余
計な煩わしさを与えないようにすることができる。
Returning to FIG. 4A, when it is determined in step S43 that the possibility of collision is high, the process proceeds to step S44, and when it is determined that the possibility of collision is low, the process ends. In step S44, an alarm output determination, that is, a determination as to whether or not to output an alarm is performed as follows. First, it is determined from the output of the brake sensor 7 whether or not the driver of the vehicle 10 is performing a brake operation. If the driver has not performed the brake operation, the process immediately proceeds to step S45 to execute an alarm process. When a brake operation is being performed, the acceleration Gs (the deceleration direction is assumed to be positive) generated thereby is calculated,
When the acceleration Gs is equal to or less than the predetermined threshold GTH, the process proceeds to step S45, while when Gx> GTH,
It is determined that the collision is avoided by the brake operation, and the process ends. Thus, when an appropriate brake operation is being performed, an alarm is not issued, and the driver can be prevented from being unnecessarily troublesome.

【0045】所定閾値GTHは、下記式(19)のよう
に定める。これは、ブレーキ加速度Gsがそのまま維持
された場合に、距離Zv(0)以下の走行距離で自車両
10が停止する条件に対応する値である。
The predetermined threshold value GTH is determined as in the following equation (19). This is a value corresponding to a condition that the host vehicle 10 stops at a travel distance equal to or less than the distance Zv (0) when the brake acceleration Gs is maintained as it is.

【数12】 ステップS45では、図4(b)に示す警報判定処理を
実行する。同図のステップS51では、現時点から所定
時間TD経過後における対象物の位置PMを、上述した
対象物の移動ベクトルに基づいて予測し、位置PMが図
21にハッチングを付して示すヘッドライトの照射範囲
AHL内にあるか否かを判別する。ここで、所定時間T
Dは、運転者が車外前方に向けている視線をHUD4の
画面4aへ移し、再度車外前方に移すのに要する視線移
動時間と、対象物の認識に要する認識時間とを合計した
時間である。また同図においてP0は、対象物20の現
時点すなわち最新の位置を示し、PMが所定時間TD経
過後の予測位置である。なおヘッドライトの照射範囲A
HLは、予め定められた範囲となるように調整されてい
るので、対象物の位置座標から照射範囲内にあるか否か
は容易に判別することができる。
(Equation 12) In step S45, an alarm determination process shown in FIG. In step S51 in the figure, the position PM of the target object after a lapse of a predetermined time TD from the present time is predicted based on the above-described movement vector of the target object, and the position PM of the headlight indicated by hatching in FIG. It is determined whether or not it is within the irradiation range AHL. Here, the predetermined time T
D is the total time of the line-of-sight moving time required to move the driver's line of sight toward the front outside the vehicle to the screen 4a of the HUD 4 and moving the driver's line of sight to the front outside the vehicle again, and the recognition time required to recognize the target object. Also, in the figure, P0 indicates the current time, that is, the latest position of the object 20, and the PM is a predicted position after a predetermined time TD has elapsed. The irradiation range A of the headlight
Since the HL is adjusted to be within a predetermined range, it can be easily determined from the position coordinates of the target whether or not the HL is within the irradiation range.

【0046】同図(a)は、現時点及び所定時間TD経
過後のいずれにおいても、照射範囲AHL内に入らない
場合を示しており、この場合には、ステップS51の答
は否定(NO)となるので、スピーカ3を介して音声に
よる警報を発するとともに、図22に示すようにHUD
4により例えばカメラ1Rにより得られる画像を画面4
aに表示し、検出した対象物を強調表示する(例えば枠
で囲んで強調する)する。
FIG. 9A shows a case where the light beam does not fall within the irradiation range AHL both at the present time and after the lapse of a predetermined time TD. In this case, the answer to step S51 is negative (NO). Therefore, an audio warning is issued via the speaker 3 and the HUD as shown in FIG.
4 displays an image obtained by the camera 1R on the screen 4
a, and the detected object is highlighted (for example, highlighted in a frame).

【0047】音声のみによる警報を行った場合と、音声
と画像表示とを併用した場合とで、運転者の反応時間を
比較すると、音声と画像表示とを併用した方が音声のみ
による警報を行った場合により反応時間が短くなること
が実験的に確認されており、このように音声による警報
と画像表示とを併用することにより、衝突の可能性の高
い対象物を運転者に確実に認識させ、適切な対応措置を
講じることが可能となる。図21に示したヘッドライト
の照射範囲AHLは、ロービーム選択時のものであり、
その長さLBEAMは30m程度であるのに対し、赤外
線カメラ1R、1Lの画像は100m程度先のものまで
とらえることができるので、街路灯などがない環境では
運転者が実像としては見えないが衝突の可能性の高い対
象物をHUD4により表示することができる。
When the reaction time of the driver is compared between the case where the alarm is given only by the voice and the case where the voice and the image display are used together, the one using the voice and the image display gives the alarm only by the voice. It has been experimentally confirmed that the reaction time is shortened in some cases, and by using the audio warning and the image display together in this way, the driver can be surely recognized the object with a high possibility of collision. , It is possible to take appropriate countermeasures. The irradiation range AHL of the headlight shown in FIG. 21 is obtained when the low beam is selected.
While the length LBEAM is about 30 m, the images of the infrared cameras 1 R and 1 L can be captured up to about 100 m ahead. The object having a high possibility of being displayed can be displayed by the HUD 4.

【0048】また図21(b)に示すように現時点では
照射範囲AHL外にあるが、所定時間TD経過後には、
照射範囲AHL内に入るときは、ステップS51の答は
肯定(YES)となり、ステップS53に進んで、HU
D4による表示は行わずに、音声による警報のみを行
う。この場合は、所定時間TD経過後には、運転者は実
際の対象物像を視認できるようになるので、HUD4に
よる表示を行うとかえって運転者に煩わしさを与えるこ
とになるからである。
As shown in FIG. 21 (b), the current time is outside the irradiation range AHL, but after a predetermined time TD has elapsed,
When entering the irradiation range AHL, the answer to step S51 is affirmative (YES), and the routine proceeds to step S53, where the HU
Only a voice alarm is issued without performing display by D4. In this case, after the lapse of the predetermined time TD, the driver can visually recognize the actual target object image, so that the display by the HUD 4 gives the driver trouble instead.

【0049】また、前述したように運転者がブレーキを
操作するなどの適切な回避措置をとって、衝突の可能性
が低下すれば、図4(b)の警報出力処理は実行されな
くなり、音声あるいは画像表示のいずれによる警報も出
力されなくなる。以上のように本実施形態では、衝突す
る可能性が高い対象物を検出した場合において、その対
象物がヘッドライトの照射範囲外にあるときは、音声に
よる警報とともにHUD4による赤外線画像表示も行う
ようにしたので、衝突の可能性の高い対象物を運転者に
確実に認識させ、適切な対応措置を講じることが可能と
なる。
As described above, if the driver takes appropriate avoidance measures such as operating the brakes and the likelihood of a collision is reduced, the alarm output processing shown in FIG. Alternatively, the warning by any of the image displays is not output. As described above, in the present embodiment, when an object having a high possibility of collision is detected, if the object is out of the irradiation range of the headlight, an infrared image display by the HUD 4 is performed together with a sound alarm. As a result, it is possible to make the driver surely recognize an object having a high possibility of collision and to take an appropriate countermeasure.

【0050】本実施形態では、HUD4が画像表示手段
を構成し、画像処理ユニット2が、位置検出手段、判定
手段及び警報手段の一部を構成する。より具体的には、
図3のステップS11〜S22及びS31〜S33が位
置検出手段に相当し、ステップS23及び図4(a)の
ステップS41〜S44が判定手段に相当し、同図のス
テップS45(図4(b)の処理)が警報手段に相当す
る。
In this embodiment, the HUD 4 constitutes an image display means, and the image processing unit 2 constitutes a part of a position detection means, a judgment means and a warning means. More specifically,
Steps S11 to S22 and S31 to S33 in FIG. 3 correspond to the position detecting means, steps S23 and steps S41 to S44 in FIG. 4A correspond to the determining means, and step S45 (FIG. 4B) in FIG. Corresponds to the alarm means.

【0051】なお本発明は上述した実施形態に限るもの
ではなく、種々の変形が可能である。例えば本実施形態
では、画像表示手段としてヘッドアップディスプレイを
用いたが、ナビゲーションシステムの液晶表示装置を用
いてもよい。ただし、ヘッドアップディスプレイは、運
転者の視線移動量が少なくてすむので、運転者の注意を
喚起するには好適である。また衝突可能性のある対象物
の検出手法は、上述したものに限るものではなく、例え
ば特開平6−215300号公報や特開平9−2264
90号公報などに示された手法を用いてもよい。
The present invention is not limited to the above-described embodiment, and various modifications are possible. For example, in this embodiment, a head-up display is used as the image display means, but a liquid crystal display device of a navigation system may be used. However, the head-up display is suitable for raising the driver's attention because the amount of movement of the driver's line of sight is small. The method of detecting an object having a possibility of collision is not limited to the method described above, and for example, JP-A-6-215300 and JP-A-9-2264.
For example, a technique disclosed in Japanese Patent Publication No. 90-90 may be used.

【0052】[0052]

【発明効果】以上詳述したように本発明によれば、衝突
の可能性が高いと判定され、かつヘッドライトの照射範
囲外にある対象物については警報音声とともに画像表示
手段にその対象物の画像が表示されるので、音声のみの
警報に比べて運転者の注意をより効果的に喚起すること
ができる。
As described above in detail, according to the present invention, an object which is determined to have a high possibility of collision and is out of the irradiation range of the headlight is displayed on the image display means together with an alarm sound. Since the image is displayed, the driver's attention can be more effectively raised as compared with the case of the sound-only warning.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態にかかる周辺監視装置の構
成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a peripheral monitoring device according to an embodiment of the present invention.

【図2】図1に示すカメラの取り付け位置を説明するた
めの図である。
FIG. 2 is a view for explaining a mounting position of the camera shown in FIG. 1;

【図3】図1の画像処理ユニットにおける処理の手順を
示すフローチャートである。
FIG. 3 is a flowchart illustrating a procedure of processing in the image processing unit of FIG. 1;

【図4】図3の警報判定処理を詳細に示すフローチャー
トである。
FIG. 4 is a flowchart showing details of an alarm determination process in FIG. 3;

【図5】赤外線カメラにより得られるグレースケール画
像を説明するために、中間階調部にハッチングを付して
示す図である。
FIG. 5 is a diagram showing a gray scale image obtained by an infrared camera with hatching applied to a halftone portion;

【図6】グレースケール画像を2値化した画像を説明す
るために、黒の領域をハッチングを付して示す図であ
る。
FIG. 6 is a diagram showing a black area with hatching to explain an image obtained by binarizing a grayscale image.

【図7】ランレングスデータへの変換処理及びラベリン
グを説明するための図である。
FIG. 7 is a diagram for explaining a conversion process to run-length data and labeling.

【図8】対象物の時刻間追跡を説明するための図であ
る。
FIG. 8 is a diagram for explaining time tracking of an object.

【図9】右画像中の探索画像と、左画像に設定する探索
領域を説明するための図である。
FIG. 9 is a diagram for explaining a search image in a right image and a search area set in a left image.

【図10】探索領域を対象とした相関演算処理を説明す
るための図である。
FIG. 10 is a diagram for explaining a correlation calculation process for a search area.

【図11】視差の算出方法を説明するための図である。FIG. 11 is a diagram illustrating a method of calculating parallax.

【図12】視差から距離を算出する手法を説明するため
の図である。
FIG. 12 is a diagram for explaining a method of calculating a distance from parallax.

【図13】本実施形態における座標系を示す図である。FIG. 13 is a diagram illustrating a coordinate system according to the present embodiment.

【図14】回頭角補正を説明するための図である。FIG. 14 is a diagram for explaining turning angle correction;

【図15】車両の回頭により発生する画像上の対象物位
置のずれを示す図である。
FIG. 15 is a diagram showing a displacement of an object position on an image caused by turning of the vehicle.

【図16】相対移動ベクトルの算出手法を説明するため
の図である。
FIG. 16 is a diagram for explaining a calculation method of a relative movement vector.

【図17】警報判定を行う条件を説明するための図であ
る。
FIG. 17 is a diagram for describing conditions for making an alarm determination.

【図18】車両前方の領域区分を説明するための図であ
る。
FIG. 18 is a diagram for describing an area division in front of a vehicle.

【図19】衝突が発生しやすい場合を説明するための図
である。
FIG. 19 is a diagram illustrating a case where a collision is likely to occur.

【図20】車両の幅に応じた侵入警報判定の手法を説明
するための図である。
FIG. 20 is a diagram for explaining a method of determining an intrusion alarm according to the width of a vehicle.

【図21】ヘッドライトの照射範囲と対象物との位置関
係を説明するための図である。
FIG. 21 is a diagram for explaining a positional relationship between an irradiation range of a headlight and an object.

【図22】ヘッドアップディスプレイ上の表示を説明す
るための図である。
FIG. 22 is a diagram for explaining a display on a head-up display.

【符号の説明】[Explanation of symbols]

1R、1L 赤外線カメラ(撮像手段) 2 画像処理ユニット(位置検出手段、判定手段、警報
手段) 3 スピーカ(警報手段) 4 ヘッドアップディスプレイ(画像表示手段) 5 ヨーレートセンサ 6 車速センサ 7 ブレーキセンサ
1R, 1L infrared camera (imaging means) 2 image processing unit (position detecting means, determining means, alarm means) 3 speaker (alarm means) 4 head-up display (image displaying means) 5 yaw rate sensor 6 vehicle speed sensor 7 brake sensor

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G08B 21/00 G08B 23/00 510D 23/00 510 520A 520 H04N 7/18 J H04N 7/18 G06F 15/62 380 (72)発明者 長岡 伸治 埼玉県和光市中央1丁目4番1号 株式会 社本田技術研究所内 (72)発明者 渡辺 正人 埼玉県和光市中央1丁目4番1号 株式会 社本田技術研究所内 Fターム(参考) 5B057 AA06 BA29 CA06 CC01 CG04 DA06 DA15 DA16 DC04 DC06 5C054 CA05 CE11 FA07 FC05 FC12 FC15 FF06 HA30 5C086 AA51 BA22 CA12 CA28 CB36 DA02 DA08 DA33 FA17 5C087 AA02 AA09 AA19 BB03 DD03 DD13 EE05 EE07 FF19 GG14──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification code FI Theme coat ゛ (Reference) G08B 21/00 G08B 23/00 510D 23/00 510 520A 520 H04N 7/18 J H04N 7/18 G06F 15 / 62 380 (72) Inventor Shinji Nagaoka 1-4-1, Chuo, Wako-shi, Saitama Prefecture Inside Honda R & D Co., Ltd. (72) Inventor Masato Watanabe 1-4-1, Chuo, Wako-shi, Saitama Honda Co., Ltd. F-term in laboratory (reference)

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 車両の周辺に存在する対象物の位置を検
出する位置検出手段と、前記対象物と当該車両との衝突
の可能性を判定する判定手段と、該判定手段により衝突
の可能性が高いと判定されたとき、運転者に警報を発す
る警報手段とを備えた車両の周辺監視装置において、 赤外線を検出可能な撮像手段と、前記運転者が見ること
ができる位置に配置され、画像を表示する画像表示手段
とを備え、前記警報手段は、前記判定手段により衝突の
可能性が高いと判定された場合において、前記位置検出
手段により検出された前記対象物の位置が、当該車両の
ヘッドライトの照射範囲外にあるときは、音声による警
報を発するとともに前記撮像手段により得られる前記対
象物の画像を前記画像表示手段に表示することを特徴と
する車両の周辺監視装置。
1. A position detecting means for detecting a position of an object existing around a vehicle, a judging means for judging a possibility of collision between the object and the vehicle, and a possibility of collision by the judging means. Is determined to be high, a vehicle surroundings monitoring device provided with an alarm unit for issuing an alarm to a driver, wherein an imaging unit capable of detecting infrared rays, and a position which can be viewed by the driver, Image display means for displaying the position of the object detected by the position detection means when the possibility of collision is determined to be high by the determination means, When the vehicle is out of the irradiation range of the headlight, an alarm is issued by sound and an image of the object obtained by the imaging unit is displayed on the image display unit. Location.
JP19243499A 1999-07-07 1999-07-07 Vehicle periphery monitoring device Expired - Fee Related JP3919975B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19243499A JP3919975B2 (en) 1999-07-07 1999-07-07 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19243499A JP3919975B2 (en) 1999-07-07 1999-07-07 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2001018738A true JP2001018738A (en) 2001-01-23
JP3919975B2 JP3919975B2 (en) 2007-05-30

Family

ID=16291254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19243499A Expired - Fee Related JP3919975B2 (en) 1999-07-07 1999-07-07 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP3919975B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040035149A (en) * 2002-10-18 2004-04-29 현대모비스 주식회사 Apparatus for discriminating forward interference of vehicle
EP1491978A1 (en) * 2003-06-27 2004-12-29 Volkswagen Aktiengesellschaft Identification of collision objects
KR100477243B1 (en) * 2002-06-17 2005-03-17 현대모비스 주식회사 Night vision device for automotive
JP2005509129A (en) * 2001-03-13 2005-04-07 リコンダ ジョン Enhanced display that informs the driver of the car about the surrounding visual information for navigation
EP1564703A1 (en) * 2004-02-13 2005-08-17 Fuji Jukogyo Kabushiki Kaisha Vehicle driving assist system
US7319777B2 (en) 2001-04-04 2008-01-15 Instro Precision Limited Image analysis apparatus
JP2010257217A (en) * 2009-04-24 2010-11-11 Honda Motor Co Ltd Vehicle circumference monitoring device
JP2012099085A (en) * 2010-10-29 2012-05-24 National Taiwan Univ Of Science & Technology Real-time warning system on windshield glass for vehicle, and operating method thereof
US9630477B2 (en) 2015-05-20 2017-04-25 Hyundai Motor Company Device for preventing head lamp glare and method for preventing glare using the same
JP2017109732A (en) * 2014-11-13 2017-06-22 ビステオン グローバル テクノロジーズ インコーポレイテッド Display adaptation on transparent electronic display

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102910130B (en) * 2012-10-24 2015-08-05 浙江工业大学 Forewarn system is assisted in a kind of driving of real enhancement mode

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06270751A (en) * 1993-03-16 1994-09-27 Nissan Motor Co Ltd Obstruction detecting device for vehicle
JPH07137574A (en) * 1993-11-15 1995-05-30 Toyota Motor Corp Headlight device for vehicle
JPH0935177A (en) * 1995-07-18 1997-02-07 Hitachi Ltd Method and device for supporting driving
JP2000318513A (en) * 1999-05-17 2000-11-21 Mitsubishi Electric Corp Obstacle detection device for vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06270751A (en) * 1993-03-16 1994-09-27 Nissan Motor Co Ltd Obstruction detecting device for vehicle
JPH07137574A (en) * 1993-11-15 1995-05-30 Toyota Motor Corp Headlight device for vehicle
JPH0935177A (en) * 1995-07-18 1997-02-07 Hitachi Ltd Method and device for supporting driving
JP2000318513A (en) * 1999-05-17 2000-11-21 Mitsubishi Electric Corp Obstacle detection device for vehicle

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005509129A (en) * 2001-03-13 2005-04-07 リコンダ ジョン Enhanced display that informs the driver of the car about the surrounding visual information for navigation
US7319777B2 (en) 2001-04-04 2008-01-15 Instro Precision Limited Image analysis apparatus
KR100477243B1 (en) * 2002-06-17 2005-03-17 현대모비스 주식회사 Night vision device for automotive
KR20040035149A (en) * 2002-10-18 2004-04-29 현대모비스 주식회사 Apparatus for discriminating forward interference of vehicle
EP1491978A1 (en) * 2003-06-27 2004-12-29 Volkswagen Aktiengesellschaft Identification of collision objects
EP1564703A1 (en) * 2004-02-13 2005-08-17 Fuji Jukogyo Kabushiki Kaisha Vehicle driving assist system
US7548634B2 (en) 2004-02-13 2009-06-16 Fuji Jukogyo Kabushiki Kaisha Pedestrian detection system and vehicle driving assist system with a pedestrian detection system
JP2010257217A (en) * 2009-04-24 2010-11-11 Honda Motor Co Ltd Vehicle circumference monitoring device
JP2012099085A (en) * 2010-10-29 2012-05-24 National Taiwan Univ Of Science & Technology Real-time warning system on windshield glass for vehicle, and operating method thereof
JP2017109732A (en) * 2014-11-13 2017-06-22 ビステオン グローバル テクノロジーズ インコーポレイテッド Display adaptation on transparent electronic display
US9630477B2 (en) 2015-05-20 2017-04-25 Hyundai Motor Company Device for preventing head lamp glare and method for preventing glare using the same

Also Published As

Publication number Publication date
JP3919975B2 (en) 2007-05-30

Similar Documents

Publication Publication Date Title
JP3515926B2 (en) Vehicle periphery monitoring device
JP4615139B2 (en) Vehicle periphery monitoring device
US8144195B2 (en) Vehicle zone monitoring apparatus
US7158664B2 (en) Image recognition apparatus
JP5503728B2 (en) Vehicle periphery monitoring device
US9073484B2 (en) Surrounding area monitoring apparatus for vehicle
JP3764086B2 (en) Vehicle information providing device
JP2010097541A (en) Vehicular periphery monitoring apparatus
JP2001169310A (en) Distance detector
JP2001023091A (en) Picture display device for vehicle
JP2001018738A (en) Apparatus for monitoring ambient condition of vehicle
JP5292047B2 (en) Vehicle periphery monitoring device
JP2009075124A (en) Distance detector
JP3949628B2 (en) Vehicle periphery monitoring device
JP3916930B2 (en) Approach warning device
JP2002005626A (en) Position detector
JP4567072B2 (en) Vehicle periphery monitoring device
JP4943403B2 (en) Vehicle periphery monitoring device
JP3961269B2 (en) Obstacle alarm device
JP4040657B2 (en) Moving object detection device
JP3859429B2 (en) Moving object detection device
JP2003306103A (en) Alarm display device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20060914

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20061019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070214

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100223

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110223

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110223

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120223

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120223

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130223

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130223

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140223

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees