JP5292047B2 - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP5292047B2
JP5292047B2 JP2008262280A JP2008262280A JP5292047B2 JP 5292047 B2 JP5292047 B2 JP 5292047B2 JP 2008262280 A JP2008262280 A JP 2008262280A JP 2008262280 A JP2008262280 A JP 2008262280A JP 5292047 B2 JP5292047 B2 JP 5292047B2
Authority
JP
Japan
Prior art keywords
range
vehicle
image
reaction time
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008262280A
Other languages
Japanese (ja)
Other versions
JP2010089661A (en
Inventor
泉 高津戸
弘 服部
幸大 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2008262280A priority Critical patent/JP5292047B2/en
Publication of JP2010089661A publication Critical patent/JP2010089661A/en
Application granted granted Critical
Publication of JP5292047B2 publication Critical patent/JP5292047B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To change a processing range in which objects are recognized according to a reaction time. <P>SOLUTION: In a picked up image, the device recognizes objects on the periphery of a vehicle by regarding an image area corresponding to a predetermined range on the periphery of the vehicle as a processing object, and gives an alarm to a driver of the vehicle about the objects recognized. A reaction time of the driver for a predetermined operation with respect to the alarm is detected. When the reaction time is detected to be a predetermined value or more, the predetermined range is enlarged and the recognition of the objects is carried out by making an image area corresponding to the enlarged predetermined range a processing object. The enlargement is carried out in a horizontal and/or distance direction. In the case of long reaction time, therefore, the recognition of the objects by the driver and driving operation through the recognition are achieved earlier. <P>COPYRIGHT: (C)2010,JPO&amp;INPIT

Description

この発明は、車両の周辺に存在する対象物を認識して運転者に警報を発する、車両の周辺を監視するための装置に関する。   The present invention relates to an apparatus for monitoring the periphery of a vehicle, which recognizes an object existing around the vehicle and issues a warning to a driver.

従来、車両の周辺をカメラにより撮像し、該車両の周辺に存在する対象物を認識して運転者に警報を発する手法が提案されている。運転者は、この警報に応じて、ブレーキ操作やステアリング操作などの、対象物を回避する運転操作を行うことができる。   2. Description of the Related Art Conventionally, a technique has been proposed in which the periphery of a vehicle is imaged by a camera, an object existing around the vehicle is recognized, and an alarm is issued to the driver. In response to this alarm, the driver can perform a driving operation that avoids the object, such as a brake operation or a steering operation.

下記の特許文献1には、運転者によるブレーキ操作のタイミングに従って、衝突警報を発する時期を変更する装置が開示されている。また、下記の特許文献2には、運転者の制動操作を学習して、警報のタイミングを変更する手法が開示されている。
特開昭59−105587号公報 特開2006−190090号公報
The following Patent Document 1 discloses a device that changes the timing for issuing a collision warning according to the timing of a brake operation by a driver. Patent Document 2 below discloses a technique for learning the driver's braking operation and changing the alarm timing.
JP 59-105587 A Japanese Patent Laid-Open No. 2006-190090

警報に対する運転者の運転操作の反応には個人差がある。反応時間が長いほど、対象物の存在の認識およびそれに応じた対象物を回避する動作に遅れが生じ、回避動作を実行する時間的な余裕が低減するおそれがある。   There are individual differences in the response of the driver's driving operation to the alarm. The longer the reaction time, the more delayed the recognition of the presence of the object and the operation of avoiding the object corresponding thereto, and the time margin for executing the avoidance operation may be reduced.

最近、赤外線カメラなどの撮像カメラを車両に搭載し、撮像カメラによって撮像された画像に対し画像処理を施すことによって所定の対象物を認識し、該対象物の認識に応じて運転者に警報を発する、という技術が提案されている。対象物の認識精度を上げるため、画像処理の内容は、近年ますます複雑化してきている。処理対象とする車両周辺の範囲が広いほど、画像処理の計算上の負荷が増大すると共に、ノイズ等の存在によって対象物の認識処理にエラーが生じる可能性が高まる。したがって、認識精度をより高めるためには、処理対象となる車両周辺の範囲を制限するのが望ましい。   Recently, an imaging camera such as an infrared camera is mounted on a vehicle, a predetermined object is recognized by performing image processing on an image captured by the imaging camera, and an alarm is given to the driver according to the recognition of the object. The technology of emitting is proposed. In order to increase the accuracy of object recognition, the contents of image processing have become increasingly complex in recent years. As the range around the vehicle to be processed is wider, the computational load of image processing increases, and the possibility of an error in the object recognition processing due to the presence of noise or the like increases. Therefore, in order to further improve the recognition accuracy, it is desirable to limit the range around the vehicle to be processed.

しかしながら、処理対象となる範囲を制限するほど、車両から遠い対象物の認識が行われないおそれがある。このような制限を一律に行うと、警報に対する運転者の反応時間が長い場合には、対象物の認識精度が高くても、運転者による対象物の認識およびそれに対する運転操作に遅れが生じるおそれがある。   However, there is a possibility that the object far from the vehicle is not recognized as the range to be processed is limited. If such a restriction is applied uniformly, if the driver's response time to the alarm is long, the recognition of the object by the driver and the driving operation may be delayed even if the recognition accuracy of the object is high. There is.

したがって、この発明は、反応時間に従って処理対象となる範囲の大きさを調整することによって、反応時間が長い場合でも、対象物の認識および該対象物に対する回避動作の早期化を図ることができるようにすることを目的とする。   Therefore, according to the present invention, by adjusting the size of the range to be processed according to the reaction time, even when the reaction time is long, the recognition of the object and the early avoidance operation for the object can be achieved. The purpose is to.

この発明の一つの側面によると、車両に搭載された撮像手段によって撮像された画像において、該車両の周辺の所定範囲に対応する画像領域を処理対象として該車両の周辺の対象物を認識し、該認識された対象物について車両の運転者に対し警報を発行する車両周辺監視装置は、前記警報の発行に対し、前記運転者の所定の操作の反応時間を検出する反応時間検出手段と、前記反応時間が所定値以上であることを検出したならば、前記所定範囲を拡大し、前記対象物の認識が、該拡大された所定範囲に対応する画像領域を処理対象として行われるようにする、範囲変更手段と、を備える。   According to one aspect of the present invention, in an image captured by an imaging unit mounted on a vehicle, an object around the vehicle is recognized using an image region corresponding to a predetermined range around the vehicle as a processing target, A vehicle periphery monitoring device that issues a warning to a vehicle driver about the recognized object, a reaction time detection unit that detects a reaction time of a predetermined operation of the driver with respect to the issue of the warning, and If it is detected that the reaction time is equal to or greater than a predetermined value, the predetermined range is expanded so that the recognition of the object is performed on an image area corresponding to the expanded predetermined range as a processing target. Range changing means.

この発明によれば、反応時間が所定値以上であることに応じて、対象物の認識が行われる所定範囲が拡大される。したがって、反応時間が長い場合でも、対象物の認識および該対象物に対する回避動作の早期化を図ることができる。   According to this invention, when the reaction time is equal to or greater than the predetermined value, the predetermined range in which the object is recognized is expanded. Therefore, even when the reaction time is long, the recognition of the object and the avoidance operation for the object can be accelerated.

本発明のその他の特徴及び利点については、以下の詳細な説明から明らかである。   Other features and advantages of the present invention will be apparent from the detailed description that follows.

次に図面を参照してこの発明の実施の形態を説明する。   Next, an embodiment of the present invention will be described with reference to the drawings.

図1は、この発明の一実施形態に従う、車両の周辺監視装置の構成を示すブロック図である。該装置は、車両に搭載され、遠赤外線を検出可能な2つの赤外線カメラ1Rおよび1Lと、車両のヨーレートを検出するヨーレートセンサ5と、車両の走行速度(車速)VCARを検出する車速センサ6と、ブレーキの操作量を検出するためのブレーキセンサ7と、カメラ1Rおよび1Lによって得られる画像データに基づいて車両前方の対象物を検出するための画像処理ユニット2と、該検出結果に基づいて音声で警報を発生するスピーカ3と、カメラ1Rまたは1Lによって得られる画像を表示すると共に、衝突の可能性が高いと判断された対象物を運転者に認識させるような表示を行うヘッドアップディスプレイ(以下、HUDと呼ぶ)4とを備えている。   FIG. 1 is a block diagram showing a configuration of a vehicle periphery monitoring device according to an embodiment of the present invention. The apparatus is mounted on a vehicle and includes two infrared cameras 1R and 1L capable of detecting far-infrared rays, a yaw rate sensor 5 that detects the yaw rate of the vehicle, and a vehicle speed sensor 6 that detects a travel speed (vehicle speed) VCAR of the vehicle. A brake sensor 7 for detecting the operation amount of the brake, an image processing unit 2 for detecting an object in front of the vehicle based on image data obtained by the cameras 1R and 1L, and a sound based on the detection result The head-up display (hereinafter referred to as the speaker 3) that displays an image obtained by the speaker 3 and the camera 1R or 1L and that causes the driver to recognize an object determined to have a high possibility of a collision. , Called HUD).

図2に示すように、カメラ1Rおよび1Lは、車両10の前部に、車幅の中心を通る中心軸に対して対称な位置に配置されている。2つのカメラ1Rおよび1Lは、両者の光軸が互いに平行となり、両者の路面からの高さが等しくなるように車両に固定されている。赤外線カメラ1Rおよび1Lは、背景の温度よりも対象物の温度が高いほど、その出力信号のレベルが高くなる(すなわち、撮像画像における輝度が大きくなる)特性を有している。   As shown in FIG. 2, the cameras 1 </ b> R and 1 </ b> L are disposed at the front part of the vehicle 10 at positions symmetrical with respect to the central axis passing through the center of the vehicle width. The two cameras 1R and 1L are fixed to the vehicle so that their optical axes are parallel to each other and their height from the road surface is equal. The infrared cameras 1R and 1L have a characteristic that the level of the output signal becomes higher (that is, the luminance in the captured image becomes higher) as the temperature of the object is higher than the background temperature.

画像処理ユニット2は、入力アナログ信号をデジタル信号に変換するA/D変換回路、デジタル化した画像信号を記憶する画像メモリ、各種演算処理を行う中央演算処理装置(CPU)、CPUが演算に際してデータを記憶するのに使用するRAM(ランダムアクセスメモリ)、CPUが実行するプログラムおよび用いるデータ(テーブル、マップを含む)を記憶するROM(リードオンリーメモリ)、スピーカ3に対する駆動信号およびHUD4に対する表示信号などを出力する出力回路を備えている。カメラ1Rおよび1Lの出力信号およびセンサ5〜7の出力信号は、デジタル信号に変換されてCPUに入力されるよう構成されている。HUD4は、図2に示すように、車両10のフロントウィンドウの、運転者の前方位置に画面4aが表示されるように設けられている。こうして、運転者は、HUD4に表示される画面を視認することができる。   The image processing unit 2 includes an A / D conversion circuit that converts an input analog signal into a digital signal, an image memory that stores a digitized image signal, a central processing unit (CPU) that performs various arithmetic processing, and a data RAM (Random Access Memory) used to store data, ROM (Read Only Memory) that stores programs executed by the CPU and data used (including tables and maps), driving signals for the speaker 3, display signals for the HUD 4, etc. Is provided. The output signals of the cameras 1R and 1L and the output signals of the sensors 5 to 7 are converted into digital signals and input to the CPU. As shown in FIG. 2, the HUD 4 is provided so that a screen 4 a is displayed at a front position of the driver on the front window of the vehicle 10. Thus, the driver can visually recognize the screen displayed on the HUD 4.

また、該装置は、反応時間検出部8および処理範囲変更部9を備えており、画像処理ユニット2によって認識された対象物について警報を発行してから、運転者の所定の操作が開始されるまでの反応時間を検出し、該反応時間に従って、対象物認識の処理対象となる、車両周辺の所定範囲を変更する。反応時間検出部8および処理範囲変更部9は、中央処理装置(CPU)およびメモリを備えたコンピュータである所定の電子制御装置に実現されることができる。画像処理ユニット2と同じ制御装置に実現されてもよい。これらの詳細な処理内容については後述される。   Further, the apparatus includes a reaction time detection unit 8 and a processing range change unit 9, and after a warning is issued for an object recognized by the image processing unit 2, a predetermined operation of the driver is started. The reaction time until the vehicle is detected, and a predetermined range around the vehicle to be processed for object recognition is changed according to the reaction time. The reaction time detection unit 8 and the processing range changing unit 9 can be realized in a predetermined electronic control device that is a computer including a central processing unit (CPU) and a memory. It may be realized in the same control device as the image processing unit 2. Details of these processes will be described later.

図3は、画像処理ユニット2によって実行されるプロセスを示すフローチャートである。該プロセスは、所定の時間間隔で実行される。   FIG. 3 is a flowchart showing a process executed by the image processing unit 2. The process is performed at predetermined time intervals.

ステップS11〜S13において、カメラ1Rおよび1Lの出力信号(すなわち、撮像画像のデータ)を入力として受け取り、これをA/D変換して、画像メモリに格納する。格納される画像データは、グレースケール画像であり、対象物の温度が高いほど、高い輝度値(白に近い輝度値)を有する。カメラ1Rで撮像された画像すなわち右画像とカメラ1Lで撮像された画像すなわち左画像とでは、同一対象物の画像上の水平位置がずれており、このずれ(視差)により、該対象物までの距離を算出することができる。   In steps S11 to S13, the output signals of the cameras 1R and 1L (that is, captured image data) are received as input, A / D converted, and stored in the image memory. The stored image data is a grayscale image, and has a higher luminance value (a luminance value close to white) as the temperature of the object is higher. The horizontal position on the image of the same object is shifted between the image captured by the camera 1R, that is, the right image, and the image captured by the camera 1L, that is, the left image. The distance can be calculated.

ステップS14において、右画像を基準画像とし(代替的に、左画像を基準画像としてもよい)、その画像信号の2値化を行う。具体的には、予めシミュレーション等によって決定される輝度閾値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う。ここで、閾値ITHは、人間および動物などの所定値より高い温度の対象物を、背景と区別するような値に設定される。こうして、高温の対象物は、白領域として抽出される。   In step S14, the right image is used as a reference image (alternatively, the left image may be used as a reference image), and the image signal is binarized. Specifically, a process is performed in which a region brighter than the luminance threshold ITH determined in advance by simulation or the like is set to “1” (white) and a dark region is set to “0” (black). Here, the threshold value ITH is set to a value that distinguishes an object having a temperature higher than a predetermined value, such as a human being and an animal, from the background. Thus, the high temperature object is extracted as a white region.

ステップS15において、2値化した画像データを、ランレングスデータに変換する。2値化により白となった領域について、画素ラインごとに、該ラインの開始点(該ラインの左端の画素)と、開始点から終了点(該ラインの右端の画素)までの長さとで、ランレングスデータを表す。たとえば、或るラインが、座標(x3,y5)から開始し、3個の画素からなるとすると、(x3,y5,3)というランレングスデータで表される。   In step S15, the binarized image data is converted into run-length data. For the area that has become white by binarization, for each pixel line, the start point of the line (the pixel at the left end of the line) and the length from the start point to the end point (the pixel at the right end of the line) Represents run-length data. For example, if a certain line starts from coordinates (x3, y5) and consists of three pixels, it is represented by run-length data (x3, y5, 3).

ステップS16およびS17において、対象物のラベリングを行い、対象物を抽出する処理を行う。すなわち、ランレングスデータ化したラインのうち、y方向に重なる部分のあるラインを1つの対象物とみなして、所定のラベルを付与する。こうして、ラベルが付与された対象物が抽出される。   In steps S16 and S17, the object is labeled and a process for extracting the object is performed. That is, of the lines converted into run length data, a line having a portion overlapping in the y direction is regarded as one object and given a predetermined label. In this way, the object to which the label is attached is extracted.

ステップS18において、該抽出された対象物の重心G、面積S、および、破線で示すように抽出された対象物に外接する四角形すなわち外接四角形の縦横比ASPECTを算出する。面積Sは、ランレングスデータの長さを同一対象物について積算することにより算出される。重心Gの座標は、面積Sをx方向に二等分する線のx座標およびy方向に二等分する線のy座標として算出される。縦横比ASPECTは、外接四角形のy方向の長さDyとx方向の長さDxとの比Dy/Dxとして算出される。なお、重心Gの位置は、外接四角形の重心位置で代用してもよい。   In step S18, the center G of the extracted object, the area S, and the aspect ratio ASPECT of the circumscribed rectangle circumscribed by the extracted object, that is, the circumscribed rectangle, are calculated. The area S is calculated by integrating the lengths of run length data for the same object. The coordinates of the center of gravity G are calculated as the x coordinate of a line that bisects the area S in the x direction and the y coordinate of a line that bisects the area S in the y direction. The aspect ratio ASPECT is calculated as a ratio Dy / Dx between the length Dy in the y direction and the length Dx in the x direction of the circumscribed square. Note that the position of the center of gravity G may be substituted by the position of the center of gravity of the circumscribed rectangle.

ステップS19において、対象物の時刻間追跡(トラッキング)、すなわち、所定のサンプリング周期毎に同一対象物の認識を行う。サンプリング周期は、図3のプロセスが実行される周期と同じでもよい。具体的には、アナログ量としての時刻tをサンプリング周期で離散化した時刻をkとし、時刻kで対象物Aを抽出した場合を考えると、該対象物Aと、次のサンプリング周期である時刻(k+1)で抽出した対象物Bとの間の同一性判定を行う。同一性判定は、所定の条件に従って行うことができる。たとえば、1)対象物AとBの画像上の重心Gの位置のXおよびY座標の差が所定の許容値より小さく、2)対象物Bの画像上の面積の、対象物Aの画像上の面積に対する比が所定の許容値より小さく、3)対象物Bの外接四角形の縦横比の、対象物Aの外接四角形の縦横比に対する比が所定の許容値より小さければ、対象物AおよびBを同一と判定することができる。   In step S19, tracking of the target object for the time (tracking), that is, recognition of the same target object is performed every predetermined sampling period. The sampling period may be the same as the period in which the process of FIG. 3 is performed. Specifically, when the time obtained by discretizing the time t as an analog quantity with the sampling period is k and the object A is extracted at the time k, the object A and the time at the next sampling period are considered. The identity with the object B extracted at (k + 1) is determined. The identity determination can be performed according to a predetermined condition. For example, 1) the difference between the X and Y coordinates of the position of the center of gravity G on the images of the objects A and B is smaller than a predetermined allowable value, and 2) the area on the image of the object B on the image of the object A If the ratio of the aspect ratio of the circumscribed rectangle of the object B to the aspect ratio of the circumscribed rectangle of the object A is smaller than the predetermined allowable value, the objects A and B Can be determined to be the same.

こうして、各サンプリング周期において、抽出された対象物に関し、該対象物の位置(この実施例では、重心Gの位置座標)は、付与されたラベルと共に、時系列データとしてメモリに格納される。   Thus, in each sampling period, with respect to the extracted object, the position of the object (in this embodiment, the position coordinate of the center of gravity G) is stored in the memory as time-series data together with the assigned label.

なお、以上説明したステップS14〜S19の処理は、2値化した基準画像(この実施例では、右画像)について実行される。   Note that the processes in steps S14 to S19 described above are executed for a binarized reference image (in this example, the right image).

ステップS20において、車速センサ6により検出される車速VCARおよびヨーレートセンサ5により検出されるヨーレートYRを読み込み、ヨーレートYRを時間積分することにより、車両10の回頭角θr(後述される)を算出する。   In step S20, the vehicle speed VCAR detected by the vehicle speed sensor 6 and the yaw rate YR detected by the yaw rate sensor 5 are read, and the turning angle θr (described later) of the vehicle 10 is calculated by integrating the yaw rate YR over time.

一方、ステップS31〜S33では、ステップS19およびS20の処理と平行して、車両10から対象物までの距離zを算出する処理を行う。この演算は、ステップS19およびS20よりも長い時間を要するため、ステップS19およびS20より長い周期(たとえば、ステップS11〜S20の実行周期の3倍程度の周期)で実行されるようにしてもよい。   On the other hand, in steps S31 to S33, a process of calculating a distance z from the vehicle 10 to the object is performed in parallel with the processes of steps S19 and S20. Since this calculation requires a longer time than steps S19 and S20, it may be executed at a cycle longer than that of steps S19 and S20 (for example, a cycle about three times the execution cycle of steps S11 to S20).

ステップS31では、基準画像(この実施例では、右画像)の2値化画像によって追跡される対象物のうちの1つを選択し、これを、探索画像R1(ここでは、外接四角形で囲まれる画像領域を探索画像とする)とする。ステップS32では、左画像において、該探索画像R1と同じ対象物の画像(以下、対応画像と呼ぶ)を探索する。具体的には、探索画像R1と該左画像の間で相関演算を実行することにより行われることができる。相関演算は、下記式(1)に従って行われる。この相関演算は、2値画像ではなく、グレースケール画像を用いて行う。
In step S31, one of the objects to be tracked by the binarized image of the reference image (in this example, the right image) is selected, and this is surrounded by a search image R1 (here, a circumscribed rectangle). Let the image area be a search image). In step S32, an image of the same object as the search image R1 (hereinafter referred to as a corresponding image) is searched for in the left image. Specifically, it can be performed by executing a correlation calculation between the search image R1 and the left image. The correlation calculation is performed according to the following formula (1). This correlation calculation is performed using a grayscale image, not a binary image.

ここで、探索画像R1は、M×N個の画素数を持ち、IR(m,n)は、探索画像R1内の座標(m,n)の位置の輝度値であり、IL(a+m−M,b+n−N)は、左画像内の所定の座標(a,b)を基点とした、探索画像R1と同一形状の局所領域内の座標(m,n)の位置の輝度値である。基点の座標(a,b)を変化させて輝度差分総和値C(a,b)が最小となる位置を求めることにより、対応画像の位置が特定される。   Here, the search image R1 has M × N number of pixels, and IR (m, n) is a luminance value at the position of the coordinates (m, n) in the search image R1, and IL (a + m−M , B + n−N) is a luminance value at the position of the coordinates (m, n) in the local area having the same shape as the search image R1 with the predetermined coordinates (a, b) in the left image as a base point. The position of the corresponding image is specified by determining the position where the luminance difference sum C (a, b) is minimized by changing the coordinates (a, b) of the base point.

代替的に、左画像において、探索すべき領域を予め設定し、探索画像R1と該領域との間で相関演算を実行してもよい。   Alternatively, a region to be searched for in the left image may be set in advance, and correlation calculation may be performed between the search image R1 and the region.

ステップS33において、探索画像R1の重心位置と、撮像画像の画像中心線(撮像画像をx方向に二分する線)LCTRとの距離dR(画素数)および対応画像の重心位置と画像中心線LCTRとの距離dL(画素数)を求め、式(2)に適用して、車両10の対象物までの距離zを算出する。
In step S33, the distance dR (number of pixels) between the centroid position of the search image R1 and the image center line (the line that bisects the captured image in the x direction) LCTR of the captured image, the centroid position of the corresponding image, and the image center line LCTR Distance dL (number of pixels) is obtained and applied to Equation (2) to calculate the distance z to the object of the vehicle 10.

ここで、Bは、基線長、すなわちカメラ1Rの撮像素子の中心位置と、カメラ1Lの撮像素子の中心位置とのx方向(水平方向)の距離(すなわち、両カメラの光軸の間隔)を示し、Fは、カメラ1Rおよび1Lに設けられたレンズ12Rおよび12Lの焦点距離を示し、pは、撮像素子11Rおよび11L内の画素間隔を示す。Δd(=dR+dL)は、視差の大きさを示す。   Here, B is the base line length, that is, the distance in the x direction (horizontal direction) between the center position of the image sensor of the camera 1R and the center position of the image sensor of the camera 1L (that is, the distance between the optical axes of both cameras). F denotes the focal length of the lenses 12R and 12L provided in the cameras 1R and 1L, and p denotes the pixel interval in the image sensors 11R and 11L. Δd (= dR + dL) indicates the magnitude of parallax.

ステップS21において、対象物の位置(前述したように、この実施例では重心Gの位置)の画像内の座標(x、y)および式(2)により算出した距離zを、式(3)に適用し、実空間座標(X,Y,Z)に変換する。ここで、実空間座標(X,Y,Z)は、図4(a)に示すように、カメラ1Rおよび1Lの取り付け位置の中点の位置(車両に固定された位置)を原点Oとして、図のように、車両10の車幅方向にx軸、車両10の車高方向にy軸、車両10の進行方向にz軸を定めた座標系で表される。画像上の座標は、図4(b)に示すように、画像の中心を原点として水平方向をx軸および垂直方向をy軸とした座標系で表される。
In step S21, the coordinates (x, y) in the image of the position of the object (as described above, the position of the center of gravity G in this embodiment) and the distance z calculated by Expression (2) are expressed in Expression (3). Apply and convert to real space coordinates (X, Y, Z). Here, the real space coordinates (X, Y, Z) are, as shown in FIG. As shown in the figure, it is expressed in a coordinate system in which the x-axis is defined in the vehicle width direction of the vehicle 10, the y-axis is defined in the vehicle height direction, and the z-axis is defined in the traveling direction of the vehicle 10. As shown in FIG. 4B, the coordinates on the image are represented by a coordinate system in which the center of the image is the origin, the horizontal direction is the x axis, and the vertical direction is the y axis.

ここで、(xc,yc)は、右画像上の座標(x,y)を、カメラ1Rの取り付け位置と実空間座標系の原点Oとの相対位置関係に基づいて、実空間原点Oと画像の中心とを一致させた仮想的な画像内の座標に変換したものである。また、fは、焦点距離Fと画素間隔pとの比である。   Here, (xc, yc) is the coordinate (x, y) on the right image based on the relative position relationship between the mounting position of the camera 1R and the origin O of the real space coordinate system and the image. Are converted into coordinates in a virtual image that coincides with the center of the image. F is a ratio between the focal length F and the pixel interval p.

ステップS22において、車両10が回頭することによる画像上の位置ずれを補正するための回頭角補正を行う。時刻kから(k+1)までの期間中に、車両10がたとえば左方向に回頭角θrだけ回頭すると、カメラによって得られる画像上では、Δxだけx方向(正の方向)にずれる。したがって、これを補正する。   In step S22, the turning angle correction for correcting the positional deviation on the image due to the turning of the vehicle 10 is performed. During the period from time k to (k + 1), when the vehicle 10 turns, for example, by a turning angle θr in the left direction, the image obtained by the camera is shifted in the x direction (positive direction) by Δx. Therefore, this is corrected.

具体的には、式(4)に実空間座標(X,Y,Z)を適用して、補正座標(Xr,Yr,Zr)を算出する。算出した実空間位置データ(Xr,Yr,Zr)は、対象物ごとに対応づけて時系列にメモリに格納される。なお、以下の説明では、該補正後の座標を、(X,Y,Z)と示す。
Specifically, the real space coordinates (X, Y, Z) are applied to Equation (4) to calculate the corrected coordinates (Xr, Yr, Zr). The calculated real space position data (Xr, Yr, Zr) is stored in the memory in time series in association with each object. In the following description, the corrected coordinates are indicated as (X, Y, Z).

ステップS23において、同一対象物について、ΔTの期間内に得られた、回頭角補正後のN個の実空間位置データ(たとえば、N=10程度)、すなわち時系列データから、対象物の車両10に対する相対移動ベクトルに対応する近似直線LMVを求める。具体的には、近似直線LMVの方向を示す方向ベクトルL=(lx,ly,lz)(|L|=1)とすると、式(5)で表される直線を求める。
In step S23, from the N real space position data (for example, about N = 10) after turning angle correction obtained within the period of ΔT for the same object, that is, from the time-series data, the vehicle 10 of the object. An approximate straight line LMV corresponding to the relative movement vector with respect to is obtained. Specifically, when the direction vector L = (lx, ly, lz) (| L | = 1) indicating the direction of the approximate straight line LMV, the straight line represented by the equation (5) is obtained.

ここで、uは、任意の値を取る媒介変数である。Xav、YavおよびZavは、それぞれ、実空間位置データ列のX座標の平均値、Y座標の平均値、およびZ座標の平均値である。媒介変数uを消去することにより、式(5)は、以下の式(5a)のように表される。
(X−Xav)/lx=(Y−Yav)/ly=(Z−Zav)/lz
(5a)
Here, u is a parameter that takes an arbitrary value. Xav, Yav, and Zav are the average value of the X coordinate, the average value of the Y coordinate, and the average value of the Z coordinate of the real space position data string, respectively. By deleting the parameter u, the equation (5) is expressed as the following equation (5a).
(X-Xav) / lx = (Y-Yav) / ly = (Z-Zav) / lz
(5a)

図5は、近似直線LMVを説明するための図である。P(0)、P(1)、P(2)、・・・、P(N−2)、P(N−1)が、回頭角補正後の時系列データを示し、近似直線LMVは、この時系列データの平均位置座標Pav(=(Xav,Yav,Zav))を通り、各データ点からの距離の二乗の平均値が最小となるような直線として求められる。ここで各データ点の座標を示すPに付した()内の数値は、その値が増加するほど過去のデータであることを示す。たとえば、P(0)は最新の位置座標、P(1)は、1サンプル周期前の位置座標、P(2)は2サンプル周期前の位置座標を示す。以下の説明におけるX(j)、Y(j)、Z(j)等も同様である。なお、近似直線LMVを演算するより詳細な手法は、特開2001−6096号公報に記載されている。   FIG. 5 is a diagram for explaining the approximate straight line LMV. P (0), P (1), P (2),..., P (N-2), P (N-1) indicate time-series data after the turning angle correction, and the approximate straight line LMV is It is obtained as a straight line that passes through the average position coordinates Pav (= (Xav, Yav, Zav)) of the time series data and has the minimum mean value of the square of the distance from each data point. Here, the numerical value in () attached to P indicating the coordinates of each data point indicates that the data is past data as the value increases. For example, P (0) indicates the latest position coordinates, P (1) indicates the position coordinates one sample period before, and P (2) indicates the position coordinates two sample periods before. The same applies to X (j), Y (j), Z (j) and the like in the following description. A more detailed method for calculating the approximate straight line LMV is described in Japanese Patent Laid-Open No. 2001-6096.

次に、最新の位置座標P(0)=(X(0),Y(0),Z(0))と、(N−1)前(すなわち、時間ΔT前)の位置座標P(N−1)=(X(N−1),Y(N−1),Z(N−1))を、近似直線LMV上の位置に補正する。具体的には、式(5a)にZ座標Z(0)およびZ(n−1)を適用することにより得た式(6)により、補正後の位置座標Pv(0)=(Xv(0),Yv(0),Zv(0))およびPv(N−1)=(Xv (N−1),Yv(N−1),Zv(N−1))を求める。
Next, the latest position coordinate P (0) = (X (0), Y (0), Z (0)) and the position coordinate P (N−) before (N−1) (that is, before time ΔT). 1) = (X (N−1), Y (N−1), Z (N−1)) is corrected to a position on the approximate straight line LMV. Specifically, the corrected position coordinates Pv (0) = (Xv (0) are obtained by using the expression (6) obtained by applying the Z coordinates Z (0) and Z (n−1) to the expression (5a). ), Yv (0), Zv (0)) and Pv (N-1) = (Xv (N-1), Yv (N-1), Zv (N-1)).

式(6)で算出された位置座標Pv(N−1)からPv(0)に向かうベクトルが、相対移動ベクトルとして算出される。   A vector from the position coordinates Pv (N−1) calculated by Expression (6) toward Pv (0) is calculated as a relative movement vector.

このように、モニタ期間ΔT内の複数(N個)のデータから、対象物の車両10に対する相対移動軌跡を近似する近似直線LMVを算出して相対移動ベクトルを求めることにより、位置検出誤差の影響を軽減して、対象物との衝突の可能性をより正確に予測することができる。   In this way, by calculating the approximate straight line LMV that approximates the relative movement trajectory of the object with respect to the vehicle 10 from a plurality (N) of data within the monitoring period ΔT, and determining the relative movement vector, the influence of the position detection error is obtained. And the possibility of collision with the object can be predicted more accurately.

ここで、図6を参照すると、カメラ1Rおよび1Lによって撮像可能な領域である撮像範囲AR0が示されている。撮像範囲AR0に対応する撮像画像に対して、図3のステップS11からS23の処理は実行される。   Here, referring to FIG. 6, an imaging range AR0, which is an area that can be imaged by the cameras 1R and 1L, is shown. The processing in steps S11 to S23 in FIG. 3 is performed on the captured image corresponding to the imaging range AR0.

領域AR1は、車両10の車幅αの両側に余裕β(たとえば、50〜100cm程度とすることができる)を加えた範囲に対応する領域、換言すれば車両10の車幅方向の中心軸の両側に(α/2+β)の幅を有する領域であり、対象物がそのまま存在し続ければ衝突の可能性が高い接近判定領域である。領域AR2およびAR3は、接近判定領域よりX座標の絶対値が大きい(接近判定領域の横方向外側の)領域であり、この領域にある対象物は、接近判定領域へと侵入するおそれがある侵入判定領域である。これらの領域AR1〜AR3は、Y方向には所定高さHを有し、Z方向には所定距離Z1を有する。   The area AR1 corresponds to an area corresponding to a range obtained by adding a margin β (for example, about 50 to 100 cm) on both sides of the vehicle width α of the vehicle 10, in other words, the central axis of the vehicle 10 in the vehicle width direction. It is an area having a width of (α / 2 + β) on both sides, and is an approach determination area with a high possibility of collision if the object continues to exist as it is. Areas AR2 and AR3 are areas where the absolute value of the X coordinate is larger than that of the approach determination area (outside in the lateral direction of the approach determination area), and an object in this area may enter the approach determination area. It is a judgment area. These areas AR1 to AR3 have a predetermined height H in the Y direction and a predetermined distance Z1 in the Z direction.

ステップS24では、領域AR1〜AR3に存在する対象物が抽出される。すなわち、式(7)によりZ方向の相対速度Vsを算出し、式(8)および式(9)を満たす対象物が抽出される。
Vs=(Zv(N−1)―Zv(0))/ΔT (7)
Zv(0)/Vs≦T (8)
|Yv(0)|≦H (9)
In step S24, objects existing in the areas AR1 to AR3 are extracted. In other words, the relative velocity Vs in the Z direction is calculated by the equation (7), and the object that satisfies the equations (8) and (9) is extracted.
Vs = (Zv (N−1) −Zv (0)) / ΔT (7)
Zv (0) / Vs ≦ T (8)
| Yv (0) | ≦ H (9)

ここで、Zv(0)は、最新の距離検出値(vは、近似直線LMVによる補正後のデータであることを示すために付しているが、Z座標は補正前と同一の値である)であり、Zv(N−1)は、時間ΔT前の距離検出値である。また、Tは、余裕時間であり、衝突の可能性を予測衝突時刻より時間Tだけ前に判定することを意図したものであり、例えば2〜5秒程度に設定される。Vs×Tが、領域AR1〜AR3の所定距離Z1に対応する。Hは、Y方向すなわち高さ方向の範囲を規定し、例えば自車両10の車高の2倍程度に設定される。これが、領域AR1〜AR3の所定高さHを示す。こうして、垂直方向では所定高さHに制限され、距離方向では所定距離Z1に制限された領域AR1〜AR3内の対象物が、衝突の可能性があると判断されて抽出される。   Here, Zv (0) is attached to indicate that the latest distance detection value (v is data after correction by the approximate straight line LMV, but the Z coordinate is the same value as before correction. Zv (N−1) is a distance detection value before time ΔT. T is an allowance time, and is intended to determine the possibility of a collision by a time T before the predicted collision time, and is set to about 2 to 5 seconds, for example. Vs × T corresponds to the predetermined distance Z1 between the areas AR1 to AR3. H defines a range in the Y direction, that is, the height direction, and is set to about twice the vehicle height of the host vehicle 10, for example. This indicates the predetermined height H of the areas AR1 to AR3. Thus, the objects in the areas AR1 to AR3 that are limited to the predetermined height H in the vertical direction and limited to the predetermined distance Z1 in the distance direction are determined to have a possibility of collision and extracted.

次に、こうして抽出された対象物が、接近判定領域AR1内にあるか否かを判断する接近判定処理が行われる。具体的には、対象物の位置Pv(0)のX座標Xv(0)が、領域AR1内に存在するかどうかを判断する。この判断がYesであれば、衝突の可能性が高いと判断し、直ちにステップS25の対象物判定処理に進む。この判断がNoであれば、対象物は、領域AR2またはAR3に存在することを示し、侵入判定処理が行われる。   Next, an approach determination process is performed to determine whether or not the object thus extracted is within the approach determination area AR1. Specifically, it is determined whether or not the X coordinate Xv (0) of the position Pv (0) of the object exists in the area AR1. If this determination is Yes, it is determined that the possibility of collision is high, and the process immediately proceeds to the object determination process in step S25. If this determination is No, it indicates that the object exists in the area AR2 or AR3, and an intrusion determination process is performed.

侵入判定処理では、対象物の画像上での最新のx座標xc(0)(cは前述したように画像の中心位置を実空間原点Oに一致させる補正を行った座標であることを示すために付している)と、時間ΔT前のx座標xc(N−1)との差が、式(12)を満たすか否かを調べる。満たすならば、対象物が移動によって接近判定領域AR1に侵入することにより車両10との衝突の可能性が高いと判断し、ステップS25の対象物判定処理に進む。式(10)を満たさなければ、今回衝突の可能性のある対象物は領域AR1〜AR3内に存在しないと判断し、図3のプロセスを終了する。
In the intrusion determination process, the latest x-coordinate xc (0) on the image of the object (c is a coordinate that has been corrected to make the center position of the image coincide with the real space origin O as described above. And the difference between the x coordinate xc (N−1) before the time ΔT satisfies whether or not the expression (12) is satisfied. If satisfied, it is determined that there is a high possibility of a collision with the vehicle 10 due to the object entering the approach determination area AR1 by movement, and the process proceeds to the object determination process in step S25. If Expression (10) is not satisfied, it is determined that there is no object that may possibly collide this time in the areas AR1 to AR3, and the process of FIG.

ここで、上記式の根拠を簡単に説明する。図7を参照すると、対象物20の最新の位置座標と、時間ΔT前の位置座標とを通る直線、すなわち近似直線LMVと、XY平面(X軸とY軸を含む平面、すなわち車両10の先端部に対応する線(X軸)を含み、車両10の進行方向に垂直な面)との交点のX座標をXCLとすると、車幅αを考慮した衝突発生の条件は、式(11)で与えられる。
−α/2≦XCL≦α/2 (11)
Here, the basis of the above formula will be briefly described. Referring to FIG. 7, a straight line passing through the latest position coordinates of the object 20 and the position coordinates before time ΔT, that is, an approximate straight line LMV, and an XY plane (a plane including the X axis and the Y axis, that is, the tip of the vehicle 10). When the X coordinate of the intersection point with the line (X axis) corresponding to the section and the plane perpendicular to the traveling direction of the vehicle 10 is XCL, the condition for the occurrence of the collision considering the vehicle width α is expressed by Equation (11). Given.
-Α / 2 ≦ XCL ≦ α / 2 (11)

他方、近似直線LMVをXZ平面に投影した直線は式(12)で与えられる。
On the other hand, a straight line obtained by projecting the approximate straight line LMV onto the XZ plane is given by Expression (12).

この式にZ=0、X=XCLを代入してXCLを求めると、式(13)のようになる。
Substituting Z = 0 and X = XCL into this equation yields XCL as shown in equation (13).

また、実空間座標Xと、画像上の座標xcとの間には、式(3)のような関係があるので、以下の式が成立する。
Xv(0)=xc(0)×Zv(0)/f (14)
Xv(N−1)=xc(N−1)×Zv(N−1)/f (15)
Further, since there is a relationship as shown in Equation (3) between the real space coordinate X and the coordinate xc on the image, the following equation is established.
Xv (0) = xc (0) × Zv (0) / f (14)
Xv (N-1) = xc (N-1) * Zv (N-1) / f (15)

これらを式(13)に適用すると、交点X座標XCLは、式(16)で与えられる。これを式(11)に代入して整理すると、上記式(10)が得られる。
When these are applied to Expression (13), the intersection X coordinate XCL is given by Expression (16). Substituting this into equation (11) and rearranging gives equation (10) above.

図3のステップS25に戻り、接近判定処理および侵入判定処理において衝突の可能性が高いと判断された対象物について対象物判定処理を行い、対象物が、注意喚起の対象とすべきものであるかどうかを判断する。たとえば、歩行者および動物を注意喚起対象とすることができる。歩行者および動物を判定する処理は、任意の適切な手法で実施されることができる(たとえば、特開2006−185434号公報、特開2007−310705号公報に記載されている)。   Returning to step S25 in FIG. 3, is the object determination process performed on the object that is determined to have a high possibility of collision in the approach determination process and the intrusion determination process, and is the object to be a target for alerting? Judge whether. For example, pedestrians and animals can be targeted for attention. The process of determining a pedestrian and an animal can be performed by any appropriate technique (for example, described in JP 2006-185434 A and JP 2007-310705 A).

対象物が、注意喚起の対象と判断されたならば、ステップS26において、運転者に対し、警報を実際に出力するかどうかを判定する警報判定処理を行う。この判定結果が肯定であれば、警報を出力する。   If it is determined that the object is a target for alerting, an alarm determination process is performed in step S26 to determine whether or not an alarm is actually output to the driver. If the determination result is affirmative, an alarm is output.

この実施例では、警報判定処理は、ブレーキの操作に応じて警報を実際に出力するかどうかを判断する。具体的には、ブレーキセンサ7の出力から、車両10の運転者がブレーキ操作を行っているか否かを判別し、ブレーキ操作を行っていなければ、警報出力を行う。ブレーキ操作を行っている場合には、それによって発生する加速度Gs(減速方向を正とする)を算出し、加速度Gsが所定の閾値GTH以下(Gs≦GTH)であるときは、警報出力を行い、Gx>GTHであるときは、ブレーキ操作により衝突が回避されると判定して処理を終了する。これにより、適切なブレーキ操作が行われているときは、警報を発しないようにして、運転者に余計な煩わしさを与えないようにすることができる。しかしながら、代替的に、ブレーキ操作について判定することなく警報を発するようにしてもよい。   In this embodiment, in the alarm determination process, it is determined whether an alarm is actually output according to the operation of the brake. Specifically, it is determined from the output of the brake sensor 7 whether or not the driver of the vehicle 10 is performing a brake operation. If the brake operation is not performed, an alarm is output. When the brake operation is performed, the acceleration Gs generated by the braking operation is calculated (the deceleration direction is positive). When the acceleration Gs is equal to or less than a predetermined threshold GTH (Gs ≦ GTH), an alarm is output. When Gx> GTH, it is determined that the collision is avoided by the brake operation, and the process is terminated. As a result, when an appropriate brake operation is performed, an alarm is not issued, so that the driver is not bothered excessively. However, alternatively, an alarm may be issued without determining brake operation.

ここで、閾値GTHは、式(17)のように定めることができる。これは、ブレーキ加速度Gsがそのまま維持された場合に、距離Zv(0)以下の走行距離で車両10が停止する条件に対応する値である。
Here, the threshold value GTH can be determined as shown in Expression (17). This is a value corresponding to a condition in which the vehicle 10 stops at a travel distance equal to or less than the distance Zv (0) when the brake acceleration Gs is maintained as it is.

警報出力は、スピーカ3を介して音声による警報を発するとともに、図8に示すように、HUD4により、例えばカメラ1Rにより得られる画像を画面4aに表示し、認識された対象物を表示する。音声による警報は、単なるブザーのような音でもよいし、注意を喚起するようなメッセージの音声でもよい。また、対象物の表示形態は任意でよく、たとえば、色のついた枠で囲んで強調表示することができる。音声および画像表示の一方によって警報を発するようにしてもよい。こうして、衝突の可能性の高い対象物を、運転者はより確実に認識することができる。   In the alarm output, an audio alarm is issued through the speaker 3 and, as shown in FIG. 8, an image obtained by the camera 1R, for example, is displayed on the screen 4a by the HUD 4, and the recognized object is displayed. The sound alarm may be a simple buzzer sound or a message sound to call attention. Further, the display form of the object may be arbitrary, and for example, it can be highlighted by surrounding it with a colored frame. An alarm may be issued by one of sound and image display. In this way, the driver can more reliably recognize an object with a high possibility of collision.

以上が、対象物の認識処理の全体的な概要である。次に、図1を参照して言及した、反応時間検出部8および処理範囲変更部9による、反応時間に従う処理範囲の変更処理について説明する。   The above is the overall overview of the object recognition process. Next, the processing range changing process according to the reaction time by the reaction time detecting unit 8 and the processing range changing unit 9 referred to with reference to FIG. 1 will be described.

反応時間検出部8は、警報が発せられた時点から、運転者による所定の操作が開始されるまでの時間、すなわち反応時間を、たとえばタイマを用いて計測する。所定の操作は、反応時間検出部8によって検出され、この実施例では、車両を制動させる操作および車両のステアリングホイール(ハンドル)に対する操作を含む。車両を制動させる操作は、車両を減速させる操作であり、たとえば、運転者がブレーキペダルを踏みこむ操作、運転者がアクセルペダルの踏み込みを解除する操作、および、いわゆるエンジンブレーキが作動するような運転操作(たとえば、シフトポジションの変更等)を含むことができる。該制動させる操作は、たとえば車速センサ6の検出値から、車速が減じたかどうかに基づいて検出されることができる。代替的に、または追加的に、ブレーキペダルが踏まれたかどうかをブレーキセンサ7により検出することができ、また、アクセルペダルの踏み込みが解除されたかどうかを、アクセルペダル開度センサ(図示せず)により検出することができる。車両のステアリングホイールに対する操作は、車両を旋回させる操作であり、たとえばステアリングホイールの操舵角を検出するセンサによって検出されることができる。   The reaction time detection unit 8 measures the time from when the alarm is issued until a predetermined operation by the driver is started, that is, the reaction time using, for example, a timer. The predetermined operation is detected by the reaction time detector 8, and in this embodiment, includes an operation of braking the vehicle and an operation on the steering wheel (handle) of the vehicle. The operation of braking the vehicle is an operation of decelerating the vehicle. For example, an operation in which the driver depresses the brake pedal, an operation in which the driver releases the depression of the accelerator pedal, and an operation in which a so-called engine brake is activated. Operations (e.g., changing the shift position, etc.) can be included. The braking operation can be detected based on, for example, whether the vehicle speed has been reduced from the detection value of the vehicle speed sensor 6. Alternatively or additionally, whether or not the brake pedal has been depressed can be detected by the brake sensor 7, and whether or not the depression of the accelerator pedal has been released is determined by an accelerator pedal opening sensor (not shown). Can be detected. The operation on the steering wheel of the vehicle is an operation of turning the vehicle, and can be detected by, for example, a sensor that detects the steering angle of the steering wheel.

処理範囲変更部9は、検出された反応時間に従って、対象物を認識する処理対象となる、車両周辺の所定範囲(以下、単に「処理範囲」と呼ぶ)を変更する。具体的には、検出された反応時間が所定の閾値より小さければ、処理範囲を基準範囲に設定して、基準範囲から対象物が認識されるようにし、検出された反応時間が該閾値以上ならば、該処理範囲を、基準範囲から拡大し、該拡大範囲から対象物が認識されるようにする。   The processing range changing unit 9 changes a predetermined range (hereinafter simply referred to as “processing range”) around the vehicle, which is a processing target for recognizing an object, according to the detected reaction time. Specifically, if the detected reaction time is smaller than a predetermined threshold, the processing range is set as a reference range so that an object is recognized from the reference range, and if the detected reaction time is equal to or greater than the threshold, For example, the processing range is expanded from the reference range, and the object is recognized from the expanded range.

ここで、処理範囲には、以下の2つのケースAおよびBがある。
A:図3のステップS11〜S23の処理の対象となる範囲。
B:図3のステップS24およびS25の処理の対象となる範囲。
Here, the processing range includes the following two cases A and B.
A: Range to be processed in steps S11 to S23 in FIG.
B: Range to be processed in steps S24 and S25 in FIG.

図6を参照して説明したように、ステップS21〜S23では、撮像範囲AR0に対応する撮像画像を対象に処理が行われる。AR0は、カメラ1Rおよび1Lの視野角(水平(X)および垂直(Y)方向)によって決まり、距離(Z)方向においては制限されない。なお、カメラ1Rとカメラ1Lは別個に配置されているので、両者の撮像範囲は実際には異なるが、図のAR0は、両方のカメラの撮像範囲の共通部分を示しているとし、両方のカメラの視野角は同じであるとする(これは、以下の説明でも同様である)。他方、ステップS24では、領域AR1〜AR3を設定することにより、対象物を認識する範囲を制限している。領域AR1〜AR3は、水平方向における視野角はAR0と同じであるが、前述したように、この図の場合には、垂直方向は所定高さHにより制限され、距離方向は所定距離Z1(=Vs×T)によって制限されている。ステップS25において、該制限された範囲における対象物を判定する。   As described with reference to FIG. 6, in steps S21 to S23, processing is performed on the captured image corresponding to the imaging range AR0. AR0 is determined by the viewing angles (horizontal (X) and vertical (Y) directions) of cameras 1R and 1L, and is not limited in the distance (Z) direction. In addition, since the camera 1R and the camera 1L are separately arranged, the imaging range of both is actually different, but AR0 in the figure indicates a common part of the imaging range of both cameras, and both cameras Are assumed to have the same viewing angle (this also applies to the following description). On the other hand, in step S24, the range for recognizing the object is limited by setting the areas AR1 to AR3. In the regions AR1 to AR3, the viewing angle in the horizontal direction is the same as that of AR0. However, as described above, in this case, the vertical direction is limited by the predetermined height H, and the distance direction is the predetermined distance Z1 (= Vs × T). In step S25, an object in the limited range is determined.

以下の説明において、ケースAとBの処理範囲を区別して説明するときには、前者を「画像処理範囲」と呼び、後者を「認識処理範囲」と呼ぶ。いずれのケースにおいても、処理範囲を小さくするほど、計算負荷を低減することができる。   In the following description, when the processing ranges of cases A and B are distinguished and described, the former is referred to as “image processing range” and the latter is referred to as “recognition processing range”. In any case, the calculation load can be reduced as the processing range is reduced.

ケースAについての処理範囲の変更は、さらに、以下のサブケースが考えられる。
A−1:撮像範囲AR0を処理範囲とし、撮像範囲AR0自体の大きさを変更する。
A−2:撮像範囲AR0の撮像画像内において、処理範囲として所定の画像領域を設定し、該画像領域の大きさを変更する。
The following sub-cases can be considered for changing the processing range for case A.
A-1: The imaging range AR0 is set as a processing range, and the size of the imaging range AR0 itself is changed.
A-2: A predetermined image area is set as a processing range in the captured image of the imaging range AR0, and the size of the image area is changed.

以下、図9〜図14を参照し、各ケースについて、処理範囲の変更手法を説明する。   Hereinafter, a method for changing the processing range will be described for each case with reference to FIGS.

図9は、ケースA−1を示す。このケースでは、撮像カメラ1Rおよび1Lを、少なくとも水平方向の視野角を変更可能なカメラで構成している。(a)は、基準範囲に設定された画像処理範囲PR0を示し、これは、カメラ1Rおよび1Lにより、水平方向および垂直方向の所定の視野角で撮像される範囲AR0に一致している。距離方向においては制限されない。図には、水平方向の視野角θd1について示されている。画像処理範囲PR0内に、図6を参照して説明したように、W1(=α/2+β)の幅を持つ接近判定領域AR1と、侵入判定領域AR2およびAR3とが設定され、これらは、距離方向ではZ1により、垂直方向ではHにより制限される。   FIG. 9 shows Case A-1. In this case, the imaging cameras 1R and 1L are configured with cameras that can change at least the viewing angle in the horizontal direction. (A) shows the image processing range PR0 set as the reference range, which coincides with the range AR0 captured by the cameras 1R and 1L at a predetermined viewing angle in the horizontal and vertical directions. There is no restriction in the distance direction. In the figure, the viewing angle θd1 in the horizontal direction is shown. In the image processing range PR0, as described with reference to FIG. 6, the approach determination area AR1 having the width W1 (= α / 2 + β) and the intrusion determination areas AR2 and AR3 are set. It is limited by Z1 in the direction and H in the vertical direction.

(b)は、カメラ1Rおよび1Lの水平方向の視野角をθd2(>θd1)に広げることにより拡大された撮像範囲AR0すなわち拡大範囲に設定された画像処理範囲PR0を示す。垂直方向の視野角については、カメラの仕様に依存して、広げられてもよいし、広げられなくてもよい。画像処理範囲PR0は、距離方向には制限されない。この拡大に伴い、侵入判定領域AR2およびAR3も水平方向に拡大されている。接近判定領域AR1は、拡大されていない。領域AR1〜AR3の距離方向および垂直方向についての制限は、Z1およびHにそれぞれ維持される。   (B) shows the imaging range AR0 enlarged by expanding the horizontal viewing angle of the cameras 1R and 1L to θd2 (> θd1), that is, the image processing range PR0 set to the enlarged range. The viewing angle in the vertical direction may or may not be widened depending on the camera specifications. The image processing range PR0 is not limited in the distance direction. With this expansion, the intrusion determination areas AR2 and AR3 are also expanded in the horizontal direction. The approach determination area AR1 is not enlarged. Restrictions on the distance direction and the vertical direction of the areas AR1 to AR3 are maintained at Z1 and H, respectively.

処理範囲変更部9は、反応時間が所定の閾値より小さいときには、画像処理範囲PR0を、(a)の基準範囲に維持する。画像処理ユニット2は、該基準範囲に設定された画像処理範囲PR0対し、図3のステップS11〜S23の処理を実行する。他方、処理範囲変更部9は、反応時間が所定の閾値以上であることが検出されたならば、カメラ1Rおよび1Lの水平方向の視野角をθd2(>θd1)に広げることにより、(b)に示すように撮像範囲AR0を拡大し、これにより、画像処理範囲PR0を拡大範囲に変更する。結果として、水平方向に拡大された画像処理範囲に対応する画像が取得される。画像処理ユニット2は、該拡大された画像処理範囲に対応する撮像画像に対し、図3のステップS11〜S23の処理を実行する。(a)および(b)のいずれの場合も、ステップS24においては、式(8)および(9)によって距離方向および垂直方向に制限された領域AR1〜AR3に存在する対象物を認識する。   The processing range changing unit 9 maintains the image processing range PR0 within the reference range (a) when the reaction time is smaller than the predetermined threshold. The image processing unit 2 executes the processes of steps S11 to S23 in FIG. 3 for the image processing range PR0 set as the reference range. On the other hand, if it is detected that the reaction time is equal to or greater than the predetermined threshold value, the processing range changing unit 9 expands the horizontal viewing angle of the cameras 1R and 1L to θd2 (> θd1), so that (b) As shown in FIG. 4, the imaging range AR0 is enlarged, and thereby the image processing range PR0 is changed to the enlarged range. As a result, an image corresponding to the image processing range expanded in the horizontal direction is acquired. The image processing unit 2 performs the processes of steps S11 to S23 in FIG. 3 on the captured image corresponding to the enlarged image processing range. In both cases (a) and (b), in step S24, the objects existing in the areas AR1 to AR3 restricted in the distance direction and the vertical direction by the expressions (8) and (9) are recognized.

(b)の処理範囲PR0は、(a)の処理範囲PR0に比べて水平方向に拡大されているので、水平方向に、車両10からより遠い所に存在する対象物の認識を行うことができる。したがって、反応時間が長い場合でも、運転者は、より遠い所にある対象物を早期に認識して、所定の運転操作を早期に開始することができる。   Since the processing range PR0 of (b) is expanded in the horizontal direction as compared with the processing range PR0 of (a), it is possible to recognize an object that is located farther from the vehicle 10 in the horizontal direction. . Therefore, even when the reaction time is long, the driver can recognize an object at a farther place at an early stage and can start a predetermined driving operation at an early stage.

図10は、ケースA−2を示す。このケースでは、カメラ1Rおよび1Lの水平および垂直方向の視野角は一定であるので撮像範囲AR0は不変であるが、撮像された画像内において処理する画像領域の大きさを変更することにより、画像処理範囲PR0を変更する。   FIG. 10 shows Case A-2. In this case, since the horizontal and vertical viewing angles of the cameras 1R and 1L are constant, the imaging range AR0 is not changed. However, by changing the size of the image area to be processed in the captured image, The processing range PR0 is changed.

すなわち、(a)は、基準範囲に設定された画像処理範囲PR0を示し、この水平方向の視野角θd3は、カメラ1Rおよび1Lの水平方向の所定の視野角θd4よりも小さい。従って、画像処理範囲PR0は、撮像範囲AR0よりも水平方向に小さくなっている。垂直方向については、小さくてもよいし、小さくなくてもよい。距離方向においては制限されない。画像処理範囲PR0内には、前述したように、接近判定領域AR1と、侵入判定領域AR2およびAR3とが設定され、これらは、距離方向ではZ1により、垂直方向ではHにより制限される。   That is, (a) shows the image processing range PR0 set as the reference range, and the horizontal viewing angle θd3 is smaller than the predetermined viewing angle θd4 in the horizontal direction of the cameras 1R and 1L. Therefore, the image processing range PR0 is smaller in the horizontal direction than the imaging range AR0. The vertical direction may be small or not small. There is no restriction in the distance direction. In the image processing range PR0, as described above, the approach determination area AR1 and the intrusion determination areas AR2 and AR3 are set, and these are limited by Z1 in the distance direction and by H in the vertical direction.

(b)は、拡大範囲に設定された画像処理範囲PR0を示し、これは、撮像範囲AR0に一致するよう拡大されている。垂直方向については、拡大してもよいし、拡大されなくてもよい。画像処理範囲PR0は、距離方向には制限されない。この拡大に伴い、侵入判定領域AR2およびAR3も水平方向に拡大されている。接近判定領域AR1は拡大されていない。領域AR1〜AR3の距離方向および垂直方向についての制限は、Z1およびHにそれぞれ維持される。   (B) shows the image processing range PR0 set as the enlargement range, which is enlarged to coincide with the imaging range AR0. The vertical direction may be enlarged or may not be enlarged. The image processing range PR0 is not limited in the distance direction. With this expansion, the intrusion determination areas AR2 and AR3 are also expanded in the horizontal direction. The approach determination area AR1 is not enlarged. Restrictions on the distance direction and the vertical direction of the areas AR1 to AR3 are maintained at Z1 and H, respectively.

処理範囲変更部9は、反応時間が所定の閾値より小さいときには、画像処理範囲PR0を、(a)の基準範囲に維持し、画像処理ユニット2は、該基準範囲に設定された画像処理範囲PR0に対し、図3のステップS11〜S23の処理を実行する。このときの画像処理範囲PR0は、撮像範囲AR0より小さいので、撮像画像の一部の画像領域に対応する。たとえば、ステップS11において取得された撮像画像の一部の画像領域のみを、ステップS12のA/D変換で処理されるようにし、以降の画像処理は、該一部の画像領域についてのみ行われる。   When the reaction time is smaller than the predetermined threshold, the processing range changing unit 9 maintains the image processing range PR0 in the reference range of (a), and the image processing unit 2 sets the image processing range PR0 set to the reference range. On the other hand, the process of step S11-S23 of FIG. 3 is performed. Since the image processing range PR0 at this time is smaller than the imaging range AR0, it corresponds to a partial image area of the captured image. For example, only a part of the image area of the captured image acquired in step S11 is processed by the A / D conversion in step S12, and the subsequent image processing is performed only for the part of the image area.

他方、処理範囲変更部9は、反応時間が所定の閾値以上であることが検出されたならば、(b)のように、画像処理範囲PR0を拡大範囲に変更する。結果として、水平方向に拡大された画像処理範囲PR0に対応する撮像画像全体が、画像処理ユニット2の図3のステップS11〜S23の処理対象となる。(a)および(b)のいずれの場合も、ステップS24においては、式(8)および(9)により距離方向および垂直方向に制限された領域AR1〜AR3に存在する対象物を認識する。   On the other hand, if it is detected that the reaction time is equal to or greater than the predetermined threshold, the processing range changing unit 9 changes the image processing range PR0 to the enlarged range as shown in (b). As a result, the entire captured image corresponding to the image processing range PR0 expanded in the horizontal direction is the processing target of steps S11 to S23 of FIG. In both cases (a) and (b), in step S24, objects existing in the areas AR1 to AR3 restricted in the distance direction and the vertical direction by the expressions (8) and (9) are recognized.

(b)の画像処理範囲PR0は、(a)の画像処理範囲PR0に比べて水平方向に拡大されているので、水平方向に、車両10からより遠い所に存在する対象物を認識することができる。したがって、反応時間が長い場合でも、運転者は、より遠い所にある対象物を早期に認識して、所定の運転操作を早期に開始することができる。   Since the image processing range PR0 of (b) is expanded in the horizontal direction as compared with the image processing range PR0 of (a), it is possible to recognize an object that is located farther from the vehicle 10 in the horizontal direction. it can. Therefore, even when the reaction time is long, the driver can recognize an object at a farther place at an early stage and can start a predetermined driving operation at an early stage.

なお、上記の例では、画像処理範囲PR0の拡大は、撮像範囲AR0に一致するよう行われているが、撮像範囲AR0内に収まれば、一致しないよう拡大してもよい。   In the above example, the image processing range PR0 is enlarged so as to coincide with the imaging range AR0. However, if it falls within the imaging range AR0, it may be enlarged so as not to coincide.

図11は、ケースA−2の他の例である。図10では、水平方向に画像処理範囲PR0を変更するが、図11では、距離方向に画像処理範囲PR0を変更する。   FIG. 11 is another example of case A-2. In FIG. 10, the image processing range PR0 is changed in the horizontal direction, but in FIG. 11, the image processing range PR0 is changed in the distance direction.

すなわち、(a)は、基準範囲に設定された画像処理範囲PR0を示し、これは、カメラ1Rおよび1Lの水平方向および垂直方向の所定の視野角(図には、水平方向の視野角θd5が示されている)で撮像される範囲AR0の距離方向について、所定値Zth1により制限された領域となっている。画像処理範囲PR0内に、図6を参照して説明したように、W1(=α/2+β)の幅を持つ接近判定領域AR1と、侵入判定領域AR2およびAR3が設定され、これらは、距離方向ではZ1により、垂直方向ではHにより制限される。ここで、Z1はZth1以下となるように設定される。   That is, (a) shows the image processing range PR0 set as the reference range, which is a predetermined viewing angle in the horizontal and vertical directions of the cameras 1R and 1L (in the figure, the viewing angle θd5 in the horizontal direction is It is an area limited by a predetermined value Zth1 in the distance direction of the range AR0 to be imaged. In the image processing range PR0, as described with reference to FIG. 6, the approach determination area AR1 having the width of W1 (= α / 2 + β) and the intrusion determination areas AR2 and AR3 are set. Is limited by Z1 and by H in the vertical direction. Here, Z1 is set to be equal to or less than Zth1.

(b)は、拡大範囲に設定された画像処理範囲PR0を示し、これは、距離方向に所定値Zth2(>Zth1)にまで拡大されている。水平および垂直方向については拡大されない。この拡大につれて、領域AR1〜AR3も距離方向に所定値Z2まで拡大されている。Z2はZth2以下であるよう設定される。領域AR1〜AR3の垂直方向の制限は、所定値Hのままである。   (B) shows the image processing range PR0 set as the enlargement range, which is enlarged to a predetermined value Zth2 (> Zth1) in the distance direction. It is not enlarged in the horizontal and vertical directions. As this enlargement is performed, the areas AR1 to AR3 are also enlarged to the predetermined value Z2 in the distance direction. Z2 is set to be equal to or less than Zth2. The restriction in the vertical direction of the areas AR1 to AR3 remains the predetermined value H.

処理範囲変更部9は、反応時間が所定の閾値より小さいときには、画像処理範囲PR0を、(a)の基準範囲に維持する。画像処理ユニット2は、ステップS33で算出された距離値zが所定値Zth1より大きければ、該距離値zを持つ画素の領域を、以降の処理から除外する。こうして、距離値zが所定値Zth1以下の基準範囲が、ステップS21〜S23の処理対象とされる。ステップS24における距離方向および垂直方向の制限は、前述した式(8)および(9)に示すように、所定値Z1(=Vs×T)およびHによりそれぞれ実現される。   The processing range changing unit 9 maintains the image processing range PR0 within the reference range (a) when the reaction time is smaller than the predetermined threshold. If the distance value z calculated in step S33 is larger than the predetermined value Zth1, the image processing unit 2 excludes the pixel region having the distance value z from the subsequent processing. In this way, the reference range in which the distance value z is equal to or smaller than the predetermined value Zth1 is set as the processing target in steps S21 to S23. The restriction in the distance direction and the vertical direction in step S24 is realized by predetermined values Z1 (= Vs × T) and H, respectively, as shown in the above-described equations (8) and (9).

他方、処理範囲変更部9は、反応時間が所定の閾値以上であることが検出されたならば、(b)のように、画像処理範囲PR0を拡大範囲に変更する。結果として、画像処理ユニット2は、ステップS33で算出された距離値zが所定値Zth2より大きければ、該距離値zを持つ画素の領域を、以降の処理から除外する。こうして、距離値zが所定値Zth2以下の拡大範囲が、ステップS21〜S23の処理対象とされる。ステップS24においては、距離方向において所定値Z2により制限され、垂直方向にはHにより制限された領域AR1〜AR3に存在する対象物を認識する。ここで、所定値Z2は、たとえば、所定時間T2(>T)に相対速度Vsを乗算することにより決定されることができる。代替的に、(a)のZ1と(b)のZ2は同じでもよく、この場合、Z2は(T×Vs)によって決定される。   On the other hand, if it is detected that the reaction time is equal to or greater than the predetermined threshold, the processing range changing unit 9 changes the image processing range PR0 to the enlarged range as shown in (b). As a result, if the distance value z calculated in step S33 is larger than the predetermined value Zth2, the image processing unit 2 excludes the pixel region having the distance value z from the subsequent processing. Thus, an enlarged range in which the distance value z is equal to or smaller than the predetermined value Zth2 is set as a processing target in steps S21 to S23. In step S24, the object existing in the areas AR1 to AR3 limited by the predetermined value Z2 in the distance direction and limited by H in the vertical direction is recognized. Here, the predetermined value Z2 can be determined, for example, by multiplying the predetermined time T2 (> T) by the relative speed Vs. Alternatively, Z1 in (a) and Z2 in (b) may be the same, in which case Z2 is determined by (T × Vs).

(b)の画像処理範囲PR0は、(a)の画像処理範囲PR0に比べて距離方向に拡大されているので、距離方向に、車両10からより遠い所に存在する対象物も認識される。したがって、反応時間が長い場合でも、運転者は、より遠い所にある対象物を早期に認識して、所定の運転操作を早期に開始することができる。   Since the image processing range PR0 of (b) is expanded in the distance direction as compared with the image processing range PR0 of (a), an object existing farther from the vehicle 10 is also recognized in the distance direction. Therefore, even when the reaction time is long, the driver can recognize an object at a farther place at an early stage and can start a predetermined driving operation at an early stage.

図12は、ケースBの水平方向における拡大を示す。ケースBでは、前述したように、図3のステップS11〜S23の処理対象である画像処理範囲PR0は撮像範囲AR0と一致しているが、図3のステップS24において対象物を最終的に認識する領域である認識処理範囲PR1(=AR1+AR2+AR3)が、反応時間に従って変更される。   FIG. 12 shows an enlargement of case B in the horizontal direction. In case B, as described above, the image processing range PR0 that is the processing target of steps S11 to S23 in FIG. 3 matches the imaging range AR0, but the target is finally recognized in step S24 of FIG. The recognition processing range PR1 (= AR1 + AR2 + AR3), which is a region, is changed according to the reaction time.

すなわち、(a)および(b)のいずれも、画像処理範囲PR0は、カメラ1Rおよび1Lの水平方向および垂直方向の所定の視野角(図には、水平方向の視野角θd6が示されている)で撮像される範囲AR0一致している。距離方向においては制限されない。画像処理範囲PR0内に、図6を参照して説明したように、W1(=α/2+β)の幅を持つ接近判定領域AR1と、侵入判定領域AR2およびAR3とが設定され、これらは、距離方向ではZ1により、垂直方向ではHにより制限される。AR1〜AR3の和が、認識処理範囲PR1である。   That is, in both (a) and (b), the image processing range PR0 is a predetermined viewing angle in the horizontal and vertical directions of the cameras 1R and 1L (the viewing angle θd6 in the horizontal direction is shown in the figure). ) Matches the range AR0 imaged. There is no restriction in the distance direction. In the image processing range PR0, as described with reference to FIG. 6, the approach determination area AR1 having the width W1 (= α / 2 + β) and the intrusion determination areas AR2 and AR3 are set. It is limited by Z1 in the direction and H in the vertical direction. The sum of AR1 to AR3 is the recognition processing range PR1.

(a)の認識処理範囲PR1は、基準範囲に設定されており、水平方向の視野角θd7(<θd6)で表されるように、画像処理範囲PR0(=撮像範囲AR0)よりも小さい。(b)は、画像処理範囲PR0に一致するように水平方向に拡大された認識処理範囲PR1を示す。垂直方向および距離方向については、拡大されていない。   The recognition processing range PR1 in (a) is set as a reference range, and is smaller than the image processing range PR0 (= imaging range AR0) as represented by the horizontal viewing angle θd7 (<θd6). (B) shows the recognition processing range PR1 expanded in the horizontal direction so as to coincide with the image processing range PR0. The vertical and distance directions are not enlarged.

処理範囲変更部9は、反応時間が所定の閾値より小さい時には、認識処理範囲PR0を、(a)の基準範囲に維持し、画像処理ユニット2は、該基準範囲に設定された認識処理範囲PR1に対し、図3のステップS24の処理を実行する。このときの認識処理範囲PR1は、撮像範囲AR0より小さいので、撮像画像の一部の画像領域に対応する。たとえば、ステップS24において、前述した式(8)および(9)の条件に加え、対象物の最新の位置Pv(0)が、(a)のような認識処理範囲PR1内に存在することを条件とし、これらの条件が満たされた場合に、前述した接近判定処理および侵入判定処理を行うことができる。   When the reaction time is smaller than the predetermined threshold, the processing range changing unit 9 maintains the recognition processing range PR0 in the reference range of (a), and the image processing unit 2 recognizes the recognition processing range PR1 set in the reference range. On the other hand, the process of step S24 in FIG. 3 is executed. Since the recognition processing range PR1 at this time is smaller than the imaging range AR0, it corresponds to a part of the image area of the captured image. For example, in step S24, in addition to the conditions of the expressions (8) and (9) described above, the condition that the latest position Pv (0) of the object exists within the recognition processing range PR1 as shown in (a). When these conditions are satisfied, the approach determination process and the intrusion determination process described above can be performed.

他方、処理範囲変更部9は、反応時間が所定の閾値以上であることが検出されたならば、(b)のように、認識処理範囲PR1を拡大範囲に変更する。結果として、水平方向に拡大された認識処理範囲PR1に対して、図3のステップS24の処理が実行される。   On the other hand, if it is detected that the reaction time is equal to or greater than the predetermined threshold, the processing range changing unit 9 changes the recognition processing range PR1 to an enlarged range as shown in (b). As a result, the process of step S24 in FIG. 3 is performed on the recognition processing range PR1 expanded in the horizontal direction.

(b)の認識処理範囲PR1は、(a)の認識処理範囲PR1に比べて水平方向に拡大されているので、水平方向に、車両10からより遠い所に存在する対象物も認識される。したがって、反応時間が長い場合でも、運転者は、より遠い所にある対象物を早期に認識して、所定の運転操作を早期に開始することができる。   Since the recognition processing range PR1 in (b) is expanded in the horizontal direction as compared with the recognition processing range PR1 in (a), an object existing farther from the vehicle 10 is also recognized in the horizontal direction. Therefore, even when the reaction time is long, the driver can recognize an object at a farther place at an early stage and can start a predetermined driving operation at an early stage.

なお、上記の例では、認識処理範囲PR1の拡大は、画像処理範囲PR0(=撮像範囲AR0)に一致するよう行われているが、画像処理範囲PR0内に収まれば、一致しないよう拡大してもよい。   In the above example, the recognition processing range PR1 is enlarged so as to match the image processing range PR0 (= imaging range AR0), but if it falls within the image processing range PR0, it is enlarged so as not to match. Also good.

図13は、ケースBの距離方向における拡大を示す。(a)および(b)のいずれも、画像処理範囲PR0は、カメラ1Rおよび1Lの水平方向および垂直方向の所定の視野角(図には、水平方向における視野角θd8が示されている)で撮像される範囲AR0一致している。距離方向においては制限されない。画像処理範囲PR0内に、図6を参照して説明したように、W1(=α/2+β)の幅を持つ接近判定領域AR1と、侵入判定領域AR2およびAR3とが設定され、これらは、垂直方向ではHにより制限される。AR1〜AR3の和が、認識処理範囲PR1である。   FIG. 13 shows an enlargement of case B in the distance direction. In both (a) and (b), the image processing range PR0 is a predetermined viewing angle in the horizontal and vertical directions of the cameras 1R and 1L (the viewing angle θd8 in the horizontal direction is shown in the figure). The range AR0 to be imaged matches. There is no restriction in the distance direction. As described with reference to FIG. 6, the approach determination area AR1 having the width of W1 (= α / 2 + β) and the intrusion determination areas AR2 and AR3 are set in the image processing range PR0. The direction is limited by H. The sum of AR1 to AR3 is the recognition processing range PR1.

(a)は、基準範囲に設定された認識処理範囲PR1を示し、これは、距離方向において所定値Z1で制限されている。(b)は、距離方向において所定値Z2(>Z1)で制限された認識処理範囲PR1を示し、これは、(a)に比べて距離方向に拡大されている。水平および垂直方向については拡大されない。   (A) shows the recognition processing range PR1 set as the reference range, which is limited by a predetermined value Z1 in the distance direction. (B) shows the recognition processing range PR1 limited by the predetermined value Z2 (> Z1) in the distance direction, which is enlarged in the distance direction compared to (a). It is not enlarged in the horizontal and vertical directions.

処理範囲変更部9は、反応時間が所定の閾値より小さいときには、認識処理範囲PR0を、(a)の基準範囲に維持し、画像処理ユニット2は、該基準範囲に設定された認識処理範囲PR1に対し、図3のステップS24の処理を実行する。前述したように、所定値Z1はVs×Tであり、ステップS24における式(8)により、所定値Z1による距離方向の制限は実現される。   When the reaction time is smaller than the predetermined threshold, the processing range changing unit 9 maintains the recognition processing range PR0 in the reference range of (a), and the image processing unit 2 recognizes the recognition processing range PR1 set in the reference range. On the other hand, the process of step S24 in FIG. 3 is executed. As described above, the predetermined value Z1 is Vs × T, and the limitation in the distance direction by the predetermined value Z1 is realized by the equation (8) in step S24.

他方、処理範囲変更部9は、反応時間が所定の閾値以上であることが検出されたならば、(b)のように、認識処理範囲PR1を拡大範囲に変更する。具体的には、Z2を、(相対速度Vs×所定時間T2)に設定し、ここで、T2は、T2>Tであるよう設定される。ステップS24の式(8)を、Zv(0)/Vs≦T2に変更することにより、所定値Z2による距離方向の制限を実現することができる。   On the other hand, if it is detected that the reaction time is equal to or greater than the predetermined threshold, the processing range changing unit 9 changes the recognition processing range PR1 to an enlarged range as shown in (b). Specifically, Z2 is set to (relative speed Vs × predetermined time T2), where T2 is set such that T2> T. By changing the equation (8) in step S24 to Zv (0) / Vs ≦ T2, the limitation in the distance direction by the predetermined value Z2 can be realized.

(b)の認識処理範囲PR1は、(a)の認識処理範囲PR1に比べて距離方向に拡大されているので、距離方向に、車両10からより遠い所に存在する対象物も認識される。したがって、反応時間が長い場合でも、運転者は、より遠い所にある対象物を早期に認識して、所定の運転操作を早期に開始することができる。   Since the recognition processing range PR1 of (b) is expanded in the distance direction as compared with the recognition processing range PR1 of (a), an object existing farther from the vehicle 10 is also recognized in the distance direction. Therefore, even when the reaction time is long, the driver can recognize an object at a farther place at an early stage and can start a predetermined driving operation at an early stage.

この実施例では、処理範囲変更部9は、警報の発行に対する、運転者による車両を制動させる操作の反応時間が所定の閾値以上である場合には、図11および図13を参照して説明したように、処理範囲(画像処理範囲PR0および認識処理範囲PR1のいずれでもよいし、両方でもよい)を距離方向に拡大する。車両を制動させる操作は、車両を、距離方向への進行に制限をかける操作である。制動させる操作の反応時間が長いということは、車両の進行の制限に遅延が生じるおそれがあることを示す。したがって、処理範囲を距離方向に拡大することにより、距離方向においてより遠くにある対象物を運転者に早期に認識させる。これにより、運転者は、より早期に、制動させる操作を開始することができる。   In this embodiment, the processing range changing unit 9 has been described with reference to FIGS. 11 and 13 when the reaction time of the operation of braking the vehicle by the driver with respect to the issuance of the alarm is not less than a predetermined threshold. In this way, the processing range (either the image processing range PR0 and the recognition processing range PR1 or both may be expanded) in the distance direction. The operation of braking the vehicle is an operation of limiting the vehicle to travel in the distance direction. A long response time of the braking operation indicates that there is a possibility that a delay may occur in limiting the vehicle travel. Therefore, by expanding the processing range in the distance direction, the driver can recognize an object farther in the distance direction at an early stage. As a result, the driver can start the braking operation earlier.

他方、処理範囲変更部9は、警報の発行に対する、運転者による車両のステアリングホイールに対する操作の反応時間が所定の閾値値以上である場合には、図9、図10および図12を参照して説明したように、処理範囲(画像処理範囲PR0および認識処理範囲PR1のいずれでもよいし、両方でもよい)を水平方向に拡大する。ステアリングホイールに対する操作は、車両を旋回させる操作である。該ステアリングホールの操作について反応時間が長いということは、車両の旋回に遅れが生じるおそれがあることを示す。したがって、水平方向に拡大することにより、水平方向においてより遠くにある対象物を運転者に早期に認識させる。これにより、運転者は、より早期に、旋回させる操作を開始することができる。   On the other hand, the processing range changing unit 9 refers to FIGS. 9, 10, and 12 when the response time of the operation on the steering wheel of the vehicle by the driver with respect to the issue of the alarm is equal to or greater than a predetermined threshold value. As described above, the processing range (either the image processing range PR0 and the recognition processing range PR1 or both may be expanded) in the horizontal direction. The operation on the steering wheel is an operation for turning the vehicle. A long reaction time with respect to the operation of the steering hole indicates that there is a risk of delay in turning the vehicle. Therefore, by enlarging in the horizontal direction, the driver can recognize an object farther in the horizontal direction at an early stage. As a result, the driver can start the turning operation earlier.

警報の発行に応じて、制動する操作とステアリングホイールの操作の両方が検出され、両方について反応時間が閾値以上ならば、処理範囲を、水平方向に拡大すると共に、距離方向に拡大するようにしてもよい。   Depending on the issuance of the alarm, both braking operation and steering wheel operation are detected, and if the reaction time is more than the threshold value for both, the processing range is expanded in the horizontal direction and in the distance direction. Also good.

代替形態として、反応時間が閾値より小さければ、接近判定領域AR1の幅をW1に維持し、反応時間が閾値以上であることが検出されたことに応じて、接近判定領域AR1の幅を広げるようにしてもよい。図14を参照すると、幅W1(前述したように、α/2+βである)が拡大されて幅W2となった接近判定領域AR1を有する認識処理範囲PR1が示されている。このような拡大により、接近判定領域AR1に存在する対象物の捕捉範囲が広がるので、運転者は、より狭い幅W1の接近判定領域AR1に比べて、より早期に、衝突の可能性が高い対象物の存在を認識することができる。接近判定領域AR1の幅の拡大と共に、図9〜図13を参照して説明したように、水平方向および(または)距離方向の拡大を行ってもよい。   As an alternative, if the reaction time is smaller than the threshold, the width of the approach determination area AR1 is maintained at W1, and the width of the approach determination area AR1 is increased in response to the detection that the reaction time is equal to or greater than the threshold. It may be. Referring to FIG. 14, a recognition processing range PR1 having an approach determination area AR1 in which the width W1 (which is α / 2 + β as described above) is expanded to become the width W2 is shown. By such an enlargement, the capture range of the object existing in the approach determination area AR1 is expanded, so that the driver has a higher possibility of a collision earlier than the approach determination area AR1 having a narrower width W1. Recognize the existence of things. Along with the expansion of the width of the approach determination area AR1, as described with reference to FIGS. 9 to 13, the horizontal direction and / or the distance direction may be expanded.

上記実施例では、処理範囲の大きさは、反応時間に従い、基準範囲(図9〜図13の(a))と拡大範囲(図9〜図13の(b))との間で切り換えられる。代替的に、反応時間が長くなるにつれて、処理範囲を徐々に拡大するようにしてもよい。反応時間が所定時間長くなるたびに、処理範囲の水平方向および(または)距離方向を、所定の大きさずつ拡大するようにしてもよい。   In the above embodiment, the size of the processing range is switched between the reference range (FIGS. 9 to 13A) and the enlarged range (FIGS. 9 to 13B) according to the reaction time. Alternatively, the treatment range may be gradually expanded as the reaction time increases. Each time the reaction time increases by a predetermined time, the horizontal direction and / or the distance direction of the processing range may be expanded by a predetermined size.

さらに、この実施例では、検出された反応時間に従って、警報の出力形態を変更する。具体的には、反応時間検出部8によって検出された反応時間が、前述した所定の閾値より小さければ、画像処理ユニット2は、ステップS26でスピーカ3を介して出力する警報を基準の音量で発し、該反応時間が閾値以上ならば、出力する警報の音量を、該基準の音量よりも大きくする。警報音は、前述したように、単なるブザーのような音でもよいし、注意を喚起するようなメッセージの音声でもよい。反応時間が長くなるにつれて、音量を徐々に大きくするようにしてもよい。   Further, in this embodiment, the alarm output form is changed according to the detected reaction time. Specifically, if the reaction time detected by the reaction time detection unit 8 is smaller than the predetermined threshold, the image processing unit 2 issues an alarm output through the speaker 3 at a reference volume in step S26. If the reaction time is equal to or greater than the threshold value, the volume of the alarm to be output is set larger than the reference volume. As described above, the warning sound may be a simple buzzer sound or a voice message that calls attention. The volume may be gradually increased as the reaction time becomes longer.

警報音に代えて、または警報音に加えて、反応時間検出部8によって検出された反応時間が、前述した所定の閾値以上であるならば、HUD4の画面4a上の対象物を示す表示を、強調表示する。強調表示の一例を、図15に示す。(a)は、反応時間が所定の閾値より小さい場合の基準表示であり、認識された対象物を枠201で囲むことにより、いくらか強調して表示している。(b)は、反応時間が閾値以上の場合の表示であり、(a)に比べて、対象物を示す枠203の太さが太くなっており、(a)よりもさらに強調された表示となっている。任意の形態で強調することができ、たとえば、(a)と(b)の間で、対象物を示す枠の色を変更したり、対象物を示す枠の周辺に何らかの記号等を表示したりしてもよい。反応時間が長くなるにつれて、強調表示の形態を変更してもよい。たとえば、反応時間が長くなるにつれて、より注意を喚起するよう、枠の太さを徐々に太くしたり、枠の色を徐々に目立たせたりするようにしてもよい。   If the reaction time detected by the reaction time detection unit 8 is equal to or more than the above-described predetermined threshold instead of or in addition to the alarm sound, a display indicating the object on the screen 4a of the HUD 4 is displayed. Highlight. An example of the highlight display is shown in FIG. (A) is a reference display when the reaction time is smaller than a predetermined threshold, and is displayed with some emphasis by surrounding the recognized object with a frame 201. (B) is a display when the reaction time is equal to or greater than a threshold, and the frame 203 indicating the object is thicker than (a), and the display is more emphasized than (a). It has become. It can be emphasized in any form. For example, the color of the frame indicating the object is changed between (a) and (b), or some symbol or the like is displayed around the frame indicating the object. May be. As the reaction time becomes longer, the highlighted form may be changed. For example, as the reaction time becomes longer, the thickness of the frame may be gradually increased or the color of the frame may be gradually made more conspicuous to attract more attention.

さらに他の実施形態では、検出された反応時間に従って、警報出力のタイミングを変更してもよい。このような変更手法の一例を、図16に示す。(a)は、反応時間が所定の閾値より小さいとき、すなわち基準の警報出力タイミングを示し、(b)は、反応時間が閾値以上と判断された場合の警報出力タイミングを示す。時点t1において注意喚起すべき対象物が認識され(図3のステップS25)、時点t2において、警報出力が発せられる。警報出力は、前述したように、音でもよいし、画像における強調表示でもよい。   In still another embodiment, the alarm output timing may be changed according to the detected reaction time. An example of such a change technique is shown in FIG. (A) shows the alarm output timing when the reaction time is smaller than the predetermined threshold, that is, the reference alarm output timing, and (b) shows the alarm output timing when the reaction time is determined to be equal to or greater than the threshold. An object to be alerted is recognized at time t1 (step S25 in FIG. 3), and an alarm output is issued at time t2. As described above, the alarm output may be a sound or an emphasis display in an image.

反応時間検出部8において、反応時間が所定の閾値より小さいことが検出されたならば、画像処理ユニット2は、ステップS25の対象物認識から、ステップS26において実際に警報を出力するまでの時間を、所定期間T1に設定する。他方、反応時間が所定の閾値以上であることが検出されたならば、画像処理ユニット2は、それに応じて、ステップS25の対象物認識から、ステップS26において実際に警報を出力するまでの時間を、所定期間T1からT2(>T1)へと短くする。こうすることにより、反応が遅い場合には早めに警報出力が行われる。これにより、運転者は、警報に応じた運転操作を早期に開始することができる。   If the reaction time detection unit 8 detects that the reaction time is smaller than the predetermined threshold, the image processing unit 2 determines the time from the object recognition in step S25 to the actual output of the alarm in step S26. , Set to a predetermined period T1. On the other hand, if it is detected that the reaction time is equal to or greater than the predetermined threshold, the image processing unit 2 accordingly determines the time from the object recognition in step S25 to the actual output of the alarm in step S26. The predetermined period T1 is shortened to T2 (> T1). By doing so, an alarm is output early when the reaction is slow. Thereby, the driver can start the driving operation according to the warning at an early stage.

図の例では、警報出力タイミングの設定は2段階となっているが、さらに多くの段階を設け、反応時間が長くなるにつれて、警報出力タイミングを徐々に早くするようにしてもよい。   In the example of the figure, the alarm output timing is set in two stages, but more stages may be provided so that the alarm output timing is gradually advanced as the reaction time becomes longer.

図17は、反応時間検出部8、処理範囲変更部9および画像処理ユニット2によって実行される、処理範囲および警報出力形態の変更プロセスのフローである。ステップS41に示すように、このプロセスは、図3のステップS26において警報が出力されたことに応じて開始される。警報出力に応じて、タイマにより計時が行われる。   FIG. 17 is a flow of a process range and alarm output mode change process executed by the reaction time detection unit 8, the processing range change unit 9, and the image processing unit 2. As shown in step S41, this process is started in response to the alarm being output in step S26 of FIG. Time is measured by a timer according to the alarm output.

ステップS42において、所定の運転操作を検出する。この実施例では、前述したように、車両を制動させる操作およびステアリングホイールの操作を検出する。   In step S42, a predetermined driving operation is detected. In this embodiment, as described above, the operation of braking the vehicle and the operation of the steering wheel are detected.

ステップS43において、上記計時により、警報出力から、ステップS42の運転操作の検出までの時間すなわち反応時間を求める。   In step S43, the time from the alarm output to the detection of the driving operation in step S42, that is, the reaction time, is obtained by the time counting.

ステップS44において、反応時間を所定の閾値と比較し、反応時間が該閾値より小さければ、処理範囲(前述した画像処理範囲PR0および認識処理範囲PR1の一方でもよいし、両方でもよい)として、図9〜図13の(a)に示されるような基準範囲を選択し、反応時間が該閾値以上であれば、処理範囲として、図9〜図13の(b)に示されるような拡大範囲を選択する。前述したように、検出された運転操作に応じて、拡大範囲の種類を選択するのがよい。たとえば、制動する操作が検出されたならば、図11および図13の(b)に示されるような、距離方向に拡大された処理範囲が選択され、ステアリングホイールの操作が検出されたならば、図9、図10、図12の(b)に示されるような、水平方向に拡大された処理範囲が選択される。なお、制動する操作およびステアリングホイールの操作の両方が検出されたならば、水平方向および距離方向の両方向に拡大された処理範囲を選択してよい。   In step S44, the reaction time is compared with a predetermined threshold value. If the reaction time is smaller than the threshold value, the processing range (one of the image processing range PR0 and the recognition processing range PR1 described above or both may be used) When a reference range as shown in (a) of FIG. 9 to FIG. 13 is selected and the reaction time is equal to or greater than the threshold, an expanded range as shown in (b) of FIG. select. As described above, the type of the enlarged range is preferably selected according to the detected driving operation. For example, if a braking operation is detected, a processing range expanded in the distance direction as shown in FIGS. 11 and 13B is selected, and if a steering wheel operation is detected, The processing range expanded in the horizontal direction as shown in FIGS. 9, 10, and 12B is selected. If both the braking operation and the steering wheel operation are detected, the processing range expanded in both the horizontal direction and the distance direction may be selected.

さらに、ステップS44において、反応時間が該閾値より小さければ、警報音の音量として、基準の音量を選択し、反応時間が該閾値以上であれば、警報音の音量として、該基準の音量より大きい音量を選択する。また、反応時間が該閾値より小さければ、警報表示として、基準の表示形態(たとえば、図15の(a))または強調の行われない表示形態を選択し、反応時間が該閾値以上ならば、警報表示として、基準の表示形態より強調を大きくした表示形態(たとえば、図15の(b))を選択する。   Further, in step S44, if the reaction time is smaller than the threshold, a reference volume is selected as the volume of the alarm sound, and if the reaction time is equal to or greater than the threshold, the volume of the alarm sound is larger than the reference volume. Select the volume. Further, if the reaction time is smaller than the threshold, a reference display form (for example, (a) in FIG. 15) or a display form without emphasis is selected as an alarm display, and if the reaction time is equal to or greater than the threshold, As a warning display, a display form (for example, (b) in FIG. 15) with a higher emphasis than the standard display form is selected.

ステップS45において、選択された処理範囲が、現在既に使用されている処理範囲と同じかどうかを判断する。同じならば、当該プロセスを抜ける。異なっていれば、現在使用されている処理範囲を、選択された処理範囲に変更する。以降に実行される図3のプロセスは、変更された処理範囲に基づいて実行される。たとえば、選択された処理範囲が拡大範囲であり、現在既に使用されている処理範囲も拡大範囲であれば、処理範囲の大きさは変更されない。他方、たとえば、選択された処理範囲が拡大範囲であり、現在既に使用されている処理範囲が基準範囲であれば、処理範囲は該拡大範囲に変更され、該拡大範囲から、対象物が認識されるようにする。   In step S45, it is determined whether or not the selected processing range is the same as the processing range that is currently used. If it is the same, exit the process. If they are different, the currently used processing range is changed to the selected processing range. The process of FIG. 3 executed thereafter is executed based on the changed processing range. For example, if the selected processing range is an enlarged range, and the currently used processing range is also an enlarged range, the size of the processing range is not changed. On the other hand, for example, if the selected processing range is an enlarged range and the currently used processing range is a reference range, the processing range is changed to the enlarged range, and the object is recognized from the enlarged range. So that

また、ステップS45において、選択された警報音の音量および警報表示の形態が、現在既に使用されている警報音の音量および警報表示の形態と同じであれば、警報音の音量および警報表示の形態は変更せず、異なっていれば、現在既に使用されている警報音の音量および警報表示の形態を、選択された警報音の音量および警報表示の形態に変更する。こうして、以降に実行される図3のステップS26では、変更された警報音の音量および警報表示の形態で警報出力が行われる。   In step S45, if the volume of the selected alarm sound and the form of the alarm display are the same as the volume of the alarm sound and the form of the alarm display currently used, the volume of the alarm sound and the form of the alarm display If it is different, the alarm sound volume and the alarm display form that are already used are changed to the selected alarm sound volume and the alarm display form. In this way, in step S26 of FIG. 3 performed after that, alarm output is performed in the form of the changed alarm sound volume and alarm display.

このフローでは、反応時間に従って変更される対象として、処理範囲、警報音および警報表示の形態が含まれているが、当然ながら、処理範囲のみを変更してもよいし、処理範囲の変更に加え、警報音および警報表示のいずれか一方のみを変更するようにしてもよい。これらの変更に、図14および図16を参照して説明したような、接近判定領域の大きさの変更および警報出力タイミングの変更を加えてもよい。   In this flow, the processing range, the alarm sound, and the alarm display form are included as targets to be changed according to the reaction time. However, of course, only the processing range may be changed, or in addition to the change of the processing range. Only one of the alarm sound and the alarm display may be changed. A change in the size of the approach determination area and a change in the alarm output timing as described with reference to FIGS. 14 and 16 may be added to these changes.

このように、本願発明によれば、反応時間が短い場合には、処理範囲を制限することにより、画像処理に関する演算量を低減することができると共に、対象物の認識精度を向上させることができる。他方、反応時間が長い場合には、演算量および認識精度よりも、早期の対象物認識を運転者に促すことを優先し、これにより、運転者が、より早期に対象物回避のための運転操作を開始することができるようにする。こうして、より確実に対象物との衝突を回避するよう運転操作を行うよう運転者を促すことができる。   Thus, according to the present invention, when the reaction time is short, by limiting the processing range, it is possible to reduce the amount of calculation related to image processing and to improve the recognition accuracy of the object. . On the other hand, when the reaction time is long, priority is given to prompting the driver to recognize the object earlier than the amount of calculation and the recognition accuracy, so that the driver can drive for avoiding the object earlier. Allow the operation to begin. In this way, it is possible to prompt the driver to perform a driving operation so as to more reliably avoid a collision with the object.

なお、本発明は、上記の実施形態に限られるものではなく、様々な変形形態が可能である。たとえば、上記実施形態では、撮像手段として赤外線カメラを使用したが、例えば通常の可視光線のみ検出可能なテレビカメラを使用してもよい(たとえば、特開平2−26490号公報)。しかしながら、赤外線カメラを用いることにより、対象物の抽出処理をより簡略化することができ、演算負荷を低減することができる。   In addition, this invention is not restricted to said embodiment, Various deformation | transformation forms are possible. For example, in the above-described embodiment, an infrared camera is used as the imaging unit. However, for example, a television camera that can detect only normal visible light may be used (for example, JP-A-2-26490). However, by using an infrared camera, the object extraction process can be further simplified, and the calculation load can be reduced.

この発明の一実施例に従う、周辺監視装置の構成を示すブロック図。The block diagram which shows the structure of the periphery monitoring apparatus according to one Example of this invention. この発明の一実施例に従う、カメラの取り付け位置を説明するための図。The figure for demonstrating the attachment position of the camera according to one Example of this invention. この発明の一実施例に従う、画像処理ユニットにおけるプロセスを示すフローチャート。3 is a flowchart illustrating a process in an image processing unit according to an embodiment of the present invention. この発明の一実施例に従う、実空間座標系と画像座標系を示す図。The figure which shows the real space coordinate system and image coordinate system according to one Example of this invention. この発明の一実施例に従う、相対移動ベクトルの算出手法を説明するための図。The figure for demonstrating the calculation method of a relative movement vector according to one Example of this invention. この発明の一実施例に従う、車両前方の領域区分を示す図。The figure which shows the area division ahead of the vehicle according to one Example of this invention. この発明の一実施例に従う、侵入判定処理を説明するための図。The figure for demonstrating the intrusion determination process according to one Example of this invention. この発明の一実施例に従う、警報出力の一例を説明するための図。The figure for demonstrating an example of the alarm output according to one Example of this invention. この発明の一実施例に従う、車両前方の処理範囲を変更する一例を説明するための図。The figure for demonstrating an example which changes the process range ahead of a vehicle according to one Example of this invention. この発明の一実施例に従う、車両前方の処理範囲を変更する他の例を説明するための図。The figure for demonstrating the other example which changes the process range ahead of the vehicle according to one Example of this invention. この発明の一実施例に従う、車両前方の処理範囲を変更する他の例を説明するための図。The figure for demonstrating the other example which changes the process range ahead of the vehicle according to one Example of this invention. この発明の一実施例に従う、車両前方の処理範囲を変更する他の例を説明するための図。The figure for demonstrating the other example which changes the process range ahead of the vehicle according to one Example of this invention. この発明の一実施例に従う、車両前方の処理範囲を変更する他の例を説明するための図。The figure for demonstrating the other example which changes the process range ahead of the vehicle according to one Example of this invention. この発明の一実施例に従う、車両前方の処理範囲を変更する他の例を説明するための図。The figure for demonstrating the other example which changes the process range ahead of the vehicle according to one Example of this invention. この発明の一実施例に従う、警報の出力形態を変更する一例を説明するための図。The figure for demonstrating an example which changes the output form of the alarm according to one Example of this invention. この発明の一実施例に従う、警報の出力タイミングを変更する一例を説明するための図。The figure for demonstrating an example which changes the output timing of an alarm according to one Example of this invention. この発明の一実施例に従う、反応時間に従って、処理範囲および警報の出力形態を変更するプロセスのフローチャート。The flowchart of the process which changes the processing range and the output form of an alarm according to reaction time according to one Example of this invention.

符号の説明Explanation of symbols

1R,1L 赤外線カメラ(撮像手段)
2 画像処理ユニット
3 スピーカ
4 ヘッドアップディスプレイ
5 ヨーレートセンサ
6 車速センサ
7 ブレーキセンサ
8 反応時間検出部
9 処理範囲変更部
1R, 1L infrared camera (imaging means)
2 Image processing unit 3 Speaker 4 Head-up display 5 Yaw rate sensor 6 Vehicle speed sensor 7 Brake sensor 8 Reaction time detection unit 9 Processing range change unit

Claims (2)

車両に搭載された撮像手段により撮像される画像に基づき、前記車両周辺の所定範囲を対象として対象物を認識し、当該認識された対象物について車両の運転者に対し警報を発行する車両周辺装置であって、
前記警報の発行に対し、前記運転者の操舵操作及び車両を制動させる操作の反応時間を検出する反応時間検出手段と、
前記反応時間が所定値以上であることを検出したならば、前記所定範囲を拡大し、前記対象物を認識するための前記画像の撮像範囲又は前記画像における画像処理対象の範囲を拡大する範囲変更手段と、
を備え、
前記範囲変更手段は、前記操舵操作の反応時間が第1の所定値以上であることを検出したならば、前記所定範囲の、前記車両の進行方向に沿った距離方向の大きさが大きくなるように当該所定範囲を拡大し、前記制動させる操作の反応時間が第2の所定値以上であることを検出したならば、前記所定範囲の、前記車両の車幅方向における大きさが大きくなるように当該所定範囲を拡大する、
車両周辺監視装置。
A vehicle peripheral device that recognizes an object for a predetermined range around the vehicle based on an image captured by an imaging unit mounted on the vehicle, and issues an alarm to the driver of the vehicle with respect to the recognized object Because
A reaction time detecting means for detecting a response time of the driver's steering operation and an operation of braking the vehicle with respect to the issuing of the alarm;
If it is detected that the reaction time is equal to or greater than a predetermined value, the predetermined range is expanded, and the image capturing range for recognizing the object or a range change for expanding the image processing target range in the image Means,
Bei to give a,
If the range changing means detects that the response time of the steering operation is equal to or greater than a first predetermined value, the size of the predetermined range in the distance direction along the traveling direction of the vehicle is increased. If it is detected that the response time of the braking operation is equal to or greater than a second predetermined value, the size of the predetermined range in the vehicle width direction is increased. Expand the predetermined range,
Vehicle periphery monitoring device.
前記警報の発行は、前記運転者に対して、音または画像表示によって注意を喚起することを含み、
さらに、前記反応時間検出手段によって前記操舵操作又は制動させる操作の反応時間がそれぞれ前記第1又は第2の所定値以上であることが検出されたならば、該音を大きくする、または該画像表示を強調する手段を備える、
請求項1に記載の車両周辺監視装置。
Issuing the warning includes alerting the driver by sound or image display;
Further, if said the steering operation or reaction times of the braking is thereby operated by the response time detecting unit is each of the first or second predetermined value or more is detected, increasing the the sound or the image display With means to emphasize
The vehicle periphery monitoring apparatus according to claim 1 .
JP2008262280A 2008-10-08 2008-10-08 Vehicle periphery monitoring device Expired - Fee Related JP5292047B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008262280A JP5292047B2 (en) 2008-10-08 2008-10-08 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008262280A JP5292047B2 (en) 2008-10-08 2008-10-08 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2010089661A JP2010089661A (en) 2010-04-22
JP5292047B2 true JP5292047B2 (en) 2013-09-18

Family

ID=42252810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008262280A Expired - Fee Related JP5292047B2 (en) 2008-10-08 2008-10-08 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP5292047B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012234409A (en) * 2011-05-02 2012-11-29 Mazda Motor Corp Driving support device for vehicle
JP5953655B2 (en) * 2011-05-02 2016-07-20 マツダ株式会社 Vehicle driving support device
JP2013239015A (en) * 2012-05-15 2013-11-28 Sharp Corp Parking support device, and parking support method and program
JP5780225B2 (en) * 2012-10-12 2015-09-16 株式会社デンソー Vehicle occupant attribute discrimination device
EP4212400A4 (en) * 2020-08-28 2024-01-10 Nissan Motor Driving assistance method and driving assistance device
CN113851002B (en) * 2021-10-15 2022-04-22 江阴市人人达科技有限公司 Ectopic facility interactive synchronization system and method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2809063B2 (en) * 1993-02-16 1998-10-08 トヨタ自動車株式会社 Vehicle alarm system
JP3952790B2 (en) * 2002-01-25 2007-08-01 株式会社豊田中央研究所 Vehicle rear display device
JP4063144B2 (en) * 2003-05-15 2008-03-19 日産自動車株式会社 Vehicle rear side monitoring device
JP2005004413A (en) * 2003-06-11 2005-01-06 Nissan Motor Co Ltd Drive supporting device for vehicle
JP2005205983A (en) * 2004-01-21 2005-08-04 Aisan Ind Co Ltd Apparatus for visually recognizing surrounding of own vehicle
JP4466571B2 (en) * 2005-05-12 2010-05-26 株式会社デンソー Driver status detection device, in-vehicle alarm device, driving support system
JP2007241898A (en) * 2006-03-10 2007-09-20 Honda Motor Co Ltd Stopping vehicle classifying and detecting device and vehicle peripheral monitoring device
JP2008027309A (en) * 2006-07-24 2008-02-07 Sumitomo Electric Ind Ltd Collision determination system and collision determination method

Also Published As

Publication number Publication date
JP2010089661A (en) 2010-04-22

Similar Documents

Publication Publication Date Title
JP5503728B2 (en) Vehicle periphery monitoring device
JP5706874B2 (en) Vehicle periphery monitoring device
JP3515926B2 (en) Vehicle periphery monitoring device
JP4615139B2 (en) Vehicle periphery monitoring device
JP4410292B1 (en) Vehicle periphery monitoring device
JP3739693B2 (en) Image recognition device
JP4456086B2 (en) Vehicle periphery monitoring device
US20030137593A1 (en) Infrared image-processing apparatus
JP4528283B2 (en) Vehicle periphery monitoring device
JP2003134508A (en) Information providing device for vehicle
JP2007193445A (en) Periphery monitoring device for vehicle
JP5292047B2 (en) Vehicle periphery monitoring device
JP2007334511A (en) Object detection device, vehicle, object detection method and program for object detection
JP5192007B2 (en) Vehicle periphery monitoring device
JP3919975B2 (en) Vehicle periphery monitoring device
JP3916930B2 (en) Approach warning device
JP4176558B2 (en) Vehicle periphery display device
JP3949628B2 (en) Vehicle periphery monitoring device
JP4943403B2 (en) Vehicle periphery monitoring device
JP3961269B2 (en) Obstacle alarm device
JP2008276787A (en) Vehicle periphery monitoring device
JP3999025B2 (en) Alarm display device
JP4975776B2 (en) Vehicle periphery monitoring device
JP2007311866A (en) Object detector, vehicle, object detecting method, and object detection program
JP2006252566A (en) Moving object detector

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120321

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121226

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130610

LAPS Cancellation because of no payment of annual fees