JP2010092429A - Vehicle surrounding monitoring device - Google Patents
Vehicle surrounding monitoring device Download PDFInfo
- Publication number
- JP2010092429A JP2010092429A JP2008264432A JP2008264432A JP2010092429A JP 2010092429 A JP2010092429 A JP 2010092429A JP 2008264432 A JP2008264432 A JP 2008264432A JP 2008264432 A JP2008264432 A JP 2008264432A JP 2010092429 A JP2010092429 A JP 2010092429A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- area
- determined
- extracted
- monitoring device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、車両に搭載された撮像手段によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置に関する。 The present invention relates to a vehicle periphery monitoring device that monitors the periphery of a vehicle using a captured image obtained by an imaging unit mounted on the vehicle.
撮像装置により撮像された赤外線画像から対象物である歩行者の頭部に相当する領域を抽出し、当該頭部領域に基づいて歩行者の胴体に相当する領域を抽出することにより対象物が歩行者であることを認識し、この歩行者の存在を車両の運転者に知らせる技術が知られている(特許文献1参照)。
しかし、車両の周辺には歩行者(人間)のみならず、鹿等の四足動物も存在する場合がある。この場合、対象物が人間であるか否かを判定する手法が採用されても、対象物が四足動物であるか否かを判定することは困難である。このため、車両の運転者に四足動物の存在を知らせること、さらには、運転者が対象物との接触を回避するように車両を運転することが困難となる。 However, there are cases where not only pedestrians (human beings) but also quadruped animals such as deer exist around the vehicle. In this case, it is difficult to determine whether or not the object is a quadruped animal even if a method for determining whether or not the object is a human is employed. For this reason, it becomes difficult to inform the driver of the vehicle of the presence of a quadruped animal, and to drive the vehicle so that the driver avoids contact with the object.
そこで、本発明は、対象物が四足動物であるか否かを高精度で認識することができる車両周辺監視装置を提供することを目的とする。 Then, an object of this invention is to provide the vehicle periphery monitoring apparatus which can recognize with high precision whether a target object is a quadruped animal.
第1発明の車両周辺監視装置は、車両に搭載された撮像手段によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置であって、前記撮像画像から対象物が存在する領域を対象物領域として抽出する対象物領域抽出手段と、前記対象物領域抽出手段により抽出された前記対象物領域から、低輝度画素群を囲む高輝度画素群から構成されている閉要素と、前記閉要素の下部が開裂した形状の開要素とが異なる時刻に抽出されることを要件として、前記対象物が前記四足動物に該当すると判定する対象物分類手段とを備えていることを特徴とする。 A vehicle periphery monitoring device according to a first aspect of the present invention is a vehicle periphery monitoring device that monitors the periphery of a vehicle using a captured image obtained by an imaging unit mounted on the vehicle, and includes a region where an object exists from the captured image. A target area extracting means for extracting as a target area; a closed element composed of a high luminance pixel group surrounding a low luminance pixel group from the target area extracted by the target area extraction means; An object classification means for determining that the object corresponds to the quadruped animal is provided on the condition that an open element having a shape in which a lower part of the element is cleaved is extracted at a different time. .
第1発明の車両周辺監視装置によれば、撮像画像(撮像手段により撮像された原画像のほか、当該原画像に加工処理が施されることにより得られた画像も含まれる。)から抽出された対象物が存在する領域としての対象物領域から、閉要素および開要素が異なる時刻において抽出されたことを要件として、当該対象物が四足動物に該当すると判定される。なお、「四足動物」はすべての四足動物を意味するのではなく、本発明の手法により分類されうる特定の四足動物を意味している。歩行または走行している四足動物が横から観察された場合、前脚および後脚の交差部位または接地部位の近接と離反とが繰り替えされることが確認される可能性が高い。また、交差部位または接地部位は脚の付け根よりも下側に位置している。これらの点に鑑みて、前記のような判定手法により撮像画像から抽出された高輝度領域により表わされる対象物が四足動物であるか否かが高精度で認識されうる。 According to the vehicle periphery monitoring device of the first aspect of the invention, it is extracted from a captured image (in addition to the original image captured by the imaging means, an image obtained by processing the original image is included). On the condition that the closed element and the open element are extracted at different times from the object area as the area where the target object exists, it is determined that the object corresponds to a quadruped animal. The “quadruped animal” does not mean all the quadruped animals, but means a specific quadruped animal that can be classified by the method of the present invention. When a quadruped animal that is walking or running is observed from the side, it is highly likely that it is confirmed that the intersection and separation of the front and rear leg intersections or the ground contact part are repeated. In addition, the intersection part or the ground contact part is located below the base of the leg. In view of these points, it is possible to recognize with high accuracy whether or not the object represented by the high luminance region extracted from the captured image by the determination method as described above is a quadruped.
第2発明の車両周辺監視装置は、車両に搭載された撮像手段によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置であって、前記撮像画像から対象物が存在する領域を対象物領域として抽出する対象物領域抽出手段と、前記対象物領域抽出手段により抽出された前記対象物領域から、低輝度画素群を囲む高輝度画素群から構成されている閉要素が断続的に抽出されることを要件として、前記対象物が四足動物に該当すると判定する対象物分類手段とを備えていることを特徴とする。 A vehicle periphery monitoring device according to a second aspect of the present invention is a vehicle periphery monitoring device that monitors the periphery of a vehicle using a captured image obtained by an imaging unit mounted on the vehicle, and includes a region where an object is present from the captured image. Object area extraction means for extracting as an object area, and closed elements composed of high-luminance pixel groups surrounding low-luminance pixel groups intermittently from the object area extracted by the object area extraction means An object classification means for determining that the object corresponds to a quadruped animal is provided on the condition that it is extracted.
第2発明の車両周辺監視装置によれば、撮像画像から抽出された対象物が存在する領域としての対象物領域から、閉要素が断続的に抽出されたことを要件として、当該対象物が四足動物に該当すると判定される。閉要素は、横向きの四足動物の胴体の少なくとも一部と、横から見て交差しているまたは接地部位が近接している前脚および後脚とに該当する蓋然性が高い。歩行または走行している四足動物が横から観察された場合、交差しているまたは接地部位が近接する前脚および後脚の組が断続的に確認される可能性が高い。これらの点に鑑みて、前記のような判定手法により撮像画像から抽出された高輝度領域により表わされる対象物が四足動物であるか否かが高精度で認識されうる。 According to the vehicle periphery monitoring device of the second aspect of the present invention, it is required that the closed element is intermittently extracted from the object area as the area where the object extracted from the captured image is present. It is determined to be a paw animal. The closure element is likely to correspond to at least a portion of the lateral quadruped animal's torso and the front and rear legs that intersect from the side or are close to the ground contact area. When a walking or running quadruped animal is observed from the side, it is likely that a pair of front and rear legs that are crossing or in close proximity to the ground contact area will be confirmed intermittently. In view of these points, it is possible to recognize with high accuracy whether or not the object represented by the high luminance region extracted from the captured image by the determination method as described above is a quadruped.
本発明の車両周辺監視装置の実施形態について説明する。まず、本実施形態の車両周辺監視装置の構成について説明する。車両周辺監視装置は図1および図2に示されている画像処理ユニット1を備えている。画像処理ユニット1には、車両10の前方の画像を撮像する撮像手段としての2つの赤外線カメラ2R,2Lが接続されるとともに、車両10の走行状態を検出するセンサとして、車両10のヨーレートを検出するヨーレートセンサ3、車両10の走行速度(車速)を検出する車速センサ4、および車両10のブレーキ操作の有無を検出するブレーキセンサ5とが接続されている。さらに、画像処理ユニット1には、音声などによる聴覚的な通報情報を出力するためのスピーカ6、および赤外線カメラ2R,2Lにより撮像された撮像画像や視覚的な通報情報を表示するための表示装置7が接続されている。なお、赤外線カメラ2R,2Lが本発明における撮像手段に相当する。対象物との距離がレーダーにより測定される場合、1台の赤外線カメラのみが車両10に搭載されてもよい。
An embodiment of a vehicle periphery monitoring device of the present invention will be described. First, the structure of the vehicle periphery monitoring apparatus of this embodiment is demonstrated. The vehicle periphery monitoring device includes an image processing unit 1 shown in FIGS. 1 and 2. The image processing unit 1 is connected to two
画像処理ユニット1は、A/D変換回路、CPU、RAM、ROM等のメモリ、I/O回路およびこれらを接続するバスなどにより構成されているECU(電子制御ユニット)により構成されている。赤外線カメラ2R,2L、ヨーレートセンサ3、車速センサ4およびブレーキセンサ5から出力されるアナログ信号が、A/D変換回路によりデジタルデータ化され、CPUによりデジタル化されたデータに基づき、人間(歩行者、自転車に乗っている者)などの対象物を検出し、検出した対象物が所定の通報要件を満す場合にスピーカ6や表示装置7により運転者に通報を発する処理を実行する。なお、画像処理ユニット1は対象物抽出手段および対象物分類手段としての機能を備えている。
The image processing unit 1 includes an ECU (electronic control unit) that includes an A / D conversion circuit, a memory such as a CPU, a RAM, and a ROM, an I / O circuit, and a bus that connects these. Analog signals output from the
図2に示されているように、赤外線カメラ2R,2Lは、車両10の前方を撮像するために、車両10の前部(図ではフロントグリルの部分)に取り付けられている。この場合、赤外線カメラ2R,2Lは、それぞれ、車両10の車幅方向の中心よりも右寄りの位置、左寄りの位置に配置されている。それら位置は、車両10の車幅方向の中心に対して左右対称である。赤外線カメラ2R,2Lは、それらの光軸が互いに平行に車両10の前後方向に延在し、且つ、それぞれの光軸の路面からの高さが互いに等しくなるように固定されている。赤外線カメラ2R,2Lは、遠赤外域に感度を有し、それにより撮像される物体の温度が高いほど、出力される映像信号のレベルが高くなる(映像信号の輝度が高くなる)特性を有している。
As shown in FIG. 2, the
また、本実施形態では、表示装置7として、車両10のフロントウィンドウに画像情報を表示するヘッド・アップ・ディスプレイ7a(以下、HUD7aという)を備えている。なお、表示装置7として、HUD7aの代わりに、もしくは、HUD7aとともに、車両10の車速などの走行状態を表示するメータに一体的に設けられたディスプレイ、あるいは、車載ナビゲーション装置に備えられたディスプレイが用いられてもよい。
In the present embodiment, the
次に、前記構成の車両周辺監視装置の基本的な機能について図3のフローチャートを用いて説明する。図3のフローチャートの基本的な処理内容は、たとえば本出願人による特開2001−6096号公報の図3および特開2007−310705号公報の図3に記載されている処理内容と同様である。 Next, basic functions of the vehicle periphery monitoring apparatus having the above-described configuration will be described with reference to the flowchart of FIG. The basic processing contents of the flowchart of FIG. 3 are the same as the processing contents described in FIG. 3 of Japanese Patent Application Laid-Open No. 2001-6096 and FIG. 3 of Japanese Patent Application Laid-Open No. 2007-310705, for example.
具体的には、まず赤外線カメラ2R、2Lの赤外線画像信号が画像処理ユニット1に入力され(図3/STEP11)、その上で画像処理ユニット1により続く一連の処理が実行される。すなわち、赤外線カメラ2R、2Lの出力信号がA/D変換され(図3/STEP12)、A/D変換された赤外線画像からグレースケール画像が生成され(図3/STEP13)、基準となるグレースケール画像(右画像)が2値化される(図3/STEP14)。また、2値化画像から対象物が存在する領域が対象物領域Sとして抽出される。具体的には、2値化画像の高輝度領域を構成する画素群がランレングスデータに変換され(図3/STEP15)、基準画像の縦方向に重なりを有するライン群のそれぞれにラベル(識別子)が付され(図3/STEP16)、ライン群のそれぞれが対象物として抽出される(図3/STEP17)。これにより、図6(a)に斜線で示されているようなひとまとまりの高輝度画素(画素値=1の画素)により構成される高輝度領域が対象物として抽出される。さらに、図6(a)に斜線で示されている対象物の全部を囲う線によって画定された領域が対象物領域Aとして設定される。
Specifically, first, the infrared image signals of the
続いて、各対象物の重心の位置(基準画像上での位置)、面積および外接四角形の縦横比が算定される(図3/STEP18)。また、対象物の時刻間追跡が実行され、画像処理ユニット1の演算処理周期毎の対象物の同一性が判定される(図3/STEP19)。さらに、車速センサ4およびヨーレートセンサ5の出力(車速の検出値及びヨーレートの検出値)が読み込まれる(図3/STEP20)。 Subsequently, the position of the center of gravity of each object (position on the reference image), the area, and the aspect ratio of the circumscribed rectangle are calculated (FIG. 3 / STEP 18). Further, the tracking of the target object is performed, and the identity of the target object is determined every calculation processing cycle of the image processing unit 1 (FIG. 3 / STEP 19). Further, the outputs (vehicle speed detection value and yaw rate detection value) of the vehicle speed sensor 4 and the yaw rate sensor 5 are read (FIG. 3 / STEP 20).
また、外接四角形の縦横比算出および対象物の時刻間追跡と並行して、基準画像のうち、各対象物に対応する領域(たとえば該対象物の外接四角形の領域)が探索画像として抽出される(図3/STEP31)。さらに、相関演算が実行されることにより左画像中から探索画像に対応する画像(対応画像)が探索かつ抽出される(図3/STEP32)。また、車両10から対象物までの実空間距離(車両10の前後方向における距離)が算定される(図3/STEP33)。
Further, in parallel with the calculation of the aspect ratio of the circumscribed rectangle and the tracking of the object during the time, an area corresponding to each object (for example, the area of the circumscribed rectangle of the object) in the reference image is extracted as a search image. (FIG. 3 / STEP 31). Further, by executing the correlation calculation, an image (corresponding image) corresponding to the search image is searched and extracted from the left image (FIG. 3 / STEP 32). Further, the real space distance from the
また、各対象物の実空間位置(車両10に対する相対位置)が算定される(図3/STEP21)。さらに、対象物の実空間位置(X,Y,Z)(図2参照)のうちのX成分が回頭角の時系列データ(STEP20参照)に応じて補正される(図3/STEP22)。また、車両10に対する対象物の相対移動ベクトルが推定され(図3/STEP23)、この相対移動ベクトルに基づき、車両10と対象物との接触可能性があると判定された場合に運転者の注意を喚起するための通報を発する通報判定処理が実行される(図3/STEP24)。対象物が通報判定要件を満たすと判定された場合(図3/STEP24‥YES)、当該対象物に関する通報要否を判定する通報出力判定処理が実行される(図3/STEP25)。そして、通報が必要であると判定された場合(図3/STEP25‥YES)、運転者に対して車両10との接触可能性が高い状況である旨が通報される(図3/STEP26)。具体的には、スピーカ6を介して音声が出力されることにより、あるいは、HUD7aにおいて対象物が色彩やフレーム等により強調表示されることによって当該状況が通報される。以上が本実施形態の車両周辺監視装置の全体的作動である。なお、画像処理ユニット1によりSTEP11〜18の処理を実行する構成が、本発明の対象物領域抽出手段に相当する。
Further, the real space position (relative position with respect to the vehicle 10) of each object is calculated (FIG. 3 / STEP 21). Further, the X component of the real space position (X, Y, Z) of the object (see FIG. 2) is corrected according to the time-series data of the turning angle (see STEP 20) (FIG. 3 / STEP 22). Further, the relative movement vector of the object with respect to the
次に、図3のフローチャートのSTEP24における通報判定処理について図4のフローチャートを用いて説明する。図4のフローチャートの基本的な処理内容は、たとえば本出願人による特開2001−6096号の図4および特開2007−310705号の図4に記載されている処理内容と同様である。 Next, the notification determination process in STEP 24 of the flowchart of FIG. 3 will be described using the flowchart of FIG. The basic processing content of the flowchart of FIG. 4 is the same as the processing content described in FIG. 4 of Japanese Patent Application Laid-Open No. 2001-6096 and FIG.
具体的には、まず接触判定処理が実行される(図4/STEP41)。接触判定処理は、車両10と対象物との距離が、相対速度Vsと余裕時間Tとを乗じた値以下の場合、接触可能性があると判定される。また、余裕時間T以内に車両10と対象物とが接触する可能性があると判定された場合(図4/STEP41‥YES)、対象物が接近判定領域内に存在するか否かが判定される(図4/STEP42)。そして、対象物が接近判定領域に存在しないと判定された場合(図4/STEP42‥NO)、対象物が接近判定領域に進入して車両10と接触する可能性があるか否かが判定される(図4/STEP43)。具体的には、対象物が接近判定領域の外側にある進入判定領域に存在し、かつ、STEP23で算定された対象物の移動ベクトルが接近判定領域に向かっているときに、接触する可能性があると判定される。
Specifically, a contact determination process is first executed (FIG. 4 / STEP 41). In the contact determination process, when the distance between the
一方、対象物が接近判定領域に存在していると判定された場合(図4/STEP42‥YES)、または、車両10と対象物との接触可能性があると判定された場合(図4/STEP43‥YES)、対象物が人工構造物であるか否かを判定する人工構造物判定処理が実行される(図4/STEP44)。これにより、たとえば対象物から歩行者にはあり得ない外形上の特徴が検出された場合、この対象物が人工構造物に該当すると判定される。対象物が人工構造物に該当しないと判定された場合(図4/STEP44‥NO)、対象物が歩行者に該当するか否かが判定される(図4/STEP45)。具体的には、グレースケール画像上で対象物の画像領域の形状や大きさ、輝度分散等の特徴から、対象物が歩行者に該当するか否かが判定される。そして、対象物が歩行者に該当すると判定された場合(図4/STEP45‥YES)、検出した対象物を通報または注意喚起の対象として決定する(図4/STEP46)。
On the other hand, when it is determined that the object is present in the approach determination area (FIG. 4 / STEP 42... YES), or when it is determined that there is a possibility of contact between the
また、対象物が歩行者ではないと判定された場合(図4/STEP45‥NO)、この対象物が四足動物に該当するか否かが判定される(図4/STEP47)。対象物が四足動物に該当すると判定された場合(図4/STEP47‥YES)、画像処理ユニット1は、対象物が通報対象として決定される(図4/STEP46)。車両10と対象物との接触可能性がないと判定された場合(図4/STEP43‥NO)、対象物が人工構造物であると判定された場合(図4/STEP44‥YES)、または、対象物が四足動物に該当しないと判定された場合(図4/STEP47‥NO)、この対象物は通報対象から除外される(図4/STEP48)。
When it is determined that the object is not a pedestrian (FIG. 4 / STEP 45... NO), it is determined whether the object corresponds to a quadruped animal (FIG. 4 / STEP 47). When it is determined that the target object corresponds to a quadruped animal (FIG. 4 / STEP 47... YES), the image processing unit 1 determines that the target object is a notification target (FIG. 4 / STEP 46). When it is determined that there is no possibility of contact between the
次に、本発明の車両周辺監視装置の主要な機能である動物判定処理について図5のフローチャートを用いて説明する。 Next, an animal determination process that is a main function of the vehicle periphery monitoring device of the present invention will be described with reference to the flowchart of FIG.
まず、対象物領域Aのうち、最も高い輝度範囲に輝度が含まれる高輝度画素群により構成される最大の領域Bが抽出され、この領域Bの縦幅(高さ)Hに対する横幅Wの比が対象物縦横比(=W/H)として算出される(図5/STEP102)。これにより、たとえば図6(a)に斜線で示されている対象物(高輝度画像領域)の一部を囲む破線により画定された領域が領域Bとして抽出され、その縦横比W/Hが算定される。その上で、縦横比W/Hが基準値(たとえば1)以上であるか否かが判定される(図5/STEP104)。なお、縦横比W/Hの算定および基準値との対比処理は省略されてもよい。 First, in the object area A, a maximum area B constituted by a high luminance pixel group whose luminance is included in the highest luminance range is extracted, and the ratio of the horizontal width W to the vertical width (height) H of the area B is extracted. Is calculated as the object aspect ratio (= W / H) (FIG. 5 / STEP 102). Thereby, for example, an area defined by a broken line surrounding a part of the target object (high luminance image area) indicated by diagonal lines in FIG. 6A is extracted as the area B, and the aspect ratio W / H is calculated. Is done. Then, it is determined whether or not the aspect ratio W / H is a reference value (for example, 1) or more (FIG. 5 / STEP 104). The calculation of the aspect ratio W / H and the comparison process with the reference value may be omitted.
そして、縦横比W/Hが基準値未満であると判定された場合(図5/STEP104‥NO)、当該対象物は四足動物に該当しないと判定される(図5/STEP128)。この判定は、対象物が四足動物である場合、横に長く、他の身体部分と比較して温度が高い胴部に該当する高輝度領域が抽出される蓋然性が高いという思想に基づいている。 When it is determined that the aspect ratio W / H is less than the reference value (FIG. 5 / STEP 104... NO), it is determined that the object does not correspond to a quadruped animal (FIG. 5 / STEP 128). This determination is based on the idea that when the object is a quadruped animal, it is long and is likely to be extracted from a high-luminance region corresponding to a torso that is hotter than other body parts. .
一方、縦横比W/Hが基準値以上であると判定された場合(図5/STEP104‥YES)、対象物領域Aにおいて、ひとまとまりの低輝度領域を囲む高輝度領域により構成されている指定形状の閉要素の有無が判定される(図5/STEP106)。具体的には、対象物領域Aの下端から上端に向かって順番に対象物領域Aが右方向に走査されることにより、画素値が「1(対象物が存在する画素を表わす。)」から「0(対象物が存在しない画素を表わす。)」に変化した後、再び「1」になるような横並びの画素により構成される横線分が探索される。これにより、たとえば図7(a)に斜線で示されている対象物について、画像右方向について画素値が「1」から「0」に変化する負エッジ点(図中●)から、一の低輝度画素または複数の連続した低輝度画素群を経て、画素値が「0」から「1」に変化する正エッジ点(図中○)までのびる線分が横線分として探索される。なお、長さが閾値未満の横線分はノイズとして除去されうる。 On the other hand, when it is determined that the aspect ratio W / H is equal to or greater than the reference value (FIG. 5 / STEP 104... YES), in the object area A, a designation composed of a high luminance area surrounding a group of low luminance areas. The presence / absence of a closed element of the shape is determined (FIG. 5 / STEP 106). Specifically, the object area A is scanned in the right direction in order from the lower end to the upper end of the object area A, so that the pixel value is “1 (represents a pixel in which the object exists)”. After changing to “0 (represents a pixel in which no object exists)”, a horizontal line segment constituted by horizontally arranged pixels that again becomes “1” is searched. As a result, for example, for the object indicated by hatching in FIG. 7A, from the negative edge point (● in the figure) where the pixel value changes from “1” to “0” in the right direction of the image, A line segment extending from a luminance pixel or a plurality of continuous low-luminance pixel groups to a positive edge point (◯ in the figure) where the pixel value changes from “0” to “1” is searched for as a horizontal line segment. A horizontal line segment whose length is less than the threshold value can be removed as noise.
また、局所的に最も下に位置する横線分の第1判定フラグf1が設定され、かつ、局所的に最も上に位置する横線分の第2判定フラグf2が設定される(図7(a)参照)。局所的に最も下に位置する横線分とは、下方に1画素分だけずらされたときに重なる横線分が存在しない横線分を意味する。局所的に最も上に位置する横線分とは、上方に1画素分だけずらされたときに重なる横線分が存在しない横線分を意味する。具体的には、局所的に最も下に位置する横線分が画像下方に1画素分だけずらされたときに、当該横線分を構成するすべてまたは1〜2画素を除くすべての画素が高輝度画素に重なる場合、当該横線分の第1判定フラグf1は「1」に設定される。また、局所的に最も上に位置する横線分が画像上方に1画素分だけずらされたときに、当該横線分を構成するすべてまたは1〜2画素を除くすべての画素が高輝度画素に重なる場合、当該横線分の第2判定フラグf2は「2」に設定される。その他の場合、局所的に最も下または上に位置する横線分の判定フラグfは「0」に設定される。 Further, the first determination flag f1 for the horizontal line located locally at the bottom is set, and the second determination flag f2 for the horizontal line located locally at the top is set (FIG. 7A). reference). The horizontal line segment located locally at the bottom means a horizontal line segment that does not overlap when it is shifted downward by one pixel. The horizontal line segment located locally at the top means a horizontal line segment in which there is no overlapping horizontal line segment when shifted upward by one pixel. Specifically, when the horizontal line segment located locally at the bottom is shifted by one pixel below the image, all the pixels constituting the horizontal line segment or all but one or two pixels are high-luminance pixels. , The first determination flag f1 for the horizontal line is set to “1”. In addition, when the horizontal line segment located locally at the top is shifted by one pixel above the image, all pixels constituting the horizontal line segment or all pixels except for one or two pixels overlap with the high luminance pixel. The second determination flag f2 for the horizontal line is set to “2”. In other cases, the determination flag f of the horizontal line located locally at the bottom or top is set to “0”.
続いて、各横線分に第1判定フラグf1および第2判定フラグf2の両方が付される(図7(b)参照)。具体的には、第1判定フラグf1が1である横線分のすぐ上(1画素分だけ上)にあり、かつ、画像縦方向について当該横線分に重なる横線分の第1判定フラグf1が「1」に設定される。また、第2判定フラグf2が2である横線分のすぐ下(1画素分だけ下)にあり、かつ、画像縦方向について当該横線分に重なる横線分の第2判定フラグf2が「2」に設定される。一方、第1判定フラグf1が0である横線分のすぐ上にあり、かつ、画像縦方向について当該横線分に重なる横線分の第1判定フラグf1は「0」に設定される。また、第2判定フラグf2が0である横線分のすぐ下にあり、かつ、画像縦方向について当該横線分に重なる横線分の第2判定フラグf2は「0」に設定される。これにより、横線分のすべての第1判定フラグf1および第2判定フラグf2が設定される。 Subsequently, both the first determination flag f1 and the second determination flag f2 are attached to each horizontal line segment (see FIG. 7B). More specifically, the first determination flag f1 for the horizontal line that is immediately above the horizontal line segment for which the first determination flag f1 is 1 (up by one pixel) and overlaps the horizontal line segment in the vertical direction of the image is “ 1 ”. In addition, the second determination flag f2 is immediately below the horizontal line segment that is 2 (down by one pixel), and the second determination flag f2 of the horizontal line that overlaps the horizontal line segment in the vertical direction of the image is “2”. Is set. On the other hand, the first determination flag f1 of the horizontal line that is immediately above the horizontal line segment for which the first determination flag f1 is 0 and overlaps the horizontal line segment in the image vertical direction is set to “0”. Further, the second determination flag f2 that is immediately below the horizontal line segment for which the second determination flag f2 is 0 and that overlaps the horizontal line segment in the image vertical direction is set to “0”. Thereby, all the first determination flags f1 and the second determination flags f2 of the horizontal line segment are set.
前記手法によれば、対象物を表わす高輝度領域のうち上下がともに開いている部分(切れ目部分)に架橋された各横線分の合計判定フラグΣf=f1+f2は「0」になる。対象物を表わす高輝度領域のうち下が開いている一方、上が閉じている部分に架橋された各横線分の合計判定フラグΣfは「1」になる(図7(b)参照)。これとは逆に対象物を表わす高輝度領域のうち上が開いている一方、下が閉じている部分に架橋された各横線分の合計判定フラグΣfは「2」になる。対象物を表わす高輝度領域のうち上下がともに閉じている部分に架橋された各横線分の合計判定フラグΣfは「3」になる。合計判定フラグΣfが3であり、かつ、縦方向に連続して重なっている複数の横線分が存在する場合、「閉要素」が存在すると判定される。 According to the above-described method, the total determination flag Σf = f1 + f2 for each horizontal line bridged by a portion where the top and bottom are both open (cut portion) in the high luminance region representing the object is “0”. The total determination flag Σf for each horizontal line that is bridged to a portion where the lower portion of the high-intensity region representing the object is open and the upper portion is closed is “1” (see FIG. 7B). On the other hand, the total determination flag Σf for each horizontal line bridged to a portion where the upper portion of the high luminance region representing the object is open and the lower portion is closed is “2”. The total determination flag Σf for each horizontal line that is bridged to the portion where the top and bottom are both closed in the high luminance region representing the object is “3”. When the total determination flag Σf is 3 and there are a plurality of horizontal line segments that are continuously overlapped in the vertical direction, it is determined that a “closed element” exists.
なお、画像処理の負荷軽減および高速化のため、対象物領域Aではなくその一部である局所領域Sにおける閉要素の有無が判定されてもよい。たとえば図6(b)に示されているように対象物領域Aの下部にある高輝度領域を囲む太線により画定されている領域が局所領域Sとして設定されうる。局所領域Sの横幅WSは対象物領域Aの横幅WAを基準としてc1・WA(0<c1<1)に設定され、局所領域Sの縦幅HSは対象物領域Aの縦幅HAを基準としてc2・HA(0<c2<1)に設定されうる。係数c1およびc2は任意に設定されうる。局所領域Sの下端は対象物領域Aの下端に一致していてもずれていてもよく、局所領域Sの横端は対象物領域Aの横端に一致していてもずれていてもよい。 In order to reduce the load and increase the speed of image processing, it may be determined whether or not there is a closed element in the local region S that is a part of the object region A. For example, as shown in FIG. 6B, a region defined by a thick line surrounding a high luminance region below the object region A can be set as the local region S. The horizontal width WS of the local area S is set to c1 · WA (0 <c1 <1) based on the horizontal width WA of the object area A, and the vertical width HS of the local area S is set based on the vertical width HA of the object area A. c2 · HA (0 <c2 <1) may be set. The coefficients c1 and c2 can be set arbitrarily. The lower end of the local region S may be aligned with or shifted from the lower end of the object region A, and the lateral end of the local region S may be aligned with or aligned with the lateral end of the object region A.
さらに、閉要素が指定形状であるか否かを判定するため、この閉要素により囲まれている低輝度領域の縦幅LHおよび横幅LWが決定される(図7(c)参照)。具体的には、合計判定フラグΣfが3であり、かつ、画像縦方向に連続して重なっている複数の横線分のうち、最長、すなわち、当該横線分を構成する画素数が最多の横線分の長さが、閉要素に囲まれた低輝度領域の横幅LWとして決定される。また、当該最長の横線分の中点(中心画素)およびその左右両側に隣接する点(画素)を通り、画像上方向について画素値が「1」から「0」に変化する負エッジ点から、一の低輝度画素または複数の連続した低輝度画素群を経て、画素値が「0」から「1」に変化する正エッジ点までのびる線分が縦線分として探索される。その上で、当該縦線分のうち最長の縦線分の長さが、閉要素に囲まれた低輝度領域の縦幅LHとして決定される。 Further, in order to determine whether or not the closed element has a designated shape, the vertical width LH and the horizontal width LW of the low-luminance region surrounded by the closed element are determined (see FIG. 7C). Specifically, among the plurality of horizontal line segments that have a total determination flag Σf of 3 and overlap in the vertical direction of the image, the longest line segment, that is, the horizontal line segment with the largest number of pixels constituting the horizontal line segment. Is determined as the horizontal width LW of the low luminance region surrounded by the closed elements. Further, from a negative edge point where the pixel value changes from “1” to “0” in the upward direction of the image through the midpoint (center pixel) of the longest horizontal line segment and the points (pixels) adjacent to both the left and right sides thereof, A line segment extending to a positive edge point where the pixel value changes from “0” to “1” through one low luminance pixel or a plurality of continuous low luminance pixel groups is searched for as a vertical line segment. In addition, the length of the longest vertical line segment among the vertical line segments is determined as the vertical width LH of the low luminance region surrounded by the closed elements.
そして、低輝度領域の横幅LWに対する縦幅LHの比率LH/LWが指定比率範囲[r1,r2](たとえばr1=0.5,r2=1.5等、「1」を包含する範囲)に含まれているか否かに応じて、閉要素の形状が指定形状であるか否かが判定される。なお、閉要素の形状判定は省略されてもよい。 The ratio LH / LW of the vertical width LH to the horizontal width LW of the low-luminance region is within a specified ratio range [r1, r2] (for example, a range including “1” such as r1 = 0.5, r2 = 1.5, etc.). It is determined whether or not the shape of the closed element is a designated shape depending on whether or not it is included. Note that the shape determination of the closed element may be omitted.
そして、指定形状の閉要素があると判定された場合(図5/STEP106‥YES)、当該対象物のフラグFの初期値が「1」に設定され(図5/STEP108)、その上で画像処理ユニット1が有するタイマ(図示略)によるT=0からの計時が開始される(図5/STEP112)。その一方、指定形状の閉要素がないと判定された場合(図5/STEP106‥NO)、フラグFの初期値が「0」に設定され(図5/STEP110)、その上でタイマによるT=0からの計時が開始される(図5/STEP112)。 If it is determined that there is a closed element of the specified shape (FIG. 5 / STEP 106... YES), the initial value of the flag F of the object is set to “1” (FIG. 5 / STEP 108), and the image is displayed on the initial value. Timing from T = 0 by a timer (not shown) of the processing unit 1 is started (FIG. 5 / STEP 112). On the other hand, if it is determined that there is no closed element of the specified shape (FIG. 5 / STEP 106... NO), the initial value of the flag F is set to “0” (FIG. 5 / STEP 110), and then T = Timing from 0 is started (FIG. 5 / STEP 112).
続いて、前記手法にしたがって対象物領域Aにおける指定形状の閉要素の有無が判定される(図5/STEP114)。そして、指定形状の閉要素があると判定された場合(図5/STEP114‥YES)、当該対象物のフラグFが「1」に維持または変更される(図5/STEP116)。その一方、指定形状の閉要素がないと判定された場合(図5/STEP114‥NO)、当該対象物のフラグFが「0」に変更または維持される(図5/STEP118)。なお、対象物領域Aにおいて合計判定フラグΣfが「3」の横線分群が存在していた領域に、合計判定フラグΣfが「1」の横線分群、すなわち、対象物を表わす高輝度領域のうち下が開いている一方、上が閉じている部分(開要素)に架橋された横線分群が現われたことを要件としてフラグFが「1」から「0」に変更されてもよい。 Subsequently, the presence / absence of a closed element having a specified shape in the object region A is determined according to the above-described method (FIG. 5 / STEP 114). If it is determined that there is a closed element of the designated shape (FIG. 5 / STEP 114... YES), the flag F of the object is maintained or changed to “1” (FIG. 5 / STEP 116). On the other hand, if it is determined that there is no closed element of the designated shape (FIG. 5 / STEP 114... NO), the flag F of the object is changed or maintained to “0” (FIG. 5 / STEP 118). In the object area A, the horizontal line segment having the total determination flag Σf of “3” is present in the horizontal line segment having the total determination flag Σf of “1”, that is, the lower part of the high luminance area representing the object. On the other hand, the flag F may be changed from “1” to “0” on the condition that a cross-linked horizontal line group appears in a portion where the top is closed (open element).
次にタイマの計測時間Tが指定時間T0未満であるか否かが判定される(図5/STEP120)。そして、計測時間Tが指定時間T0未満であると判定された場合(図5/STEP120‥YES)、フラグFの変化回数が所定回数(たとえば2)以上であるか否かがさらに判定される(図5/STEP122)。指定時間T0は四足動物の標準的な歩行または走行周期に基づいて設定されている。フラグFの初期値が「0」である場合、フラグFの初期値が「1」である場合よりも指定時間T0が長く設定されてもよい。フラグFの初期値が「0」である場合と、フラグFの初期値が「1」である場合とにおいて、所定回数が同一でも異なっていてもよい。計測時間Tが指定時間T0に達するまでにフラグFの変化回数が所定回数以上であると判定された場合(図5/STEP122‥YES)、タイマによる計時が停止され(図5/STEP124)、当該対象物が四足動物に該当すると判定される(図5/STEP126)。たとえば、図8(a)に示されているようにタイマによる計時時間Tが指定時間T0に至るまでの間に、閉要素が存在するフラグF=1の状態、閉要素がない代わりに開要素が存在するフラグF=0の状態およびフラグF=1の状態が順に現出することにより、フラグFの変化回数が所定回数としての「2」に達した場合、当該対象物が四足動物に該当すると判定されうる。また、図8(b)に示されているようにタイマによる計時時間Tが指定時間T0に至るまでの間にフラグF=0の状態、フラグF=1の状態およびフラグF=0の状態が順に現出することにより、フラグFの変化回数が所定回数としての「2」に達した場合、当該対象物が四足動物に該当すると判定されうる。 Next, it is determined whether or not the timer measurement time T is less than the specified time T0 (FIG. 5 / STEP 120). When it is determined that the measurement time T is less than the specified time T0 (FIG. 5 / STEP 120... YES), it is further determined whether or not the number of changes of the flag F is a predetermined number (for example, 2) or more ( FIG. 5 / STEP 122). The designated time T0 is set based on a standard walking or running cycle of a quadruped animal. When the initial value of the flag F is “0”, the designated time T0 may be set longer than when the initial value of the flag F is “1”. The predetermined number of times may be the same or different between the case where the initial value of the flag F is “0” and the case where the initial value of the flag F is “1”. If it is determined that the number of changes of the flag F is equal to or greater than the predetermined number of times until the measurement time T reaches the specified time T0 (FIG. 5 / STEP 122... YES), the timer count is stopped (FIG. 5 / STEP 124). It is determined that the object corresponds to a quadruped animal (FIG. 5 / STEP 126). For example, as shown in FIG. 8 (a), until the time T measured by the timer reaches the specified time T0, the flag F = 1 in which the closed element exists, the open element instead of the closed element. When the flag F = 0 state and the flag F = 1 state appearing in order, the number of changes of the flag F reaches “2” as the predetermined number of times, the target object becomes a quadruped animal. It can be determined that this is the case. Further, as shown in FIG. 8B, the flag F = 0 state, the flag F = 1 state, and the flag F = 0 state until the time T measured by the timer reaches the specified time T0. By appearing in order, when the number of changes of the flag F reaches “2” as the predetermined number, it can be determined that the target object corresponds to a quadruped animal.
そして、前記のようにこの対象物について車両10の運転者の注意を喚起するような通報が実行されうる(図3/STEP26,図4/STEP46参照)。一方、フラグFの変化回数が所定回数にいたらないままタイマの計測時間Tが指定時間T0にいたった場合(図5/STEP120‥NO)、当該対象物が四足動物に該当しないと判定される(図5/STEP128)。
Then, as described above, a report that alerts the driver of the
前記機能を発揮する車両周辺監視装置によれば、撮像画像から抽出された対象物が存在する領域としての対象物領域Aから、閉要素および開要素が異なる時刻において抽出されたことを要件として、当該対象物が四足動物に該当すると判定される(図5/STEP122,STEP126、図8(a)(b)参照)。歩行または走行している四足動物が横から観察された場合、前脚および後脚の交差部位または接地部位の近接と離反とが繰り替えされることが確認される可能性が高い。また、交差部位または接地部位は脚の付け根よりも下側に位置している。これらの点に鑑みて、前記のような判定手法により撮像画像から抽出された高輝度領域により表わされる対象物が四足動物であるか否かが高精度で認識されうる。 According to the vehicle periphery monitoring device that performs the function, it is required that the closed element and the open element are extracted at different times from the object area A as the area where the object extracted from the captured image exists. It is determined that the object corresponds to a quadruped animal (see FIG. 5 / STEP 122, STEP 126, FIGS. 8A and 8B). When a quadruped animal that is walking or running is observed from the side, it is highly likely that it is confirmed that the intersection and separation of the front and rear leg intersections or the ground contact part are repeated. In addition, the intersection part or the ground contact part is located below the base of the leg. In view of these points, it is possible to recognize with high accuracy whether or not the object represented by the high luminance region extracted from the captured image by the determination method as described above is a quadruped.
また、対象物領域Aから、閉要素が断続的に抽出されたことを要件として、当該対象物が四足動物に該当すると判定される(図5/STEP122,STEP126、図8(a)参照)。閉要素は、横向きの四足動物の胴体の少なくとも一部と、横から見て交差しているまたは接地部位が近接している前脚および後脚とに該当する蓋然性が高い。歩行または走行している四足動物が横から観察された場合、交差しているまたは接地部位が近接する前脚および後脚の組が断続的に確認される可能性が高い。これらの点に鑑みて、前記のような判定手法により撮像画像から抽出された高輝度領域により表わされる対象物が四足動物であるか否かが高精度で認識されうる。 Further, it is determined that the closed object is intermittently extracted from the object area A, and it is determined that the object corresponds to a quadruped animal (see FIG. 5 / STEP122, STEP126, and FIG. 8A). . The closure element is likely to correspond to at least a portion of the lateral quadruped animal's torso and the front and rear legs that intersect from the side or are close to the ground contact area. When a walking or running quadruped animal is observed from the side, it is likely that a pair of front and rear legs that are crossing or in close proximity to the ground contact area will be confirmed intermittently. In view of these points, it is possible to recognize with high accuracy whether or not the object represented by the high luminance region extracted from the captured image by the determination method as described above is a quadruped.
さらに、閉要素により囲まれた低輝度画素群または低輝度領域の形状が指定形状に該当することを要件として、当該閉要素が抽出された対象物が四足動物に該当すると判定される(図5/STEP106,STEP114,STEP122,図7(c)参照)。これにより、前脚および後脚が交差しているまたは前脚および後脚のそれぞれの接地部位が近接した状態における横向きの四足動物が観察された場合における、その胴体の少なくとも一部と、当該前脚および後脚とにより囲まれた領域の標準的な形状に鑑みて、前記のような判定手法により撮像画像から抽出された高輝度領域により表わされる対象物が四足動物であるか否かがさらに高精度で認識されうる。 Furthermore, on the condition that the shape of the low luminance pixel group or the low luminance region surrounded by the closed element corresponds to the specified shape, it is determined that the object from which the closed element is extracted corresponds to a quadruped animal (FIG. 5 / STEP 106, STEP 114, STEP 122, see FIG. 7C). Accordingly, when a lateral quadruped animal is observed in a state where the front legs and the rear legs cross each other or the ground contact parts of the front legs and the rear legs are close to each other, the front legs and the rear legs In view of the standard shape of the region surrounded by the hind legs, it is even higher whether the object represented by the high luminance region extracted from the captured image by the determination method as described above is a quadruped animal. Can be recognized with accuracy.
なお、前記実施形態では対象物領域Aが画像横方向に走査されることにより横線分が探索され、当該横線分の合計判定フラグΣfの評価結果に基づいて閉要素の有無が判定されたが、対象物領域Aが画像縦方向に走査されることにより縦線分(負エッジ点から、一の低輝度画素または縦に連続した複数の低輝度画素群を経て正エッジ点までのびる画素線分)が探索され、当該縦線分の合計判定フラグの評価結果に基づいて閉要素の有無が判定されてもよい。また、閉要素の有無が対象物領域Aにおける高輝度領域の一部と、メモリにあらかじめ保存または格納されているテンプレートとの相関値が基準値を超えているか否かに応じて、対象物領域Aの閉要素の有無が判定されてもよい。各種テンプレートとして、基準要素の形状、サイズおよび配置(間隔など)のうち一部または全部が異なる複数パターンのテンプレートが準備されていてもよい。テンプレートは赤外線カメラ2R、2Lにより撮像された、横向きの犬、鹿、馬等の特定種類の四足動物の画像に基づいて作成されてもよい。対象物領域Aから抽出された高輝度領域が細線化処理された上で得られた細線化画像の形状に基づき、閉要素の有無が判定されてもよい。
In the embodiment, the horizontal line segment is searched by scanning the object region A in the horizontal direction of the image, and the presence or absence of the closed element is determined based on the evaluation result of the total determination flag Σf of the horizontal line segment. Vertical line segment by scanning the object area A in the vertical direction of the image (pixel line segment extending from the negative edge point to the positive edge point through one low-luminance pixel or a plurality of low-luminance groups that are vertically continuous) May be searched, and the presence or absence of a closed element may be determined based on the evaluation result of the total determination flag for the vertical line segment. Further, depending on whether or not the correlation value between a part of the high brightness area in the object area A and the template stored or stored in advance in the memory exceeds the reference value, the object area The presence or absence of the A closed element may be determined. As various templates, templates of a plurality of patterns in which some or all of the shapes, sizes, and arrangements (intervals) of the reference elements are different may be prepared. The template may be created based on an image of a specific kind of quadruped animal such as a sideways dog, deer, or horse imaged by the
前記実施形態では閉要素により囲まれた低輝度領域または低輝度画素群の形状が指定形状に該当するか否かが、その縦幅LHおよび横幅LWに基づいて判定されたが、画像縦方向について横線分の長さの変化パターンに基づき、当該低輝度画素群の形状が判別されてもよい。たとえば、低輝度領域が下端部から上に向かうにつれて連続的または断続的に幅広となった後、上端部に向かうにつれて連続的または断続的に幅狭となるような指定形状であることが判定されてもよい。 In the embodiment, whether or not the shape of the low-luminance region or the low-luminance pixel group surrounded by the closed element corresponds to the specified shape is determined based on the vertical width LH and the horizontal width LW. The shape of the low luminance pixel group may be determined based on the change pattern of the length of the horizontal line segment. For example, it is determined that the low-luminance region has a specified shape that continuously or intermittently widens as it goes from the lower end to the upper end, and then continuously or intermittently becomes narrower as it goes to the upper end. May be.
1‥画像処理ユニット(対象物領域抽出手段、対象物分類手段)、2R,2L‥赤外線カメラ(撮像手段) 1. Image processing unit (object area extraction means, object classification means), 2R, 2L, infrared camera (imaging means)
Claims (2)
前記撮像画像から対象物が存在する領域を対象物領域として抽出する対象物領域抽出手段と、
前記対象物領域抽出手段により抽出された前記対象物領域から、低輝度画素群を囲む高輝度画素群から構成されている閉要素と、前記閉要素の下部が開裂した形状の開要素とが異なる時刻に抽出されることを要件として、前記対象物が前記四足動物に該当すると判定する対象物分類手段とを備えていることを特徴とする車両周辺監視装置。 A vehicle periphery monitoring device that monitors the periphery of a vehicle using a captured image obtained by an imaging means mounted on the vehicle,
An object area extracting means for extracting an area where the object exists from the captured image as an object area;
From the object region extracted by the object region extracting means, a closed element composed of a high luminance pixel group surrounding a low luminance pixel group is different from an open element having a shape in which the lower part of the closed element is cleaved. A vehicle periphery monitoring device comprising: an object classification unit that determines that the object corresponds to the quadruped animal, on the condition that the object is extracted at a time.
前記撮像画像から対象物が存在する領域を対象物領域として抽出する対象物領域抽出手段と、
前記対象物領域抽出手段により抽出された前記対象物領域から、低輝度画素群を囲む高輝度画素群から構成されている閉要素が断続的に抽出されることを要件として、前記対象物が四足動物に該当すると判定する対象物分類手段とを備えていることを特徴とする車両周辺監視装置。
A vehicle periphery monitoring device that monitors the periphery of a vehicle using a captured image obtained by an imaging means mounted on the vehicle,
An object area extracting means for extracting an area where the object exists from the captured image as an object area;
The requirement is that a closed element composed of a group of high-luminance pixels surrounding a group of low-luminance pixels is intermittently extracted from the object region extracted by the object region extraction means. A vehicle periphery monitoring device comprising: an object classification unit that determines that the animal corresponds to a foot animal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008264432A JP5004919B2 (en) | 2008-10-10 | 2008-10-10 | Vehicle periphery monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008264432A JP5004919B2 (en) | 2008-10-10 | 2008-10-10 | Vehicle periphery monitoring device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2010092429A true JP2010092429A (en) | 2010-04-22 |
JP2010092429A5 JP2010092429A5 (en) | 2010-08-19 |
JP5004919B2 JP5004919B2 (en) | 2012-08-22 |
Family
ID=42255049
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008264432A Expired - Fee Related JP5004919B2 (en) | 2008-10-10 | 2008-10-10 | Vehicle periphery monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5004919B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013073311A (en) * | 2011-09-27 | 2013-04-22 | Honda Motor Co Ltd | Object type determination device |
JP2014010641A (en) * | 2012-06-29 | 2014-01-20 | Honda Motor Co Ltd | Vehicle periphery monitoring device |
WO2016185653A1 (en) * | 2015-05-19 | 2016-11-24 | 株式会社デンソー | Protection control apparatus |
EP3101641A1 (en) | 2015-06-05 | 2016-12-07 | Toyota Jidosha Kabushiki Kaisha | Collision avoidance assistance device for a vehicle |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004295798A (en) * | 2003-03-28 | 2004-10-21 | Japan Best Rescue System Kk | Security system |
JP2007310705A (en) * | 2006-05-19 | 2007-11-29 | Honda Motor Co Ltd | Vehicle periphery monitoring device |
JP2008021035A (en) * | 2006-07-11 | 2008-01-31 | Fujitsu Ten Ltd | Image recognition device, image recognition method, and vehicle control device |
-
2008
- 2008-10-10 JP JP2008264432A patent/JP5004919B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004295798A (en) * | 2003-03-28 | 2004-10-21 | Japan Best Rescue System Kk | Security system |
JP2007310705A (en) * | 2006-05-19 | 2007-11-29 | Honda Motor Co Ltd | Vehicle periphery monitoring device |
JP2008021035A (en) * | 2006-07-11 | 2008-01-31 | Fujitsu Ten Ltd | Image recognition device, image recognition method, and vehicle control device |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013073311A (en) * | 2011-09-27 | 2013-04-22 | Honda Motor Co Ltd | Object type determination device |
JP2014010641A (en) * | 2012-06-29 | 2014-01-20 | Honda Motor Co Ltd | Vehicle periphery monitoring device |
WO2016185653A1 (en) * | 2015-05-19 | 2016-11-24 | 株式会社デンソー | Protection control apparatus |
JP2016215786A (en) * | 2015-05-19 | 2016-12-22 | 株式会社デンソー | Protection control device |
EP3101641A1 (en) | 2015-06-05 | 2016-12-07 | Toyota Jidosha Kabushiki Kaisha | Collision avoidance assistance device for a vehicle |
US9849876B2 (en) | 2015-06-05 | 2017-12-26 | Toyota Jidosha Kabushiki Kaisha | Collision avoidance assistance device for a vehicle |
Also Published As
Publication number | Publication date |
---|---|
JP5004919B2 (en) | 2012-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5198346B2 (en) | Vehicle periphery monitoring device | |
JP4173901B2 (en) | Vehicle periphery monitoring device | |
JP5639282B2 (en) | Vehicle periphery monitoring device | |
JP5577398B2 (en) | Vehicle periphery monitoring device | |
US9235990B2 (en) | Vehicle periphery monitoring device | |
JP4173902B2 (en) | Vehicle periphery monitoring device | |
WO2010050090A1 (en) | System for monitoring the area around a vehicle | |
JP4171501B2 (en) | Vehicle periphery monitoring device | |
JP4377439B1 (en) | Vehicle periphery monitoring device | |
JP5480925B2 (en) | Vehicle periphery monitoring device | |
JP4528283B2 (en) | Vehicle periphery monitoring device | |
JP4644273B2 (en) | Vehicle periphery monitoring device | |
JP5004919B2 (en) | Vehicle periphery monitoring device | |
JP2007128460A (en) | Collision determination system, collision determination method, computer program, and determination device | |
JP5004903B2 (en) | Vehicle periphery monitoring device | |
JP5502149B2 (en) | Vehicle periphery monitoring device | |
JP4615061B2 (en) | Vehicle periphery monitoring device | |
JP5004882B2 (en) | Vehicle periphery monitoring device | |
JP5383246B2 (en) | Vehicle periphery monitoring device | |
JP2010092437A (en) | Vehicle periphery monitoring device | |
JP5026398B2 (en) | Vehicle periphery monitoring device | |
JP5907849B2 (en) | Vehicle periphery monitoring device | |
JP4972073B2 (en) | Environment recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100701 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100915 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120306 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120423 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120515 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120522 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150601 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |