JP2010092429A - Vehicle surrounding monitoring device - Google Patents

Vehicle surrounding monitoring device Download PDF

Info

Publication number
JP2010092429A
JP2010092429A JP2008264432A JP2008264432A JP2010092429A JP 2010092429 A JP2010092429 A JP 2010092429A JP 2008264432 A JP2008264432 A JP 2008264432A JP 2008264432 A JP2008264432 A JP 2008264432A JP 2010092429 A JP2010092429 A JP 2010092429A
Authority
JP
Japan
Prior art keywords
vehicle
area
determined
extracted
monitoring device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008264432A
Other languages
Japanese (ja)
Other versions
JP2010092429A5 (en
JP5004919B2 (en
Inventor
Masato Watanabe
正人 渡辺
Makoto Aimura
誠 相村
Masakazu Saka
雅和 坂
Yukihiro Matsuda
幸大 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2008264432A priority Critical patent/JP5004919B2/en
Publication of JP2010092429A publication Critical patent/JP2010092429A/en
Publication of JP2010092429A5 publication Critical patent/JP2010092429A5/ja
Application granted granted Critical
Publication of JP5004919B2 publication Critical patent/JP5004919B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle surrounding monitoring device capable of recognizing whether or not an object is a four-legged animal with high accuracy. <P>SOLUTION: By the vehicle surrounding monitoring device, it is determined that the object corresponds to the four-legged animal on condition that closed elements and open elements are extracted in different time from an object area as an area where the object extracted from a pick up image exists. In addition, it is determined that the object corresponds to the four-legged animal on condition that the closed elements are intermittently extracted from the object area. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、車両に搭載された撮像手段によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置に関する。   The present invention relates to a vehicle periphery monitoring device that monitors the periphery of a vehicle using a captured image obtained by an imaging unit mounted on the vehicle.

撮像装置により撮像された赤外線画像から対象物である歩行者の頭部に相当する領域を抽出し、当該頭部領域に基づいて歩行者の胴体に相当する領域を抽出することにより対象物が歩行者であることを認識し、この歩行者の存在を車両の運転者に知らせる技術が知られている(特許文献1参照)。
特開平11−328364号公報
A region corresponding to the pedestrian's head, which is an object, is extracted from the infrared image captured by the imaging device, and the region corresponding to the pedestrian's torso is extracted based on the head region. A technique for recognizing the presence of a pedestrian and informing the driver of the vehicle of the presence of the pedestrian is known (see Patent Document 1).
Japanese Patent Laid-Open No. 11-328364

しかし、車両の周辺には歩行者(人間)のみならず、鹿等の四足動物も存在する場合がある。この場合、対象物が人間であるか否かを判定する手法が採用されても、対象物が四足動物であるか否かを判定することは困難である。このため、車両の運転者に四足動物の存在を知らせること、さらには、運転者が対象物との接触を回避するように車両を運転することが困難となる。   However, there are cases where not only pedestrians (human beings) but also quadruped animals such as deer exist around the vehicle. In this case, it is difficult to determine whether or not the object is a quadruped animal even if a method for determining whether or not the object is a human is employed. For this reason, it becomes difficult to inform the driver of the vehicle of the presence of a quadruped animal, and to drive the vehicle so that the driver avoids contact with the object.

そこで、本発明は、対象物が四足動物であるか否かを高精度で認識することができる車両周辺監視装置を提供することを目的とする。   Then, an object of this invention is to provide the vehicle periphery monitoring apparatus which can recognize with high precision whether a target object is a quadruped animal.

第1発明の車両周辺監視装置は、車両に搭載された撮像手段によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置であって、前記撮像画像から対象物が存在する領域を対象物領域として抽出する対象物領域抽出手段と、前記対象物領域抽出手段により抽出された前記対象物領域から、低輝度画素群を囲む高輝度画素群から構成されている閉要素と、前記閉要素の下部が開裂した形状の開要素とが異なる時刻に抽出されることを要件として、前記対象物が前記四足動物に該当すると判定する対象物分類手段とを備えていることを特徴とする。   A vehicle periphery monitoring device according to a first aspect of the present invention is a vehicle periphery monitoring device that monitors the periphery of a vehicle using a captured image obtained by an imaging unit mounted on the vehicle, and includes a region where an object exists from the captured image. A target area extracting means for extracting as a target area; a closed element composed of a high luminance pixel group surrounding a low luminance pixel group from the target area extracted by the target area extraction means; An object classification means for determining that the object corresponds to the quadruped animal is provided on the condition that an open element having a shape in which a lower part of the element is cleaved is extracted at a different time. .

第1発明の車両周辺監視装置によれば、撮像画像(撮像手段により撮像された原画像のほか、当該原画像に加工処理が施されることにより得られた画像も含まれる。)から抽出された対象物が存在する領域としての対象物領域から、閉要素および開要素が異なる時刻において抽出されたことを要件として、当該対象物が四足動物に該当すると判定される。なお、「四足動物」はすべての四足動物を意味するのではなく、本発明の手法により分類されうる特定の四足動物を意味している。歩行または走行している四足動物が横から観察された場合、前脚および後脚の交差部位または接地部位の近接と離反とが繰り替えされることが確認される可能性が高い。また、交差部位または接地部位は脚の付け根よりも下側に位置している。これらの点に鑑みて、前記のような判定手法により撮像画像から抽出された高輝度領域により表わされる対象物が四足動物であるか否かが高精度で認識されうる。   According to the vehicle periphery monitoring device of the first aspect of the invention, it is extracted from a captured image (in addition to the original image captured by the imaging means, an image obtained by processing the original image is included). On the condition that the closed element and the open element are extracted at different times from the object area as the area where the target object exists, it is determined that the object corresponds to a quadruped animal. The “quadruped animal” does not mean all the quadruped animals, but means a specific quadruped animal that can be classified by the method of the present invention. When a quadruped animal that is walking or running is observed from the side, it is highly likely that it is confirmed that the intersection and separation of the front and rear leg intersections or the ground contact part are repeated. In addition, the intersection part or the ground contact part is located below the base of the leg. In view of these points, it is possible to recognize with high accuracy whether or not the object represented by the high luminance region extracted from the captured image by the determination method as described above is a quadruped.

第2発明の車両周辺監視装置は、車両に搭載された撮像手段によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置であって、前記撮像画像から対象物が存在する領域を対象物領域として抽出する対象物領域抽出手段と、前記対象物領域抽出手段により抽出された前記対象物領域から、低輝度画素群を囲む高輝度画素群から構成されている閉要素が断続的に抽出されることを要件として、前記対象物が四足動物に該当すると判定する対象物分類手段とを備えていることを特徴とする。   A vehicle periphery monitoring device according to a second aspect of the present invention is a vehicle periphery monitoring device that monitors the periphery of a vehicle using a captured image obtained by an imaging unit mounted on the vehicle, and includes a region where an object is present from the captured image. Object area extraction means for extracting as an object area, and closed elements composed of high-luminance pixel groups surrounding low-luminance pixel groups intermittently from the object area extracted by the object area extraction means An object classification means for determining that the object corresponds to a quadruped animal is provided on the condition that it is extracted.

第2発明の車両周辺監視装置によれば、撮像画像から抽出された対象物が存在する領域としての対象物領域から、閉要素が断続的に抽出されたことを要件として、当該対象物が四足動物に該当すると判定される。閉要素は、横向きの四足動物の胴体の少なくとも一部と、横から見て交差しているまたは接地部位が近接している前脚および後脚とに該当する蓋然性が高い。歩行または走行している四足動物が横から観察された場合、交差しているまたは接地部位が近接する前脚および後脚の組が断続的に確認される可能性が高い。これらの点に鑑みて、前記のような判定手法により撮像画像から抽出された高輝度領域により表わされる対象物が四足動物であるか否かが高精度で認識されうる。   According to the vehicle periphery monitoring device of the second aspect of the present invention, it is required that the closed element is intermittently extracted from the object area as the area where the object extracted from the captured image is present. It is determined to be a paw animal. The closure element is likely to correspond to at least a portion of the lateral quadruped animal's torso and the front and rear legs that intersect from the side or are close to the ground contact area. When a walking or running quadruped animal is observed from the side, it is likely that a pair of front and rear legs that are crossing or in close proximity to the ground contact area will be confirmed intermittently. In view of these points, it is possible to recognize with high accuracy whether or not the object represented by the high luminance region extracted from the captured image by the determination method as described above is a quadruped.

本発明の車両周辺監視装置の実施形態について説明する。まず、本実施形態の車両周辺監視装置の構成について説明する。車両周辺監視装置は図1および図2に示されている画像処理ユニット1を備えている。画像処理ユニット1には、車両10の前方の画像を撮像する撮像手段としての2つの赤外線カメラ2R,2Lが接続されるとともに、車両10の走行状態を検出するセンサとして、車両10のヨーレートを検出するヨーレートセンサ3、車両10の走行速度(車速)を検出する車速センサ4、および車両10のブレーキ操作の有無を検出するブレーキセンサ5とが接続されている。さらに、画像処理ユニット1には、音声などによる聴覚的な通報情報を出力するためのスピーカ6、および赤外線カメラ2R,2Lにより撮像された撮像画像や視覚的な通報情報を表示するための表示装置7が接続されている。なお、赤外線カメラ2R,2Lが本発明における撮像手段に相当する。対象物との距離がレーダーにより測定される場合、1台の赤外線カメラのみが車両10に搭載されてもよい。   An embodiment of a vehicle periphery monitoring device of the present invention will be described. First, the structure of the vehicle periphery monitoring apparatus of this embodiment is demonstrated. The vehicle periphery monitoring device includes an image processing unit 1 shown in FIGS. 1 and 2. The image processing unit 1 is connected to two infrared cameras 2R and 2L as imaging means for capturing an image in front of the vehicle 10 and detects the yaw rate of the vehicle 10 as a sensor for detecting the traveling state of the vehicle 10. The yaw rate sensor 3 that detects the vehicle 10, the vehicle speed sensor 4 that detects the traveling speed (vehicle speed) of the vehicle 10, and the brake sensor 5 that detects whether the vehicle 10 is braked or not are connected. Further, the image processing unit 1 includes a speaker 6 for outputting auditory notification information such as voice, and a display device for displaying captured images and visual notification information captured by the infrared cameras 2R and 2L. 7 is connected. The infrared cameras 2R and 2L correspond to the image pickup means in the present invention. When the distance to the object is measured by a radar, only one infrared camera may be mounted on the vehicle 10.

画像処理ユニット1は、A/D変換回路、CPU、RAM、ROM等のメモリ、I/O回路およびこれらを接続するバスなどにより構成されているECU(電子制御ユニット)により構成されている。赤外線カメラ2R,2L、ヨーレートセンサ3、車速センサ4およびブレーキセンサ5から出力されるアナログ信号が、A/D変換回路によりデジタルデータ化され、CPUによりデジタル化されたデータに基づき、人間(歩行者、自転車に乗っている者)などの対象物を検出し、検出した対象物が所定の通報要件を満す場合にスピーカ6や表示装置7により運転者に通報を発する処理を実行する。なお、画像処理ユニット1は対象物抽出手段および対象物分類手段としての機能を備えている。   The image processing unit 1 includes an ECU (electronic control unit) that includes an A / D conversion circuit, a memory such as a CPU, a RAM, and a ROM, an I / O circuit, and a bus that connects these. Analog signals output from the infrared cameras 2R, 2L, the yaw rate sensor 3, the vehicle speed sensor 4, and the brake sensor 5 are converted into digital data by the A / D conversion circuit, and based on the data digitized by the CPU, humans (pedestrians) When a detected object satisfies a predetermined notification requirement, a process of issuing a notification to the driver by the speaker 6 or the display device 7 is executed. The image processing unit 1 has functions as an object extraction unit and an object classification unit.

図2に示されているように、赤外線カメラ2R,2Lは、車両10の前方を撮像するために、車両10の前部(図ではフロントグリルの部分)に取り付けられている。この場合、赤外線カメラ2R,2Lは、それぞれ、車両10の車幅方向の中心よりも右寄りの位置、左寄りの位置に配置されている。それら位置は、車両10の車幅方向の中心に対して左右対称である。赤外線カメラ2R,2Lは、それらの光軸が互いに平行に車両10の前後方向に延在し、且つ、それぞれの光軸の路面からの高さが互いに等しくなるように固定されている。赤外線カメラ2R,2Lは、遠赤外域に感度を有し、それにより撮像される物体の温度が高いほど、出力される映像信号のレベルが高くなる(映像信号の輝度が高くなる)特性を有している。   As shown in FIG. 2, the infrared cameras 2 </ b> R and 2 </ b> L are attached to the front portion of the vehicle 10 (the front grill portion in the figure) in order to image the front of the vehicle 10. In this case, the infrared cameras 2R and 2L are respectively arranged at a position on the right side and a position on the left side of the center of the vehicle 10 in the vehicle width direction. These positions are symmetrical with respect to the center of the vehicle 10 in the vehicle width direction. The infrared cameras 2R and 2L are fixed so that their optical axes extend in parallel in the front-rear direction of the vehicle 10 and the heights of the respective optical axes from the road surface are equal to each other. The infrared cameras 2R and 2L have sensitivity in the far-infrared region, and have a characteristic that the higher the temperature of an object to be imaged, the higher the level of the output video signal (the higher the luminance of the video signal). is doing.

また、本実施形態では、表示装置7として、車両10のフロントウィンドウに画像情報を表示するヘッド・アップ・ディスプレイ7a(以下、HUD7aという)を備えている。なお、表示装置7として、HUD7aの代わりに、もしくは、HUD7aとともに、車両10の車速などの走行状態を表示するメータに一体的に設けられたディスプレイ、あるいは、車載ナビゲーション装置に備えられたディスプレイが用いられてもよい。   In the present embodiment, the display device 7 includes a head-up display 7a (hereinafter referred to as HUD 7a) that displays image information on the front window of the vehicle 10. As the display device 7, a display provided integrally with a meter that displays a traveling state such as the vehicle speed of the vehicle 10 or a display provided in an in-vehicle navigation device is used instead of or together with the HUD 7 a. May be.

次に、前記構成の車両周辺監視装置の基本的な機能について図3のフローチャートを用いて説明する。図3のフローチャートの基本的な処理内容は、たとえば本出願人による特開2001−6096号公報の図3および特開2007−310705号公報の図3に記載されている処理内容と同様である。   Next, basic functions of the vehicle periphery monitoring apparatus having the above-described configuration will be described with reference to the flowchart of FIG. The basic processing contents of the flowchart of FIG. 3 are the same as the processing contents described in FIG. 3 of Japanese Patent Application Laid-Open No. 2001-6096 and FIG. 3 of Japanese Patent Application Laid-Open No. 2007-310705, for example.

具体的には、まず赤外線カメラ2R、2Lの赤外線画像信号が画像処理ユニット1に入力され(図3/STEP11)、その上で画像処理ユニット1により続く一連の処理が実行される。すなわち、赤外線カメラ2R、2Lの出力信号がA/D変換され(図3/STEP12)、A/D変換された赤外線画像からグレースケール画像が生成され(図3/STEP13)、基準となるグレースケール画像(右画像)が2値化される(図3/STEP14)。また、2値化画像から対象物が存在する領域が対象物領域Sとして抽出される。具体的には、2値化画像の高輝度領域を構成する画素群がランレングスデータに変換され(図3/STEP15)、基準画像の縦方向に重なりを有するライン群のそれぞれにラベル(識別子)が付され(図3/STEP16)、ライン群のそれぞれが対象物として抽出される(図3/STEP17)。これにより、図6(a)に斜線で示されているようなひとまとまりの高輝度画素(画素値=1の画素)により構成される高輝度領域が対象物として抽出される。さらに、図6(a)に斜線で示されている対象物の全部を囲う線によって画定された領域が対象物領域Aとして設定される。   Specifically, first, the infrared image signals of the infrared cameras 2R and 2L are input to the image processing unit 1 (FIG. 3 / STEP 11), and then a series of processes are executed by the image processing unit 1. That is, the output signals of the infrared cameras 2R and 2L are A / D converted (FIG. 3 / STEP 12), a gray scale image is generated from the A / D converted infrared image (FIG. 3 / STEP 13), and the reference gray scale is obtained. The image (right image) is binarized (FIG. 3 / STEP 14). In addition, an area where the object exists is extracted as the object area S from the binarized image. Specifically, the pixel group constituting the high-luminance area of the binarized image is converted into run-length data (FIG. 3 / STEP 15), and a label (identifier) is assigned to each line group that overlaps in the vertical direction of the reference image. Is attached (FIG. 3 / STEP 16), and each group of lines is extracted as an object (FIG. 3 / STEP 17). As a result, a high-luminance region constituted by a group of high-luminance pixels (pixel value = 1 pixel) as indicated by the oblique lines in FIG. 6A is extracted as an object. Furthermore, an area defined by a line surrounding the entire object indicated by hatching in FIG. 6A is set as the object area A.

続いて、各対象物の重心の位置(基準画像上での位置)、面積および外接四角形の縦横比が算定される(図3/STEP18)。また、対象物の時刻間追跡が実行され、画像処理ユニット1の演算処理周期毎の対象物の同一性が判定される(図3/STEP19)。さらに、車速センサ4およびヨーレートセンサ5の出力(車速の検出値及びヨーレートの検出値)が読み込まれる(図3/STEP20)。   Subsequently, the position of the center of gravity of each object (position on the reference image), the area, and the aspect ratio of the circumscribed rectangle are calculated (FIG. 3 / STEP 18). Further, the tracking of the target object is performed, and the identity of the target object is determined every calculation processing cycle of the image processing unit 1 (FIG. 3 / STEP 19). Further, the outputs (vehicle speed detection value and yaw rate detection value) of the vehicle speed sensor 4 and the yaw rate sensor 5 are read (FIG. 3 / STEP 20).

また、外接四角形の縦横比算出および対象物の時刻間追跡と並行して、基準画像のうち、各対象物に対応する領域(たとえば該対象物の外接四角形の領域)が探索画像として抽出される(図3/STEP31)。さらに、相関演算が実行されることにより左画像中から探索画像に対応する画像(対応画像)が探索かつ抽出される(図3/STEP32)。また、車両10から対象物までの実空間距離(車両10の前後方向における距離)が算定される(図3/STEP33)。   Further, in parallel with the calculation of the aspect ratio of the circumscribed rectangle and the tracking of the object during the time, an area corresponding to each object (for example, the area of the circumscribed rectangle of the object) in the reference image is extracted as a search image. (FIG. 3 / STEP 31). Further, by executing the correlation calculation, an image (corresponding image) corresponding to the search image is searched and extracted from the left image (FIG. 3 / STEP 32). Further, the real space distance from the vehicle 10 to the object (the distance in the front-rear direction of the vehicle 10) is calculated (FIG. 3 / STEP 33).

また、各対象物の実空間位置(車両10に対する相対位置)が算定される(図3/STEP21)。さらに、対象物の実空間位置(X,Y,Z)(図2参照)のうちのX成分が回頭角の時系列データ(STEP20参照)に応じて補正される(図3/STEP22)。また、車両10に対する対象物の相対移動ベクトルが推定され(図3/STEP23)、この相対移動ベクトルに基づき、車両10と対象物との接触可能性があると判定された場合に運転者の注意を喚起するための通報を発する通報判定処理が実行される(図3/STEP24)。対象物が通報判定要件を満たすと判定された場合(図3/STEP24‥YES)、当該対象物に関する通報要否を判定する通報出力判定処理が実行される(図3/STEP25)。そして、通報が必要であると判定された場合(図3/STEP25‥YES)、運転者に対して車両10との接触可能性が高い状況である旨が通報される(図3/STEP26)。具体的には、スピーカ6を介して音声が出力されることにより、あるいは、HUD7aにおいて対象物が色彩やフレーム等により強調表示されることによって当該状況が通報される。以上が本実施形態の車両周辺監視装置の全体的作動である。なお、画像処理ユニット1によりSTEP11〜18の処理を実行する構成が、本発明の対象物領域抽出手段に相当する。   Further, the real space position (relative position with respect to the vehicle 10) of each object is calculated (FIG. 3 / STEP 21). Further, the X component of the real space position (X, Y, Z) of the object (see FIG. 2) is corrected according to the time-series data of the turning angle (see STEP 20) (FIG. 3 / STEP 22). Further, the relative movement vector of the object with respect to the vehicle 10 is estimated (FIG. 3 / STEP 23), and the driver's attention when it is determined that there is a possibility of contact between the vehicle 10 and the object based on the relative movement vector. A notification determination process for issuing a notification for calling out is executed (FIG. 3 / STEP 24). When it is determined that the object satisfies the notification determination requirement (FIG. 3 / STEP 24... YES), a notification output determination process is performed to determine whether or not notification is necessary for the object (FIG. 3 / STEP 25). If it is determined that notification is necessary (FIG. 3 / STEP 25... YES), the driver is notified that the possibility of contact with the vehicle 10 is high (FIG. 3 / STEP 26). Specifically, the situation is notified by outputting a sound through the speaker 6 or by highlighting an object with a color, a frame, or the like on the HUD 7a. The above is the overall operation of the vehicle periphery monitoring device of the present embodiment. In addition, the structure which performs the process of STEP11-18 by the image processing unit 1 is equivalent to the target object area | region extraction means of this invention.

次に、図3のフローチャートのSTEP24における通報判定処理について図4のフローチャートを用いて説明する。図4のフローチャートの基本的な処理内容は、たとえば本出願人による特開2001−6096号の図4および特開2007−310705号の図4に記載されている処理内容と同様である。   Next, the notification determination process in STEP 24 of the flowchart of FIG. 3 will be described using the flowchart of FIG. The basic processing content of the flowchart of FIG. 4 is the same as the processing content described in FIG. 4 of Japanese Patent Application Laid-Open No. 2001-6096 and FIG.

具体的には、まず接触判定処理が実行される(図4/STEP41)。接触判定処理は、車両10と対象物との距離が、相対速度Vsと余裕時間Tとを乗じた値以下の場合、接触可能性があると判定される。また、余裕時間T以内に車両10と対象物とが接触する可能性があると判定された場合(図4/STEP41‥YES)、対象物が接近判定領域内に存在するか否かが判定される(図4/STEP42)。そして、対象物が接近判定領域に存在しないと判定された場合(図4/STEP42‥NO)、対象物が接近判定領域に進入して車両10と接触する可能性があるか否かが判定される(図4/STEP43)。具体的には、対象物が接近判定領域の外側にある進入判定領域に存在し、かつ、STEP23で算定された対象物の移動ベクトルが接近判定領域に向かっているときに、接触する可能性があると判定される。   Specifically, a contact determination process is first executed (FIG. 4 / STEP 41). In the contact determination process, when the distance between the vehicle 10 and the object is equal to or less than a value obtained by multiplying the relative speed Vs and the margin time T, it is determined that there is a possibility of contact. If it is determined that there is a possibility that the vehicle 10 and the object are in contact with each other within the margin time T (FIG. 4 / STEP 41... YES), it is determined whether or not the object exists in the approach determination area. (FIG. 4 / STEP 42). When it is determined that the object does not exist in the approach determination area (FIG. 4 / STEP 42... NO), it is determined whether or not the object may enter the approach determination area and come into contact with the vehicle 10. (FIG. 4 / STEP 43). Specifically, there is a possibility of contact when the object exists in the approach determination area outside the approach determination area and the movement vector of the object calculated in STEP 23 is toward the approach determination area. It is determined that there is.

一方、対象物が接近判定領域に存在していると判定された場合(図4/STEP42‥YES)、または、車両10と対象物との接触可能性があると判定された場合(図4/STEP43‥YES)、対象物が人工構造物であるか否かを判定する人工構造物判定処理が実行される(図4/STEP44)。これにより、たとえば対象物から歩行者にはあり得ない外形上の特徴が検出された場合、この対象物が人工構造物に該当すると判定される。対象物が人工構造物に該当しないと判定された場合(図4/STEP44‥NO)、対象物が歩行者に該当するか否かが判定される(図4/STEP45)。具体的には、グレースケール画像上で対象物の画像領域の形状や大きさ、輝度分散等の特徴から、対象物が歩行者に該当するか否かが判定される。そして、対象物が歩行者に該当すると判定された場合(図4/STEP45‥YES)、検出した対象物を通報または注意喚起の対象として決定する(図4/STEP46)。   On the other hand, when it is determined that the object is present in the approach determination area (FIG. 4 / STEP 42... YES), or when it is determined that there is a possibility of contact between the vehicle 10 and the object (FIG. 4 / (STEP 43... YES), an artificial structure determination process for determining whether or not the object is an artificial structure is executed (FIG. 4 / STEP 44). Thereby, for example, when a feature on the outer shape that is impossible for a pedestrian is detected from an object, it is determined that the object corresponds to an artificial structure. When it is determined that the object does not correspond to an artificial structure (FIG. 4 / STEP 44... NO), it is determined whether the object corresponds to a pedestrian (FIG. 4 / STEP 45). Specifically, it is determined whether or not the object corresponds to a pedestrian from the characteristics such as the shape and size of the image area of the object on the gray scale image and luminance dispersion. Then, when it is determined that the object corresponds to a pedestrian (FIG. 4 / STEP 45... YES), the detected object is determined as a notification or alerting target (FIG. 4 / STEP 46).

また、対象物が歩行者ではないと判定された場合(図4/STEP45‥NO)、この対象物が四足動物に該当するか否かが判定される(図4/STEP47)。対象物が四足動物に該当すると判定された場合(図4/STEP47‥YES)、画像処理ユニット1は、対象物が通報対象として決定される(図4/STEP46)。車両10と対象物との接触可能性がないと判定された場合(図4/STEP43‥NO)、対象物が人工構造物であると判定された場合(図4/STEP44‥YES)、または、対象物が四足動物に該当しないと判定された場合(図4/STEP47‥NO)、この対象物は通報対象から除外される(図4/STEP48)。   When it is determined that the object is not a pedestrian (FIG. 4 / STEP 45... NO), it is determined whether the object corresponds to a quadruped animal (FIG. 4 / STEP 47). When it is determined that the target object corresponds to a quadruped animal (FIG. 4 / STEP 47... YES), the image processing unit 1 determines that the target object is a notification target (FIG. 4 / STEP 46). When it is determined that there is no possibility of contact between the vehicle 10 and the object (FIG. 4 / STEP 43... NO), when the object is determined to be an artificial structure (FIG. 4 / STEP 44... YES), or When it is determined that the object does not correspond to a quadruped animal (FIG. 4 / STEP 47... NO), this object is excluded from the notification target (FIG. 4 / STEP 48).

次に、本発明の車両周辺監視装置の主要な機能である動物判定処理について図5のフローチャートを用いて説明する。   Next, an animal determination process that is a main function of the vehicle periphery monitoring device of the present invention will be described with reference to the flowchart of FIG.

まず、対象物領域Aのうち、最も高い輝度範囲に輝度が含まれる高輝度画素群により構成される最大の領域Bが抽出され、この領域Bの縦幅(高さ)Hに対する横幅Wの比が対象物縦横比(=W/H)として算出される(図5/STEP102)。これにより、たとえば図6(a)に斜線で示されている対象物(高輝度画像領域)の一部を囲む破線により画定された領域が領域Bとして抽出され、その縦横比W/Hが算定される。その上で、縦横比W/Hが基準値(たとえば1)以上であるか否かが判定される(図5/STEP104)。なお、縦横比W/Hの算定および基準値との対比処理は省略されてもよい。   First, in the object area A, a maximum area B constituted by a high luminance pixel group whose luminance is included in the highest luminance range is extracted, and the ratio of the horizontal width W to the vertical width (height) H of the area B is extracted. Is calculated as the object aspect ratio (= W / H) (FIG. 5 / STEP 102). Thereby, for example, an area defined by a broken line surrounding a part of the target object (high luminance image area) indicated by diagonal lines in FIG. 6A is extracted as the area B, and the aspect ratio W / H is calculated. Is done. Then, it is determined whether or not the aspect ratio W / H is a reference value (for example, 1) or more (FIG. 5 / STEP 104). The calculation of the aspect ratio W / H and the comparison process with the reference value may be omitted.

そして、縦横比W/Hが基準値未満であると判定された場合(図5/STEP104‥NO)、当該対象物は四足動物に該当しないと判定される(図5/STEP128)。この判定は、対象物が四足動物である場合、横に長く、他の身体部分と比較して温度が高い胴部に該当する高輝度領域が抽出される蓋然性が高いという思想に基づいている。   When it is determined that the aspect ratio W / H is less than the reference value (FIG. 5 / STEP 104... NO), it is determined that the object does not correspond to a quadruped animal (FIG. 5 / STEP 128). This determination is based on the idea that when the object is a quadruped animal, it is long and is likely to be extracted from a high-luminance region corresponding to a torso that is hotter than other body parts. .

一方、縦横比W/Hが基準値以上であると判定された場合(図5/STEP104‥YES)、対象物領域Aにおいて、ひとまとまりの低輝度領域を囲む高輝度領域により構成されている指定形状の閉要素の有無が判定される(図5/STEP106)。具体的には、対象物領域Aの下端から上端に向かって順番に対象物領域Aが右方向に走査されることにより、画素値が「1(対象物が存在する画素を表わす。)」から「0(対象物が存在しない画素を表わす。)」に変化した後、再び「1」になるような横並びの画素により構成される横線分が探索される。これにより、たとえば図7(a)に斜線で示されている対象物について、画像右方向について画素値が「1」から「0」に変化する負エッジ点(図中●)から、一の低輝度画素または複数の連続した低輝度画素群を経て、画素値が「0」から「1」に変化する正エッジ点(図中○)までのびる線分が横線分として探索される。なお、長さが閾値未満の横線分はノイズとして除去されうる。   On the other hand, when it is determined that the aspect ratio W / H is equal to or greater than the reference value (FIG. 5 / STEP 104... YES), in the object area A, a designation composed of a high luminance area surrounding a group of low luminance areas. The presence / absence of a closed element of the shape is determined (FIG. 5 / STEP 106). Specifically, the object area A is scanned in the right direction in order from the lower end to the upper end of the object area A, so that the pixel value is “1 (represents a pixel in which the object exists)”. After changing to “0 (represents a pixel in which no object exists)”, a horizontal line segment constituted by horizontally arranged pixels that again becomes “1” is searched. As a result, for example, for the object indicated by hatching in FIG. 7A, from the negative edge point (● in the figure) where the pixel value changes from “1” to “0” in the right direction of the image, A line segment extending from a luminance pixel or a plurality of continuous low-luminance pixel groups to a positive edge point (◯ in the figure) where the pixel value changes from “0” to “1” is searched for as a horizontal line segment. A horizontal line segment whose length is less than the threshold value can be removed as noise.

また、局所的に最も下に位置する横線分の第1判定フラグf1が設定され、かつ、局所的に最も上に位置する横線分の第2判定フラグf2が設定される(図7(a)参照)。局所的に最も下に位置する横線分とは、下方に1画素分だけずらされたときに重なる横線分が存在しない横線分を意味する。局所的に最も上に位置する横線分とは、上方に1画素分だけずらされたときに重なる横線分が存在しない横線分を意味する。具体的には、局所的に最も下に位置する横線分が画像下方に1画素分だけずらされたときに、当該横線分を構成するすべてまたは1〜2画素を除くすべての画素が高輝度画素に重なる場合、当該横線分の第1判定フラグf1は「1」に設定される。また、局所的に最も上に位置する横線分が画像上方に1画素分だけずらされたときに、当該横線分を構成するすべてまたは1〜2画素を除くすべての画素が高輝度画素に重なる場合、当該横線分の第2判定フラグf2は「2」に設定される。その他の場合、局所的に最も下または上に位置する横線分の判定フラグfは「0」に設定される。   Further, the first determination flag f1 for the horizontal line located locally at the bottom is set, and the second determination flag f2 for the horizontal line located locally at the top is set (FIG. 7A). reference). The horizontal line segment located locally at the bottom means a horizontal line segment that does not overlap when it is shifted downward by one pixel. The horizontal line segment located locally at the top means a horizontal line segment in which there is no overlapping horizontal line segment when shifted upward by one pixel. Specifically, when the horizontal line segment located locally at the bottom is shifted by one pixel below the image, all the pixels constituting the horizontal line segment or all but one or two pixels are high-luminance pixels. , The first determination flag f1 for the horizontal line is set to “1”. In addition, when the horizontal line segment located locally at the top is shifted by one pixel above the image, all pixels constituting the horizontal line segment or all pixels except for one or two pixels overlap with the high luminance pixel. The second determination flag f2 for the horizontal line is set to “2”. In other cases, the determination flag f of the horizontal line located locally at the bottom or top is set to “0”.

続いて、各横線分に第1判定フラグf1および第2判定フラグf2の両方が付される(図7(b)参照)。具体的には、第1判定フラグf1が1である横線分のすぐ上(1画素分だけ上)にあり、かつ、画像縦方向について当該横線分に重なる横線分の第1判定フラグf1が「1」に設定される。また、第2判定フラグf2が2である横線分のすぐ下(1画素分だけ下)にあり、かつ、画像縦方向について当該横線分に重なる横線分の第2判定フラグf2が「2」に設定される。一方、第1判定フラグf1が0である横線分のすぐ上にあり、かつ、画像縦方向について当該横線分に重なる横線分の第1判定フラグf1は「0」に設定される。また、第2判定フラグf2が0である横線分のすぐ下にあり、かつ、画像縦方向について当該横線分に重なる横線分の第2判定フラグf2は「0」に設定される。これにより、横線分のすべての第1判定フラグf1および第2判定フラグf2が設定される。   Subsequently, both the first determination flag f1 and the second determination flag f2 are attached to each horizontal line segment (see FIG. 7B). More specifically, the first determination flag f1 for the horizontal line that is immediately above the horizontal line segment for which the first determination flag f1 is 1 (up by one pixel) and overlaps the horizontal line segment in the vertical direction of the image is “ 1 ”. In addition, the second determination flag f2 is immediately below the horizontal line segment that is 2 (down by one pixel), and the second determination flag f2 of the horizontal line that overlaps the horizontal line segment in the vertical direction of the image is “2”. Is set. On the other hand, the first determination flag f1 of the horizontal line that is immediately above the horizontal line segment for which the first determination flag f1 is 0 and overlaps the horizontal line segment in the image vertical direction is set to “0”. Further, the second determination flag f2 that is immediately below the horizontal line segment for which the second determination flag f2 is 0 and that overlaps the horizontal line segment in the image vertical direction is set to “0”. Thereby, all the first determination flags f1 and the second determination flags f2 of the horizontal line segment are set.

前記手法によれば、対象物を表わす高輝度領域のうち上下がともに開いている部分(切れ目部分)に架橋された各横線分の合計判定フラグΣf=f1+f2は「0」になる。対象物を表わす高輝度領域のうち下が開いている一方、上が閉じている部分に架橋された各横線分の合計判定フラグΣfは「1」になる(図7(b)参照)。これとは逆に対象物を表わす高輝度領域のうち上が開いている一方、下が閉じている部分に架橋された各横線分の合計判定フラグΣfは「2」になる。対象物を表わす高輝度領域のうち上下がともに閉じている部分に架橋された各横線分の合計判定フラグΣfは「3」になる。合計判定フラグΣfが3であり、かつ、縦方向に連続して重なっている複数の横線分が存在する場合、「閉要素」が存在すると判定される。   According to the above-described method, the total determination flag Σf = f1 + f2 for each horizontal line bridged by a portion where the top and bottom are both open (cut portion) in the high luminance region representing the object is “0”. The total determination flag Σf for each horizontal line that is bridged to a portion where the lower portion of the high-intensity region representing the object is open and the upper portion is closed is “1” (see FIG. 7B). On the other hand, the total determination flag Σf for each horizontal line bridged to a portion where the upper portion of the high luminance region representing the object is open and the lower portion is closed is “2”. The total determination flag Σf for each horizontal line that is bridged to the portion where the top and bottom are both closed in the high luminance region representing the object is “3”. When the total determination flag Σf is 3 and there are a plurality of horizontal line segments that are continuously overlapped in the vertical direction, it is determined that a “closed element” exists.

なお、画像処理の負荷軽減および高速化のため、対象物領域Aではなくその一部である局所領域Sにおける閉要素の有無が判定されてもよい。たとえば図6(b)に示されているように対象物領域Aの下部にある高輝度領域を囲む太線により画定されている領域が局所領域Sとして設定されうる。局所領域Sの横幅WSは対象物領域Aの横幅WAを基準としてc1・WA(0<c1<1)に設定され、局所領域Sの縦幅HSは対象物領域Aの縦幅HAを基準としてc2・HA(0<c2<1)に設定されうる。係数c1およびc2は任意に設定されうる。局所領域Sの下端は対象物領域Aの下端に一致していてもずれていてもよく、局所領域Sの横端は対象物領域Aの横端に一致していてもずれていてもよい。   In order to reduce the load and increase the speed of image processing, it may be determined whether or not there is a closed element in the local region S that is a part of the object region A. For example, as shown in FIG. 6B, a region defined by a thick line surrounding a high luminance region below the object region A can be set as the local region S. The horizontal width WS of the local area S is set to c1 · WA (0 <c1 <1) based on the horizontal width WA of the object area A, and the vertical width HS of the local area S is set based on the vertical width HA of the object area A. c2 · HA (0 <c2 <1) may be set. The coefficients c1 and c2 can be set arbitrarily. The lower end of the local region S may be aligned with or shifted from the lower end of the object region A, and the lateral end of the local region S may be aligned with or aligned with the lateral end of the object region A.

さらに、閉要素が指定形状であるか否かを判定するため、この閉要素により囲まれている低輝度領域の縦幅LHおよび横幅LWが決定される(図7(c)参照)。具体的には、合計判定フラグΣfが3であり、かつ、画像縦方向に連続して重なっている複数の横線分のうち、最長、すなわち、当該横線分を構成する画素数が最多の横線分の長さが、閉要素に囲まれた低輝度領域の横幅LWとして決定される。また、当該最長の横線分の中点(中心画素)およびその左右両側に隣接する点(画素)を通り、画像上方向について画素値が「1」から「0」に変化する負エッジ点から、一の低輝度画素または複数の連続した低輝度画素群を経て、画素値が「0」から「1」に変化する正エッジ点までのびる線分が縦線分として探索される。その上で、当該縦線分のうち最長の縦線分の長さが、閉要素に囲まれた低輝度領域の縦幅LHとして決定される。   Further, in order to determine whether or not the closed element has a designated shape, the vertical width LH and the horizontal width LW of the low-luminance region surrounded by the closed element are determined (see FIG. 7C). Specifically, among the plurality of horizontal line segments that have a total determination flag Σf of 3 and overlap in the vertical direction of the image, the longest line segment, that is, the horizontal line segment with the largest number of pixels constituting the horizontal line segment. Is determined as the horizontal width LW of the low luminance region surrounded by the closed elements. Further, from a negative edge point where the pixel value changes from “1” to “0” in the upward direction of the image through the midpoint (center pixel) of the longest horizontal line segment and the points (pixels) adjacent to both the left and right sides thereof, A line segment extending to a positive edge point where the pixel value changes from “0” to “1” through one low luminance pixel or a plurality of continuous low luminance pixel groups is searched for as a vertical line segment. In addition, the length of the longest vertical line segment among the vertical line segments is determined as the vertical width LH of the low luminance region surrounded by the closed elements.

そして、低輝度領域の横幅LWに対する縦幅LHの比率LH/LWが指定比率範囲[r1,r2](たとえばr1=0.5,r2=1.5等、「1」を包含する範囲)に含まれているか否かに応じて、閉要素の形状が指定形状であるか否かが判定される。なお、閉要素の形状判定は省略されてもよい。   The ratio LH / LW of the vertical width LH to the horizontal width LW of the low-luminance region is within a specified ratio range [r1, r2] (for example, a range including “1” such as r1 = 0.5, r2 = 1.5, etc.). It is determined whether or not the shape of the closed element is a designated shape depending on whether or not it is included. Note that the shape determination of the closed element may be omitted.

そして、指定形状の閉要素があると判定された場合(図5/STEP106‥YES)、当該対象物のフラグFの初期値が「1」に設定され(図5/STEP108)、その上で画像処理ユニット1が有するタイマ(図示略)によるT=0からの計時が開始される(図5/STEP112)。その一方、指定形状の閉要素がないと判定された場合(図5/STEP106‥NO)、フラグFの初期値が「0」に設定され(図5/STEP110)、その上でタイマによるT=0からの計時が開始される(図5/STEP112)。   If it is determined that there is a closed element of the specified shape (FIG. 5 / STEP 106... YES), the initial value of the flag F of the object is set to “1” (FIG. 5 / STEP 108), and the image is displayed on the initial value. Timing from T = 0 by a timer (not shown) of the processing unit 1 is started (FIG. 5 / STEP 112). On the other hand, if it is determined that there is no closed element of the specified shape (FIG. 5 / STEP 106... NO), the initial value of the flag F is set to “0” (FIG. 5 / STEP 110), and then T = Timing from 0 is started (FIG. 5 / STEP 112).

続いて、前記手法にしたがって対象物領域Aにおける指定形状の閉要素の有無が判定される(図5/STEP114)。そして、指定形状の閉要素があると判定された場合(図5/STEP114‥YES)、当該対象物のフラグFが「1」に維持または変更される(図5/STEP116)。その一方、指定形状の閉要素がないと判定された場合(図5/STEP114‥NO)、当該対象物のフラグFが「0」に変更または維持される(図5/STEP118)。なお、対象物領域Aにおいて合計判定フラグΣfが「3」の横線分群が存在していた領域に、合計判定フラグΣfが「1」の横線分群、すなわち、対象物を表わす高輝度領域のうち下が開いている一方、上が閉じている部分(開要素)に架橋された横線分群が現われたことを要件としてフラグFが「1」から「0」に変更されてもよい。   Subsequently, the presence / absence of a closed element having a specified shape in the object region A is determined according to the above-described method (FIG. 5 / STEP 114). If it is determined that there is a closed element of the designated shape (FIG. 5 / STEP 114... YES), the flag F of the object is maintained or changed to “1” (FIG. 5 / STEP 116). On the other hand, if it is determined that there is no closed element of the designated shape (FIG. 5 / STEP 114... NO), the flag F of the object is changed or maintained to “0” (FIG. 5 / STEP 118). In the object area A, the horizontal line segment having the total determination flag Σf of “3” is present in the horizontal line segment having the total determination flag Σf of “1”, that is, the lower part of the high luminance area representing the object. On the other hand, the flag F may be changed from “1” to “0” on the condition that a cross-linked horizontal line group appears in a portion where the top is closed (open element).

次にタイマの計測時間Tが指定時間T0未満であるか否かが判定される(図5/STEP120)。そして、計測時間Tが指定時間T0未満であると判定された場合(図5/STEP120‥YES)、フラグFの変化回数が所定回数(たとえば2)以上であるか否かがさらに判定される(図5/STEP122)。指定時間T0は四足動物の標準的な歩行または走行周期に基づいて設定されている。フラグFの初期値が「0」である場合、フラグFの初期値が「1」である場合よりも指定時間T0が長く設定されてもよい。フラグFの初期値が「0」である場合と、フラグFの初期値が「1」である場合とにおいて、所定回数が同一でも異なっていてもよい。計測時間Tが指定時間T0に達するまでにフラグFの変化回数が所定回数以上であると判定された場合(図5/STEP122‥YES)、タイマによる計時が停止され(図5/STEP124)、当該対象物が四足動物に該当すると判定される(図5/STEP126)。たとえば、図8(a)に示されているようにタイマによる計時時間Tが指定時間T0に至るまでの間に、閉要素が存在するフラグF=1の状態、閉要素がない代わりに開要素が存在するフラグF=0の状態およびフラグF=1の状態が順に現出することにより、フラグFの変化回数が所定回数としての「2」に達した場合、当該対象物が四足動物に該当すると判定されうる。また、図8(b)に示されているようにタイマによる計時時間Tが指定時間T0に至るまでの間にフラグF=0の状態、フラグF=1の状態およびフラグF=0の状態が順に現出することにより、フラグFの変化回数が所定回数としての「2」に達した場合、当該対象物が四足動物に該当すると判定されうる。   Next, it is determined whether or not the timer measurement time T is less than the specified time T0 (FIG. 5 / STEP 120). When it is determined that the measurement time T is less than the specified time T0 (FIG. 5 / STEP 120... YES), it is further determined whether or not the number of changes of the flag F is a predetermined number (for example, 2) or more ( FIG. 5 / STEP 122). The designated time T0 is set based on a standard walking or running cycle of a quadruped animal. When the initial value of the flag F is “0”, the designated time T0 may be set longer than when the initial value of the flag F is “1”. The predetermined number of times may be the same or different between the case where the initial value of the flag F is “0” and the case where the initial value of the flag F is “1”. If it is determined that the number of changes of the flag F is equal to or greater than the predetermined number of times until the measurement time T reaches the specified time T0 (FIG. 5 / STEP 122... YES), the timer count is stopped (FIG. 5 / STEP 124). It is determined that the object corresponds to a quadruped animal (FIG. 5 / STEP 126). For example, as shown in FIG. 8 (a), until the time T measured by the timer reaches the specified time T0, the flag F = 1 in which the closed element exists, the open element instead of the closed element. When the flag F = 0 state and the flag F = 1 state appearing in order, the number of changes of the flag F reaches “2” as the predetermined number of times, the target object becomes a quadruped animal. It can be determined that this is the case. Further, as shown in FIG. 8B, the flag F = 0 state, the flag F = 1 state, and the flag F = 0 state until the time T measured by the timer reaches the specified time T0. By appearing in order, when the number of changes of the flag F reaches “2” as the predetermined number, it can be determined that the target object corresponds to a quadruped animal.

そして、前記のようにこの対象物について車両10の運転者の注意を喚起するような通報が実行されうる(図3/STEP26,図4/STEP46参照)。一方、フラグFの変化回数が所定回数にいたらないままタイマの計測時間Tが指定時間T0にいたった場合(図5/STEP120‥NO)、当該対象物が四足動物に該当しないと判定される(図5/STEP128)。   Then, as described above, a report that alerts the driver of the vehicle 10 to this object can be executed (see FIG. 3 / STEP 26, FIG. 4 / STEP 46). On the other hand, if the measured time T of the timer reaches the specified time T0 without the number of changes of the flag F reaching the predetermined number (FIG. 5 / STEP 120... NO), it is determined that the object does not correspond to a quadruped animal. (FIG. 5 / STEP128).

前記機能を発揮する車両周辺監視装置によれば、撮像画像から抽出された対象物が存在する領域としての対象物領域Aから、閉要素および開要素が異なる時刻において抽出されたことを要件として、当該対象物が四足動物に該当すると判定される(図5/STEP122,STEP126、図8(a)(b)参照)。歩行または走行している四足動物が横から観察された場合、前脚および後脚の交差部位または接地部位の近接と離反とが繰り替えされることが確認される可能性が高い。また、交差部位または接地部位は脚の付け根よりも下側に位置している。これらの点に鑑みて、前記のような判定手法により撮像画像から抽出された高輝度領域により表わされる対象物が四足動物であるか否かが高精度で認識されうる。   According to the vehicle periphery monitoring device that performs the function, it is required that the closed element and the open element are extracted at different times from the object area A as the area where the object extracted from the captured image exists. It is determined that the object corresponds to a quadruped animal (see FIG. 5 / STEP 122, STEP 126, FIGS. 8A and 8B). When a quadruped animal that is walking or running is observed from the side, it is highly likely that it is confirmed that the intersection and separation of the front and rear leg intersections or the ground contact part are repeated. In addition, the intersection part or the ground contact part is located below the base of the leg. In view of these points, it is possible to recognize with high accuracy whether or not the object represented by the high luminance region extracted from the captured image by the determination method as described above is a quadruped.

また、対象物領域Aから、閉要素が断続的に抽出されたことを要件として、当該対象物が四足動物に該当すると判定される(図5/STEP122,STEP126、図8(a)参照)。閉要素は、横向きの四足動物の胴体の少なくとも一部と、横から見て交差しているまたは接地部位が近接している前脚および後脚とに該当する蓋然性が高い。歩行または走行している四足動物が横から観察された場合、交差しているまたは接地部位が近接する前脚および後脚の組が断続的に確認される可能性が高い。これらの点に鑑みて、前記のような判定手法により撮像画像から抽出された高輝度領域により表わされる対象物が四足動物であるか否かが高精度で認識されうる。   Further, it is determined that the closed object is intermittently extracted from the object area A, and it is determined that the object corresponds to a quadruped animal (see FIG. 5 / STEP122, STEP126, and FIG. 8A). . The closure element is likely to correspond to at least a portion of the lateral quadruped animal's torso and the front and rear legs that intersect from the side or are close to the ground contact area. When a walking or running quadruped animal is observed from the side, it is likely that a pair of front and rear legs that are crossing or in close proximity to the ground contact area will be confirmed intermittently. In view of these points, it is possible to recognize with high accuracy whether or not the object represented by the high luminance region extracted from the captured image by the determination method as described above is a quadruped.

さらに、閉要素により囲まれた低輝度画素群または低輝度領域の形状が指定形状に該当することを要件として、当該閉要素が抽出された対象物が四足動物に該当すると判定される(図5/STEP106,STEP114,STEP122,図7(c)参照)。これにより、前脚および後脚が交差しているまたは前脚および後脚のそれぞれの接地部位が近接した状態における横向きの四足動物が観察された場合における、その胴体の少なくとも一部と、当該前脚および後脚とにより囲まれた領域の標準的な形状に鑑みて、前記のような判定手法により撮像画像から抽出された高輝度領域により表わされる対象物が四足動物であるか否かがさらに高精度で認識されうる。   Furthermore, on the condition that the shape of the low luminance pixel group or the low luminance region surrounded by the closed element corresponds to the specified shape, it is determined that the object from which the closed element is extracted corresponds to a quadruped animal (FIG. 5 / STEP 106, STEP 114, STEP 122, see FIG. 7C). Accordingly, when a lateral quadruped animal is observed in a state where the front legs and the rear legs cross each other or the ground contact parts of the front legs and the rear legs are close to each other, the front legs and the rear legs In view of the standard shape of the region surrounded by the hind legs, it is even higher whether the object represented by the high luminance region extracted from the captured image by the determination method as described above is a quadruped animal. Can be recognized with accuracy.

なお、前記実施形態では対象物領域Aが画像横方向に走査されることにより横線分が探索され、当該横線分の合計判定フラグΣfの評価結果に基づいて閉要素の有無が判定されたが、対象物領域Aが画像縦方向に走査されることにより縦線分(負エッジ点から、一の低輝度画素または縦に連続した複数の低輝度画素群を経て正エッジ点までのびる画素線分)が探索され、当該縦線分の合計判定フラグの評価結果に基づいて閉要素の有無が判定されてもよい。また、閉要素の有無が対象物領域Aにおける高輝度領域の一部と、メモリにあらかじめ保存または格納されているテンプレートとの相関値が基準値を超えているか否かに応じて、対象物領域Aの閉要素の有無が判定されてもよい。各種テンプレートとして、基準要素の形状、サイズおよび配置(間隔など)のうち一部または全部が異なる複数パターンのテンプレートが準備されていてもよい。テンプレートは赤外線カメラ2R、2Lにより撮像された、横向きの犬、鹿、馬等の特定種類の四足動物の画像に基づいて作成されてもよい。対象物領域Aから抽出された高輝度領域が細線化処理された上で得られた細線化画像の形状に基づき、閉要素の有無が判定されてもよい。   In the embodiment, the horizontal line segment is searched by scanning the object region A in the horizontal direction of the image, and the presence or absence of the closed element is determined based on the evaluation result of the total determination flag Σf of the horizontal line segment. Vertical line segment by scanning the object area A in the vertical direction of the image (pixel line segment extending from the negative edge point to the positive edge point through one low-luminance pixel or a plurality of low-luminance groups that are vertically continuous) May be searched, and the presence or absence of a closed element may be determined based on the evaluation result of the total determination flag for the vertical line segment. Further, depending on whether or not the correlation value between a part of the high brightness area in the object area A and the template stored or stored in advance in the memory exceeds the reference value, the object area The presence or absence of the A closed element may be determined. As various templates, templates of a plurality of patterns in which some or all of the shapes, sizes, and arrangements (intervals) of the reference elements are different may be prepared. The template may be created based on an image of a specific kind of quadruped animal such as a sideways dog, deer, or horse imaged by the infrared cameras 2R and 2L. The presence / absence of a closed element may be determined based on the shape of a thinned image obtained by thinning the high-intensity region extracted from the object region A.

前記実施形態では閉要素により囲まれた低輝度領域または低輝度画素群の形状が指定形状に該当するか否かが、その縦幅LHおよび横幅LWに基づいて判定されたが、画像縦方向について横線分の長さの変化パターンに基づき、当該低輝度画素群の形状が判別されてもよい。たとえば、低輝度領域が下端部から上に向かうにつれて連続的または断続的に幅広となった後、上端部に向かうにつれて連続的または断続的に幅狭となるような指定形状であることが判定されてもよい。   In the embodiment, whether or not the shape of the low-luminance region or the low-luminance pixel group surrounded by the closed element corresponds to the specified shape is determined based on the vertical width LH and the horizontal width LW. The shape of the low luminance pixel group may be determined based on the change pattern of the length of the horizontal line segment. For example, it is determined that the low-luminance region has a specified shape that continuously or intermittently widens as it goes from the lower end to the upper end, and then continuously or intermittently becomes narrower as it goes to the upper end. May be.

本発明の車両周辺監視装置の構成説明図Configuration explanatory diagram of the vehicle periphery monitoring device of the present invention 車両周辺監視装置が搭載されている車両に関する説明図Explanatory drawing about a vehicle equipped with a vehicle periphery monitoring device 車両周辺監視装置を構成する画像処理ユニットの機能を示すフローチャートFlow chart showing functions of image processing unit constituting vehicle periphery monitoring device 車両周辺監視装置を構成する画像処理ユニットの機能を示すフローチャートFlow chart showing functions of image processing unit constituting vehicle periphery monitoring device 対象物分類処理を示すフローチャートFlow chart showing object classification processing 対象物領域に関する説明図Explanatory drawing about the object area 閉要素の有無判定方法に関する説明図Explanatory drawing regarding the method for determining the presence or absence of closed elements 対象物の形状変化態様に関する説明図Explanatory drawing about the shape change mode of the object

符号の説明Explanation of symbols

1‥画像処理ユニット(対象物領域抽出手段、対象物分類手段)、2R,2L‥赤外線カメラ(撮像手段) 1. Image processing unit (object area extraction means, object classification means), 2R, 2L, infrared camera (imaging means)

Claims (2)

車両に搭載された撮像手段によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置であって、
前記撮像画像から対象物が存在する領域を対象物領域として抽出する対象物領域抽出手段と、
前記対象物領域抽出手段により抽出された前記対象物領域から、低輝度画素群を囲む高輝度画素群から構成されている閉要素と、前記閉要素の下部が開裂した形状の開要素とが異なる時刻に抽出されることを要件として、前記対象物が前記四足動物に該当すると判定する対象物分類手段とを備えていることを特徴とする車両周辺監視装置。
A vehicle periphery monitoring device that monitors the periphery of a vehicle using a captured image obtained by an imaging means mounted on the vehicle,
An object area extracting means for extracting an area where the object exists from the captured image as an object area;
From the object region extracted by the object region extracting means, a closed element composed of a high luminance pixel group surrounding a low luminance pixel group is different from an open element having a shape in which the lower part of the closed element is cleaved. A vehicle periphery monitoring device comprising: an object classification unit that determines that the object corresponds to the quadruped animal, on the condition that the object is extracted at a time.
車両に搭載された撮像手段によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置であって、
前記撮像画像から対象物が存在する領域を対象物領域として抽出する対象物領域抽出手段と、
前記対象物領域抽出手段により抽出された前記対象物領域から、低輝度画素群を囲む高輝度画素群から構成されている閉要素が断続的に抽出されることを要件として、前記対象物が四足動物に該当すると判定する対象物分類手段とを備えていることを特徴とする車両周辺監視装置。
A vehicle periphery monitoring device that monitors the periphery of a vehicle using a captured image obtained by an imaging means mounted on the vehicle,
An object area extracting means for extracting an area where the object exists from the captured image as an object area;
The requirement is that a closed element composed of a group of high-luminance pixels surrounding a group of low-luminance pixels is intermittently extracted from the object region extracted by the object region extraction means. A vehicle periphery monitoring device comprising: an object classification unit that determines that the animal corresponds to a foot animal.
JP2008264432A 2008-10-10 2008-10-10 Vehicle periphery monitoring device Expired - Fee Related JP5004919B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008264432A JP5004919B2 (en) 2008-10-10 2008-10-10 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008264432A JP5004919B2 (en) 2008-10-10 2008-10-10 Vehicle periphery monitoring device

Publications (3)

Publication Number Publication Date
JP2010092429A true JP2010092429A (en) 2010-04-22
JP2010092429A5 JP2010092429A5 (en) 2010-08-19
JP5004919B2 JP5004919B2 (en) 2012-08-22

Family

ID=42255049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008264432A Expired - Fee Related JP5004919B2 (en) 2008-10-10 2008-10-10 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP5004919B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013073311A (en) * 2011-09-27 2013-04-22 Honda Motor Co Ltd Object type determination device
JP2014010641A (en) * 2012-06-29 2014-01-20 Honda Motor Co Ltd Vehicle periphery monitoring device
WO2016185653A1 (en) * 2015-05-19 2016-11-24 株式会社デンソー Protection control apparatus
EP3101641A1 (en) 2015-06-05 2016-12-07 Toyota Jidosha Kabushiki Kaisha Collision avoidance assistance device for a vehicle

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004295798A (en) * 2003-03-28 2004-10-21 Japan Best Rescue System Kk Security system
JP2007310705A (en) * 2006-05-19 2007-11-29 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2008021035A (en) * 2006-07-11 2008-01-31 Fujitsu Ten Ltd Image recognition device, image recognition method, and vehicle control device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004295798A (en) * 2003-03-28 2004-10-21 Japan Best Rescue System Kk Security system
JP2007310705A (en) * 2006-05-19 2007-11-29 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2008021035A (en) * 2006-07-11 2008-01-31 Fujitsu Ten Ltd Image recognition device, image recognition method, and vehicle control device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013073311A (en) * 2011-09-27 2013-04-22 Honda Motor Co Ltd Object type determination device
JP2014010641A (en) * 2012-06-29 2014-01-20 Honda Motor Co Ltd Vehicle periphery monitoring device
WO2016185653A1 (en) * 2015-05-19 2016-11-24 株式会社デンソー Protection control apparatus
JP2016215786A (en) * 2015-05-19 2016-12-22 株式会社デンソー Protection control device
EP3101641A1 (en) 2015-06-05 2016-12-07 Toyota Jidosha Kabushiki Kaisha Collision avoidance assistance device for a vehicle
US9849876B2 (en) 2015-06-05 2017-12-26 Toyota Jidosha Kabushiki Kaisha Collision avoidance assistance device for a vehicle

Also Published As

Publication number Publication date
JP5004919B2 (en) 2012-08-22

Similar Documents

Publication Publication Date Title
JP5198346B2 (en) Vehicle periphery monitoring device
JP4173901B2 (en) Vehicle periphery monitoring device
JP5639282B2 (en) Vehicle periphery monitoring device
JP5577398B2 (en) Vehicle periphery monitoring device
US9235990B2 (en) Vehicle periphery monitoring device
JP4173902B2 (en) Vehicle periphery monitoring device
WO2010050090A1 (en) System for monitoring the area around a vehicle
JP4171501B2 (en) Vehicle periphery monitoring device
JP4377439B1 (en) Vehicle periphery monitoring device
JP5480925B2 (en) Vehicle periphery monitoring device
JP4528283B2 (en) Vehicle periphery monitoring device
JP4644273B2 (en) Vehicle periphery monitoring device
JP5004919B2 (en) Vehicle periphery monitoring device
JP2007128460A (en) Collision determination system, collision determination method, computer program, and determination device
JP5004903B2 (en) Vehicle periphery monitoring device
JP5502149B2 (en) Vehicle periphery monitoring device
JP4615061B2 (en) Vehicle periphery monitoring device
JP5004882B2 (en) Vehicle periphery monitoring device
JP5383246B2 (en) Vehicle periphery monitoring device
JP2010092437A (en) Vehicle periphery monitoring device
JP5026398B2 (en) Vehicle periphery monitoring device
JP5907849B2 (en) Vehicle periphery monitoring device
JP4972073B2 (en) Environment recognition device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100701

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120306

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120515

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120522

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150601

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees