JP5885640B2 - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP5885640B2
JP5885640B2 JP2012243943A JP2012243943A JP5885640B2 JP 5885640 B2 JP5885640 B2 JP 5885640B2 JP 2012243943 A JP2012243943 A JP 2012243943A JP 2012243943 A JP2012243943 A JP 2012243943A JP 5885640 B2 JP5885640 B2 JP 5885640B2
Authority
JP
Japan
Prior art keywords
animal
image
specific part
candidate image
pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012243943A
Other languages
Japanese (ja)
Other versions
JP2014093000A (en
Inventor
誠 相村
誠 相村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2012243943A priority Critical patent/JP5885640B2/en
Publication of JP2014093000A publication Critical patent/JP2014093000A/en
Application granted granted Critical
Publication of JP5885640B2 publication Critical patent/JP5885640B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、カメラによる撮像画像に基づいて車両の周辺に存在する動物を監視する車両周辺監視装置に関する。   The present invention relates to a vehicle periphery monitoring device that monitors animals existing around a vehicle based on an image captured by a camera.

従来より、車両に搭載された赤外線カメラにより撮像された車両周辺の画像から、動物の画像部分を抽出して、車両周辺に現れる動物を監視するようにした車両周辺監視装置が提案されている(例えば、特許文献1参照)。   Conventionally, a vehicle periphery monitoring device has been proposed in which an animal image portion is extracted from an image around a vehicle captured by an infrared camera mounted on the vehicle to monitor animals appearing around the vehicle ( For example, see Patent Document 1).

特許文献1に記載された車両周辺監視装置においては、時系列の撮像画像から同一の対象物の画像部分を抽出して時刻間追跡を行い、時系列の撮像画像間における同一対象物の脚部の画像部分の幅が、周期性を有する変化をしているか否かを判断することによって、対象物が動物であるか否かを判定している。   In the vehicle periphery monitoring device described in Patent Document 1, an image portion of the same object is extracted from a time-series captured image, tracking is performed between time points, and legs of the same object between time-series captured images are detected. It is determined whether or not the object is an animal by determining whether or not the width of the image portion is changing with periodicity.

特開2009−42941号公報(第21頁、第12図)Japanese Unexamined Patent Publication No. 2009-42941 (page 21, FIG. 12)

特許文献1に記載された車両周辺監視装置は、時系列の撮像画像において、同一対象物の画像部分が周期性を有する変化をしているか否かを判断するものであるため、対象物が動物であるか否かの判定にはある程度の時間を要する。   Since the vehicle periphery monitoring device described in Patent Document 1 determines whether or not the image portion of the same object has a periodic change in a time-series captured image, the object is an animal. It takes some time to determine whether or not.

本発明はかかる背景に鑑みてなされたものであり、対象物が動物であるか否かの判定に要する時間を短縮することができる車両周辺監視装置を提供することを目的とする。   The present invention has been made in view of such a background, and an object of the present invention is to provide a vehicle periphery monitoring device that can shorten the time required to determine whether or not an object is an animal.

本発明は上記目的を達成するためになされたものであり、本発明の車両周辺監視装置は、
車両に搭載されたカメラにより撮像される時系列の撮像画像から、動物の可能性がある同一対象物の画像部分を、動物候補画像部分として抽出する動物候補画像部分抽出部と、
前記動物候補画像部分から、動物の特定部位の画像部分を抽出する特定部位抽出部と、
前記時系列の撮像画像間で、前記動物候補画像部分抽出部により抽出された同一対象物の一対の前記動物候補画像部分間において、前記特定部位抽出部により前記特定部位の画像部分が抽出される特定部位抽出状態と、特定部位抽出部により前記特定部位の画像部分が抽出されない特定部位非抽出状態とが切り替わったときに、該一対の前記動物候補画像部分に対応する実空間上の対象物が動物であると判定する動物判定部と
を備えたことを特徴とする(第1発明)。
The present invention has been made to achieve the above object, and the vehicle periphery monitoring device of the present invention comprises:
An animal candidate image part extraction unit that extracts, as an animal candidate image part, an image part of the same object that may be an animal from a time-series captured image captured by a camera mounted on a vehicle;
A specific part extraction unit for extracting an image part of a specific part of an animal from the animal candidate image part;
An image portion of the specific part is extracted by the specific part extraction unit between the pair of animal candidate image parts of the same object extracted by the animal candidate image part extraction unit between the time-series captured images. When the specific part extraction state and the specific part non-extraction state in which the image part of the specific part is not extracted by the specific part extraction unit are switched, the object in the real space corresponding to the pair of animal candidate image parts is An animal determination unit that determines that the animal is an animal is provided (first invention).

第1発明によれば、時系列の撮像画像間で、前記動物候補画像部分が前記特定部位抽出状態と前記特定部位非抽出状態とに切り替わったときには、例えば、道路脇の茂にいて脚部が隠れていた動物が道路に飛び出して脚部が現れた場合や、道路脇で草を食べるために頭部を下げていた動物が頭部を上げた場合のように、脚部や頭部等の特定部位について、動物に特有の動作がなされたことが想定される。   According to the first invention, when the animal candidate image part is switched between the specific part extraction state and the specific part non-extraction state between time-series captured images, for example, the leg part is in a bush on a roadside. Legs, heads, etc., such as when a hidden animal jumps out on the road and a leg appears, or an animal that has lowered its head to eat grass by the road raises its head It is assumed that an action peculiar to an animal has been performed for a specific part.

そのため、前記動物判定部は、時系列の撮像画像間で抽出された同一対象物の一対の前記動物候補画像部分間において、前記特定部位抽出状態と前記特定部位非抽出状態とが切り替わったときに、前記一対の前記動物候補画像部分に対応する実空間上の対象物は、動物であると判定することができる。そして、この判定は二つの時系列の撮像画像に基づいて行うことができるため、ある程度の数の時系列の撮像画像に基づいて周期性から動物であることを判定する場合よりも、対象物が動物であるか否かの判定に要する時間を短縮することができる。   Therefore, when the specific part extraction state and the specific part non-extraction state are switched between the pair of animal candidate image parts of the same target object extracted between time-series captured images, the animal determination unit The object in real space corresponding to the pair of animal candidate image portions can be determined to be an animal. Since this determination can be performed based on two time-series captured images, the object is more likely to be an animal than a periodicity based on a certain number of time-series captured images. The time required for determining whether or not the animal is an animal can be shortened.

また、第1発明において、
前記特定部位抽出部は、前記特定部位の画像部分として脚部の画像部分を抽出し、
前記動物判定部は、前記一対の前記動物候補画像部分間において、前記特定部位抽出状態と前記特定部位非抽出状態とが切り替わり、且つ、前記一対の前記動物候補画像部分の周辺の領域の輝度の変化が第1所定レベル以上であるときに、前記一対の前記動物候補画像部分に対応する実空間上の対象物が動物であると判定することを特徴とする(第2発明)。
In the first invention,
The specific part extraction unit extracts an image part of a leg as an image part of the specific part,
The animal determination unit switches between the specific part extraction state and the specific part non-extraction state between the pair of animal candidate image parts, and the luminance of an area around the pair of animal candidate image parts. When the change is greater than or equal to a first predetermined level, it is determined that the object in real space corresponding to the pair of animal candidate image portions is an animal (second invention).

第2発明における前記特定部位は脚部であり、前記動物候補画像部分が前記特定部位非抽出状態と前記特定部位抽出状態とに切り替わったときには、前記動物候補画像部分が動物の画像部分であって、この動物が道路脇の茂みにいて脚部が草に隠れた状態から道路に飛び出して脚部が現れた場合や、その逆に道路から道路脇の茂みに飛び込んだような場合が想定される。そして、これらの場合には、動物の背景が道路脇の茂みから道路又は道路から道路脇の茂みへの変化するため、動物候補画像部分の周囲の輝度の変化が大きくなる。   In the second invention, the specific part is a leg, and when the animal candidate image part is switched between the specific part non-extraction state and the specific part extraction state, the animal candidate image part is an animal image part. , This animal is in the bush by the road, and when the leg is hidden in the grass, the leg appears by jumping to the road, or vice versa . In these cases, since the background of the animal changes from the roadside bush to the road or from the road to the roadside bush, the change in luminance around the animal candidate image portion increases.

そのため、前記動物判定部は、前記一対の前記動物候補画像部分間で、前記特定部位非抽出状態と前記特定部位抽出状態とが切り替わり、且つ、前記一対の前記動物候補画像部分の周辺の輝度の変化が第1所定レベル以上であるときに、前記一対の前記動物候補画像部分に対応する実空間上の対象物が動物であると判定することによって、動物の判定精度を高めることができる。   Therefore, the animal determination unit switches between the specific part non-extraction state and the specific part extraction state between the pair of animal candidate image parts, and brightness of the periphery of the pair of animal candidate image parts. By determining that the object in the real space corresponding to the pair of animal candidate image portions is an animal when the change is equal to or higher than the first predetermined level, it is possible to improve the accuracy of animal determination.

また、第1発明において、
前記特定部位抽出部は、前記特定部位の画像部分として頭部の画像部分を抽出し、
前記特定部位抽出部は、前記一対の前記動物候補画像部分間において、前記特定部位抽出状態と前記特定部位非抽出状態とが切り替わり、且つ、前記一対の前記動物候補画像部分の周辺の領域の輝度の変化が第2所定レベル未満であるときに、前記一対の前記動物候補画像部分に対応する実空間上の対象物が動物であると判定することを特徴とする(第3発明)。
In the first invention,
The specific part extraction unit extracts an image part of a head as an image part of the specific part;
The specific part extraction unit switches between the specific part extraction state and the specific part non-extraction state between the pair of animal candidate image parts, and brightness of a region around the pair of animal candidate image parts. When the change in is less than a second predetermined level, it is determined that the object in the real space corresponding to the pair of animal candidate image portions is an animal (third invention).

第3発明における前記特定部位は頭部であり、前記動物候補画像部分が前記特定部位非抽出状態と前記特定部位抽出状態とに切り替わったときには、前記動物候補画像部分が動物の画像部分であって、この動物が頭を下げて草を食べている状態から頭を上げた場合や、逆に頭を上げた状態から頭を下げて草を食べ始めたような場合が想定される。そして、これらの場合には、動物がいる場所は変化しないため、動物候補画像部分の周囲の輝度の変化は小さくなる。   In the third aspect, the specific part is a head, and when the animal candidate image part is switched between the specific part non-extraction state and the specific part extraction state, the animal candidate image part is an animal image part. It is assumed that the animal has raised its head from a state where its head is lowered and eats grass, or conversely, when it has started raising its head from a state where its head is raised, it begins to eat grass. In these cases, since the place where the animal is located does not change, the change in luminance around the candidate animal image portion is small.

そのため、前記動物判定部は、前記一対の前記動物候補画像部分間で、前記特定部位非抽出状態と前記特定部位抽出状態とが切り替わり、且つ、前記一対の前記動物候補画像部分の周辺の輝度の変化が第2所定レベル未満であるときに、前記一対の前記動物候補画像部分に対応する実空間上の対象物が動物であると判定することによって、動物の判定精度を高めることができる。   Therefore, the animal determination unit switches between the specific part non-extraction state and the specific part extraction state between the pair of animal candidate image parts, and brightness of the periphery of the pair of animal candidate image parts. By determining that the object in the real space corresponding to the pair of animal candidate image portions is an animal when the change is less than the second predetermined level, it is possible to improve the accuracy of animal determination.

車両周辺監視装置の車両への取付け態様の説明図。Explanatory drawing of the attachment aspect to the vehicle of a vehicle periphery monitoring apparatus. 車両周辺監視装置の構成図。The block diagram of a vehicle periphery monitoring apparatus. 車両周辺監視装置の第1の作動フローチャート。The 1st operation | movement flowchart of a vehicle periphery monitoring apparatus. 車両周辺監視装置の第2の作動フローチャート。The 2nd operation | movement flowchart of a vehicle periphery monitoring apparatus. 動物の画像部分の説明図。Explanatory drawing of the image part of an animal. 動物が道路脇から道路に飛び出した状況の撮像画像の説明図。Explanatory drawing of the captured image of the condition where the animal jumped out of the road side to the road. 動物が道路脇で草を食べている状況の撮像画像の説明図。Explanatory drawing of the captured image of the condition where the animal is eating grass by the roadside.

本発明の車両周辺監視装置の実施形態の一例について、図1〜図7を参照して説明する。図1を参照して、本実施形態の車両周辺監視装置10は、車両1に搭載して使用され、車両1には、遠赤外線を検出可能な赤外線カメラ2(本発明のカメラに相当する)が備えられている。   An example of an embodiment of a vehicle periphery monitoring device of the present invention will be described with reference to FIGS. Referring to FIG. 1, a vehicle periphery monitoring device 10 of this embodiment is used by being mounted on a vehicle 1, and the vehicle 1 includes an infrared camera 2 (corresponding to the camera of the present invention) capable of detecting far infrared rays. Is provided.

赤外線カメラ2は、遠赤外域に感度を有し、撮像される物体の温度が高いほど出力される映像信号のレベルが高くなる(映像信号の輝度が高くなる)特性を有している。赤外線カメラ2は、車両1の前方を撮像するために車両1の前部に取り付けられており、車両1の前部を原点Oとして、車両1の左右方向をX軸、上下方向をY軸、前後方向をZ軸とした実空間座標系が定義されている。なお、赤外線カメラ2に代えて、可視光等の他の波長域に感度を有するカメラを用いてもよい。   The infrared camera 2 has sensitivity in the far-infrared region, and has a characteristic that the level of the output video signal increases (the brightness of the video signal increases) as the temperature of the object to be imaged increases. The infrared camera 2 is attached to the front portion of the vehicle 1 in order to image the front of the vehicle 1. The front portion of the vehicle 1 is the origin O, the left-right direction of the vehicle 1 is the X axis, the vertical direction is the Y axis, A real space coordinate system in which the front-rear direction is the Z axis is defined. Instead of the infrared camera 2, a camera having sensitivity in other wavelength regions such as visible light may be used.

次に、図2を参照して、車両1には、車両1のヨーレートを検出するヨーレートセンサ31、車両1の走行速度を検出する車速センサ32、運転者によるブレーキの操作量を検出するブレーキセンサ33、音声による注意喚起等を行うためのスピーカ6、及び赤外線カメラ2により撮像された画像を表示すると共に、車両1に接触する可能性が高い物体を運転者に視認させる表示を行うためのヘッドアップディスプレイ(Head Up Display)7(以下、HUD7という)が接続されている。HUD7は、図1に示したように、車両1のフロントウインドウの運転者側の前方位置に画面7aが表示されるように設けられている。   Next, referring to FIG. 2, the vehicle 1 includes a yaw rate sensor 31 that detects the yaw rate of the vehicle 1, a vehicle speed sensor 32 that detects the traveling speed of the vehicle 1, and a brake sensor that detects the amount of brake operation by the driver. 33, a head 6 for displaying an image picked up by the speaker 6 for performing alerting by voice and the like and the infrared camera 2 and for allowing the driver to visually recognize an object likely to contact the vehicle 1 An up display 7 (hereinafter referred to as HUD 7) is connected. As shown in FIG. 1, the HUD 7 is provided so that the screen 7 a is displayed at a front position on the driver side of the front window of the vehicle 1.

車両周辺監視装置10は、図示しないCPU,メモリ等により構成された電子回路ユニットであり、メモリに保持された車両周辺監視用の制御プログラムをCPUで実行することによって、撮像画像取得部11、対象物画像部分抽出部12(本発明の動物候補画像部分抽出部の機能を含む)、特定部位抽出部13、動物判定部14、及び警報処理部15として機能する。   The vehicle periphery monitoring device 10 is an electronic circuit unit configured by a CPU, a memory, and the like (not shown). By executing a vehicle periphery monitoring control program held in the memory by the CPU, the captured image acquisition unit 11, the target It functions as the object image partial extraction unit 12 (including the function of the animal candidate image partial extraction unit of the present invention), the specific part extraction unit 13, the animal determination unit 14, and the alarm processing unit 15.

車両周辺監視装置10は、赤外線カメラ2による撮像画像から、所定条件を満たす画像部分を、歩行者又は動物の画像部分である可能性がある画像部分(対象物画像部分)として抽出し、この画像部分に対応する実空間上の物体(対象物)の位置(実空間位置)を、ヨーレートセンサ31により検出される車両1のヨーレート及び車速センサ32により検出される車両1の走行速度等を用いて算出し、時系列の撮像画像間で同一対象物の画像部分を追跡して、実空間における物体の移動ベクトルを算出する。   The vehicle periphery monitoring apparatus 10 extracts an image portion that satisfies a predetermined condition from an image captured by the infrared camera 2 as an image portion (object image portion) that may be an image portion of a pedestrian or an animal, and this image. Using the yaw rate of the vehicle 1 detected by the yaw rate sensor 31 and the traveling speed of the vehicle 1 detected by the vehicle speed sensor 32, the position (real space position) of the object (object) in the real space corresponding to the portion is used. Calculate and track the image portion of the same object between time-series captured images to calculate the movement vector of the object in real space.

そして、車両周辺監視装置10は、移動ベクトルに基づいて物体を注意喚起の対象とするか否かを判断し、ブレーキセンサ33の検出信号から認識されるブレーキの操作状況等を考慮して、スピーカ6からの音声出力及びHUD7への強調表示による注意喚起を行うか否かを決定する。なお、移動ベクトルに基づく注意喚起の処理は、例えば特開2007−213561等に記載された従来手法を用いて行われる。   Then, the vehicle periphery monitoring device 10 determines whether or not the object is to be alerted based on the movement vector, and considers the operation state of the brake recognized from the detection signal of the brake sensor 33, and the like. It is determined whether or not to alert by voice output from 6 and highlighting on HUD7. Note that the alerting process based on the movement vector is performed using a conventional method described in, for example, Japanese Patent Application Laid-Open No. 2007-213561.

また、車両周辺監視装置10は、対象物の種別(車両・人工構造物、歩行者、動物等)を識別して、対象物の種別に応じた監視処理を行う。以下、図3に示したフローチャートに従って、車両周辺監視装置10による対象物の監視処理(特に動物の判定処理)について説明する。車両周辺監視装置10は、図3に示したフローチャートによる処理を、所定の制御サイクル毎に繰り返し実行して、車両1の周辺に存在する対象物を監視する。   In addition, the vehicle periphery monitoring device 10 identifies the type of object (vehicle / artificial structure, pedestrian, animal, etc.) and performs monitoring processing according to the type of object. Hereinafter, the object monitoring process (particularly, the animal determination process) by the vehicle periphery monitoring apparatus 10 will be described with reference to the flowchart shown in FIG. The vehicle periphery monitoring apparatus 10 repeatedly performs the process according to the flowchart shown in FIG. 3 for each predetermined control cycle, and monitors objects existing around the vehicle 1.

図3のSTEP1は撮像画像取得部11による処理である。撮像画像取得部11は、赤外線カメラ2から出力される映像信号を入力し、この映像信号をデジタルの階調(輝度)データに変換したグレースケール画像を画像メモリに取り込む。   STEP 1 in FIG. 3 is processing by the captured image acquisition unit 11. The captured image acquisition unit 11 inputs a video signal output from the infrared camera 2, and takes in a grayscale image obtained by converting the video signal into digital gradation (luminance) data into an image memory.

続くSTEP2は対象物画像部分抽出部12による処理である。対象物画像部分抽出部12は、グレースケール画像の各画素について、輝度が所定の閾値以上である画素を「1」(白)とし、輝度が閾値よりも低い画素を「0」(黒)とする2値化処理を行って2値画像を生成する。   The subsequent STEP 2 is processing by the object image partial extraction unit 12. The object image partial extraction unit 12 sets, for each pixel of the grayscale image, a pixel whose luminance is equal to or higher than a predetermined threshold as “1” (white) and a pixel whose luminance is lower than the threshold as “0” (black). A binarization process is performed to generate a binary image.

そして、対象物画像部分抽出部12は、2値画像中の白の各領域のランレングスデータを算出し、ラベリング処理等を行って白の画像部分を対象物画像部分(本発明の動物候補画像部分を含む)として抽出する。なお、対象物画像部分抽出部12は、基本的には白の画素が隣接している領域を一つの対象物画像部分として抽出するが、接近した白の画素についても、一つの対象物画像部分にまとめて抽出してもよい。なお、このように、対象物画像部分抽出部12が、動物の画像部分である可能性がある対象物画像部分を抽出する構成は、本発明の動物候補画像部分抽出部に相当する。   Then, the object image portion extraction unit 12 calculates run length data of each white region in the binary image, performs a labeling process or the like, and converts the white image portion into the object image portion (animal candidate image of the present invention). Extract as part). The object image portion extraction unit 12 basically extracts an area where white pixels are adjacent to each other as one object image portion. However, one object image portion is also detected for the approaching white pixels. May be extracted in batches. In this way, the configuration in which the object image part extraction unit 12 extracts an object image part that may be an animal image part corresponds to the animal candidate image part extraction unit of the present invention.

続くSTEP3〜STEP6で、車両周辺監視装置10は、対象物(対象物画像部分に対応する実空間上の対象物)が構造物(他車両、電柱等)又は歩行者であるか否かを判定する。先ずSTEP3で、車両周辺監視装置10は、対象物が構造物であるか否かを判定する。ここで、対象物が構造物であるか否かの判定は、例えば、特開2007−310705号公報等に記載された公知の手法を用いて行うことができる。   In subsequent STEP3 to STEP6, the vehicle periphery monitoring device 10 determines whether the object (the object in the real space corresponding to the object image portion) is a structure (another vehicle, a utility pole, etc.) or a pedestrian. To do. First, in STEP 3, the vehicle periphery monitoring device 10 determines whether or not the object is a structure. Here, the determination of whether or not the object is a structure can be performed using a known method described in, for example, Japanese Patent Application Laid-Open No. 2007-310705.

そして、対象物が構造物であると判断されたときは、次のSTEP4でSTEP9に分岐し、警報処理部15による警報処理は実行されない。一方、対象物が構造物でないと判定されたときには、次のSTEP4からSTEP5に進む。   When it is determined that the object is a structure, the process branches to STEP 9 in the next STEP 4 and the alarm processing by the alarm processing unit 15 is not executed. On the other hand, when it is determined that the object is not a structure, the process proceeds from STEP4 to STEP5.

STEP5で、車両周辺監視装置10は、対象物が歩行者であるか否かを判定する。ここで、対象物が歩行者であるか否かの判定は、上記特開2007−310705号公報等に記載された公知の手法を用いて行うことができる。   In STEP 5, the vehicle periphery monitoring device 10 determines whether or not the object is a pedestrian. Here, the determination of whether or not the object is a pedestrian can be performed using a known method described in the above-mentioned Japanese Patent Application Laid-Open No. 2007-310705.

そして、対象物が歩行者であると判定されたときは、次のSTEP6でSTEP20に分岐し、実空間上の対象物の移動ベクトルから、対象物と車両1が接触する可能性が高いと判断されるときには、警報処理部15が警報処理を行う。一方、対象物が歩行者ではないと判定されたときには、次のSTEP6からSTEP7に進む。   And when it determines with a target object being a pedestrian, it branches to STEP20 at the next STEP6, and it determines that there exists a high possibility that a target object and the vehicle 1 will contact from the movement vector of the target object in real space. When it is done, the alarm processing unit 15 performs alarm processing. On the other hand, when it is determined that the object is not a pedestrian, the process proceeds from STEP6 to STEP7.

ここで、警報処理部15は、警報処理として、HUD7により表示される撮像画像の画面7aにおいて、歩行者の画像部分に強調枠を重畳表示する処理と、歩行者に対する注意を促す音声をスピーカ6から出力する処理とを行う。   Here, the alarm processing unit 15 performs a process for displaying an emphasis frame superimposed on the image portion of the pedestrian on the screen 7a of the captured image displayed by the HUD 7 as an alarm process, and a sound for prompting attention to the pedestrian 6 Process to output from.

STEP7の「動物認識」は、特定部位抽出部13と動物判定部14による処理である。「動物認識」の処理の詳細については後述する。   The “animal recognition” in STEP 7 is processing by the specific part extraction unit 13 and the animal determination unit 14. Details of the “animal recognition” process will be described later.

対象物が動物であると判定されたときは、次のSTEP8でSTEP30に分岐する。STEP30は警報処理部15による処理である。警報処理部15は、上記STEP20と同様にして、動物に対する運転者の注意喚起を促すための警報処理を行う。   If it is determined that the object is an animal, the process branches to STEP 30 in the next STEP 8. STEP 30 is processing by the alarm processing unit 15. In the same manner as in STEP 20 above, the alarm processing unit 15 performs alarm processing for prompting the driver to call attention to animals.

一方、対象物が動物ではないと判定されたときにはSTEP9に進み、車両周辺監視装置10は、図3に示したフローチャートによる1制御サイクルの処理を終了する。   On the other hand, when it is determined that the object is not an animal, the process proceeds to STEP 9, and the vehicle periphery monitoring apparatus 10 ends the process of one control cycle according to the flowchart shown in FIG.

次に、図4に示したフローチャートに従って、図3のSTEP7における「動物認識」の処理について説明する。   Next, the “animal recognition” process in STEP 7 of FIG. 3 will be described according to the flowchart shown in FIG.

図4のSTEP50は特定部位抽出部13による処理である。特定部位抽出部13は、図3のSTEP4で構造物ではないと判定され、且つ、STEP6で歩行者ではないと判定された対象物の画像部分(動物候補画像部分)について、図5(a)に示したように、動物候補画像部分20の頭部の画像部分21、胴部の画像部分22、及び脚部の画像部分(前脚の画像部分23、後脚の画像部分24)を抽出する処理を実行する。なお、頭部及び脚部は、本発明の特定部位に相当する。   STEP 50 in FIG. 4 is processing by the specific part extraction unit 13. The specific part extracting unit 13 determines the image portion (animal candidate image portion) of the target object that is determined not to be a structure in STEP 4 in FIG. 3 and is determined not to be a pedestrian in STEP 6 in FIG. As shown in FIG. 4, the head image portion 21, the torso image portion 22, and the leg image portion (the front leg image portion 23, the rear leg image portion 24) of the animal candidate image portion 20 are extracted. Execute. Note that the head and legs correspond to specific parts of the present invention.

ここで、頭部、胴部、脚部の画像部分の抽出は、例えば、上記特開2007−310705号公報等に記載された、各部の相対的な位置関係、各部の形状等に基づく公知の手法を用いて行うことができる。   Here, the extraction of the image portion of the head, the trunk, and the leg is, for example, publicly known based on the relative positional relationship of each part, the shape of each part, and the like described in Japanese Patent Application Laid-Open No. 2007-310705. This can be done using techniques.

続くSTEP51以降は、動物判定部14による処理である。動物判定部14は、STEP51で、特定部位抽出部13により動物候補画像部分から頭・胴・脚の全ての画像部分が抽出されたが否かを判断する。そして、全ての部分が抽出されたときは、STEP52に進んで、この動物候補画像部分が動物の画像部分(対応する実空間上の対象物が動物)であると判定する。   Subsequent STEP 51 and subsequent steps are processing by the animal determination unit 14. In STEP 51, the animal determination unit 14 determines whether or not all the image portions of the head, torso, and legs have been extracted from the candidate animal image portion by the specific part extraction unit 13. When all the parts have been extracted, the process proceeds to STEP 52, where it is determined that this animal candidate image part is an animal image part (the corresponding object in the real space is an animal).

一方、STEP50で、特定部位抽出部13により、動物候補画像部分から頭・胴・脚の全ての画像部分が抽出されなかったとき(例えば、図5(b)に示したように、動物候補画像部分30の頭部31及び胴部32の画像部分のみが抽出され、脚部33,34の画像部分が抽出されなかったとき)には、STEP51からSTEP60に分岐する。STEP60で、動物判定部14は、連続する所定数以上の制御サイクル(例えば、連続する3以上の制御サイクル)で、特定部位抽出部13により頭と胴又は胴と脚の画像部分が抽出されたか否かを判断する。   On the other hand, in STEP 50, when the specific part extraction unit 13 does not extract all the image parts of the head, torso, and legs from the animal candidate image part (for example, as shown in FIG. 5B, the animal candidate image When only the image portions of the head portion 31 and the trunk portion 32 of the portion 30 are extracted and the image portions of the legs 33 and 34 are not extracted), the process branches from STEP 51 to STEP 60. In STEP 60, the animal determination unit 14 determines whether the image portion of the head and torso or torso and leg has been extracted by the specific part extraction unit 13 in a predetermined number of control cycles (for example, three or more consecutive control cycles). Judge whether or not.

そして、連続する所定数以上の制御サイクルで、特定部位抽出部13により頭と胴又は胴と脚の画像部分が抽出されたときは上述のSTEP52に進み、抽出されなかったときにはSTEP70に分岐する。   If the head and torso or torso and leg image portions are extracted by the specific part extraction unit 13 in a predetermined number of control cycles or more, the process proceeds to STEP 52 described above, and if not extracted, the process branches to STEP 70.

STEP70で、動物判定部14は、前回の制御サイクルにおける撮像画像と今回の制御サイクルにおける撮像画像間で抽出された同一対象物の一対の画像部分(動物候補画像部分)間で、動物候補画像部分から脚部の画像部分が抽出される状態(特定部位抽出状態)と、動物候補画像部分から脚部の画像部分が抽出されない状態(特定部位非抽出状態)とが切り替わったか否かを判断する。   In STEP 70, the animal determination unit 14 determines an animal candidate image portion between a pair of image portions (animal candidate image portions) of the same object extracted between the captured image in the previous control cycle and the captured image in the current control cycle. It is determined whether or not the state in which the leg image portion is extracted from (the specific part extraction state) and the state in which the leg image portion is not extracted from the animal candidate image portion (the specific part non-extraction state) have been switched.

ここで、図6(a)は、ある制御サイクルにおける赤外線カメラ2の撮像画像Im1を例示したものであり、道路脇の茂みにいる動物(例えば、鹿等の野生動物)の画像部分40aが含まれている。この動物の脚部は茂みにより隠れており、画像部分40aからは胴部の画像部分42aのみが抽出され、頭部と脚部の画像部分は抽出されていない。   Here, FIG. 6A illustrates the captured image Im1 of the infrared camera 2 in a certain control cycle, and includes an image portion 40a of an animal (for example, a wild animal such as a deer) in a bush by the road. It is. The leg of this animal is hidden by bushes, and only the image part 42a of the trunk is extracted from the image part 40a, and the image part of the head and legs is not extracted.

また、図6(b)は、図6(a)の次の制御サイクルにおける赤外線カメラ2の撮像画像Im2を例示したものであり、道路脇の茂みから道路内に飛び出した動物の画像部分40bが含まれている。画像部分40bには、胴部の画像部分42bに加えて、図6(a)の画像部分40aでは隠れていた脚部の画像部分43b,44bも含まれている。   FIG. 6B illustrates the captured image Im2 of the infrared camera 2 in the next control cycle of FIG. 6A. An image portion 40b of an animal that has jumped into the road from a bush by the road is shown in FIG. include. The image portion 40b includes leg image portions 43b and 44b that are hidden in the image portion 40a of FIG. 6A in addition to the body image portion 42b.

また、動物判定部14は、図6(a)の画像部分40aの右側に右輝度判定エリア50aを設定すると共に、画像部分40aの左側に左輝度判定エリア51aを設定する。同様に、動物判定部14は、図6(b)の画像部分40bの右側に右輝度判定エリア50bを設定すると共に、画像部分40bの左側に左輝度判定エリア51bを設定する。   The animal determination unit 14 sets a right luminance determination area 50a on the right side of the image portion 40a in FIG. 6A and sets a left luminance determination area 51a on the left side of the image portion 40a. Similarly, the animal determination unit 14 sets the right luminance determination area 50b on the right side of the image portion 40b in FIG. 6B and sets the left luminance determination area 51b on the left side of the image portion 40b.

図6(a),図6(b)に示したように、時系列の撮像画像Im1,Im2で抽出された同一の対象物の画像部分40a,40bについて、脚部の画像部分が抽出されない特定部位非抽出状態(図6(a))から、脚部の画像部分43b,44bが抽出される特定部位抽出状態(図6(b))に切り替わったときには、画像部分40a,40bが動物の画像部分である可能性が高いと判断することができる。   As shown in FIG. 6A and FIG. 6B, for the image portions 40a and 40b of the same object extracted from the time-series captured images Im1 and Im2, the leg image portion is not extracted. When the part non-extraction state (FIG. 6A) is switched to the specific part extraction state in which the leg image portions 43b and 44b are extracted (FIG. 6B), the image portions 40a and 40b are images of animals. It can be determined that there is a high possibility of being a part.

そこで、STEP70で脚部の画像部分の抽出の有無の変化があったときはSTEP71に進み、脚部の画像部分の抽出の有無の変化がなかったときにはSTEP80に分岐する。STEP71で、動物判定部14は、一対の動物候補画像部分間において、周辺の輝度変化が第1所定レベル以上であるか否かを判断する。   Therefore, if there is a change in the presence or absence of extraction of the leg image part in STEP 70, the process proceeds to STEP 71, and if there is no change in the presence or absence of extraction of the leg image part, the process branches to STEP 80. In STEP 71, the animal determination unit 14 determines whether or not the surrounding luminance change is equal to or higher than the first predetermined level between the pair of animal candidate image portions.

図6(a)及び図6(b)においては、図6(a)で設定された右輝度判定エリア50a及び左輝度判定エリア51aは、茂みの画像部分であるのに対し、図6(b)で設定された右輝度判定エリア50b及び左輝度判定エリア51bは、道路の画像部分である。そのため、図6(a)の右輝度判定エリア50a及び左輝度判定エリア51aと、図6(b)の右輝度判定エリア50b及び左輝度判定エリア51bとの間の温度の相違による輝度変化が大きくなる。   6 (a) and 6 (b), the right luminance determination area 50a and the left luminance determination area 51a set in FIG. 6 (a) are bush image portions, whereas FIG. The right luminance determination area 50b and the left luminance determination area 51b set in (2) are road image portions. Therefore, the luminance change due to the temperature difference between the right luminance determination area 50a and the left luminance determination area 51a in FIG. 6A and the right luminance determination area 50b and the left luminance determination area 51b in FIG. 6B is large. Become.

そのため、図6(a)の右輝度判定エリア50a及び左輝度判定エリア51aの輝度(例えば、両エリア50a,51aの平均輝度)と、図6(b)の右輝度判定エリア50b及び左輝度判定エリア51bの輝度(例えば、両エリア50b,51bの平均輝度)との間の温度による輝度の変化が大きくなる。   Therefore, the luminance of the right luminance determination area 50a and the left luminance determination area 51a in FIG. 6A (for example, the average luminance of both the areas 50a and 51a), and the right luminance determination area 50b and the left luminance determination in FIG. A change in luminance due to temperature between the luminance of the area 51b (for example, the average luminance of both the areas 50b and 51b) increases.

よって、STEP71で、時系列の撮像画像間における同一対象物の一対の動物候補画像部分の周辺の輝度変化が第1所定レベル以上であるときには、この一対の動物候補画像部分が動物の画像部分である可能性がさらに高いと判断することができる。そこで、この場合にはSTEP52に進み、動物判定部14は、一対の動物候補画像部分に対応する実空間上の対象物は動物であると判定する。   Therefore, in STEP 71, when the luminance change around the pair of animal candidate image portions of the same object between time-series captured images is equal to or higher than the first predetermined level, the pair of animal candidate image portions is an animal image portion. It can be determined that there is a higher possibility. Therefore, in this case, the process proceeds to STEP 52, and the animal determination unit 14 determines that the object in the real space corresponding to the pair of animal candidate image portions is an animal.

一方、STEP71で、時系列の撮像画像間における同一対象物の一対の動物候補画像部分の周辺の輝度変化が第1所定レベル未満であったときにはSTEP90に分岐し、動物判定部14は、一対の動物候補画像部分に対応する実空間上の対象物は動物ではないと判定する。   On the other hand, when the brightness change around the pair of candidate animal images of the same object between the time-series captured images is less than the first predetermined level in STEP 71, the process branches to STEP 90, and the animal determination unit 14 It is determined that the object in the real space corresponding to the animal candidate image portion is not an animal.

次に、STEP80で、動物判定部14は、前回の制御サイクルにおける撮像画像と今回の制御サイクルにおける撮像画像間で抽出された同一対象物の一対の動物候補画像部分間で、動物候補画像部分から頭部の画像部分が抽出される状態(特定部位抽出状態)と、動物候補画像部分から頭部の画像部分が抽出されない状態(特定部位非抽出状態)とが切り替わったか否かを判断する。   Next, in STEP 80, the animal determination unit 14 starts from the animal candidate image portion between the pair of animal candidate image portions of the same object extracted between the captured image in the previous control cycle and the captured image in the current control cycle. It is determined whether or not the state in which the head image part is extracted (specific part extraction state) and the state in which the head image part is not extracted from the animal candidate image part (specific part non-extraction state) have been switched.

ここで、図7(a)は、ある制御サイクルにおける赤外線カメラ2の撮像画像Im3を例示したものであり、道路脇の茂みにいる動物(例えば、鹿等の野生動物)の画像部分60aが含まれている。この動物の脚部は茂みにより隠れており、画像部分60aからは胴部の画像部分62aのみが抽出され、頭部と脚部の画像部分は抽出されていない。   Here, FIG. 7A illustrates a captured image Im3 of the infrared camera 2 in a certain control cycle, and includes an image portion 60a of an animal (for example, a wild animal such as a deer) in a bush by the road. It is. The leg of this animal is hidden by bushes, and only the image part 62a of the trunk is extracted from the image part 60a, and the image part of the head and legs is not extracted.

また、図7(b)は、図7(a)の次の制御サイクルにおける赤外線カメラ2の撮像画像Im4を示したものであり、動物の画像部分60bが含まれている。図7(a)の画像部分60aと図7(b)の画像部分60bは、同一対象物の画像部分である。画像部分60bでは、胴部の画像部分62bに加えて、図7(a)の画像部分60aでは隠れていた頭部の画像部分61bが含まれている。   FIG. 7B shows a captured image Im4 of the infrared camera 2 in the next control cycle of FIG. 7A, and includes an animal image portion 60b. An image portion 60a in FIG. 7A and an image portion 60b in FIG. 7B are image portions of the same object. The image portion 60b includes an image portion 61b of the head that is hidden in the image portion 60a of FIG. 7A in addition to the image portion 62b of the trunk.

また、動物判定部14は、図7(a)の画像部分60aの右側に右輝度判定エリア70aを設定すると共に、画像部分60aの左側に左輝度判定エリア71aを設定する。同様に、動物判定部14は、図7(b)の画像部分60bの右側に右輝度判定エリア70bを設定すると共に、画像部分60bの左側に左輝度判定エリア71bを設定する。   Further, the animal determination unit 14 sets the right luminance determination area 70a on the right side of the image portion 60a in FIG. 7A and sets the left luminance determination area 71a on the left side of the image portion 60a. Similarly, the animal determination unit 14 sets a right luminance determination area 70b on the right side of the image portion 60b in FIG. 7B and sets a left luminance determination area 71b on the left side of the image portion 60b.

図7(a),図7(b)に示したように、時系列の撮像画像Im3,Im4で抽出された同一の対象物の画像部分60a,60bについて、頭部の画像部分が抽出されない特定部位非抽出状態(図7(a))から、頭部の画像部分が抽出される特定部位抽出状態(図7(b))に切り替わったときには、画像部分60a,60bが動物の画像部分である可能性が高いと判断することができる。   As shown in FIGS. 7A and 7B, the head image portion is not extracted for the image portions 60a and 60b of the same object extracted from the time-series captured images Im3 and Im4. When the part non-extraction state (FIG. 7A) is switched to the specific part extraction state in which the head image portion is extracted (FIG. 7B), the image portions 60a and 60b are animal image portions. It can be determined that the possibility is high.

そこで、STEP80で頭部の画像部分の抽出の有無の変化があったときはSTEP81に進み、脚部の画像部分の抽出の有無の変化がなかったときにはSTEP90に分岐する。STEP81で、動物判定部14は、一対の動物候補画像部分間において、周辺の輝度変化が第2所定レベル未満であるか否かを判断する。   Therefore, if there is a change in the presence or absence of the extraction of the head image part in STEP 80, the process proceeds to STEP 81, and if there is no change in the presence or absence of the extraction of the leg image part, the process branches to STEP 90. In STEP 81, the animal determination unit 14 determines whether or not the surrounding luminance change is less than the second predetermined level between the pair of animal candidate image portions.

図7(a)及び図7(b)においては、画像部分60aと画像部分60bの位置が変化していないため、図7(a)で設定された右輝度判定エリア70a及び左輝度判定エリア71aと、図7(b)で設定された右輝度判定エリア70b及び左輝度判定エリア71bの位置も変化していない。   In FIGS. 7A and 7B, the positions of the image portion 60a and the image portion 60b have not changed, so the right luminance determination area 70a and the left luminance determination area 71a set in FIG. 7A. The positions of the right luminance determination area 70b and the left luminance determination area 71b set in FIG. 7B are not changed.

そのため、図7(a)の右輝度判定エリア70a及び左輝度判定エリア71aの輝度(例えば、両エリア70a,71aの平均輝度)と、図7(b)の右輝度判定エリア70b及び左輝度判定エリア71bの輝度(例えば、両エリア70b,71bの平均輝度)との間の温度による輝度の変化が小さくなる。   Therefore, the luminance of the right luminance determination area 70a and the left luminance determination area 71a in FIG. 7A (for example, the average luminance of both areas 70a and 71a), and the right luminance determination area 70b and the left luminance determination of FIG. A change in luminance due to temperature between the luminance of the area 71b (for example, the average luminance of both the areas 70b and 71b) becomes small.

よって、STEP81で、時系列の撮像画像間における同一対象物の一対の動物候補画像部分の周辺の輝度変化が第2所定レベル未満であるときには、この一対の動物候補画像部分が動物の画像部分である可能性がさらに高いと判断することができる。そこで、この場合にはSTEP52に進み、動物判定部14は、一対の動物画像候補部分に対応する実空間上の対象物は動物であると判定する。   Therefore, in STEP 81, when the luminance change around the pair of animal candidate image portions of the same object between the time-series captured images is less than the second predetermined level, the pair of animal candidate image portions are the animal image portions. It can be determined that there is a higher possibility. In this case, the process proceeds to STEP 52, where the animal determination unit 14 determines that the object in the real space corresponding to the pair of animal image candidate portions is an animal.

一方、STEP81で、時系列画像間における同一対象物の画像部分の周辺の輝度変化が第2所定レベル以上であったときにはSTEP90に分岐し、動物判定部14は、一対の動物候補画像部分に対応する実空間上の対象物は動物ではないと判定する。   On the other hand, in STEP 81, when the luminance change around the image portion of the same object between time-series images is equal to or higher than the second predetermined level, the process branches to STEP 90, and the animal determination unit 14 corresponds to the pair of animal candidate image portions. It is determined that the object in the real space is not an animal.

なお、本実施形態では、STEP70とSTEP71において、時系列の撮像画像間における同一対象物の画像部分について、脚部の画像部分の変化と周辺の輝度変化とに基づいて、対象物が動物であるか否かを判定したが、STEP70による脚部の画像部分の変化のみによって、対象物が動物であるか否かを判定するようにしてもよい。   In this embodiment, in STEP 70 and STEP 71, for the image part of the same object between time-series captured images, the object is an animal based on the change in the image part of the leg and the surrounding luminance change. Whether or not the object is an animal may be determined only by the change in the image portion of the leg portion in STEP 70.

また、本実施形態では、STEP80とSTEP81において、時系列の撮像画像間における同一対象物の画像部分について、頭部の画像部分の変化と周辺の輝度変化とに基づいて、対象物が動物であるか否かを判定したが、STEP80による頭部の画像部分の変化のみによって、対象物が動物であるか否かを判定するようにしてもよい。   In this embodiment, in STEP80 and STEP81, for the image portion of the same object between time-series captured images, the object is an animal based on the change in the image portion of the head and the surrounding luminance change. Whether or not the object is an animal may be determined only by the change in the image portion of the head in STEP80.

また、本実施形態では、図6(a),図6(b),図7(a),図7(b)に示したように、動物候補画像部分の右側に設定した右輝度判定エリアと左側に設定した左輝度判定エリアの平均輝度により、動物候補画像部分の周辺の領域の輝度の変化を判断したが、動物候補画像部分の上下や斜め上下等に輝度判定エリアを設定してもよい。また、輝度判定エリアの平均輝度に代えて、輝度判定エリアの全画素の輝度の合計や、全画素の輝度の中間値等を用いて、輝度の変化を判断してもよい。   In the present embodiment, as shown in FIGS. 6A, 6B, 7A, and 7B, the right luminance determination area set on the right side of the animal candidate image portion and Although the change in luminance of the area around the animal candidate image portion is determined based on the average luminance of the left luminance determination area set on the left side, the luminance determination area may be set above and below the animal candidate image portion or diagonally up and down. . Further, instead of the average luminance in the luminance determination area, a change in luminance may be determined using a sum of luminances of all pixels in the luminance determination area, an intermediate value of luminances of all pixels, or the like.

また、本実施形態では、図4のSTEP70及びSTEP71で、動物候補画像部分の脚部の抽出の有無を判断すると共に、STEP80及びSTEP81で、動物候補画像部分の頭部の抽出の有無を判断したが、いずれか一方のみを判断するようにしてもよい。   Further, in this embodiment, in STEP 70 and STEP 71 in FIG. 4, it is determined whether or not the animal candidate image part is extracted, and in STEP 80 and STEP 81, whether or not the animal candidate image part is extracted is determined. However, only one of them may be determined.

また、本実施形態では、1台のカメラ(赤外線カメラ2)の撮像画像を用いる構成を示したが、2台のカメラ(ステレオカメラ)の撮像画像を用いて、ステレオカメラによる同一物体の撮像画像の視差から車両と対象物間の距離を算出する構成を採用してもよい。   Further, in the present embodiment, the configuration using the captured image of one camera (infrared camera 2) is shown, but the captured image of the same object by the stereo camera using the captured images of the two cameras (stereo camera). A configuration may be adopted in which the distance between the vehicle and the object is calculated from the parallax.

1…車両、2…カメラ、10…車両周辺監視装置、11…撮像画像取得部、12…対象物画像抽出部、13…特定部位抽出部、14…動物判定部、20,30,40a,40b,60a,60b…動物候補画像部分、22,32,42a,42b,62a,62b…胴部の画像部分、21,31,41a,41b,61b…頭部の画像部分、23,24,33,34,43b,44b…脚部の画像部分、50a,50b,70a,70b…右輝度判定エリア、51a,51b,71a,71b…左輝度判定エリア。   DESCRIPTION OF SYMBOLS 1 ... Vehicle, 2 ... Camera, 10 ... Vehicle periphery monitoring apparatus, 11 ... Captured image acquisition part, 12 ... Object image extraction part, 13 ... Specific site | part extraction part, 14 ... Animal determination part, 20, 30, 40a, 40b , 60a, 60b ... animal candidate image part, 22, 32, 42a, 42b, 62a, 62b ... image part of the trunk part, 21, 31, 41a, 41b, 61b ... image part of the head part, 23, 24, 33, 34, 43b, 44b... Image portions of legs, 50a, 50b, 70a, 70b... Right luminance determination area, 51a, 51b, 71a, 71b.

Claims (3)

車両に搭載されたカメラにより撮像される時系列の撮像画像から、動物の可能性がある同一対象物の画像部分を、動物候補画像部分として抽出する動物候補画像部分抽出部と、
前記動物候補画像部分から、動物の特定部位の画像部分を抽出する特定部位抽出部と、
前記時系列の撮像画像間で、前記動物候補画像部分抽出部により抽出された同一対象物の一対の前記動物候補画像部分間において、前記特定部位抽出部により前記特定部位の画像部分が抽出される特定部位抽出状態と、特定部位抽出部により前記特定部位の画像部分が抽出されない特定部位非抽出状態とが切り替わったときに、該一対の前記動物候補画像部分に対応する実空間上の対象物が動物であると判定する動物判定部と
を備えたことを特徴とする車両周辺監視装置。
An animal candidate image part extraction unit that extracts, as an animal candidate image part, an image part of the same object that may be an animal from a time-series captured image captured by a camera mounted on a vehicle;
A specific part extraction unit for extracting an image part of a specific part of an animal from the animal candidate image part;
An image portion of the specific part is extracted by the specific part extraction unit between the pair of animal candidate image parts of the same object extracted by the animal candidate image part extraction unit between the time-series captured images. When the specific part extraction state and the specific part non-extraction state in which the image part of the specific part is not extracted by the specific part extraction unit are switched, the object in the real space corresponding to the pair of animal candidate image parts is A vehicle periphery monitoring device comprising an animal determination unit that determines that the animal is an animal.
請求項1に記載の車両周辺監視装置において、
前記特定部位抽出部は、前記特定部位の画像部分として脚部の画像部分を抽出し、
前記動物判定部は、前記一対の前記動物候補画像部分間において、前記特定部位抽出状態と前記特定部位非抽出状態とが切り替わり、且つ、前記一対の前記動物候補画像部分の周辺の領域の輝度の変化が第1所定レベル以上であるときに、前記一対の前記動物候補画像部分に対応する実空間上の対象物が動物であると判定することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to claim 1,
The specific part extraction unit extracts an image part of a leg as an image part of the specific part,
The animal determination unit switches between the specific part extraction state and the specific part non-extraction state between the pair of animal candidate image parts, and the luminance of an area around the pair of animal candidate image parts. A vehicle periphery monitoring device, wherein when the change is equal to or higher than a first predetermined level, it is determined that an object in real space corresponding to the pair of animal candidate image portions is an animal.
請求項1に記載の車両周辺監視装置において、
前記特定部位抽出部は、前記特定部位の画像部分として頭部の画像部分を抽出し、
前記特定部位抽出部は、前記一対の前記動物候補画像部分間において、前記特定部位抽出状態と前記特定部位非抽出状態とが切り替わり、且つ、前記一対の前記動物候補画像部分の周辺の領域の輝度の変化が第2所定レベル未満であるときに、前記一対の前記動物候補画像部分に対応する実空間上の対象物が動物であると判定することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to claim 1,
The specific part extraction unit extracts an image part of a head as an image part of the specific part;
The specific part extraction unit switches between the specific part extraction state and the specific part non-extraction state between the pair of animal candidate image parts, and brightness of a region around the pair of animal candidate image parts. The vehicle periphery monitoring device, wherein when the change in the value is less than a second predetermined level, it is determined that the object in the real space corresponding to the pair of animal candidate image portions is an animal.
JP2012243943A 2012-11-05 2012-11-05 Vehicle periphery monitoring device Expired - Fee Related JP5885640B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012243943A JP5885640B2 (en) 2012-11-05 2012-11-05 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012243943A JP5885640B2 (en) 2012-11-05 2012-11-05 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2014093000A JP2014093000A (en) 2014-05-19
JP5885640B2 true JP5885640B2 (en) 2016-03-15

Family

ID=50937010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012243943A Expired - Fee Related JP5885640B2 (en) 2012-11-05 2012-11-05 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP5885640B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6384419B2 (en) 2015-07-24 2018-09-05 トヨタ自動車株式会社 Animal type determination device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4173901B2 (en) * 2006-05-19 2008-10-29 本田技研工業株式会社 Vehicle periphery monitoring device
JP2008021035A (en) * 2006-07-11 2008-01-31 Fujitsu Ten Ltd Image recognition device, image recognition method, and vehicle control device
JP5004903B2 (en) * 2008-08-25 2012-08-22 本田技研工業株式会社 Vehicle periphery monitoring device
JP5345992B2 (en) * 2010-09-08 2013-11-20 本田技研工業株式会社 Vehicle periphery monitoring device

Also Published As

Publication number Publication date
JP2014093000A (en) 2014-05-19

Similar Documents

Publication Publication Date Title
JP5577398B2 (en) Vehicle periphery monitoring device
JP4173901B2 (en) Vehicle periphery monitoring device
JP4410292B1 (en) Vehicle periphery monitoring device
JP5687702B2 (en) Vehicle periphery monitoring device
JP4482599B2 (en) Vehicle periphery monitoring device
JP5760090B2 (en) Biological recognition device
JP2007334751A (en) Vehicle periphery monitoring device
JP2007310706A (en) Vehicle periphery monitoring device
JP4644273B2 (en) Vehicle periphery monitoring device
JP5502149B2 (en) Vehicle periphery monitoring device
JP5345992B2 (en) Vehicle periphery monitoring device
JP5885640B2 (en) Vehicle periphery monitoring device
JP2012053663A (en) Object kind determination device
JP5642785B2 (en) Vehicle periphery monitoring device
JP2010092429A (en) Vehicle surrounding monitoring device
JP5802183B2 (en) Vehicle periphery monitoring device
JP5559121B2 (en) Object type determination device
JP5383246B2 (en) Vehicle periphery monitoring device
JP5907849B2 (en) Vehicle periphery monitoring device
JP5149918B2 (en) Vehicle periphery monitoring device
JP5026398B2 (en) Vehicle periphery monitoring device
JP2010113550A (en) Environment recognition apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160209

R150 Certificate of patent or registration of utility model

Ref document number: 5885640

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees