JP5885640B2 - Vehicle periphery monitoring device - Google Patents
Vehicle periphery monitoring device Download PDFInfo
- Publication number
- JP5885640B2 JP5885640B2 JP2012243943A JP2012243943A JP5885640B2 JP 5885640 B2 JP5885640 B2 JP 5885640B2 JP 2012243943 A JP2012243943 A JP 2012243943A JP 2012243943 A JP2012243943 A JP 2012243943A JP 5885640 B2 JP5885640 B2 JP 5885640B2
- Authority
- JP
- Japan
- Prior art keywords
- animal
- image
- specific part
- candidate image
- pair
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、カメラによる撮像画像に基づいて車両の周辺に存在する動物を監視する車両周辺監視装置に関する。 The present invention relates to a vehicle periphery monitoring device that monitors animals existing around a vehicle based on an image captured by a camera.
従来より、車両に搭載された赤外線カメラにより撮像された車両周辺の画像から、動物の画像部分を抽出して、車両周辺に現れる動物を監視するようにした車両周辺監視装置が提案されている(例えば、特許文献1参照)。 Conventionally, a vehicle periphery monitoring device has been proposed in which an animal image portion is extracted from an image around a vehicle captured by an infrared camera mounted on the vehicle to monitor animals appearing around the vehicle ( For example, see Patent Document 1).
特許文献1に記載された車両周辺監視装置においては、時系列の撮像画像から同一の対象物の画像部分を抽出して時刻間追跡を行い、時系列の撮像画像間における同一対象物の脚部の画像部分の幅が、周期性を有する変化をしているか否かを判断することによって、対象物が動物であるか否かを判定している。 In the vehicle periphery monitoring device described in Patent Document 1, an image portion of the same object is extracted from a time-series captured image, tracking is performed between time points, and legs of the same object between time-series captured images are detected. It is determined whether or not the object is an animal by determining whether or not the width of the image portion is changing with periodicity.
特許文献1に記載された車両周辺監視装置は、時系列の撮像画像において、同一対象物の画像部分が周期性を有する変化をしているか否かを判断するものであるため、対象物が動物であるか否かの判定にはある程度の時間を要する。 Since the vehicle periphery monitoring device described in Patent Document 1 determines whether or not the image portion of the same object has a periodic change in a time-series captured image, the object is an animal. It takes some time to determine whether or not.
本発明はかかる背景に鑑みてなされたものであり、対象物が動物であるか否かの判定に要する時間を短縮することができる車両周辺監視装置を提供することを目的とする。 The present invention has been made in view of such a background, and an object of the present invention is to provide a vehicle periphery monitoring device that can shorten the time required to determine whether or not an object is an animal.
本発明は上記目的を達成するためになされたものであり、本発明の車両周辺監視装置は、
車両に搭載されたカメラにより撮像される時系列の撮像画像から、動物の可能性がある同一対象物の画像部分を、動物候補画像部分として抽出する動物候補画像部分抽出部と、
前記動物候補画像部分から、動物の特定部位の画像部分を抽出する特定部位抽出部と、
前記時系列の撮像画像間で、前記動物候補画像部分抽出部により抽出された同一対象物の一対の前記動物候補画像部分間において、前記特定部位抽出部により前記特定部位の画像部分が抽出される特定部位抽出状態と、特定部位抽出部により前記特定部位の画像部分が抽出されない特定部位非抽出状態とが切り替わったときに、該一対の前記動物候補画像部分に対応する実空間上の対象物が動物であると判定する動物判定部と
を備えたことを特徴とする(第1発明)。
The present invention has been made to achieve the above object, and the vehicle periphery monitoring device of the present invention comprises:
An animal candidate image part extraction unit that extracts, as an animal candidate image part, an image part of the same object that may be an animal from a time-series captured image captured by a camera mounted on a vehicle;
A specific part extraction unit for extracting an image part of a specific part of an animal from the animal candidate image part;
An image portion of the specific part is extracted by the specific part extraction unit between the pair of animal candidate image parts of the same object extracted by the animal candidate image part extraction unit between the time-series captured images. When the specific part extraction state and the specific part non-extraction state in which the image part of the specific part is not extracted by the specific part extraction unit are switched, the object in the real space corresponding to the pair of animal candidate image parts is An animal determination unit that determines that the animal is an animal is provided (first invention).
第1発明によれば、時系列の撮像画像間で、前記動物候補画像部分が前記特定部位抽出状態と前記特定部位非抽出状態とに切り替わったときには、例えば、道路脇の茂にいて脚部が隠れていた動物が道路に飛び出して脚部が現れた場合や、道路脇で草を食べるために頭部を下げていた動物が頭部を上げた場合のように、脚部や頭部等の特定部位について、動物に特有の動作がなされたことが想定される。 According to the first invention, when the animal candidate image part is switched between the specific part extraction state and the specific part non-extraction state between time-series captured images, for example, the leg part is in a bush on a roadside. Legs, heads, etc., such as when a hidden animal jumps out on the road and a leg appears, or an animal that has lowered its head to eat grass by the road raises its head It is assumed that an action peculiar to an animal has been performed for a specific part.
そのため、前記動物判定部は、時系列の撮像画像間で抽出された同一対象物の一対の前記動物候補画像部分間において、前記特定部位抽出状態と前記特定部位非抽出状態とが切り替わったときに、前記一対の前記動物候補画像部分に対応する実空間上の対象物は、動物であると判定することができる。そして、この判定は二つの時系列の撮像画像に基づいて行うことができるため、ある程度の数の時系列の撮像画像に基づいて周期性から動物であることを判定する場合よりも、対象物が動物であるか否かの判定に要する時間を短縮することができる。 Therefore, when the specific part extraction state and the specific part non-extraction state are switched between the pair of animal candidate image parts of the same target object extracted between time-series captured images, the animal determination unit The object in real space corresponding to the pair of animal candidate image portions can be determined to be an animal. Since this determination can be performed based on two time-series captured images, the object is more likely to be an animal than a periodicity based on a certain number of time-series captured images. The time required for determining whether or not the animal is an animal can be shortened.
また、第1発明において、
前記特定部位抽出部は、前記特定部位の画像部分として脚部の画像部分を抽出し、
前記動物判定部は、前記一対の前記動物候補画像部分間において、前記特定部位抽出状態と前記特定部位非抽出状態とが切り替わり、且つ、前記一対の前記動物候補画像部分の周辺の領域の輝度の変化が第1所定レベル以上であるときに、前記一対の前記動物候補画像部分に対応する実空間上の対象物が動物であると判定することを特徴とする(第2発明)。
In the first invention,
The specific part extraction unit extracts an image part of a leg as an image part of the specific part,
The animal determination unit switches between the specific part extraction state and the specific part non-extraction state between the pair of animal candidate image parts, and the luminance of an area around the pair of animal candidate image parts. When the change is greater than or equal to a first predetermined level, it is determined that the object in real space corresponding to the pair of animal candidate image portions is an animal (second invention).
第2発明における前記特定部位は脚部であり、前記動物候補画像部分が前記特定部位非抽出状態と前記特定部位抽出状態とに切り替わったときには、前記動物候補画像部分が動物の画像部分であって、この動物が道路脇の茂みにいて脚部が草に隠れた状態から道路に飛び出して脚部が現れた場合や、その逆に道路から道路脇の茂みに飛び込んだような場合が想定される。そして、これらの場合には、動物の背景が道路脇の茂みから道路又は道路から道路脇の茂みへの変化するため、動物候補画像部分の周囲の輝度の変化が大きくなる。 In the second invention, the specific part is a leg, and when the animal candidate image part is switched between the specific part non-extraction state and the specific part extraction state, the animal candidate image part is an animal image part. , This animal is in the bush by the road, and when the leg is hidden in the grass, the leg appears by jumping to the road, or vice versa . In these cases, since the background of the animal changes from the roadside bush to the road or from the road to the roadside bush, the change in luminance around the animal candidate image portion increases.
そのため、前記動物判定部は、前記一対の前記動物候補画像部分間で、前記特定部位非抽出状態と前記特定部位抽出状態とが切り替わり、且つ、前記一対の前記動物候補画像部分の周辺の輝度の変化が第1所定レベル以上であるときに、前記一対の前記動物候補画像部分に対応する実空間上の対象物が動物であると判定することによって、動物の判定精度を高めることができる。 Therefore, the animal determination unit switches between the specific part non-extraction state and the specific part extraction state between the pair of animal candidate image parts, and brightness of the periphery of the pair of animal candidate image parts. By determining that the object in the real space corresponding to the pair of animal candidate image portions is an animal when the change is equal to or higher than the first predetermined level, it is possible to improve the accuracy of animal determination.
また、第1発明において、
前記特定部位抽出部は、前記特定部位の画像部分として頭部の画像部分を抽出し、
前記特定部位抽出部は、前記一対の前記動物候補画像部分間において、前記特定部位抽出状態と前記特定部位非抽出状態とが切り替わり、且つ、前記一対の前記動物候補画像部分の周辺の領域の輝度の変化が第2所定レベル未満であるときに、前記一対の前記動物候補画像部分に対応する実空間上の対象物が動物であると判定することを特徴とする(第3発明)。
In the first invention,
The specific part extraction unit extracts an image part of a head as an image part of the specific part;
The specific part extraction unit switches between the specific part extraction state and the specific part non-extraction state between the pair of animal candidate image parts, and brightness of a region around the pair of animal candidate image parts. When the change in is less than a second predetermined level, it is determined that the object in the real space corresponding to the pair of animal candidate image portions is an animal (third invention).
第3発明における前記特定部位は頭部であり、前記動物候補画像部分が前記特定部位非抽出状態と前記特定部位抽出状態とに切り替わったときには、前記動物候補画像部分が動物の画像部分であって、この動物が頭を下げて草を食べている状態から頭を上げた場合や、逆に頭を上げた状態から頭を下げて草を食べ始めたような場合が想定される。そして、これらの場合には、動物がいる場所は変化しないため、動物候補画像部分の周囲の輝度の変化は小さくなる。 In the third aspect, the specific part is a head, and when the animal candidate image part is switched between the specific part non-extraction state and the specific part extraction state, the animal candidate image part is an animal image part. It is assumed that the animal has raised its head from a state where its head is lowered and eats grass, or conversely, when it has started raising its head from a state where its head is raised, it begins to eat grass. In these cases, since the place where the animal is located does not change, the change in luminance around the candidate animal image portion is small.
そのため、前記動物判定部は、前記一対の前記動物候補画像部分間で、前記特定部位非抽出状態と前記特定部位抽出状態とが切り替わり、且つ、前記一対の前記動物候補画像部分の周辺の輝度の変化が第2所定レベル未満であるときに、前記一対の前記動物候補画像部分に対応する実空間上の対象物が動物であると判定することによって、動物の判定精度を高めることができる。 Therefore, the animal determination unit switches between the specific part non-extraction state and the specific part extraction state between the pair of animal candidate image parts, and brightness of the periphery of the pair of animal candidate image parts. By determining that the object in the real space corresponding to the pair of animal candidate image portions is an animal when the change is less than the second predetermined level, it is possible to improve the accuracy of animal determination.
本発明の車両周辺監視装置の実施形態の一例について、図1〜図7を参照して説明する。図1を参照して、本実施形態の車両周辺監視装置10は、車両1に搭載して使用され、車両1には、遠赤外線を検出可能な赤外線カメラ2(本発明のカメラに相当する)が備えられている。
An example of an embodiment of a vehicle periphery monitoring device of the present invention will be described with reference to FIGS. Referring to FIG. 1, a vehicle
赤外線カメラ2は、遠赤外域に感度を有し、撮像される物体の温度が高いほど出力される映像信号のレベルが高くなる(映像信号の輝度が高くなる)特性を有している。赤外線カメラ2は、車両1の前方を撮像するために車両1の前部に取り付けられており、車両1の前部を原点Oとして、車両1の左右方向をX軸、上下方向をY軸、前後方向をZ軸とした実空間座標系が定義されている。なお、赤外線カメラ2に代えて、可視光等の他の波長域に感度を有するカメラを用いてもよい。
The
次に、図2を参照して、車両1には、車両1のヨーレートを検出するヨーレートセンサ31、車両1の走行速度を検出する車速センサ32、運転者によるブレーキの操作量を検出するブレーキセンサ33、音声による注意喚起等を行うためのスピーカ6、及び赤外線カメラ2により撮像された画像を表示すると共に、車両1に接触する可能性が高い物体を運転者に視認させる表示を行うためのヘッドアップディスプレイ(Head Up Display)7(以下、HUD7という)が接続されている。HUD7は、図1に示したように、車両1のフロントウインドウの運転者側の前方位置に画面7aが表示されるように設けられている。
Next, referring to FIG. 2, the vehicle 1 includes a
車両周辺監視装置10は、図示しないCPU,メモリ等により構成された電子回路ユニットであり、メモリに保持された車両周辺監視用の制御プログラムをCPUで実行することによって、撮像画像取得部11、対象物画像部分抽出部12(本発明の動物候補画像部分抽出部の機能を含む)、特定部位抽出部13、動物判定部14、及び警報処理部15として機能する。
The vehicle
車両周辺監視装置10は、赤外線カメラ2による撮像画像から、所定条件を満たす画像部分を、歩行者又は動物の画像部分である可能性がある画像部分(対象物画像部分)として抽出し、この画像部分に対応する実空間上の物体(対象物)の位置(実空間位置)を、ヨーレートセンサ31により検出される車両1のヨーレート及び車速センサ32により検出される車両1の走行速度等を用いて算出し、時系列の撮像画像間で同一対象物の画像部分を追跡して、実空間における物体の移動ベクトルを算出する。
The vehicle
そして、車両周辺監視装置10は、移動ベクトルに基づいて物体を注意喚起の対象とするか否かを判断し、ブレーキセンサ33の検出信号から認識されるブレーキの操作状況等を考慮して、スピーカ6からの音声出力及びHUD7への強調表示による注意喚起を行うか否かを決定する。なお、移動ベクトルに基づく注意喚起の処理は、例えば特開2007−213561等に記載された従来手法を用いて行われる。
Then, the vehicle
また、車両周辺監視装置10は、対象物の種別(車両・人工構造物、歩行者、動物等)を識別して、対象物の種別に応じた監視処理を行う。以下、図3に示したフローチャートに従って、車両周辺監視装置10による対象物の監視処理(特に動物の判定処理)について説明する。車両周辺監視装置10は、図3に示したフローチャートによる処理を、所定の制御サイクル毎に繰り返し実行して、車両1の周辺に存在する対象物を監視する。
In addition, the vehicle
図3のSTEP1は撮像画像取得部11による処理である。撮像画像取得部11は、赤外線カメラ2から出力される映像信号を入力し、この映像信号をデジタルの階調(輝度)データに変換したグレースケール画像を画像メモリに取り込む。
STEP 1 in FIG. 3 is processing by the captured
続くSTEP2は対象物画像部分抽出部12による処理である。対象物画像部分抽出部12は、グレースケール画像の各画素について、輝度が所定の閾値以上である画素を「1」(白)とし、輝度が閾値よりも低い画素を「0」(黒)とする2値化処理を行って2値画像を生成する。
The
そして、対象物画像部分抽出部12は、2値画像中の白の各領域のランレングスデータを算出し、ラベリング処理等を行って白の画像部分を対象物画像部分(本発明の動物候補画像部分を含む)として抽出する。なお、対象物画像部分抽出部12は、基本的には白の画素が隣接している領域を一つの対象物画像部分として抽出するが、接近した白の画素についても、一つの対象物画像部分にまとめて抽出してもよい。なお、このように、対象物画像部分抽出部12が、動物の画像部分である可能性がある対象物画像部分を抽出する構成は、本発明の動物候補画像部分抽出部に相当する。
Then, the object image
続くSTEP3〜STEP6で、車両周辺監視装置10は、対象物(対象物画像部分に対応する実空間上の対象物)が構造物(他車両、電柱等)又は歩行者であるか否かを判定する。先ずSTEP3で、車両周辺監視装置10は、対象物が構造物であるか否かを判定する。ここで、対象物が構造物であるか否かの判定は、例えば、特開2007−310705号公報等に記載された公知の手法を用いて行うことができる。
In subsequent STEP3 to STEP6, the vehicle
そして、対象物が構造物であると判断されたときは、次のSTEP4でSTEP9に分岐し、警報処理部15による警報処理は実行されない。一方、対象物が構造物でないと判定されたときには、次のSTEP4からSTEP5に進む。
When it is determined that the object is a structure, the process branches to STEP 9 in the next STEP 4 and the alarm processing by the
STEP5で、車両周辺監視装置10は、対象物が歩行者であるか否かを判定する。ここで、対象物が歩行者であるか否かの判定は、上記特開2007−310705号公報等に記載された公知の手法を用いて行うことができる。
In STEP 5, the vehicle
そして、対象物が歩行者であると判定されたときは、次のSTEP6でSTEP20に分岐し、実空間上の対象物の移動ベクトルから、対象物と車両1が接触する可能性が高いと判断されるときには、警報処理部15が警報処理を行う。一方、対象物が歩行者ではないと判定されたときには、次のSTEP6からSTEP7に進む。
And when it determines with a target object being a pedestrian, it branches to STEP20 at the next STEP6, and it determines that there exists a high possibility that a target object and the vehicle 1 will contact from the movement vector of the target object in real space. When it is done, the
ここで、警報処理部15は、警報処理として、HUD7により表示される撮像画像の画面7aにおいて、歩行者の画像部分に強調枠を重畳表示する処理と、歩行者に対する注意を促す音声をスピーカ6から出力する処理とを行う。
Here, the
STEP7の「動物認識」は、特定部位抽出部13と動物判定部14による処理である。「動物認識」の処理の詳細については後述する。
The “animal recognition” in
対象物が動物であると判定されたときは、次のSTEP8でSTEP30に分岐する。STEP30は警報処理部15による処理である。警報処理部15は、上記STEP20と同様にして、動物に対する運転者の注意喚起を促すための警報処理を行う。
If it is determined that the object is an animal, the process branches to STEP 30 in the next STEP 8.
一方、対象物が動物ではないと判定されたときにはSTEP9に進み、車両周辺監視装置10は、図3に示したフローチャートによる1制御サイクルの処理を終了する。
On the other hand, when it is determined that the object is not an animal, the process proceeds to STEP 9, and the vehicle
次に、図4に示したフローチャートに従って、図3のSTEP7における「動物認識」の処理について説明する。
Next, the “animal recognition” process in
図4のSTEP50は特定部位抽出部13による処理である。特定部位抽出部13は、図3のSTEP4で構造物ではないと判定され、且つ、STEP6で歩行者ではないと判定された対象物の画像部分(動物候補画像部分)について、図5(a)に示したように、動物候補画像部分20の頭部の画像部分21、胴部の画像部分22、及び脚部の画像部分(前脚の画像部分23、後脚の画像部分24)を抽出する処理を実行する。なお、頭部及び脚部は、本発明の特定部位に相当する。
STEP 50 in FIG. 4 is processing by the specific
ここで、頭部、胴部、脚部の画像部分の抽出は、例えば、上記特開2007−310705号公報等に記載された、各部の相対的な位置関係、各部の形状等に基づく公知の手法を用いて行うことができる。 Here, the extraction of the image portion of the head, the trunk, and the leg is, for example, publicly known based on the relative positional relationship of each part, the shape of each part, and the like described in Japanese Patent Application Laid-Open No. 2007-310705. This can be done using techniques.
続くSTEP51以降は、動物判定部14による処理である。動物判定部14は、STEP51で、特定部位抽出部13により動物候補画像部分から頭・胴・脚の全ての画像部分が抽出されたが否かを判断する。そして、全ての部分が抽出されたときは、STEP52に進んで、この動物候補画像部分が動物の画像部分(対応する実空間上の対象物が動物)であると判定する。
Subsequent STEP 51 and subsequent steps are processing by the
一方、STEP50で、特定部位抽出部13により、動物候補画像部分から頭・胴・脚の全ての画像部分が抽出されなかったとき(例えば、図5(b)に示したように、動物候補画像部分30の頭部31及び胴部32の画像部分のみが抽出され、脚部33,34の画像部分が抽出されなかったとき)には、STEP51からSTEP60に分岐する。STEP60で、動物判定部14は、連続する所定数以上の制御サイクル(例えば、連続する3以上の制御サイクル)で、特定部位抽出部13により頭と胴又は胴と脚の画像部分が抽出されたか否かを判断する。
On the other hand, in STEP 50, when the specific
そして、連続する所定数以上の制御サイクルで、特定部位抽出部13により頭と胴又は胴と脚の画像部分が抽出されたときは上述のSTEP52に進み、抽出されなかったときにはSTEP70に分岐する。
If the head and torso or torso and leg image portions are extracted by the specific
STEP70で、動物判定部14は、前回の制御サイクルにおける撮像画像と今回の制御サイクルにおける撮像画像間で抽出された同一対象物の一対の画像部分(動物候補画像部分)間で、動物候補画像部分から脚部の画像部分が抽出される状態(特定部位抽出状態)と、動物候補画像部分から脚部の画像部分が抽出されない状態(特定部位非抽出状態)とが切り替わったか否かを判断する。
In STEP 70, the
ここで、図6(a)は、ある制御サイクルにおける赤外線カメラ2の撮像画像Im1を例示したものであり、道路脇の茂みにいる動物(例えば、鹿等の野生動物)の画像部分40aが含まれている。この動物の脚部は茂みにより隠れており、画像部分40aからは胴部の画像部分42aのみが抽出され、頭部と脚部の画像部分は抽出されていない。
Here, FIG. 6A illustrates the captured image Im1 of the
また、図6(b)は、図6(a)の次の制御サイクルにおける赤外線カメラ2の撮像画像Im2を例示したものであり、道路脇の茂みから道路内に飛び出した動物の画像部分40bが含まれている。画像部分40bには、胴部の画像部分42bに加えて、図6(a)の画像部分40aでは隠れていた脚部の画像部分43b,44bも含まれている。
FIG. 6B illustrates the captured image Im2 of the
また、動物判定部14は、図6(a)の画像部分40aの右側に右輝度判定エリア50aを設定すると共に、画像部分40aの左側に左輝度判定エリア51aを設定する。同様に、動物判定部14は、図6(b)の画像部分40bの右側に右輝度判定エリア50bを設定すると共に、画像部分40bの左側に左輝度判定エリア51bを設定する。
The
図6(a),図6(b)に示したように、時系列の撮像画像Im1,Im2で抽出された同一の対象物の画像部分40a,40bについて、脚部の画像部分が抽出されない特定部位非抽出状態(図6(a))から、脚部の画像部分43b,44bが抽出される特定部位抽出状態(図6(b))に切り替わったときには、画像部分40a,40bが動物の画像部分である可能性が高いと判断することができる。
As shown in FIG. 6A and FIG. 6B, for the
そこで、STEP70で脚部の画像部分の抽出の有無の変化があったときはSTEP71に進み、脚部の画像部分の抽出の有無の変化がなかったときにはSTEP80に分岐する。STEP71で、動物判定部14は、一対の動物候補画像部分間において、周辺の輝度変化が第1所定レベル以上であるか否かを判断する。
Therefore, if there is a change in the presence or absence of extraction of the leg image part in STEP 70, the process proceeds to STEP 71, and if there is no change in the presence or absence of extraction of the leg image part, the process branches to STEP 80. In STEP 71, the
図6(a)及び図6(b)においては、図6(a)で設定された右輝度判定エリア50a及び左輝度判定エリア51aは、茂みの画像部分であるのに対し、図6(b)で設定された右輝度判定エリア50b及び左輝度判定エリア51bは、道路の画像部分である。そのため、図6(a)の右輝度判定エリア50a及び左輝度判定エリア51aと、図6(b)の右輝度判定エリア50b及び左輝度判定エリア51bとの間の温度の相違による輝度変化が大きくなる。
6 (a) and 6 (b), the right
そのため、図6(a)の右輝度判定エリア50a及び左輝度判定エリア51aの輝度(例えば、両エリア50a,51aの平均輝度)と、図6(b)の右輝度判定エリア50b及び左輝度判定エリア51bの輝度(例えば、両エリア50b,51bの平均輝度)との間の温度による輝度の変化が大きくなる。
Therefore, the luminance of the right
よって、STEP71で、時系列の撮像画像間における同一対象物の一対の動物候補画像部分の周辺の輝度変化が第1所定レベル以上であるときには、この一対の動物候補画像部分が動物の画像部分である可能性がさらに高いと判断することができる。そこで、この場合にはSTEP52に進み、動物判定部14は、一対の動物候補画像部分に対応する実空間上の対象物は動物であると判定する。
Therefore, in STEP 71, when the luminance change around the pair of animal candidate image portions of the same object between time-series captured images is equal to or higher than the first predetermined level, the pair of animal candidate image portions is an animal image portion. It can be determined that there is a higher possibility. Therefore, in this case, the process proceeds to STEP 52, and the
一方、STEP71で、時系列の撮像画像間における同一対象物の一対の動物候補画像部分の周辺の輝度変化が第1所定レベル未満であったときにはSTEP90に分岐し、動物判定部14は、一対の動物候補画像部分に対応する実空間上の対象物は動物ではないと判定する。
On the other hand, when the brightness change around the pair of candidate animal images of the same object between the time-series captured images is less than the first predetermined level in STEP 71, the process branches to STEP 90, and the
次に、STEP80で、動物判定部14は、前回の制御サイクルにおける撮像画像と今回の制御サイクルにおける撮像画像間で抽出された同一対象物の一対の動物候補画像部分間で、動物候補画像部分から頭部の画像部分が抽出される状態(特定部位抽出状態)と、動物候補画像部分から頭部の画像部分が抽出されない状態(特定部位非抽出状態)とが切り替わったか否かを判断する。
Next, in STEP 80, the
ここで、図7(a)は、ある制御サイクルにおける赤外線カメラ2の撮像画像Im3を例示したものであり、道路脇の茂みにいる動物(例えば、鹿等の野生動物)の画像部分60aが含まれている。この動物の脚部は茂みにより隠れており、画像部分60aからは胴部の画像部分62aのみが抽出され、頭部と脚部の画像部分は抽出されていない。
Here, FIG. 7A illustrates a captured image Im3 of the
また、図7(b)は、図7(a)の次の制御サイクルにおける赤外線カメラ2の撮像画像Im4を示したものであり、動物の画像部分60bが含まれている。図7(a)の画像部分60aと図7(b)の画像部分60bは、同一対象物の画像部分である。画像部分60bでは、胴部の画像部分62bに加えて、図7(a)の画像部分60aでは隠れていた頭部の画像部分61bが含まれている。
FIG. 7B shows a captured image Im4 of the
また、動物判定部14は、図7(a)の画像部分60aの右側に右輝度判定エリア70aを設定すると共に、画像部分60aの左側に左輝度判定エリア71aを設定する。同様に、動物判定部14は、図7(b)の画像部分60bの右側に右輝度判定エリア70bを設定すると共に、画像部分60bの左側に左輝度判定エリア71bを設定する。
Further, the
図7(a),図7(b)に示したように、時系列の撮像画像Im3,Im4で抽出された同一の対象物の画像部分60a,60bについて、頭部の画像部分が抽出されない特定部位非抽出状態(図7(a))から、頭部の画像部分が抽出される特定部位抽出状態(図7(b))に切り替わったときには、画像部分60a,60bが動物の画像部分である可能性が高いと判断することができる。
As shown in FIGS. 7A and 7B, the head image portion is not extracted for the
そこで、STEP80で頭部の画像部分の抽出の有無の変化があったときはSTEP81に進み、脚部の画像部分の抽出の有無の変化がなかったときにはSTEP90に分岐する。STEP81で、動物判定部14は、一対の動物候補画像部分間において、周辺の輝度変化が第2所定レベル未満であるか否かを判断する。
Therefore, if there is a change in the presence or absence of the extraction of the head image part in STEP 80, the process proceeds to STEP 81, and if there is no change in the presence or absence of the extraction of the leg image part, the process branches to STEP 90. In STEP 81, the
図7(a)及び図7(b)においては、画像部分60aと画像部分60bの位置が変化していないため、図7(a)で設定された右輝度判定エリア70a及び左輝度判定エリア71aと、図7(b)で設定された右輝度判定エリア70b及び左輝度判定エリア71bの位置も変化していない。
In FIGS. 7A and 7B, the positions of the
そのため、図7(a)の右輝度判定エリア70a及び左輝度判定エリア71aの輝度(例えば、両エリア70a,71aの平均輝度)と、図7(b)の右輝度判定エリア70b及び左輝度判定エリア71bの輝度(例えば、両エリア70b,71bの平均輝度)との間の温度による輝度の変化が小さくなる。
Therefore, the luminance of the right
よって、STEP81で、時系列の撮像画像間における同一対象物の一対の動物候補画像部分の周辺の輝度変化が第2所定レベル未満であるときには、この一対の動物候補画像部分が動物の画像部分である可能性がさらに高いと判断することができる。そこで、この場合にはSTEP52に進み、動物判定部14は、一対の動物画像候補部分に対応する実空間上の対象物は動物であると判定する。
Therefore, in STEP 81, when the luminance change around the pair of animal candidate image portions of the same object between the time-series captured images is less than the second predetermined level, the pair of animal candidate image portions are the animal image portions. It can be determined that there is a higher possibility. In this case, the process proceeds to STEP 52, where the
一方、STEP81で、時系列画像間における同一対象物の画像部分の周辺の輝度変化が第2所定レベル以上であったときにはSTEP90に分岐し、動物判定部14は、一対の動物候補画像部分に対応する実空間上の対象物は動物ではないと判定する。
On the other hand, in STEP 81, when the luminance change around the image portion of the same object between time-series images is equal to or higher than the second predetermined level, the process branches to STEP 90, and the
なお、本実施形態では、STEP70とSTEP71において、時系列の撮像画像間における同一対象物の画像部分について、脚部の画像部分の変化と周辺の輝度変化とに基づいて、対象物が動物であるか否かを判定したが、STEP70による脚部の画像部分の変化のみによって、対象物が動物であるか否かを判定するようにしてもよい。 In this embodiment, in STEP 70 and STEP 71, for the image part of the same object between time-series captured images, the object is an animal based on the change in the image part of the leg and the surrounding luminance change. Whether or not the object is an animal may be determined only by the change in the image portion of the leg portion in STEP 70.
また、本実施形態では、STEP80とSTEP81において、時系列の撮像画像間における同一対象物の画像部分について、頭部の画像部分の変化と周辺の輝度変化とに基づいて、対象物が動物であるか否かを判定したが、STEP80による頭部の画像部分の変化のみによって、対象物が動物であるか否かを判定するようにしてもよい。 In this embodiment, in STEP80 and STEP81, for the image portion of the same object between time-series captured images, the object is an animal based on the change in the image portion of the head and the surrounding luminance change. Whether or not the object is an animal may be determined only by the change in the image portion of the head in STEP80.
また、本実施形態では、図6(a),図6(b),図7(a),図7(b)に示したように、動物候補画像部分の右側に設定した右輝度判定エリアと左側に設定した左輝度判定エリアの平均輝度により、動物候補画像部分の周辺の領域の輝度の変化を判断したが、動物候補画像部分の上下や斜め上下等に輝度判定エリアを設定してもよい。また、輝度判定エリアの平均輝度に代えて、輝度判定エリアの全画素の輝度の合計や、全画素の輝度の中間値等を用いて、輝度の変化を判断してもよい。 In the present embodiment, as shown in FIGS. 6A, 6B, 7A, and 7B, the right luminance determination area set on the right side of the animal candidate image portion and Although the change in luminance of the area around the animal candidate image portion is determined based on the average luminance of the left luminance determination area set on the left side, the luminance determination area may be set above and below the animal candidate image portion or diagonally up and down. . Further, instead of the average luminance in the luminance determination area, a change in luminance may be determined using a sum of luminances of all pixels in the luminance determination area, an intermediate value of luminances of all pixels, or the like.
また、本実施形態では、図4のSTEP70及びSTEP71で、動物候補画像部分の脚部の抽出の有無を判断すると共に、STEP80及びSTEP81で、動物候補画像部分の頭部の抽出の有無を判断したが、いずれか一方のみを判断するようにしてもよい。 Further, in this embodiment, in STEP 70 and STEP 71 in FIG. 4, it is determined whether or not the animal candidate image part is extracted, and in STEP 80 and STEP 81, whether or not the animal candidate image part is extracted is determined. However, only one of them may be determined.
また、本実施形態では、1台のカメラ(赤外線カメラ2)の撮像画像を用いる構成を示したが、2台のカメラ(ステレオカメラ)の撮像画像を用いて、ステレオカメラによる同一物体の撮像画像の視差から車両と対象物間の距離を算出する構成を採用してもよい。 Further, in the present embodiment, the configuration using the captured image of one camera (infrared camera 2) is shown, but the captured image of the same object by the stereo camera using the captured images of the two cameras (stereo camera). A configuration may be adopted in which the distance between the vehicle and the object is calculated from the parallax.
1…車両、2…カメラ、10…車両周辺監視装置、11…撮像画像取得部、12…対象物画像抽出部、13…特定部位抽出部、14…動物判定部、20,30,40a,40b,60a,60b…動物候補画像部分、22,32,42a,42b,62a,62b…胴部の画像部分、21,31,41a,41b,61b…頭部の画像部分、23,24,33,34,43b,44b…脚部の画像部分、50a,50b,70a,70b…右輝度判定エリア、51a,51b,71a,71b…左輝度判定エリア。 DESCRIPTION OF SYMBOLS 1 ... Vehicle, 2 ... Camera, 10 ... Vehicle periphery monitoring apparatus, 11 ... Captured image acquisition part, 12 ... Object image extraction part, 13 ... Specific site | part extraction part, 14 ... Animal determination part, 20, 30, 40a, 40b , 60a, 60b ... animal candidate image part, 22, 32, 42a, 42b, 62a, 62b ... image part of the trunk part, 21, 31, 41a, 41b, 61b ... image part of the head part, 23, 24, 33, 34, 43b, 44b... Image portions of legs, 50a, 50b, 70a, 70b... Right luminance determination area, 51a, 51b, 71a, 71b.
Claims (3)
前記動物候補画像部分から、動物の特定部位の画像部分を抽出する特定部位抽出部と、
前記時系列の撮像画像間で、前記動物候補画像部分抽出部により抽出された同一対象物の一対の前記動物候補画像部分間において、前記特定部位抽出部により前記特定部位の画像部分が抽出される特定部位抽出状態と、特定部位抽出部により前記特定部位の画像部分が抽出されない特定部位非抽出状態とが切り替わったときに、該一対の前記動物候補画像部分に対応する実空間上の対象物が動物であると判定する動物判定部と
を備えたことを特徴とする車両周辺監視装置。 An animal candidate image part extraction unit that extracts, as an animal candidate image part, an image part of the same object that may be an animal from a time-series captured image captured by a camera mounted on a vehicle;
A specific part extraction unit for extracting an image part of a specific part of an animal from the animal candidate image part;
An image portion of the specific part is extracted by the specific part extraction unit between the pair of animal candidate image parts of the same object extracted by the animal candidate image part extraction unit between the time-series captured images. When the specific part extraction state and the specific part non-extraction state in which the image part of the specific part is not extracted by the specific part extraction unit are switched, the object in the real space corresponding to the pair of animal candidate image parts is A vehicle periphery monitoring device comprising an animal determination unit that determines that the animal is an animal.
前記特定部位抽出部は、前記特定部位の画像部分として脚部の画像部分を抽出し、
前記動物判定部は、前記一対の前記動物候補画像部分間において、前記特定部位抽出状態と前記特定部位非抽出状態とが切り替わり、且つ、前記一対の前記動物候補画像部分の周辺の領域の輝度の変化が第1所定レベル以上であるときに、前記一対の前記動物候補画像部分に対応する実空間上の対象物が動物であると判定することを特徴とする車両周辺監視装置。 In the vehicle periphery monitoring device according to claim 1,
The specific part extraction unit extracts an image part of a leg as an image part of the specific part,
The animal determination unit switches between the specific part extraction state and the specific part non-extraction state between the pair of animal candidate image parts, and the luminance of an area around the pair of animal candidate image parts. A vehicle periphery monitoring device, wherein when the change is equal to or higher than a first predetermined level, it is determined that an object in real space corresponding to the pair of animal candidate image portions is an animal.
前記特定部位抽出部は、前記特定部位の画像部分として頭部の画像部分を抽出し、
前記特定部位抽出部は、前記一対の前記動物候補画像部分間において、前記特定部位抽出状態と前記特定部位非抽出状態とが切り替わり、且つ、前記一対の前記動物候補画像部分の周辺の領域の輝度の変化が第2所定レベル未満であるときに、前記一対の前記動物候補画像部分に対応する実空間上の対象物が動物であると判定することを特徴とする車両周辺監視装置。 In the vehicle periphery monitoring device according to claim 1,
The specific part extraction unit extracts an image part of a head as an image part of the specific part;
The specific part extraction unit switches between the specific part extraction state and the specific part non-extraction state between the pair of animal candidate image parts, and brightness of a region around the pair of animal candidate image parts. The vehicle periphery monitoring device, wherein when the change in the value is less than a second predetermined level, it is determined that the object in the real space corresponding to the pair of animal candidate image portions is an animal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012243943A JP5885640B2 (en) | 2012-11-05 | 2012-11-05 | Vehicle periphery monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012243943A JP5885640B2 (en) | 2012-11-05 | 2012-11-05 | Vehicle periphery monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014093000A JP2014093000A (en) | 2014-05-19 |
JP5885640B2 true JP5885640B2 (en) | 2016-03-15 |
Family
ID=50937010
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012243943A Expired - Fee Related JP5885640B2 (en) | 2012-11-05 | 2012-11-05 | Vehicle periphery monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5885640B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6384419B2 (en) | 2015-07-24 | 2018-09-05 | トヨタ自動車株式会社 | Animal type determination device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4173901B2 (en) * | 2006-05-19 | 2008-10-29 | 本田技研工業株式会社 | Vehicle periphery monitoring device |
JP2008021035A (en) * | 2006-07-11 | 2008-01-31 | Fujitsu Ten Ltd | Image recognition device, image recognition method, and vehicle control device |
JP5004903B2 (en) * | 2008-08-25 | 2012-08-22 | 本田技研工業株式会社 | Vehicle periphery monitoring device |
JP5345992B2 (en) * | 2010-09-08 | 2013-11-20 | 本田技研工業株式会社 | Vehicle periphery monitoring device |
-
2012
- 2012-11-05 JP JP2012243943A patent/JP5885640B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014093000A (en) | 2014-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5577398B2 (en) | Vehicle periphery monitoring device | |
JP4173901B2 (en) | Vehicle periphery monitoring device | |
JP4410292B1 (en) | Vehicle periphery monitoring device | |
JP5687702B2 (en) | Vehicle periphery monitoring device | |
JP4482599B2 (en) | Vehicle periphery monitoring device | |
JP5760090B2 (en) | Biological recognition device | |
JP2007334751A (en) | Vehicle periphery monitoring device | |
JP2007310706A (en) | Vehicle periphery monitoring device | |
JP4644273B2 (en) | Vehicle periphery monitoring device | |
JP5502149B2 (en) | Vehicle periphery monitoring device | |
JP5345992B2 (en) | Vehicle periphery monitoring device | |
JP5885640B2 (en) | Vehicle periphery monitoring device | |
JP2012053663A (en) | Object kind determination device | |
JP5642785B2 (en) | Vehicle periphery monitoring device | |
JP2010092429A (en) | Vehicle surrounding monitoring device | |
JP5802183B2 (en) | Vehicle periphery monitoring device | |
JP5559121B2 (en) | Object type determination device | |
JP5383246B2 (en) | Vehicle periphery monitoring device | |
JP5907849B2 (en) | Vehicle periphery monitoring device | |
JP5149918B2 (en) | Vehicle periphery monitoring device | |
JP5026398B2 (en) | Vehicle periphery monitoring device | |
JP2010113550A (en) | Environment recognition apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150817 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150825 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5885640 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |