JP3987013B2 - 車両周辺監視装置 - Google Patents

車両周辺監視装置 Download PDF

Info

Publication number
JP3987013B2
JP3987013B2 JP2003309059A JP2003309059A JP3987013B2 JP 3987013 B2 JP3987013 B2 JP 3987013B2 JP 2003309059 A JP2003309059 A JP 2003309059A JP 2003309059 A JP2003309059 A JP 2003309059A JP 3987013 B2 JP3987013 B2 JP 3987013B2
Authority
JP
Japan
Prior art keywords
binarized
image
pedestrian
feature quantity
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003309059A
Other languages
English (en)
Other versions
JP2005079999A (ja
Inventor
伸治 長岡
雅和 坂
孝之 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2003309059A priority Critical patent/JP3987013B2/ja
Priority to US10/928,768 priority patent/US7672510B2/en
Priority to DE102004041919A priority patent/DE102004041919B4/de
Publication of JP2005079999A publication Critical patent/JP2005079999A/ja
Application granted granted Critical
Publication of JP3987013B2 publication Critical patent/JP3987013B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/34Protecting non-occupants of a vehicle, e.g. pedestrians
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Description

本発明は、赤外線カメラにより撮影された画像の2値化処理により、対象物の抽出を行う車両周辺監視装置に関する。
従来の車両周辺監視装置は、例えば赤外線カメラ等の撮像手段により捉えられた自車両周辺の画像から、自車両との衝突の可能性がある歩行者等の対象物を抽出し、その情報を自車両の運転者に提供する。この装置では、左右一組のステレオカメラが撮影した自車両周辺の画像において温度が高い部分を対象物とすると共に、対象物の視差を求めることにより該対象物までの距離を算出し、これらの対象物の移動方向や対象物の位置から、自車両の走行に影響を与えそうな対象物を検出して警報を出力する(例えば、特許文献1参照。)。
特開2001−6096号公報
ところで、従来の装置のように、形状判定のみで歩行者の抽出を行った場合、赤外線画像上での歩行者は、着帽、着衣の影響や、歩行者自身の存在環境によって、その2値化形状は不定形であったり、また、一般的に車両走行時には、前方路面の形状の変化や、車両のピッチングの影響があり、歩行者も子供から大人まで本来とは異なる身長で検出される.。そのため、対象物の画面での重心座標が距離に対して固定化できず、歩行者のみを安定して抽出できない可能性がある。そこで、従来からグレースケール画像上から対象物の実空間での大きさを算出すると共に、2値化対象物が存在する位置関係により歩行者らしき対象物のみを抽出する手法や、2値化対象物から道路構造物や車両を抽出し、歩行者以外の対象物として警報対象物から除外する手法が提案されている。
また、一般環境において看板や壁、電柱等、自らは発熱せずに外部より与えられた熱のみを蓄熱する蓄熱体は降雨により温度が低下するために赤外線画像上には出現しなくなり(赤外線カメラでは検出されなくなり)、自動販売機などの自ら発熱する発熱体は、赤外線カメラで検出されるものの、赤外線放射部分は減少(限りなく無いに等しい)し、正確な形状の判定が困難になる傾向がある。同様に、降雨の影響を受けて赤外線の放射量に変化が発生するため、人間も露出している部分(頭等)は検出されるが、衣服で覆われている部分は、衣服の濡れによって赤外線カメラでは検出されなくなる。このように、雨天時とそれ以外の時では、同一地点であっても車両周囲の状況が変化し、赤外線カメラで検出されたグレースケール画像上での全ての対象物の形状が変化する。そこで、従来の手法では車両のワイパーの動作信号や、雨滴センサの検出信号を用いて降雨を判定し、通常時と雨天時とで処理を分別する手法も提案されている。
更に、画像全体のヒストグラムの状態を降雨判定に用いる方法も提案されている。
しかし、多量の雨が降り続くような状況下では、車両のワイパーの動作信号や、雨滴センサの検出信号を用いて降雨を判定し、通常時と雨天時とで処理を分別することで、安定して歩行者を検出することができるようになるものの、小雨や雨の降り始め、降り終わり、雨上がり等の状況下においては、歩行者のみを安定して抽出できなくなる可能性があった。具体的には、車両のワイパーの動作信号や雨滴センサの検出信号を用いて行う降雨判定処理と、赤外線画像から歩行者を抽出する歩行者判定処理とが連動していないため、小雨や雨の降り始め、降り終わり、雨上がり等の状況下において、歩行者判定処理が雨天時の処理を実行した方が良いような状態にもかかわらず、ワイパーの動作信号や雨滴センサの検出信号により通常時の処理を実行した場合、濡れている物体の形状を正確に判断できなくなる可能性があった。
また、画像全体のヒストグラムの状態を降雨判定に用いる場合、物体とその背景の画像において、通常時と雨天時とでその両方にヒストグラムの変化が現れるようなときには有効であるが、通常時と雨天時とで背景にヒストグラムの変化が現れないようなとき(例えば、物体が田んぼ等の自然背景を背景としているとき)には降雨判定の精度が落ちるという問題があった。具体的には、通常時と雨天時とで背景にヒストグラムの変化が現れないようなときに物体が一つであった場合、物体のヒストグラムが変化しても、その変化量が画像全体のヒストグラムに対しては小さすぎるため、画像全体としてのヒストグラムの変化が判別できなくなり、正確に雨天を検知できない(物体の状態を判断できない)可能性があった。
本発明は、上記課題に鑑みてなされたもので、カメラにより撮影された画像から物体の状態を適切に判断し、物体の状態に応じた方法により安定した対象物の抽出を行う車両周辺監視装置を提供することを目的とする。
上記課題を解決するために、請求項1の発明に係る車両周辺監視装置は、赤外線カメラ(例えば後述する実施例の赤外線カメラ2R、2L)により撮影された赤外線画像から、車両(例えば後述する実施例の自車両10)の周辺に存在する物体を検出する車両周辺監視装置であって、前記赤外線画像のグレースケール画像を2値化することにより、前記物体を2値化対象物として抽出する2値化対象物抽出手段(例えば後述する実施例のステップS7、及びステップS31の処理)と、前記2値化対象物の高さもしくは幅を特徴量として算出する2値化対象物特徴量算出手段(例えば後述する実施例のステップS8、及びステップS71の処理)と、前記グレースケール画像から前記2値化対象物に対応するグレースケール対象物を抽出する対象物画像抽出手段(例えば後述する実施例のステップS33、及びステップS73の処理)と、前記グレースケール対象物の高さもしくは幅を特徴量として算出する対象物画像特徴量算出手段(例えば後述する実施例のステップS33、及びステップS73の処理)と、前記2値化対象物特徴量算出手段により抽出された特徴量と前記対象物画像特徴量算出手段により抽出された特徴量とを比較する特徴量比較手段(例えば後述する実施例のステップS34の処理)と、前記特徴量比較手段による比較結果、前記特徴量の差が所定値以内である場合に、前記物体もしくは前記赤外線カメラが降雨の影響を受けている状態であると判断する物体状態判定手段(例えば後述する実施例のステップS35からステップS52の処理)とを備えたことを特徴とする。
以上の構成を備えた車両周辺監視装置は、特徴量比較手段が、2値化対象物の特徴量とグレースケール対象物の特徴量とを比較し、物体状態判定手段が、特徴量比較手段の比較結果に基づいて物体の状態を判断することで、画像自体から、例えば物体が降雨の影響を受けている、あるいはカメラのレンズが汚れている等、物体の状態を判断することができる。
請求項2の発明に係る車両周辺監視装置は、請求項1に記載の車両周辺監視装置において、前記特徴量比較手段が、複数の物体に対して、前記2値化対象物特徴量算出手段により抽出された特徴量と前記対象物画像特徴量算出手段により抽出された特徴量とを比較し、前記物体状態判定手段が、前記特徴量比較手段による比較結果、前記特徴量の差が所定値以内である物体の割合が所定値以上である場合に、前記物体もしくは前記赤外線カメラが降雨の影響を受けている状態であると判断することを特徴とする。
以上の構成を備えた車両周辺監視装置は、特徴量比較手段が、2値化対象物の特徴量とグレースケール対象物の特徴量とを複数の物体に対して比較することで、物体状態判定手段における判断材料を増加させ、物体状態判定手段に増加した判断材料に基づいて正確な物体の状態判断を実行させることができる。
請求項3の発明に係る車両周辺監視装置は、請求項1、または請求項2に記載の車両周辺監視装置において、前記特徴量比較手段が、複数の画像フレームに渡って、前記2値化対象物特徴量算出手段により抽出された特徴量と前記対象物画像特徴量算出手段により抽出された特徴量とを比較し、前記物体状態判定手段が、前記特徴量比較手段による比較結果、前記特徴量の差が所定値以内である物体の割合が所定値以上である画像フレームの割合が所定値以上である場合に、前記物体もしくは前記赤外線カメラが降雨の影響を受けている状態であると判断することを特徴とする。
以上の構成を備えた車両周辺監視装置は、特徴量比較手段が、2値化対象物の特徴量とグレースケール対象物の特徴量とを複数の画像フレームに渡って比較することで、物体状態判定手段における判断材料を増加させ、物体状態判定手段に増加した判断材料に基づいて正確な物体の状態判断を実行させることができる。
請求項4の発明に係る車両周辺監視装置は、請求項1〜3のいずれかに記載の車両周辺監視装置において、少なくとも前記2値化対象物特徴量算出手段により算出された特徴量と前記対象物画像特徴量算出手段により算出された特徴量とを用いて歩行者を認識する歩行者認識手段(例えば後述する実施例のステップS72、及びステップS74からステップS118の処理)を備え、前記歩行者認識手段が、前記物体状態判定手段によって物体もしくは前記赤外線カメラが降雨の影響を受けていると判断された場合、前記歩行者の認識処理方法を降雨モードに変更することを特徴とする。
以上の構成を備えた車両周辺監視装置は、特徴量比較手段が、2値化対象物の特徴量とグレースケール対象物の特徴量とを比較し、2値化対象物の特徴量とグレースケール対象物の特徴量とを用いて歩行者を認識する歩行者認識手段が、特徴量比較手段の比較結果に基づいて歩行者の認識処理方法を変更することで、画像自体から歩行者の認識処理方法を判断しながら、安定して歩行者のみを認識できる。
請求項5の発明に係る車両周辺監視装置は、赤外線カメラ(例えば後述する実施例の赤外線カメラ2R、2L)により撮影された赤外線画像から、車両(例えば後述する実施例の自車両10)の周辺に存在する物体を検出する車両周辺監視装置であって、前記赤外線画像のグレースケール画像を複数の輝度しきい値によって2値化することにより、前記物体を輝度しきい値の異なる複数の2値化対象物として抽出する2値化対象物抽出手段(例えば後述する実施例のステップS125、及びステップS141とステップS146の処理)と、輝度しきい値の異なる前記複数の2値化対象物の面積を特徴量としてそれぞれ算出する2値化対象物特徴量算出手段(例えば後述する実施例のステップS125、及びステップS142からステップS145、ステップS147からステップS150の処理)と、前記2値化対象物特徴量算出手段により抽出された輝度しきい値の異なる前記複数の2値化対象物の特徴量を相互に比較する特徴量比較手段(例えば後述する実施例のステップS126からステップS130の処理)と、前記特徴量比較手段による比較の結果、前記特徴量の差が所定値以内である場合に、前記物体もしくは前記赤外線カメラが降雨の影響を受けている状態であると判断する物体状態判定手段(例えば後述する実施例のステップS131からステップS133の処理)とを備えたことを特徴とする。
以上の構成を備えた車両周辺監視装置は、特徴量比較手段が、輝度しきい値の異なる複数の2値化対象物の特徴量を相互に比較し、物体状態判定手段が、特徴量比較手段の比較結果に基づいて物体の状態を判断することで、画像自体から、例えば物体が降雨の影響を受けている、あるいはカメラのレンズが汚れている等、物体の状態を判断することができる。
請求項の発明に係る車両周辺監視装置は、請求項に記載の車両周辺監視装置において、前記特徴量比較手段が、複数の物体に対して、前記2値化対象物特徴量算出手段により抽出された輝度しきい値の異なる前記複数の2値化対象物の特徴量を相互に比較し、前記物体状態判定手段が、前記特徴量比較手段による比較結果、前記特徴量の差が所定値以内である物体の割合が所定値以上である場合に、前記物体もしくは前記赤外線カメラが降雨の影響を受けている状態であると判断することを特徴とする。
以上の構成を備えた車両周辺監視装置は、特徴量比較手段が、輝度しきい値の異なる複数の2値化対象物の特徴量を複数の物体に対して比較することで、物体状態判定手段における判断材料を増加させ、物体状態判定手段に増加した判断材料に基づいて正確な物体の状態判断を実行させることができる。
請求項の発明に係る車両周辺監視装置は、請求項5に記載の車両周辺監視装置において、少なくとも前記2値化対象物特徴量算出手段により算出された特徴量と前記対象物画像特徴量算出手段により算出された特徴量とを用いて歩行者を認識する歩行者認識手段(例えば後述する実施例のステップS72、及びステップS74からステップS118の処理)を備え、前記歩行者認識手段が、前記物体状態判定手段によって物体もしくは前記赤外線カメラが降雨の影響を受けていると判断された場合、前記歩行者の認識処理方法を降雨モードに変更することを特徴とする。
以上の構成を備えた車両周辺監視装置は、特徴量比較手段が、輝度しきい値の異なる複数の2値化対象物の特徴量を相互に比較し、2値化対象物の特徴量とグレースケール対象物の特徴量とを用いて歩行者を認識する歩行者認識手段が、特徴量比較手段の比較結果に基づいて歩行者の認識処理方法を変更することで、画像自体から歩行者の認識処理方法を判断しながら、安定して歩行者のみを認識できる。
請求項の発明に係る車両周辺監視装置は、請求項4又は7に記載の車両周辺監視装置において、降雨モードの歩行者認識方法では、輝度分散による判定を行わないことを特徴とする。
請求項1に記載の車両周辺監視装置によれば、画像自体から、例えば物体が降雨の影響を受けている、あるいはカメラのレンズが汚れている等、物体の状態を判断することができる。従って、例えばワイパーの動作信号や雨滴センサの検出信号等を利用しなくても物体の状態を判断することができるので、これらを利用するためのセンサ等を設ける必要がなく、コストを削減しつつ物体の状態判断の信頼性を向上させ、的確に物体の状態を判断可能な車両周辺監視装置を実現することができるという効果が得られる。また、例えば画像全体のヒストグラムの状態を降雨判定に用いる場合と異なり、物体の状態を直接判断することができるので、背景の内容等に影響されず、精度良く正確に物体の状態を判断可能な車両周辺監視装置を実現することができるという効果が得られる。
請求項2、または請求項3に記載の車両周辺監視装置によれば、物体状態判定手段における判断材料を増加させ、物体状態判定手段に増加した判断材料に基づいて正確な物体の状態判断を実行させることができる。従って、物体状態判定手段における物体の状態判断の信頼性を更に向上させ、物体状態判定手段における状態判断の誤判断を防止することができるという効果が得られる。
請求項4に記載の車両周辺監視装置によれば、歩行者認識手段が、特徴量比較手段の比較結果に基づいて歩行者の認識処理方法を変更することで、画像自体から歩行者の認識処理方法を判断しながら、安定して歩行者のみを認識できる。従って、例えばワイパーの動作信号や雨滴センサの検出信号等を利用しなくても物体の状態を判断することができるので、これらを利用するためのセンサ等を設ける必要がなく、コストを削減しつつ歩行者認識の信頼性を向上させ、安定して歩行者のみを認識可能な車両周辺監視装置を実現することができるという効果が得られる。更に、物体の状態にかかわらず、歩行者の検出精度を維持することができるという効果が得られる。
請求項に記載の車両周辺監視装置によれば、画像自体から、例えば物体が降雨の影響を受けている、あるいはカメラのレンズが汚れている等、物体の状態を判断することができる。従って、例えばワイパーの動作信号や雨滴センサの検出信号等を利用しなくても物体の状態を判断することができるので、これらを利用するためのセンサ等を設ける必要がなく、コストを削減しつつ物体の状態判断の信頼性を向上させ、的確に物体の状態を判断可能な車両周辺監視装置を実現することができるという効果が得られる。また、異なる輝度しきい値を用いて2値化したそれぞれの2値化対象物の例えば面積等の特徴量、あるいは2値化対象物に対応する外接四角形の例えば面積、高さ、幅等の特徴量を比較することで物体の状態を判断するため、グレースケール画像を探索する処理を実行する必要がなく、処理時間が短縮されるという効果が得られる。
請求項に記載の車両周辺監視装置によれば、物体状態判定手段における判断材料を増加させ、物体状態判定手段に増加した判断材料に基づいて正確な物体の状態判断を実行させることができる。従って、物体状態判定手段における物体の状態判断の信頼性を更に向上させ、物体状態判定手段における状態判断の誤判断を防止することができるという効果が得られる。
請求項に記載の車両周辺監視装置によれば、歩行者認識手段が、特徴量比較手段の比較結果に基づいて歩行者の認識処理方法を変更することで、画像自体から歩行者の認識処理方法を判断しながら、安定して歩行者のみを認識できるようになる。従って、例えばワイパーの動作信号や雨滴センサの検出信号等を利用しなくても物体の状態を判断することができるので、これらを利用するためのセンサ等を設ける必要がなく、コストを削減しつつ歩行者認識の信頼性を向上させ、安定して歩行者のみを認識可能な車両周辺監視装置を実現することができるという効果が得られる。また、異なる輝度しきい値を用いて2値化したそれぞれの2値化対象物の例えば面積等の特徴量、あるいは2値化対象物に対応する外接四角形の例えば面積、高さ、幅等の特徴量を比較することで物体の状態を判断するため、グレースケール画像を探索する処理を実行する必要がなく、処理時間が短縮されるという効果が得られる。
請求項12に記載の車両周辺監視装置によれば、歩行者認識手段における判断材料を増加させ、歩行者認識手段に増加した判断材料に基づいて正確な歩行者認識を実行させることができる。従って、歩行者認識手段における歩行者認識の信頼性を更に向上させ、歩行者認識手段における歩行者の誤認識を防止することができるという効果が得られる。
(全体構成)
図1は、本発明の第1の実施例の車両周辺監視装置の構成を示すブロック図である。
図1において、符号1は、本実施例の車両周辺監視装置を制御するCPU(中央演算装置)を備えた画像処理ユニットであって、遠赤外線を検出可能な2つの赤外線カメラ2R、2Lと当該車両のヨーレートを検出するヨーレートセンサ3、更に、当該車両の走行速度(車速)を検出する車速センサ4とブレーキの操作を検出するためのブレーキセンサ5が接続される。これにより、画像処理ユニット1は、車両の周辺の赤外線画像と車両の走行状態を示す信号とから、車両前方の歩行者や動物等の動く物体を検出し、衝突の可能性が高いと判断したときに警報を発する。
また、画像処理ユニット1には、音声で警報を発するためのスピーカ6と、赤外線カメラ2R、2Lにより撮影された画像を表示し、衝突の危険性が高い対象物を車両の運転者に認識させるための、例えば自車両の走行状態を数字で表すメータと一体化されたメータ一体Displayや自車両のコンソールに設置されるNAVIDisplay、更にフロントウィンドウの運転者の前方視界を妨げない位置に情報を表示するHUD(Head Up Display )7a等を含む画像表示装置7が接続されている。
また、画像処理ユニット1は、入力アナログ信号をディジタル信号に変換するA/D変換回路、ディジタル化した画像信号を記憶する画像メモリ、各種演算処理を行うCPU(中央演算装置)、CPUが演算途中のデータを記憶するために使用するRAM(Random Access Memory)、CPUが実行するプログラムやテーブル、マップなどを記憶するROM(Read Only Memory)、スピーカ6の駆動信号、画像表示装置7の表示信号などを出力する出力回路を備えており、赤外線カメラ2R、2L及びヨーレートセンサ3、車速センサ4、ブレーキセンサ5の各出力信号は、ディジタル信号に変換されてCPUに入力されるように構成されている。
また、図2に示すように、赤外線カメラ2R、2Lは、自車両10の前部に、自車両10の車幅方向中心部に対してほぼ対称な位置に配置されており、2つの赤外線カメラ2R、2Lの光軸が互いに平行であって、かつ両者の路面からの高さが等しくなるように固定されている。なお、赤外線カメラ2R、2Lは、対象物の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有している。
また、HUD7aは、自車両10のフロントウインドウの運転者の前方視界を妨げない位置に表示画面が表示されるように設けられている。
次に、本実施例の動作について図面を参照して説明する。
(対象物検出・警報動作)
図3は、本実施例の車両周辺監視装置の画像処理ユニット1における歩行者等の対象物検出・警報動作を示すフローチャートである。
図3において、まず画像処理ユニット1は、赤外線カメラ2R、2Lの出力信号である赤外線画像を取得して(ステップS1)、A/D変換し(ステップS2)、グレースケール画像を画像メモリに格納する(ステップS3)。なお、ここでは赤外線カメラ2Rにより右画像が得られ、赤外線カメラ2Lにより左画像が得られる。また、右画像と左画像では、同一の対象物の表示画面上の水平位置がずれて表示されるので、このずれ(視差)によりその対象物までの距離を算出することができる。
ステップS3においてグレースケール画像が得られたら、次に、赤外線カメラ2Rにより得られた右画像を基準画像とし、その画像信号の2値化処理、すなわち、輝度しきい値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う(ステップS4)。
図4(a)は、赤外線カメラ2Rにより得られたグレースケール画像を示し、これに2値化処理を行うことにより、図4(b)に示すような画像を得る。なお、図4(b)において、例えばP1からP4の枠で囲った物体を、表示画面上に白色として表示される対象物(以下「高輝度領域」という)とする。
赤外線画像から2値化された画像データを取得したら、2値化した画像データをランレングスデータに変換する処理を行う(ステップS5)。ランレングスデータにより表されるラインは、2値化により白となった領域を画素レベルで示したもので、いずれもy方向には1画素の幅を有しており、またx方向にはそれぞれランレングスデータを構成する画素の長さを有している。
次に、ランレングスデータに変換された画像データから、対象物のラベリングをする(ステップS6)ことにより、対象物を抽出する処理を行う(ステップS7)。すなわち、ランレングスデータ化したラインのうち、y方向に重なる部分のあるラインを1つの対象物とみなすことにより、例えば図4(b)に示す高輝度領域P1からP4が、それぞれ対象物(2値化対象物)として把握されることになる。
2値化対象物の抽出が完了したら、次に、抽出した2値化対象物の重心G、面積S及び外接四角形の縦横比ASPECTを算出する(ステップS8)。
ここで、面積Sは、ラベルAの対象物のランレングスデータを(x[i]、y[i]、run[i]、A)(i=0,1,2,・・・N−1)とすると、ランレングスデータの長さ(run[i]−1)を同一対象物(N個のランレングスデータ)について積算することにより算出する。また、対象物Aの重心Gの座標(xc、yc)は、各ランレングスデータの長さ(run[i]−1)と各ランレングスデータの座標x[i]、またはy[i]とをそれぞれ掛け合わせ、更にこれを同一対象物について積算したものを、面積Sで割ることにより算出する。
更に、縦横比ASPECTは、対象物の外接四角形の縦方向の長さDyと横方向の長さDxとの比Dy/Dxとして算出する。
なお、ランレングスデータは画素数(座標数)(=run[i])で示されているので、実際の長さは「−1」する(1を減算する)必要がある(=run[i]−1)。また、重心Gの位置は、外接四角形の重心位置で代用してもよい。
2値化対象物の重心、面積、外接四角形の縦横比が算出できたら、次に、対象物の時刻間追跡、すなわちサンプリング周期毎の同一対象物の認識を行う(ステップS9)。時刻間追跡は、アナログ量としての時刻tをサンプリング周期で離散化した時刻をkとし、例えば時刻kで対象物A、Bを抽出したら、時刻(k+1)で抽出した対象物C、Dと対象物A、Bとの同一性判定を行う。そして、対象物A、Bと対象物C、Dとが同一であると判定されたら、対象物C、Dをそれぞれ対象物A、Bというラベルに変更することにより、時刻間追跡が行われる。
また、このようにして認識された各対象物の(重心の)位置座標は、時系列位置データとしてメモリに格納され、後の演算処理に使用される。
なお、以上説明したステップS4〜S9の処理は、2値化した基準画像(本実施例では、右画像)について実行する。
次に、車速センサ4により検出される車速VCAR及びヨーレートセンサ3より検出されるヨーレートYRを読み込み、ヨーレートYRを時間積分することにより、自車両10の回頭角θrを算出する(ステップS10)。
一方、ステップS9とステップS10の処理に平行して、ステップS11〜S13では、対象物と自車両10との距離zを算出する処理を行う。この演算はステップS9、及びステップS10より長い時間を要するため、ステップS9、S10より長い周期(例えばステップS1〜S10の実行周期の3倍程度の周期)で実行される。
まず、基準画像(右画像)の2値化画像によって追跡される対象物の中の1つを選択することにより、右画像から探索画像R1(ここでは、外接四角形で囲まれる領域全体を探索画像とし、この探索画像の外接四角形を対象枠という)を抽出する(ステップS11)。
次に、左画像中から探索画像R1に対応する画像(以下「対応画像」という)を探索する探索領域を設定し、相関演算を実行して対応画像R4を抽出する(ステップS12)。具体的には、探索画像R1の各頂点座標に応じて、左画像中に探索領域R2を設定し、探索領域R2内で探索画像R1との相関の高さを示す輝度差分総和値C(a,b)を算出し、この総和値C(a,b)が最小となる領域を対応画像として抽出する。なお、この相関演算は、2値化画像ではなくグレースケール画像を用いて行う。また同一対象物についての過去の位置データがあるときは、その位置データに基づいて探索領域R2より狭い領域R2aを探索領域として設定する。
ステップS12の処理により、基準画像(右画像)中に探索画像R1と、左画像中にこの対象物に対応する対応画像R4とが抽出されるので、次に、探索画像R1の重心位置と対応画像R4の重心位置と視差Δd(画素数)を求め、これから自車両10と対象物との距離zを算出する(ステップS13)。
また、ステップS10における回頭角θrの算出と、ステップS13における対象物との距離zの算出が完了したら、次に、自車両10が回頭することによる画像上の位置ずれを補正するための回頭角補正を行う(ステップS14)。回頭角補正は、時刻kから(k+1)までの期間中に自車両10が例えば左方向に回頭角θrだけ回頭すると、カメラによって得られる画像上では、画像の範囲がΔxだけx方向にずれるので、これを補正する処理である。
また、回頭角補正を終了したら、画像内の座標(x,y)及び距離zを実空間座標(X,Y,Z)に変換する(ステップS15)。
ここで、実空間座標(X,Y,Z)は、図2に示すように、赤外線カメラ2R、2Lの取り付け位置の中点の位置(自車両10に固定された位置)を原点Oとして図示のように定め、画像内の座標は、画像の中心を原点として水平方向をx、垂直方向をyと定めている。なお、以下の説明では、回頭角補正後の座標を(X,Y,Z)と表示する。
次に、実空間座標に対する回頭角補正が完了したら、同一対象物について、ΔTのモニタ期間内に得られた、回頭角補正後のN個(例えばN=10程度)の実空間位置データ、すなわち時系列データから、対象物と自車両10との相対移動ベクトルに対応する近似直線LMVを求める。
次いで、最新の位置座標P(0)=(X(0),Y(0),Z(0))と、(N−1)サンプル前(時間ΔT前)の位置座標P(Nー1)=(X(N−1),Y(N−1),Z(N−1))を近似直線LMV上の位置に補正し、補正後の位置座標Pv(0)=(Xv(0),Yv(0),Zv(0))及びPv(N−1)=(Xv(N−1),Yv(N−1),Zv(N−1))を求める。
これにより、位置座標Pv(N−1)からPv(0)に向かうベクトルとして、相対移動ベクトルが得られる(ステップS16)。
このようにモニタ期間ΔT内の複数(N個)のデータから対象物の自車両10に対する相対移動軌跡を近似する近似直線を算出して相対移動ベクトルを求めることにより、位置検出誤差の影響を軽減して対象物との衝突の可能性をより正確に予測することが可能となる。
また、ステップS16において、相対移動ベクトルが求められたら、次に、検出した対象物との衝突の可能性を判定する警報判定処理を行う(ステップS17)。なお、警報判定処理については、詳細を後述する。
ステップS17において、自車両10と検出した対象物との衝突の可能性がないと判定された場合(ステップS17のNO)、ステップS1へ戻り、上述の処理を繰り返す。
また、ステップS17において、自車両10と検出した対象物との衝突の可能性があると判定された場合(ステップS17のYES)、ステップS18の警報出力判定処理へ進む。
ステップS18では、ブレーキセンサ5の出力BRから自車両10の運転者がブレーキ操作を行っているか否かを判別することにより、警報出力判定処理、すなわち警報出力を行うか否かの判定を行う(ステップS18)。
もし、自車両10の運転者がブレーキ操作を行っている場合には、それによって発生する加速度Gs(減速方向を正とする)を算出し、この加速度Gsが所定しきい値GTHより大きいときは、ブレーキ操作により衝突が回避されると判定して警報出力判定処理を終了し(ステップS18のNO)、ステップS1へ戻り、上述の処理を繰り返す。
これにより、適切なブレーキ操作が行われているときは、警報を発しないようにして、運転者に余計な煩わしさを与えないようにすることができる。
また、加速度Gsが所定しきい値GTH以下であるとき、または自車両10の運転者がブレーキ操作を行っていなければ、直ちにステップS19の処理へ進み(ステップS18のYES)、対象物と接触する可能性が高いので、スピーカ6を介して音声による警報を発する(ステップS19)とともに、画像表示装置7に対して、例えば赤外線カメラ2Rにより得られる画像を出力し、接近してくる対象物を自車両10の運転者に対する強調映像として表示する(ステップS20)。
なお、所定しきい値GTHは、ブレーキ操作中の加速度Gsがそのまま維持された場合に、対象物と自車両10との距離Zv(0)以下の走行距離で自車両10が停止する条件に対応する値である。
一方、本実施例の車両周辺監視装置の画像処理ユニット1では、ステップS9からステップS16の処理に平行して、降雨判定処理が実行される(ステップS21)。降雨判定処理は、車両周辺の物体が降雨の影響を受けて濡れているか否かを判定し、後述する警報判定処理の中の歩行者判定処理の動作モードを決定する処理であって、決定された動作モードに従って、後述する警報判定処理の中の歩行者判定処理では処理方法が変更される。なお、降雨判定処理、警報判定処理、及び歩行者判定処理の詳細は、以下に順を追って説明する。
(特徴量の算出方法)
まず降雨判定処理、警報判定処理、及び歩行者判定処理の詳細を説明する前に、先に各処理に用いる2値化対象物の特徴量、あるいは抽出された2値化対象物に対応するグレースケール画像上の対象物(グレースケール対象物)の特徴量の算出方法を具体的に説明する。
まず、実空間での2値化対象物の形状の特徴を示す2値化対象物形状特徴量は、図3に示したフローチャートのステップS8において算出された2値化対象物の重心G(xc、yc)(図5に示す2値化対象物の重心G100)と、面積S(図5に示す2値化対象物面積S101)と、対象物の外接四角形の縦横比ASPECTと、ステップS13において算出された自車両10と対象物との距離zに加えて、図5に示す2値化対象物の外接四角形の高さhbと幅wb、及び外接四角形重心座標(xb、yb)(図5に示す外接四角形重心102)の値、更にはカメラの基線長D[m]、カメラ焦点距離f[m]、画素ピッチp[m/pixel]、及び左右映像の相関演算によって算出される視差量Δd[pixel]を用いて算出する。
具体的には、外接四角形と対象物面積の比率Rateは、
Rate=S/(hb×wb) ・・・(1)
外接四角形の縦横比ASPECTを表すAspは、
Asp=hb/wb ・・・(2)
自車両10と対象物との距離zは、
z=(f×D)/(Δd×p) ・・・(3)
と表されるので、実空間における2値化対象物の幅ΔWbや高さΔHbは、
ΔWb=wb×z×p/f
ΔHb=hb×z×p/f ・・・(4)
2値化対象物の重心座標(Xc,Yc,Zc)は、
Xc=xc×z×p/f
Yc=yc×z×p/f
Zc=z ・・・(5)
対象物外接四角形重心座標(Xb,Yb,Zb)は、
Xb=xb×z×p/f
Yb=yb×z×p/f
Zb=z ・・・(6)
2値化対象物の上端位置座標(Xt,Yt,Zt)は、
Xt=xb×z×p/f
Yt=yb×z×p/f−ΔHb/2
Zt=z ・・・(7)
で算出することができる。
また、グレースケール対象物の特徴量の1つである高さは、次のようにして算出する。
具体的には、図6に示すように、実空間での大きさがW[m]×H[m]、画面上のマスク領域サイズWp[pixel]×Hp[pixel]である長方形領域のマスク領域(それぞれをMASK[I]、但しI=0、1、2、・・・とする)を、図3に示したフローチャートのステップS3において取得されたグレースケール画像上に2値化対象物外接四角形の上端から複数個並べて設定し、下記条件1から条件3の条件を満たすマスク領域(例えば図6において、「TRUE」と判定したマスク領域)を包含する領域をグレースケール対象物の領域として抽出する。
条件1:マスク領域内の輝度変化が大きい(対象物と背景画像とが含まれている)。
条件2:左右の画像間のマスク領域の相関度が高い(マスク領域内に2つ以上の対象物が存在しない)。
条件3:2値化対象物と同距離(同視差)である。
そして、画像上でのグレースケール対象物の領域の高さHeight(pixel)を算出し、(8)式によりグレースケール対象物の高さΔHgを算出する。
ΔHg=z×Height×p/f ・・・(8)
(降雨判定処理)
次に、図7及び図8に示すフローチャートを参照して、図3に示したフローチャートのステップS21における降雨判定処理について更に詳細に説明する。図7及び図8は、本実施例の降雨判定処理動作を示すフローチャートであって、複数の画像フレームについて降雨の判定を行い、その集計結果から歩行者判定処理の動作モードを決定する手順について示す。
図7において、まず画像処理ユニット1は、1つの画像フレームに対して、任意のN1個(N1は整数であり、例えば画像上の全ての物体)の2値化対象物を抽出する(ステップS31)。
次に、変数Iと変数Cとを「ゼロ」にリセットする(ステップS32)。
そして、先に示した方法で抽出された2値化対象物のいずれか1個に対応するグレースケール対象物の高さを算出する(ステップS33)。
次に、グレースケール対象物の高さΔHgと2値化対象物の高さΔHbとの差の絶対値が所定値ΔHより小さいか否かを判定する(ステップS34)。
すなわち、図9(1)に示すように、通常時にはグレースケール対象物の高さΔHgと2値化対象物の高さΔHbとは区別することが可能であるが、図9(2)に示すように、降雨による影響を受けている時にはカメラレンズに付着した雨滴や、空気中の水蒸気や雨滴、あるいは濡れたことによる物体の状態の影響を受けて、グレースケール対象物の高さΔHgと2値化対象物の高さΔHbとの間に差がなくなる(グレースケール対象物と2値化対象物とが等しくなる)傾向にある。従って、グレースケール対象物の高さΔHgと2値化対象物の高さΔHbとの差を所定値ΔHと比較することで、車両の周囲やカメラが通常の状態と、あるいは降雨による影響を受けている状態(カメラレンズが汚れている場合を含む)とを判別する。なお、2値化対象物の高さΔHbの値は、後述する歩行者判定処理の中で算出しても良いし、ステップS33において、グレースケール対象物の高さと共に算出しても良い。
ステップS34において、グレースケール対象物の高さΔHgと2値化対象物の高さΔHbとの差の絶対値「|ΔHg−ΔHb|」が所定値ΔHより小さい場合(ステップS34のYES)、画像処理ユニット1は変数Cを「1」だけカウントアップし、降雨の影響を受けていると考えられる2値化対象物として、グレースケール対象物の高さΔHgと2値化対象物の高さΔHbとの差の絶対値「|ΔHg−ΔHb|」が所定値ΔHより小さい2値化対象物の数を計数する(ステップS35)。
次に、変数Iを「1」だけカウントアップする(ステップS36)。
また、ステップS34において、グレースケール対象物の高さΔHgと2値化対象物の高さΔHbとの差の絶対値が所定値ΔH以上である場合(ステップS34のNO)、画像処理ユニット1はステップS36へ進み、変数Iのみを「1」だけカウントアップする(ステップS36)。
そして、変数Iが2値化対象物の総数N1以上となったか否かを判定し(ステップS37)、変数Iが2値化対象物の総数N1未満であった場合(ステップS37のNO)、画像処理ユニット1は、ステップS33へ戻り、抽出された2値化対象物の次の1個に対応するグレースケール対象物の高さを算出し、上述の処理を繰り返す。
一方、ステップS37において、変数Iが2値化対象物の総数N1以上であった場合(ステップS37のYES)、変数Cの2値化対象物の総数N1に対する割合「C/N1」、すなわちグレースケール対象物の高さΔHgと2値化対象物の高さΔHbとの差の絶対値「|ΔHg−ΔHb|」が所定値ΔHより小さい2値化対象物の数Cの2値化対象物の総数N1に対する割合「C/N1」が、所定値X1より大きいか否かを判定する(ステップS38)。
そして、ステップS38において、高さの差の絶対値が所定値ΔHより小さい2値化対象物の数Cの2値化対象物の総数N1に対する割合「C/N1」が、所定値X1より大きい場合(ステップS38のYES)、この画像フレームを降雨判定のフレームと判定して、最新の画像フレームの状態を示すフラグF[0]に「1」を設定する(ステップS39)。
一方、ステップS38において、高さの差の絶対値が所定値ΔHより小さい2値化対象物の数Cの2値化対象物の総数N1に対する割合「C/N1」が、所定値X1以下の場合(ステップS38のNO)、この画像フレームを通常判定のフレームと判定して、最新の画像フレームの状態を示すフラグF[0]に「0」を設定する(ステップS40)。
以上ステップS31からステップS40までの処理は、1つの画像フレームに対する処理であって、次に画像処理ユニット1は、過去の画像フレームが降雨判定のフレームであったか、あるいは通常判定のフレームであったかを複数の画像フレームについて集計するために、まず変数Jと変数Kとを「ゼロ」にリセットする(ステップS41)。
そして、変数Jで指定される画像フレームの状態を示すフラグF[J]が「1」であるか否かを判定する(ステップS42)。
もし、ステップS42において、変数Jで指定される画像フレームの状態を示すフラグF[J]が「1」である場合(ステップS42のYES)、画像処理ユニット1は、変数Kを「1」だけカウントアップする(ステップS43)。
次に、変数Jを「1」だけカウントアップする(ステップS44)。
また、ステップS42において、変数Jで指定される画像フレームの状態を示すフラグF[J]が「0」である場合(ステップS42のNO)、画像処理ユニット1は、ステップS44へ進み、変数Jのみを「1」だけカウントアップする(ステップS44)。
そして、変数Jが判定する画像フレームの総数を示す所定値M以上となったか否かを判定し(ステップS45)、変数Jが判定する画像フレームの総数M未満であった場合(ステップS45のNO)、画像処理ユニット1は、ステップS42へ戻り、変数Jで指定される次の画像フレームの状態を示すフラグF[J]の判定を行い、上述の処理を繰り返す。
一方、ステップS45において、変数Jが判定する画像フレームの総数M以上であった場合(ステップS45のYES)、画像処理ユニット1は、図8のステップS46へ進み、変数Kの画像フレームの総数Mに対する割合「K/M」、すなわち降雨判定のフレームとされた画像フレームの数Kの画像フレームの総数Mに対する割合「K/M」が、所定値Yより大きいか否かを判定する(ステップS46)。
そして、ステップS46において、降雨判定のフレームの数Kの画像フレームの総数Mに対する割合「K/M」が、所定値Yより大きい場合(ステップS46のYES)、歩行者判定処理の動作モードを降雨モードと判定して、歩行者判定処理の動作モードを示すフラグ「Rain_flag」に「1」を設定する(ステップS47)。
一方、ステップS46において、降雨判定のフレームの数Kの画像フレームの総数Mに対する割合「K/M」が、所定値Y以下の場合(ステップS46のNO)、歩行者判定処理の動作モードを通常モードと判定して、歩行者判定処理の動作モードを示すフラグ「Rain_flag」に「0」を設定する(ステップS48)。
上述のように、複数の画像フレームについて降雨の判定を行い、その集計結果から歩行者判定処理の動作モードを決定したら、次に、画像処理ユニット1は、変数Jに画像フレームの総数Mから「1」引いた値を設定すると共に(ステップS49)、変数Jで指定される画像フレームの状態を示すフラグF[J]にフラグF[J−1]の内容を複写し(ステップS50)、変数Jを「1」だけカウントダウンする(ステップS51)。
そして、変数Jが「0」より大きいか否かを判定し(ステップS52)、変数Jが「0」より大きい場合(ステップS52のYES)、ステップS50へ戻り、上述の処理を繰り返す。
一方、ステップS52において、変数Jが「0」以下の場合(ステップS52のNO)、降雨判定処理を終了する。すなわち、ステップS49からステップS52の処理によって、画像フレームの状態を示すフラグの内容が1個ずつシフトされ、最新の画像フレームの状態を示すフラグF[0]が空いた状態となる。
(第1の実施例における降雨判定処理の別の形態)
図7及び図8に示すステップS31からステップS52の処理では、ロバスト性を向上させるために複数の画像フレームについて降雨の判定を行い、その集計結果から歩行者判定処理の動作モードを決定する手順について示したが、降雨判定処理は、処理手順を簡略化するために、複数の画像フレームについての集計結果を用いず1つの画像フレームの判定結果を歩行者判定処理の動作モードとしても良い。具体的には、図7に示すステップS38において、変数Cの2値化対象物の総数N1に対する割合「C/N1」、すなわち高さの差の絶対値が所定値ΔHより小さい2値化対象物の数Cの2値化対象物の総数N1に対する割合「C/N1」が、所定値X1より大きい場合(ステップS38のYES)、画像処理ユニット1は、ステップS47へ進み、歩行者判定処理の動作モードを降雨モードと判定して、歩行者判定処理の動作モードを示すフラグ「Rain_flag」に「1」を設定する。
またステップS38において、高さの差の絶対値が所定値ΔHより小さい2値化対象物の数Cの2値化対象物の総数N1に対する割合「C/N1」が、所定値X1以下の場合(ステップS38のNO)、画像処理ユニット1は、ステップS48へ進み、歩行者判定処理の動作モードを通常モードと判定して、歩行者判定処理の動作モードを示すフラグ「Rain_flag」に「0」を設定する。
なお、複数の画像フレームについての集計結果を用いずに、1つの画像フレームの判定結果を歩行者判定処理の動作モードとする場合、その後のステップS39からステップS46、及びステップS49からステップS52により実行される複数の画像フレームの判定内容の集計処理は実行しなくて良い。
(警報判定処理)
次に、図10に示すフローチャートを参照して、図3に示したフローチャートのステップS17における警報判定処理について更に詳細に説明する。
図10は、本実施例の警報判定処理動作を示すフローチャートである。
警報判定処理は、以下に示す衝突判定処理、接近判定領域内か否かの判定処理、進入衝突判定処理、歩行者判定処理、及び人工構造物判定処理により、自車両10と検出した対象物との衝突の可能性を判定する処理である。以下、図11に示すように、自車両10の進行方向に対してほぼ90°の方向から、速度Vpで進行してくる対象物20がいる場合を例に取って説明する。
図10において、まず、画像処理ユニット1は衝突判定処理を行う(ステップS61)。衝突判定処理は、図11において、対象物20が時間ΔTの間に距離Zv(N−1)から距離Zv(0)に接近した場合に、自車両10とのZ方向の相対速度Vsを求め、両者が高さH以内で相対速度Vsを維持して移動すると仮定して、余裕時間T以内に両者が衝突するか否かを判定する処理である。ここで、余裕時間Tは、衝突の可能性を予測衝突時刻より時間Tだけ前に判定することを意図したものである。従って、余裕時間Tは例えば2〜5秒程度に設定される。またHは、高さ方向の範囲を規定する所定高さであり、例えば自車両10の車高の2倍程度に設定される。
次に、ステップS61において、余裕時間T以内に自車両10と対象物とが衝突する可能性がある場合(ステップS61のYES)、更に判定の信頼性を上げるために、画像処理ユニット1は対象物が接近判定領域内に存在するか否かの判定処理を行う(ステップS62)。接近判定領域内か否かの判定処理は、図12に示すように、赤外線カメラ2R、2Lで監視可能な領域を太い実線で示す外側の三角形の領域AR0とすると、領域AR0内の、Z1=Vs×Tより自車両10に近い領域であって、対象物が自車両10の車幅αの両側に余裕β(例えば50〜100cm程度とする)を加えた範囲に対応する領域AR1、すなわち対象物がそのまま存在し続ければ自車両10との衝突の可能性がきわめて高い接近判定領域AR1内に存在するか否かを判定する処理である。なお、接近判定領域AR1も所定高さHを有する。
更に、ステップS62において、対象物が接近判定領域内に存在しない場合(ステップS62のNO)、画像処理ユニット1は対象物が接近判定領域内へ進入して自車両10と衝突する可能性があるか否かを判定する進入衝突判定処理を行う(ステップS63)。進入衝突判定処理は、上述の接近判定領域AR1よりX座標の絶対値が大きい(接近判定領域の横方向外側の)領域AR2、AR3を進入判定領域と呼び、この領域内にある対象物が、移動することにより接近判定領域AR1に進入すると共に自車両10と衝突するか否かを判定する処理である。なお、進入判定領域AR2、AR3も所定高さHを有する。
一方、ステップS62において、対象物が接近判定領域内に存在している場合(ステップS62のYES)、画像処理ユニット1は対象物が歩行者の可能性があるか否かを判定する歩行者判定処理を行う(ステップS64)。なお、歩行者判定処理については、詳細を後述する。
また、ステップS64において、対象物は歩行者の可能性があると判定された場合(ステップS64のYES)、更に判定の信頼性を上げるために、対象物が人工構造物であるか否かを判定する人工構造物判定処理を行う(ステップS65)。人工構造物判定処理は、対象物画像に、例えば以下に示すような歩行者にはあり得ない特徴が検出された場合、該対象物を人工構造物と判定し、警報の対象から除外する処理である。
(1)対象物の画像に直線エッジを示す部分が含まれる場合。
(2)対象物の画像の角が直角である場合。
(3)対象物の画像に同じ形状のものが複数含まれている場合。
(4)対象物の画像が予め登録された人口構造物の形状と一致する場合。
従って、上述のステップS63において、対象物が接近判定領域内へ進入して自車両10と衝突する可能性がある場合(ステップS63のYES)、及びステップS65において、歩行者の可能性があると判定された対象物が人工構造物でなかった場合(ステップS65のNO)、画像処理ユニット1は、自車両10と検出した対象物との衝突の可能性がある(警報の対象である)と判定し(ステップS66)、図3に示すステップS17のYESとしてステップS18へ進み、警報出力判定処理(ステップS18)を行う。
一方、上述のステップS61において、余裕時間T以内に自車両10と対象物とが衝突する可能性がない場合(ステップS61のNO)、あるいはステップS63において、対象物が接近判定領域内へ進入して自車両10と衝突する可能性がない場合(ステップS63のNO)、あるいはステップS64において、対象物は歩行者の可能性がないと判定された場合(ステップS64のNO)、更にはステップS65において、歩行者の可能性があると判定された対象物が人工構造物であった場合(ステップS65のYES)のいずれかであった場合は、画像処理ユニット1は、自車両10と検出した対象物との衝突の可能性がない(警報の対象ではない)と判定し(ステップS67)、図3に示すステップS17のNOとしてステップS1へ戻り、歩行者等の対象物検出・警報動作を繰り返す。
(歩行者判定処理)
次に、図13から図18に示すフローチャートを参照して、図10に示したフローチャートのステップS64における歩行者判定処理について更に詳細に説明する。図13から図18は、本実施例の歩行者判定処理動作を示すフローチャートである。歩行者判定処理は、前述の降雨判定処理で決定された動作モードに従って処理方法が変更される。
具体的には、図13において、まず画像処理ユニット1は、先に示した方法で実空間での2値化対象物の形状の特徴を示す2値化対象物形状特徴量を算出する(ステップS71)。
また、2値化対象物形状特徴量を算出したら、フラグ「Rain_flag」が「1」であるか否かを判定することにより、自車両10の周囲が降雨の影響を受けている状態か否かを判定する(ステップS72)。
もし、ステップS72において、自車両10の周囲が降雨の影響を受けている状態ではなかった場合(ステップS72のNO)、次に、画像処理ユニット1は、先に示した方法で抽出された2値化対象物に対応するグレースケール対象物の高さを算出する(ステップS73)。
また、図19に示すように、画像上でのグレースケール対象物の領域をAREA0とし、その中にマスク領域AREA1、AREA2、AREA3を設定し、各マスクの輝度平均値と、輝度変化(分散)を算出する(ステップS74)。ここで、AREA1の輝度平均値をAve_A1、AREA2の輝度分散をVar_A2、AREA3の輝度分散をVar_A3とする。なお、以下の処理において、AREA1は対象物の頭の存在判定に、AREA2は対象物の胴体の存在判定に、更にAREA3は頭部から下半身にかけての形状変化の存在判定にそれぞれ使用する。また、AREA3は、例えば壁のような自らは発熱せずに外部より与えられた熱のみを蓄熱する蓄熱体であって、単調な輝度変化を示す対象物の一部が2値化処理により抽出された場合、これを歩行者と識別するためにも用いる。なお、図19はカメラで捉えられた歩行者を模式的に表したもので、斜線の領域が2値化で捉えられた対象物の部位であり、点線で囲まれた領域が2値化では捉えられていないが、グレースケール画像で背景に対して物体の存在が確認できる対象物の部位を表す。また、図19に示した各部の寸法は、実空間での各部の寸法の一例である。
そして、マスク領域AREA1、AREA2、AREA3の設定が完了したら、以下に示す2値化対象物の形状による歩行者判定及びグレースケール画像の各マスク領域の輝度分散を利用した歩行者判定を実行する。
まず、画像処理ユニット1は、2値化対象物の高さ、幅、存在高さ、輝度平均値、輝度分散について、歩行者として適当な範囲内の値か否かを判定する。
具体的には、歩行者を対象とするため、2値化対象物の幅ΔWbがしきい値TH1以上TH2以下(歩行者の幅として適当な値)か否かを判定する(ステップS75)。
また、ステップS72において、自車両10の周囲が降雨の影響を受けている状態であった場合(ステップS72のYES)、ステップS73やステップS74におけるグレースケール画像上の対象物の高さ算出やマスク領域AREA1、AREA2、AREA3の設定を行わず、ステップS75へ進み、歩行者を対象とするため、2値化対象物の幅ΔWbがしきい値TH1以上TH2以下か否かを判定する(ステップS75)。
また、ステップS75において、2値化対象物の幅ΔWbがしきい値TH1以上TH2以下であった場合(ステップS75のYES)、フラグ「Rain_flag」が「1」であるか否かを判定することにより、自車両10の周囲が降雨の影響を受けている状態か否かを判定する(ステップS76)。
そして、ステップS76において、自車両10の周囲が降雨の影響を受けている状態ではなかった場合(ステップS76のNO)、2値化対象物の高さΔHbがしきい値TH3(歩行者の高さとして適当な値)未満で、かつグレースケール対象物の高さΔHgがしきい値TH4(歩行者の高さとして適当な値)未満か否かを判定する(ステップS77)。
一方、ステップS76において、自車両10の周囲が降雨の影響を受けている状態であった場合(ステップS76のYES)、2値化対象物の高さΔHbがしきい値TH3(歩行者の高さとして適当な値)未満か否かを判定する(ステップS78)。
そして、ステップS77において、2値化対象物の高さΔHbがしきい値TH3未満で、かつグレースケール対象物の高さΔHgがしきい値TH4未満であった場合(ステップS77のYES)、あるいはステップS78において、2値化対象物の高さΔHbがしきい値TH3未満であった場合(ステップS78のYES)、路面からの対象物の上端高さ位置Ytがしきい値TH5(歩行者の高さとして適当な値)未満か否かを判定する(ステップS79)。
また、ステップS79において、路面からの対象物の上端高さ位置Ytがしきい値TH5未満であった場合(ステップS79のYES)、フラグ「Rain_flag」が「1」であるか否かを判定することにより、自車両10の周囲が降雨の影響を受けている状態か否かを判定する(ステップS80)。
そして、ステップS80において、自車両10の周囲が降雨の影響を受けている状態ではなかった場合(ステップS80のNO)、マスク領域AREA3の輝度分散Var_A3がしきい値TH6より大きいか否かを判定する(ステップS81)。この処理を、図20の対象物が歩行者の一部あるいは全体である場合や壁の場合のマスク領域AREA3の輝度分散を示した図を用いて説明する。
具体的には、マスク領域AREA3の領域幅を2値化対象物幅とすることで、図20(a)に示すように、歩行者の頭部のみが2値化処理により抽出された場合は、下半身部位との輝度差が生じる。また、図20(b)に示すように、少なくとも歩行者の上半身、または全身が2値化処理により抽出された場合には、背景領域(画像)との輝度差が生じる。一方、図20(c)に示すように、壁のように対象物全体の温度差が少ない対象物の場合、2値化抽出部位とそうでない部位の輝度差は少なく、また、対象物はAREA3のように直線部位で構成されている。このため、AREA3の輝度分散Var_A3は、歩行者の場合には高い値、壁のような対象物の場合には低い値を示す。
従って、ステップS81では、マスク領域AREA3の輝度分散Var_A3がしきい値TH6より大きいか否かを判定することで、対象物が歩行者であるか否かを判定する。
更に、ステップS81において、マスク領域AREA3の輝度分散Var_A3がしきい値TH6より大きかった場合(ステップS81のYES)、対象物形状の時間変化による歩行者判定を行う。
具体的には、歩行者の2値化対象物を対象とするため、2値化対象物形状が時間的に大きく変化することはないと考えられる。このため、規定時間内の外接四角形の面積と2値化対象物の面積比率であるRateの最大値Max_Rateと最小値Min_Rateの差分がしきい値TH7未満であるか否かを判定する(ステップS82)。
また、ステップS80において、自車両10の周囲が降雨の影響を受けている状態であった場合(ステップS80のYES)、ステップS81におけるマスク領域AREA3の輝度分散Var_A3の判定は行わず、ステップS82へ進み、規定時間内の外接四角形の面積と2値化対象物の面積比率であるRateの最大値Max_Rateと最小値Min_Rateの差分がしきい値TH7未満であるか否かを判定する(ステップS82)。
一方、ステップS75において、2値化対象物の幅ΔWbがしきい値TH1未満か、またはTH2より大きかった場合(ステップS75のNO)、あるいはステップS77において、2値化対象物の高さΔHbがしきい値TH3以上か、またはグレースケール対象物の高さΔHgがしきい値TH4以上であった場合(ステップS77のNO)、あるいはステップS78において、2値化対象物の高さΔHbがしきい値TH3以上であった場合(ステップS78のNO)、あるいはステップS79において、路面からの対象物の上端高さ位置Ytがしきい値TH5以上であった場合(ステップS79のNO)のいずれかであった場合は、検出された対象物は歩行者ではないと判定して(ステップS83)歩行者判定処理を終了し、図10に示すステップS64のNOとして図10のステップS67へ進み、対象物は警報対象ではないと判定する。
同様に、ステップS81において、マスク領域AREA3の輝度分散がしきい値TH6以下であった場合(ステップS81のNO)、更にはステップS82において、規定時間内の外接四角形の面積と2値化対象物の面積比率であるRateの最大値Max_Rateと最小値Min_Rateの差分(Max_Rate−Min_Rate)がしきい値TH7以上であった場合(ステップS82のNO)のいずれかであった場合は、検出された対象物は歩行者ではないと判定して(ステップS83)歩行者判定処理を終了し、図10に示すステップS64のNOとして図10のステップS67へ進み、対象物は警報対象ではないと判定する。
また、ステップS82において、規定時間内の外接四角形の面積と2値化対象物の面積比率であるRateの最大値Max_Rateと最小値Min_Rateの差分がしきい値TH7未満であった場合(ステップS82のYES)、次に、画像処理ユニット1は、更に詳細に抽出された対象物の形状毎の歩行者判定を行う。
具体的には、図14において、まず、路面からの対象物の上端高さ位置Ytがしきい値TH8(歩行者の上半身と下半身を区別できる高さとして適当な値)より大きいか否かを判定する(ステップS84)。
ステップS84において、路面からの対象物の上端高さ位置Ytがしきい値TH8以下であった場合(ステップS84のNO)、歩行者の下半身であるか、あるいは座った歩行者として、2値化対象物の幅ΔWbがしきい値TH9(歩行者の胴体幅として適当な値)以下か否かを判定する(ステップS85)。
図14は、2値化処理によって下半身が抽出されたか、座っている歩行者を識別するための処理手順が示されており、ステップS85において、2値化対象物の幅ΔWbがしきい値TH9以下であった場合(ステップS85のYES)、フラグ「Rain_flag」が「1」であるか否かを判定することにより、自車両10の周囲が降雨の影響を受けている状態か否かを判定する(ステップS86)。
そして、(ステップS86)において、自車両10の周囲が降雨の影響を受けている状態ではなかった場合(ステップS86のNO)、対象物が座った歩行者であるか否かを判定するために、グレースケール対象物の高さΔHgがしきい値TH10(歩行者の高さとして適当な値)未満か否かを判定する(ステップS87)。
ステップS87において、グレースケール対象物の高さΔHgがしきい値TH10以上であった場合(ステップS87のNO)、この対象物が歩行者の胴体または、下半身に相当すると仮定し、上部に頭部が存在するか否かの判定のため、図19に示す上部のマスク領域AREA1の輝度平均値Ave_A1がしきい値TH11より大きいか否かを判定する(ステップS88)。
ステップS88において、マスク領域AREA1の輝度平均値Ave_A1がしきい値TH11より大きかった場合(ステップS88のYES)、更に胴体部位は衣服の影響により熱を発散しにくい場合が有るため、グレースケール画像上で輝度パタンがある対象物として、マスク領域AREA2の輝度分散Var_A2がしきい値TH18より大きいか否かを判定する(ステップS89)。
そして、ステップS89において、マスク領域AREA2の輝度分散Var_A2がしきい値TH18より大きかった場合(ステップS89のYES)、検出された対象物は歩行者であると判定して(ステップS90)歩行者判定処理を終了し、図10に示すステップS64のYESとして図10のステップS65へ進み、人工構造物判定を行う。
また、ステップS86において、自車両10の周囲が降雨の影響を受けている状態であった場合(ステップS86のYES)、ステップS87からステップS89におけるマスク領域の判定は行わず、ステップS90へ進み、検出された対象物は歩行者であると判定して(ステップS90)歩行者判定処理を終了し、図10に示すステップS64のYESとして図10のステップS65へ進み、人工構造物判定を行う。
一方、ステップS85において、2値化対象物の幅ΔWbがしきい値TH9より大きかった場合(ステップS85のNO)、またはステップS88において、マスク領域AREA1の輝度平均値Ave_A1がしきい値TH11以下であった場合(ステップS88のNO)、更にはステップS89において、マスク領域AREA2の輝度分散Var_A2がしきい値TH18以下であった場合(ステップS89のNO)のいずれかであった場合、検出された対象物は歩行者ではないと判定して(ステップS91)歩行者判定処理を終了し、図10に示すステップS64のNOとして図10のステップS67へ進み、対象物は警報対象ではないと判定する。
また、ステップS87において、グレースケール対象物の高さΔHgがしきい値TH10未満であった場合(ステップS87のYES)、この対象物は座った歩行者であるとみなし、2値化対象物の路面からの対象物の上端高さ位置Ytがしきい値TH12(座った歩行者と立っている歩行者を区別できる高さとして適当な値)より大きいか否かを判定する(ステップS92)。
ステップS92において、2値化対象物の路面からの対象物の上端高さ位置Ytがしきい値TH12よりも大きかった場合(ステップS92のYES)、2値化対象物の外接四角形の縦横比ASPECTを表すAspが、しきい値TH13以上TH14以下(歩行者として適当な値)か否かを判定する(ステップS93)。
ステップS93において、2値化対象物の外接四角形の縦横比ASPECTを表すAspがしきい値TH13以上TH14以下であった場合(ステップS93のYES)、(9)式で表される外接四角形重心102と2値化対象物の重心G100との実空間での距離Dis_cがしきい値TH15(歩行者として適当な値)未満か否かを判定する(ステップS94)。
Dis_c=SQRT((Xb−Xc)+(Yb−Yc)) ・・・(9)
ステップS94において、距離Dis_cがしきい値TH15未満であった場合(ステップS94のYES)、例えばΔWbが1.0m以下で、ΔHgが1.0m未満の対象物には歩行者以外の対象物、具体的には車両の前部などが含まれるため、2値化対象物の上部マスク領域AREA1において、予め登録した頭部パタンと相関度が高い部位が存在するか否かを判定する(ステップS95)。
ステップS95において、2値化対象物の上部マスク領域AREA1に予め登録した頭部パタンと相関度が高い部位が存在する場合(ステップS95のYES)、検出された対象物は歩行者であると判定して(ステップS90)歩行者判定処理を終了し、図10に示すステップS64のYESとして図10のステップS65へ進み、人工構造物判定を行う。
一方、ステップS92において、2値化対象物の路面からの対象物の上端高さ位置Ytがしきい値TH12以下であった場合(ステップS92のNO)、あるいはステップS93において、2値化対象物の外接四角形の縦横比ASPECTを表すAspがしきい値TH13未満、あるいはTH14より大きかった場合(ステップS93のNO)、あるいはステップS94において、距離Dis_cがしきい値TH15以上であった場合(ステップS94のNO)、更にはステップS95において、2値化対象物の上部マスク領域AREA1に予め登録した頭部パタンと相関度が高い部位が存在しない場合(ステップS95のNO)のいずれかであった場合は、検出された対象物は歩行者ではないと判定して(ステップS91)歩行者判定処理を終了し、図10に示すステップS64のNOとして図10のステップS67へ進み、対象物は警報対象ではないと判定する。
また、図14のステップS84において、路面からの対象物の上端高さ位置Ytがしきい値TH8(歩行者の上半身と下半身を区別できる高さとして適当な値)より大きかった場合(ステップS84のYES)、図15のステップS96へ進み、フラグ「Rain_flag」が「1」であるか否かを判定することにより、自車両10の周囲が降雨の影響を受けている状態か否かを判定する(ステップS96)。
そして、ステップS96において、自車両10の周囲が降雨の影響を受けている状態ではなかった場合(ステップS96のNO)、対象物が空中に浮いている物体(例えば、カーブミラーのような対象物)か否かを判定するために、グレースケール対象物の高さΔHgがしきい値TH16(上述のしきい値TH8と同じ値)より大きいか否かを判定する(ステップS97)。
図15は、2値化処理によって頭部や上半身が抽出された歩行者を識別するための処理手順が示されており、ステップS97において、グレースケール対象物の高さΔHgがしきい値TH16より大きかった場合(ステップS97のYES)、対象物は空中に浮いている物体ではないので、次に、対象物領域(AREA0)の上端部位に頭部が存在するか、あるいは胴体部位が存在するかを判定する。具体的には、まず頭部は露出しているため、マスク領域AREA1の輝度平均値Ave_A1がしきい値TH17より大きいか否かを判定する(ステップS98)。
ステップS98において、マスク領域AREA1の輝度平均値Ave_A1がしきい値TH17より大きかった場合(ステップS98のYES)、胴体部位は衣服の影響により熱を発散しにくい場合が有るため、グレースケール画像上で輝度パタンがある対象物として、マスク領域AREA2の輝度分散Var_A2がしきい値TH18より大きいか否かを判定する(ステップS99)。
また、ステップS99において、マスク領域AREA2の輝度分散Var_A2がしきい値TH18より大きかった場合(ステップS99のYES)、まず頭部、あるいは上半身が2値化処理により抽出された歩行者を判定するために、2値化対象物の幅ΔWbがしきい値TH19(歩行者の頭部、あるいは上半身を区別できる幅として適当な値)以下か否かを判定する(ステップS100)。
また、ステップS96において、自車両10の周囲が降雨の影響を受けている状態であった場合(ステップS96のYES)、ステップS97からステップS99におけるマスク領域の判定は行わず、ステップS100へ進み、頭部、あるいは上半身が2値化処理により抽出された歩行者を判定するために、2値化対象物の幅ΔWbがしきい値TH19(歩行者の頭部、あるいは上半身を区別できる幅として適当な値)以下か否かを判定する(ステップS100)。
次に、ステップS100において、2値化対象物の幅ΔWbがしきい値TH19より大きかった場合(ステップS100のNO)、少なくとも歩行者の上半身、または全身が2値化処理により抽出された歩行者を判定するために、2値化対象物の幅ΔWbがしきい値TH9(歩行者の胴体幅として適当な値)以下か否かを判定する(ステップS101)。
更に、ステップS101において、2値化対象物の幅ΔWbがしきい値TH9より大きかった場合(ステップS101のNO)、複数の歩行者が並列歩行を行っているか否かを判定するために、2値化対象物の幅ΔWbがしきい値TH2(歩行者の胴体幅として適当な値)以下か否かを判定する(ステップS102)。
また、以上の判定では、ステップS97において、グレースケール対象物の高さΔHgがしきい値TH16以下であった場合(ステップS97のNO)、あるいはステップS98において、マスク領域AREA1の輝度平均値Ave_A1がしきい値TH17以下であった場合(ステップS98のNO)、あるいはステップS99において、マスク領域AREA2の輝度分散Var_A2がしきい値TH18以下であった場合(ステップS99のNO)、更にはステップS102において、2値化対象物の幅ΔWbがしきい値TH2より大きかった場合(ステップS102のNO)のいずれかであった場合は、検出された対象物は歩行者ではないと判定して(ステップS103)歩行者判定処理を終了し、図10に示すステップS64のNOとして図10のステップS67へ進み、対象物は警報対象ではないと判定する。
一方、ステップS100において、2値化対象物の幅ΔWbがしきい値TH19以下であった場合(ステップS100のYES)、対象物は、頭部あるいは上半身が2値化処理により抽出された歩行者であるとして、図16のステップS104へ進み、2値化対象物の外接四角形の縦横比ASPECTを表すAspが、しきい値TH20以上TH21以下(歩行者の頭部や上半身として適当な値)か否かを判定する(ステップS104)。
図16は、2値化処理によって頭部や上半身が抽出された歩行者を識別するための処理手順が示されており、ステップS104において、2値化対象物の外接四角形の縦横比ASPECTを表すAspがしきい値TH20以上TH21以下であった場合(ステップS104のYES)、前述の外接四角形重心102と2値化対象物の重心G100との実空間での距離Dis_cがしきい値TH15未満か否かを判定する(ステップS105)。
ステップS105において、距離Dis_cがしきい値TH15未満であった場合(ステップS105のYES)、検出された対象物は歩行者であると判定して(ステップS106)歩行者判定処理を終了し、図10に示すステップS64のYESとして図10のステップS65へ進み、人工構造物判定を行う。
一方、ステップS104において、2値化対象物の外接四角形の縦横比ASPECTを表すAspがしきい値TH20未満か、またはTH21より大きかった場合(ステップS104のNO)、あるいはステップS105において、距離Dis_cがしきい値TH15以上であった場合(ステップS105のNO)、検出された対象物は歩行者ではないと判定して(ステップS107)歩行者判定処理を終了し、図10に示すステップS64のNOとして図10のステップS67へ進み、対象物は警報対象ではないと判定する。
また、図15のステップS101において、2値化対象物の幅ΔWbがしきい値TH9以下であった場合(ステップS101のYES)、対象物は少なくとも歩行者の上半身、または全身が2値化処理により抽出された歩行者であるとして、図17のステップS108へ進み、2値化対象物の外接四角形の縦横比ASPECTを表すAspが、しきい値TH13以上TH21以下(歩行者の上半身や全身として適当な値)か否かを判定する(ステップS108)。
図17は、2値化処理によって上半身や全身が抽出された歩行者を識別するための処理手順が示されており、ステップS108において、2値化対象物の外接四角形の縦横比ASPECTを表すAspがしきい値TH13以上TH21以下であった場合(ステップS108のYES)、前述の外接四角形重心102と2値化対象物の重心G100との実空間での距離Dis_cがしきい値TH15未満か否かを判定する(ステップS109)。
ステップS109において、距離Dis_cがしきい値TH15未満であった場合(ステップS109のYES)、フラグ「Rain_flag」が「1」であるか否かを判定することにより、自車両10の周囲が降雨の影響を受けている状態か否かを判定する(ステップS110)。
そして、(ステップS110)において、自車両10の周囲が降雨の影響を受けている状態ではなかった場合(ステップS110のNO)、対象物には、歩行者以外の対象物、例えば、車両の前部などが含まれるため、2値化対象物の上部マスク領域AREA1において、予め登録した頭部パタンと相関度が高い部位が存在するか否かを判定する(ステップS111)。
ステップS111において、2値化対象物の上部マスク領域AREA1に予め登録した頭部パタンと相関度が高い部位が存在する場合(ステップS111のYES)、検出された対象物は歩行者であると判定して(ステップS112)歩行者判定処理を終了し、図10に示すステップS64のYESとして図10のステップS65へ進み、人工構造物判定を行う。
また、(ステップS110)において、自車両10の周囲が降雨の影響を受けている状態であった場合(ステップS110のYES)、ステップS111におけるマスク領域の判定は行わず、ステップS112へ進み、検出された対象物は歩行者であると判定して(ステップS112)歩行者判定処理を終了し、図10に示すステップS64のYESとして図10のステップS65へ進み、人工構造物判定を行う。
一方、ステップS108において、2値化対象物の外接四角形の縦横比ASPECTを表すAspがしきい値TH13未満か、または以上TH21より大きかった場合(ステップS108のNO)、あるいはステップS109において、距離Dis_cがしきい値TH15以上であった場合(ステップS109のNO)、更にはステップS111において、2値化対象物の上部マスク領域AREA1に予め登録した頭部パタンと相関度が高い部位が存在しない場合(ステップS111のNO)のいずれかであった場合は、検出された対象物は歩行者ではないと判定して(ステップS113)歩行者判定処理を終了し、図10に示すステップS64のNOとして図10のステップS67へ進み、対象物は警報対象ではないと判定する。
また、図15のステップS102において、2値化対象物の幅ΔWbがしきい値TH2以下であった場合(ステップS102のYES)、対象物は複数の歩行者が並列歩行を行っているので、対象物の外接四角形内には背景領域が多く含まれていると判断し、図18のステップS114へ進み、規定時間内の外接四角形の面積と2値化対象物の面積比率であるRateがしきい値TH22未満か否かを判定する(ステップS114)。
図18は、対象物が複数の歩行者が並列歩行を行っている場合の処理手順が示されており、ステップS114において、規定時間内の外接四角形の面積と2値化対象物の面積比率であるRateがしきい値TH22未満であった場合(ステップS114のYES)、2値化対象物の外接四角形の縦横比ASPECTを表すAspが、しきい値TH23以上TH14以下(歩行者の並列歩行を判断するのに適当な値)か否かを判定する(ステップS115)。
ステップS115において、2値化対象物の外接四角形の縦横比ASPECTを表すAspがしきい値TH23以上TH14以下であった場合(ステップS115のYES)、前述の外接四角形重心102と2値化対象物の重心G100との実空間での距離Dis_cがしきい値TH15未満か否かを判定する(ステップS116)。
ステップS116において、距離Dis_cがしきい値TH15未満であった場合(ステップS116のYES)、検出された対象物は歩行者であると判定して(ステップS117)歩行者判定処理を終了し、図10に示すステップS64のYESとして図10のステップS65へ進み、人工構造物判定を行う。
一方、ステップS114において、規定時間内の外接四角形の面積と2値化対象物の面積比率であるRateがしきい値TH22以上であった場合(ステップS114のNO)、あるいはステップS115において、2値化対象物の外接四角形の縦横比ASPECTを表すAspがしきい値TH23未満か、またはTH14より大きかった場合(ステップS115のNO)、更にはステップS116において、距離Dis_cがしきい値TH15以上であった場合(ステップS116のNO)のいずれかであった場合は、検出された対象物は歩行者ではないと判定して(ステップS118)歩行者判定処理を終了し、図10に示すステップS64のNOとして図10のステップS67へ進み、対象物は警報対象ではないと判定する。
なお、上述の実施例では、グレースケール対象物の高さΔHgと2値化対象物の高さΔHbとの差を所定値ΔHと比較することで、自車両10の周囲の物体や赤外線カメラ2R、2Lが通常の状態であるか、あるいは降雨による影響を受けている状態(カメラレンズが汚れている場合を含む)であるかを判別したが、これは、図2に示すように、赤外線カメラ2R、2Lが、自車両10の前部に、自車両10の車幅方向中心部に対してほぼ対称な位置に横に並べて配置された場合の例であって、赤外線カメラ2R、2Lが垂直方向に縦に並べて配置された場合は、グレースケール対象物の幅と2値化対象物の幅との差を所定値と比較することで、自車両10の周囲の物体や赤外線カメラ2R、2Lが通常の状態であるか、あるいは降雨による影響を受けている状態(カメラレンズが汚れている場合を含む)であるかを判別すれば良い。
また、本実施例では、画像処理ユニット1が、2値化対象物抽出手段と、2値化対象物特徴量算出手段と、対象物画像抽出手段と、対象物画像特徴量算出手段と、特徴量比較手段と、物体状態判定手段と、歩行者認識手段とを含んでいる。より具体的には、図3のステップS7、及び図7のステップS31の処理が2値化対象物抽出手段に相当し、図3のステップS8、及び図13のステップS71の処理が2値化対象物特徴量算出手段に相当し、図7のステップS33、及び図13のステップS73の処理が対象物画像抽出手段と対象物画像特徴量算出手段に相当する。また、図7のステップS34の処理が特徴量比較手段に相当し、図7及び図8のステップS35からステップS52の処理が物体状態判定手段に相当し、図13から図18のステップS72、ステップS74からステップS118の処理が歩行者認識手段に相当する。
以上説明したように、本実施例の車両周辺監視装置は、通常時にはグレースケール対象物の高さΔHgと2値化対象物の高さΔHbとは区別することが可能であるが、カメラレンズに付着した雨滴や、空気中の水蒸気や雨滴、あるいは濡れたことによる物体の状態の影響を受けた場合、グレースケール対象物の高さΔHgと2値化対象物の高さΔHbとの間に差がなくなる傾向にあるため、グレースケール対象物の高さΔHgと2値化対象物の高さΔHbとの差を所定値ΔHと比較することで、自車両10の周囲の物体や赤外線カメラ2R、2Lが通常の状態であるか、あるいは降雨による影響を受けている状態(カメラレンズが汚れている場合を含む)であるかを判別する。
従って、例えばワイパーの動作信号や雨滴センサの検出信号等を利用しなくても物体の状態を判断することができるので、これらを利用するためのセンサ等を設ける必要がなく、コストを削減しつつ物体の状態判断の信頼性を向上させ、的確に物体の状態を判断可能な車両周辺監視装置を実現することができるという効果が得られる。
更に、歩行者認識手段が、自車両10の周囲の物体や赤外線カメラ2R、2Lが通常の状態(降雨の影響を受けていない状態)であった場合は、グレースケール画像の輝度変化により、グレースケール画像から2値化対象物を包含する範囲のグレースケール対象物を抽出し、更にグレースケール対象物の領域に複数の探索領域を設定して、探索領域の形状や探索領域の輝度分散に基づいて該探索領域中の歩行者を認識する。具体的には、例えば対象物の画像の幅が歩行者として不自然な場合や、対象物の画像の高さが歩行者として不自然な場合、これらの物体を対象物の画像から除去すると共に、これらを満たす歩行者の特徴として、輝度分散が高く頭部に相当する部分があるか、あるいは輝度分散が高く胴部に相当する部分があるか、更には壁等の輝度分散の低いものではないか等の判定を行い、対象物の画像から輝度分散が歩行者を撮影した画像と異なる物体の画像を除去する。
また、自車両10の周囲の物体や赤外線カメラ2R、2Lが降雨による影響を受けている状態であった場合は、2値化対象物の存在条件についてのみ判定し、画像中の2値化対象物の高さや大きさ等から2値化画像中の歩行者を認識する。具体的には、対象物が放射する赤外線量が減少するので、輝度分散による判定は行わず、例えば対象物の画像の幅が歩行者として不自然な場合や、対象物の画像の高さが歩行者として不自然な場合にこれらの物体を対象物の画像から除去することのみを行い、輝度分散を用いた判定による歩行者の誤検出を防止する。
従って、例えばワイパーの動作信号や雨滴センサの検出信号等を利用しなくても物体の状態を判断することができるので、これらを利用するためのセンサ等を設ける必要がなく、コストを削減しつつ歩行者認識の信頼性を向上させ、安定して歩行者のみを認識可能な車両周辺監視装置を実現することができるという効果が得られる。更に、自車両10の周囲の物体や赤外線カメラ2R、2Lの状態にかかわらず、歩行者の検出精度を維持することができるという効果が得られる。また、例えば画像全体のヒストグラムの状態を降雨判定に用いる場合と異なり、物体の状態を直接判断することができるので、背景の内容等に影響されず、安定して歩行者のみを認識可能な車両周辺監視装置を実現することができるという効果が得られる。
また、グレースケール対象物の高さΔHgと2値化対象物の高さΔHbとを比較する物体(対象物)の数や、自車両10周囲の状態やカメラレンズの状態を判断する画像フレームの数を増やし、物体あるいは画像フレームの総数に対する判断結果の割合から、総合的に自車両10の周囲の物体や赤外線カメラ2R、2Lが通常の状態であるか、あるいは降雨による影響を受けている状態(カメラレンズが汚れている場合を含む)であるかを判別することで、物体状態判定手段における物体の状態判断の信頼性、あるいは歩行者認識手段における歩行者認識の信頼性を更に向上させ、状態判断の誤判断や歩行者の誤認識を防止することができるという効果が得られる。
更に、グレースケール対象物の高さΔHgと2値化対象物の高さΔHbとを比較することで、赤外線カメラ2R、2Lが2台横に並べて配置された場合に、物体状態判定手段における正確な物体の状態判断、あるいは歩行者認識手段における正確な歩行者の認識を実行させることができる。また、2値化対象物の幅とグレースケール対象物の幅とを比較することで、赤外線カメラが2台縦に並べて配置された場合に、物体状態判定手段における正確な物体の状態判断、あるいは歩行者認識手段における正確な歩行者の認識を実行させることができる。
従って、赤外線カメラ2R、2Lのどのような配置にも対応可能な車両周辺監視装置を実現することができるという効果が得られる。
次に、本発明の第2の実施例について説明する。
(全体構成)
本発明の第2の実施例の車両周辺監視装置の構成は、図1に示す第1の実施例の車両周辺監視装置の構成と同一であるので、ここでは説明を省略する。具体的に、第1の実施例の車両周辺監視装置と第2の実施例の車両周辺監視装置との違いについて説明すると、第1の実施例の車両周辺監視装置が、グレースケール対象物の高さΔHgと2値化対象物の高さΔHbとの差を所定値ΔHと比較することで、自車両10の周囲の物体や赤外線カメラ2R、2Lが通常の状態であるか、あるいは降雨による影響を受けている状態(カメラレンズが汚れている場合を含む)であるかを判別していたのに対し、第2の実施例の車両周辺監視装置は、赤外線画像のグレースケール画像を複数の輝度しきい値によって2値化することにより、物体を輝度しきい値の異なる2種類の2値化対象物として抽出し、同一の物体に対応する2種類の2値化対象物の特徴量の違いから、自車両10の周囲の物体や赤外線カメラ2R、2Lが通常の状態であるか、あるいは降雨による影響を受けている状態(カメラレンズが汚れている場合を含む)であるかを判別することを特徴とする。
以下に、本実施例の具体的な動作について図面を参照して説明する。
(対象物検出・警報動作)
図21及び図22は、本実施例の車両周辺監視装置の画像処理ユニット1における歩行者等の対象物検出・警報動作を示すフローチャートである。
図21において、まず画像処理ユニット1は、変数Iと変数Cとを「ゼロ」にリセットする(ステップS121)。
次に、赤外線カメラ2R、2Lの出力信号である赤外線画像を取得して(ステップS122)、A/D変換し(ステップS123)、グレースケール画像を画像メモリに格納する(ステップS124)。なお、ここでは赤外線カメラ2Rにより右画像が得られ、赤外線カメラ2Lにより左画像が得られる。また、右画像と左画像では、同一の対象物の表示画面上の水平位置がずれて表示されるので、このずれ(視差)によりその対象物までの距離を算出することができる。
ステップS124においてグレースケール画像が得られたら、次に、赤外線カメラ2Rにより得られた右画像を基準画像とし、これを2つの輝度しきい値(TH_1、TH_2、但しTH_2>TH_1)によって2値化することにより、画像上の複数の物体を輝度しきい値TH_1による2値化対象物のグループと、輝度しきい値TH_2による2値化対象物のグループとして抽出すると共に、それぞれの2値化対象物の特徴量を算出する(ステップS125)。なお、ステップS125の2つの輝度しきい値(TH_1、TH_2)による2値化処理と2値化対象物の特徴量算出処理については詳細を後述する。
次に、画像処理ユニット1は、それぞれのグループの中から、同一位置の物体(対象物)に対応する2値化対象物を探索する同一位置対象物の探索を実行する(ステップS126)。ここで、具体的に同一位置対象物の探索について説明すると、図23(1)に示す輝度しきい値TH_1を用いて2値化した2値化対象物の外接四角形の内部に、図23(2)に示す輝度しきい値TH_2を用いて2値化した2値化対象物の重心位置q2=(xc2、yc2)が存在する場合、異なる輝度しきい値により2値化された2種類の2値化対象物は、同一の物体に対応する2値化対象物であると判定する。数式で示すと、輝度しきい値TH_1を用いて2値化した2値化対象物の外接四角形基準点を(xs1、ys1)、外接四角形の幅をW1、高さをH1として、輝度しきい値TH_2を用いて2値化した2値化対象物の重心位置q2=(xc2、yc2)が(xs1<xc2<xs1+W1)で、かつ(ys1<yc2<ys1+H1)であれば良い。
そして、同一の物体に対応する輝度しきい値の異なる2種類の2値化対象物が特定できたら、それぞれの2値化対象物の面積S1、S2の差分の絶対値(|S1−S2|)が所定値以下であるか否かを判定する(ステップS127)。すなわち、自車両10の周囲の物体や赤外線カメラ2R、2Lが通常の状態では、1つの物体に注目した場合、温度が低い部分や高い部分が混在しているので、2値化する時のしきい値を変化させると、2値化する時のしきい値を高くする程この物体を捉えた2値化対象物の面積が小さくなる。しかし、自車両10の周囲の物体や赤外線カメラ2R、2Lが通常の状態ではなく、降雨による影響を受けている状態(カメラレンズが汚れている場合を含む)では、同様に1つの物体に注目した場合、カメラレンズに付着した雨滴や、空気中の水蒸気や雨滴、あるいは濡れたことによる物体の状態の影響を受けて各部分の温度差を検出することができないため、2値化する時のしきい値を変化させても、この物体を捉えた2値化対象物の面積は変化しない傾向にある。
従って、同一の物体に対応する輝度しきい値の異なる2種類の2値化対象物の面積S1、S2の差分の絶対値(|S1−S2|)を所定値と比較して、面積が変化したか否かを判定することで、自車両10の周囲の物体や赤外線カメラ2R、2Lが通常の状態ではなく、降雨による影響を受けているか否かを判断することができる。
もし、ステップS127において、同一の物体に対応する輝度しきい値の異なる2種類の2値化対象物の面積S1、S2の差分の絶対値(|S1−S2|)が所定値以下である場合(ステップS127のYES)、画像処理ユニット1は変数Cを「1」だけカウントアップし、降雨の影響を受けていると考えられる2値化対象物として、同一の物体に対応する輝度しきい値の異なる2種類の2値化対象物の面積S1、S2の差分の絶対値(|S1−S2|)が所定値以下であるものの数を計数する(ステップS128)。
次に、変数Iを「1」だけカウントアップする(ステップS129)。
もし、ステップS127において、同一の物体に対応する輝度しきい値の異なる2種類の2値化対象物の面積S1、S2の差分の絶対値(|S1−S2|)が所定値より大きい場合(ステップS127のNO)、画像処理ユニット1はステップS129へ進み、変数Iのみを「1」だけカウントアップする(ステップS129)。
そして、変数Iが輝度しきい値TH_1を用いて2値化した2値化対象物の総数N2以上となったか否かを判定し(ステップS130)、変数Iが2値化対象物の総数N2未満であった場合(ステップS130のNO)、画像処理ユニット1は、ステップS122へ戻り、上述の処理を繰り返す。なお、変数Iが輝度しきい値TH_1を用いて2値化した2値化対象物の総数N2以上となったか否かを判定するのは、輝度しきい値TH_1<輝度しきい値TH_2であって、輝度しきい値TH_1を用いて2値化した2値化対象物の方が全ての物体を含んでいる確率が高いからである。
一方、ステップS130において、変数Iが2値化対象物の総数N2以上であった場合(ステップS130のYES)、変数Cの2値化対象物の総数N2に対する割合「C/N2」、すなわち同一の物体に対応する輝度しきい値の異なる2種類の2値化対象物の面積S1、S2の差分の絶対値(|S1−S2|)が所定値以下であるものの数Cの2値化対象物の総数N2に対する割合「C/N2」が、所定値X2より大きいか否かを判定する(ステップS131)。
ステップS131において、面積の差分の絶対値(|S1−S2|)が所定値以下であるものの数Cの2値化対象物の総数N2に対する割合「C/N2」が、所定値X2より大きい場合(ステップS131のYES)、歩行者判定処理の動作モードを降雨モードと判定して、歩行者判定処理の動作モードを示すフラグ「Rain_flag」に「1」を設定する(ステップS132)。
またステップS131において、面積の差分の絶対値(|S1−S2|)が所定値以下であるものの数Cの2値化対象物の総数N2に対する割合「C/N2」が、所定値X2以下の場合(ステップS131のNO)、歩行者判定処理の動作モードを通常モードと判定して、歩行者判定処理の動作モードを示すフラグ「Rain_flag」に「0」を設定する(ステップS133)。
歩行者判定処理の動作モードを示すフラグ「Rain_flag」を設定することができたら、次に、画像処理ユニット1は、図22のステップS9へ進み、対象物の時刻間追跡、すなわちサンプリング周期毎の同一対象物の認識を行う(ステップS9)。また、同時に画像処理ユニット1は、図22のステップS11へ進み、ステップS11からステップS13の処理で、対象物と自車両10との距離zを算出する処理を行う。
なお、ステップ9からステップS20までの処理は、第1の実施例で図3を用いて説明した対象物検出・警報動作の処理と同一の処理であるので、ここでは説明を省略する。また、本実施例では、第1の実施例で実行したステップS21の処理は実行しない。
更に、第1の実施例の対象物検出・警報動作の処理では、ステップS17において、自車両10と検出した対象物との衝突の可能性がないと判定された場合(ステップS17のNO)、あるいはステップS18において、自車両10の運転者のブレーキ操作により衝突が回避されると判定された場合(ステップS18のNO)、あるいは画像表示装置7に対して、例えば赤外線カメラ2Rにより得られる画像を出力し、接近してくる対象物を自車両10の運転者に対する強調映像として表示した(ステップS20)あとは、ステップS1へ戻る処理手順としたが、本実施例では、ステップS121へ戻り上述の処理を繰り返す処理手順とする。
(第2の実施例における対象物検出・警報動作の別の形態)
図21に示すステップS121からステップS133の処理では、ロバスト性を向上させるために複数の物体について降雨の判定を行い、その集計結果から歩行者判定処理の動作モードを決定する手順について示したが、本実施例における対象物検出・警報動作では、処理手順を簡略化するために、複数の物体についての集計結果を用いず1つの物体についての判定結果を歩行者判定処理の動作モードとしても良い。具体的には、図21に示すステップS127において、同一の物体に対応する輝度しきい値の異なる2種類の2値化対象物の面積S1、S2の差分の絶対値(|S1−S2|)が所定値以下である場合(ステップS127のYES)、画像処理ユニット1はステップS132へ進み、歩行者判定処理の動作モードを降雨モードと判定して、歩行者判定処理の動作モードを示すフラグ「Rain_flag」に「1」を設定する(ステップS132)。
また、ステップS127において、同一の物体に対応する輝度しきい値の異なる2種類の2値化対象物の面積S1、S2の差分の絶対値(|S1−S2|)が所定値より大きい場合(ステップS127のNO)、画像処理ユニット1はステップS133へ進み、歩行者判定処理の動作モードを通常モードと判定して、歩行者判定処理の動作モードを示すフラグ「Rain_flag」に「0」を設定する(ステップS133)。
なお、複数の画像フレームについての集計結果を用いずに、1つの画像フレームの判定結果を歩行者判定処理の動作モードとする場合、その後のステップS128からステップS131により実行される複数の物体の判定内容の集計処理は実行しなくて良い。
(2つの輝度しきい値による2値化処理と2値化対象物の特徴量算出処理)
次に、図24に示すフローチャートを参照して、図21に示したフローチャートのステップS125における2つの輝度しきい値(TH_1、TH_2)による2値化と2値化対象物の特徴量算出処理について更に詳細に説明する。
図24において、まず画像処理ユニット1は、赤外線カメラ2R、2Lによりグレースケール画像が得られたら、次に、赤外線カメラ2Rにより得られた右画像を基準画像とし、その画像信号を輝度しきい値TH_1を用いて2値化処理、すなわち、輝度しきい値TH_1より明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う(ステップS141)。
また、赤外線画像から輝度しきい値TH_1を用いて2値化された画像データを取得したら、2値化した画像データをランレングスデータに変換する処理を行う(ステップS142)。
次に、ランレングスデータに変換された画像データから、対象物のラベリングをする(ステップS143)ことにより、2値化対象物を抽出する処理を行う(ステップS144)。
2値化対象物の抽出が完了したら、次に、第1の実施例で図3を用いて説明した対象物検出・警報動作のステップS8の処理と同様の方法で、抽出した2値化対象物の重心G、面積S及び外接四角形の縦横比ASPECTを算出する(ステップS145)。
次に、画像処理ユニット1は、同様に赤外線カメラ2Rにより得られた右画像を基準画像とし、その画像信号を輝度しきい値TH_2を用いて2値化処理する(ステップS146)。
また、赤外線画像から輝度しきい値TH_2を用いて2値化された画像データを取得したら、2値化した画像データをランレングスデータに変換する処理を行う(ステップS147)。
次に、ランレングスデータに変換された画像データから、対象物のラベリングをする(ステップS148)ことにより、2値化対象物を抽出する処理を行う(ステップS149)。
2値化対象物の抽出が完了したら、次に、第1の実施例で図3を用いて説明した対象物検出・警報動作のステップS8の処理と同様の方法で、抽出した2値化対象物の重心G、面積S及び外接四角形の縦横比ASPECTを算出し(ステップS149)、2つの輝度しきい値による2値化処理と2値化対象物の特徴量算出処理を終了する。
なお、本実施例の警報判定処理、及び歩行者判定処理は、第1の実施例の警報判定処理、及び歩行者判定処理と同一であるので、ここでは説明を省略する。
また、本実施例では、画像処理ユニット1が、2値化対象物抽出手段と、2値化対象物特徴量算出手段と、対象物画像抽出手段と、対象物画像特徴量算出手段と、特徴量比較手段と、物体状態判定手段と、歩行者認識手段とを含んでいる。より具体的には、図21のステップS125、及び図24のステップS141とステップS146の処理が2値化対象物抽出手段に相当し、図13のステップS71、図21のステップS125、及び図24のステップS142からステップS145、ステップS147からステップS150の処理が2値化対象物特徴量算出手段に相当し、図7のステップS33、及び図13のステップS73の処理が対象物画像抽出手段と対象物画像特徴量算出手段に相当する。また、図21のステップS126からステップS130の処理が特徴量比較手段に相当し、図21のステップS131からステップS133の処理が物体状態判定手段に相当し、図13から図18のステップS72、ステップS74からステップS118の処理が歩行者認識手段に相当する。
以上説明したように、本実施例の車両周辺監視装置は、通常時には2値化する時のしきい値を高くする程1つの物体を捉えた2値化対象物の面積が小さくなるが、カメラレンズに付着した雨滴や、空気中の水蒸気や雨滴、あるいは濡れたことによる物体の状態の影響を受けた場合、2値化する時のしきい値を変化させても1つの物体を捉えた2値化対象物の面積は変化しない傾向にあるため、同一の物体に対応する輝度しきい値の異なる2種類の2値化対象物の面積S1、S2の差分の絶対値(|S1−S2|)を所定値と比較して、面積が変化したか否かを判定することで、自車両10の周囲の物体や赤外線カメラ2R、2Lが通常の状態であるか、あるいは降雨による影響を受けている状態(カメラレンズが汚れている場合を含む)であるかを判別する。
従って、第1の実施例と同様に、例えばワイパーの動作信号や雨滴センサの検出信号等を利用しなくても物体の状態を判断することができるので、これらを利用するためのセンサ等を設ける必要がなく、コストを削減しつつ物体の状態判断の信頼性を向上させ、的確に物体の状態を判断可能な車両周辺監視装置を実現することができるという効果が得られる。
更に、第1の実施例と同様に、歩行者認識手段が、自車両10の周囲の物体や赤外線カメラ2R、2Lが通常の状態(降雨の影響を受けていない状態)と、自車両10の周囲の物体や赤外線カメラ2R、2Lが降雨による影響を受けている状態とで歩行者の検出方法を変更することで、輝度分散を用いた判定による歩行者の誤検出を防止する。
従って、第1の実施例と同様に、例えばワイパーの動作信号や雨滴センサの検出信号等を利用しなくても物体の状態を判断することができるので、これらを利用するためのセンサ等を設ける必要がなく、コストを削減しつつ歩行者認識の信頼性を向上させ、安定して歩行者のみを認識可能な車両周辺監視装置を実現することができるという効果が得られる。更に、自車両10の周囲の物体や赤外線カメラ2R、2Lの状態にかかわらず、歩行者の検出精度を維持することができるという効果が得られる。また、例えば画像全体のヒストグラムの状態を降雨判定に用いる場合と異なり、物体の状態を直接判断することができるので、背景の内容等に影響されず、安定して歩行者のみを認識可能な車両周辺監視装置を実現することができるという効果が得られる。
また、輝度しきい値の異なる2種類の2値化対象物の面積S1、S2の差分の絶対値(|S1−S2|)を所定値と比較する際、比較する物体(対象物)の数を増やし、物体の総数に対する判断結果の割合から、総合的に自車両10の周囲の物体や赤外線カメラ2R、2Lが通常の状態であるか、あるいは降雨による影響を受けている状態(カメラレンズが汚れている場合を含む)であるかを判別することで、物体状態判定手段における物体の状態判断の信頼性、あるいは歩行者認識手段における歩行者認識の信頼性を更に向上させ、状態判断の誤判断や歩行者の誤認識を防止することができるという効果が得られる。
本発明の第1の実施例の車両周辺監視装置の構成を示すブロック図である。 同実施例の車両における赤外線カメラやセンサ、ディスプレイ等の取り付け位置を示す図である。 同実施例における車両周辺監視装置の対象物検出・警報動作を示すフローチャートである。 赤外線カメラにより得られるグレースケール画像とその2値化画像を示す図である。 2値化対象物形状特徴量について示す図である。 グレースケール対象物の抽出方法及び特徴量について示す図である。 同実施例における降雨判定処理動作を示すフローチャートである。 同実施例における降雨判定処理動作を示すフローチャートである。 グレースケール対象物の高さと2値化対象物の高さとについて、通常の状態と降雨による影響を受けている状態とを示す図である。 同実施例における警報判定処理動作を示すフローチャートである。 衝突が発生しやすい場合を示す図である。 車両前方の領域区分を示す図である。 同実施例における歩行者判定処理動作を示すフローチャートである。 同実施例における歩行者判定処理動作を示すフローチャートである。 同実施例における歩行者判定処理動作を示すフローチャートである。 同実施例における歩行者判定処理動作を示すフローチャートである。 同実施例における歩行者判定処理動作を示すフローチャートである。 同実施例における歩行者判定処理動作を示すフローチャートである。 同実施例におけるマスク領域設定について示す図である。 対象物が歩行者の一部あるいは全体である場合や、壁の場合のマスク領域AREA3の輝度分散を示した図である。 第2の実施例における車両周辺監視装置の対象物検出・警報動作を示すフローチャートである。 第2の実施例における車両周辺監視装置の対象物検出・警報動作を示すフローチャートである。 2つの輝度しきい値による2値化対象物からの中から、同一位置の物体に対応する2値化対象物を探索する方法を示す図である。 同実施例における2つの輝度しきい値による2値化処理と2値化対象物の特徴量算出処理を示すフローチャートである。
符号の説明
2R、2L 赤外線カメラ
10 自車両(車両)
S7、S31 2値化対象物抽出手段(第1の実施例)
S8、S71 2値化対象物特徴量算出手段(第1の実施例)
S33、S73 対象物画像抽出手段、対象物画像特徴量算出手段
S34 特徴量比較手段(第1の実施例)
S35〜S52 物体状態判定手段(第1の実施例)
S72、S74〜S118 歩行者認識手段
S125、S141、S146 2値化対象物抽出手段(第2の実施例)
S71、S125、S142〜S145、S147〜S150 2値化対象物特徴量算出手段(第2の実施例)
S126〜S130 特徴量比較手段(第2の実施例)
S131〜S133 物体状態判定手段(第2の実施例)

Claims (8)

  1. 赤外線カメラにより撮影された赤外線画像から、車両の周辺に存在する物体を検出する車両周辺監視装置であって、
    前記赤外線画像のグレースケール画像を2値化することにより、前記物体を2値化対象物として抽出する2値化対象物抽出手段と、
    前記2値化対象物の高さもしくは幅を特徴量として算出する2値化対象物特徴量算出手段と、
    前記グレースケール画像から前記2値化対象物に対応するグレースケール対象物を抽出する対象物画像抽出手段と、
    前記グレースケール対象物の高さもしくは幅を特徴量として算出する対象物画像特徴量算出手段と、
    前記2値化対象物特徴量算出手段により抽出された特徴量と前記対象物画像特徴量算出手段により抽出された特徴量とを比較する特徴量比較手段と、
    前記特徴量比較手段による比較の結果、前記特徴量の差が所定値以内である場合に、前記物体もしくは前記赤外線カメラが降雨の影響を受けている状態であると判断する物体状態判定手段とを備えたことを特徴とする車両周辺監視装置。
  2. 前記特徴量比較手段が、複数の物体に対して、前記2値化対象物特徴量算出手段により抽出された特徴量と前記対象物画像特徴量算出手段により抽出された特徴量とを比較し、
    前記物体状態判定手段が、前記特徴量比較手段による比較の結果、前記特徴量の差が所定値以内である物体の割合が所定値以上である場合に、前記物体もしくは前記赤外線カメラが降雨の影響を受けている状態であると判断することを特徴とする請求項1に記載の車両周辺監視装置。
  3. 前記特徴量比較手段が、複数の画像フレームに渡って、前記2値化対象物特徴量算出手段により抽出された特徴量と前記対象物画像特徴量算出手段により抽出された特徴量とを比較し、
    前記物体状態判定手段が、前記特徴量比較手段による比較の結果、前記特徴量の差が所定値以内である物体の割合が所定値以上である画像フレームの割合が所定値以上である場合に、前記物体もしくは前記赤外線カメラが降雨の影響を受けている状態であると判断することを特徴とする請求項1、または請求項2に記載の車両周辺監視装置。
  4. 少なくとも前記2値化対象物特徴量算出手段により算出された特徴量と前記対象物画像特徴量算出手段により算出された特徴量とを用いて歩行者を認識する歩行者認識手段を備え、
    前記歩行者認識手段が、前記物体状態判定手段によって物体もしくは前記赤外線カメラが降雨の影響を受けていると判断された場合、前記歩行者の認識処理方法を降雨モードに変更することを特徴とする請求項1〜3のいずれかに記載の車両周辺監視装置。
  5. 赤外線カメラにより撮影された赤外線画像から、車両の周辺に存在する物体を検出する車両周辺監視装置であって、
    前記赤外線画像のグレースケール画像を複数の輝度しきい値によって2値化することにより、前記物体を輝度しきい値の異なる複数の2値化対象物として抽出する2値化対象物抽出手段と、
    輝度しきい値の異なる前記複数の2値化対象物の面積を特徴量としてそれぞれ算出する2値化対象物特徴量算出手段と、
    前記2値化対象物特徴量算出手段により抽出された輝度しきい値の異なる前記複数の2値化対象物の特徴量を相互に比較する特徴量比較手段と、
    前記特徴量比較手段による比較の結果、前記特徴量の差が所定値以内である場合に、前記物体もしくは前記赤外線カメラが降雨の影響を受けている状態であると判断する物体状態判定手段とを備えたことを特徴とする車両周辺監視装置。
  6. 前記特徴量比較手段が、複数の物体に対して、前記2値化対象物特徴量算出手段により抽出された輝度しきい値の異なる前記複数の2値化対象物の特徴量を相互に比較し、
    前記物体状態判定手段が、前記特徴量比較手段による比較の結果、前記特徴量の差が所定値以内である物体の割合が所定値以上である場合に、前記物体もしくは前記赤外線カメラが降雨の影響を受けている状態であると判断することを特徴とする請求項5に記載の車両周辺監視装置。
  7. 少なくとも前記2値化対象物特徴量算出手段により算出された特徴量と前記対象物画像特徴量算出手段により算出された特徴量とを用いて歩行者を認識する歩行者認識手段を備え、
    前記歩行者認識手段が、前記物体状態判定手段によって物体もしくは前記赤外線カメラが降雨の影響を受けていると判断された場合、前記歩行者の認識処理方法を降雨モードに変更することを特徴とする請求項5又は6に記載の車両周辺監視装置。
  8. 前記歩行者認識手段は、降雨モードの歩行者認識方法では、輝度分散による判定を行わないことを特徴とする請求項4又は7に記載の車両周辺監視装置。
JP2003309059A 2003-09-01 2003-09-01 車両周辺監視装置 Expired - Fee Related JP3987013B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2003309059A JP3987013B2 (ja) 2003-09-01 2003-09-01 車両周辺監視装置
US10/928,768 US7672510B2 (en) 2003-09-01 2004-08-27 Vehicle environment monitoring device
DE102004041919A DE102004041919B4 (de) 2003-09-01 2004-08-30 Fahrzeugumgebungs-Überwachungseinrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003309059A JP3987013B2 (ja) 2003-09-01 2003-09-01 車両周辺監視装置

Publications (2)

Publication Number Publication Date
JP2005079999A JP2005079999A (ja) 2005-03-24
JP3987013B2 true JP3987013B2 (ja) 2007-10-03

Family

ID=34308399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003309059A Expired - Fee Related JP3987013B2 (ja) 2003-09-01 2003-09-01 車両周辺監視装置

Country Status (3)

Country Link
US (1) US7672510B2 (ja)
JP (1) JP3987013B2 (ja)
DE (1) DE102004041919B4 (ja)

Families Citing this family (113)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MY138544A (en) * 2003-06-26 2009-06-30 Neuramatix Sdn Bhd Neural networks with learning and expression capability
KR100543709B1 (ko) * 2003-12-23 2006-01-20 삼성전자주식회사 이동체의 회전 이동량 이용 방법과 장치 및 컴퓨터프로그램을 저장하는 컴퓨터로 읽을 수 있는 기록 매체
JP4376653B2 (ja) * 2004-02-17 2009-12-02 富士重工業株式会社 車外監視装置
US7561720B2 (en) * 2004-04-30 2009-07-14 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
US8594370B2 (en) 2004-07-26 2013-11-26 Automotive Systems Laboratory, Inc. Vulnerable road user protection system
DE102005056665B4 (de) * 2004-11-30 2011-03-17 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
JP4094604B2 (ja) * 2004-11-30 2008-06-04 本田技研工業株式会社 車両周辺監視装置
JP4128562B2 (ja) * 2004-11-30 2008-07-30 本田技研工業株式会社 車両周辺監視装置
DE102005056645B4 (de) * 2004-11-30 2010-09-16 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
US7599521B2 (en) * 2004-11-30 2009-10-06 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
US7403639B2 (en) * 2004-11-30 2008-07-22 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
JP3970876B2 (ja) * 2004-11-30 2007-09-05 本田技研工業株式会社 車両周辺監視装置
DE102005056647B4 (de) * 2004-11-30 2011-02-03 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
US7590263B2 (en) * 2004-11-30 2009-09-15 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
JP4032052B2 (ja) * 2004-11-30 2008-01-16 本田技研工業株式会社 位置検出装置及びその補正方法
JP4461091B2 (ja) * 2004-11-30 2010-05-12 本田技研工業株式会社 位置検出装置及びその補正方法
DE102005056666B4 (de) * 2004-11-30 2010-09-30 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
JP4224449B2 (ja) * 2004-11-30 2009-02-12 本田技研工業株式会社 画像抽出装置
JP2006160193A (ja) * 2004-12-10 2006-06-22 Alpine Electronics Inc 車両運転支援装置
US20060184462A1 (en) * 2004-12-10 2006-08-17 Hawkins Jeffrey C Methods, architecture, and apparatus for implementing machine intelligence and hierarchical memory systems
US7561721B2 (en) * 2005-02-02 2009-07-14 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
JP4466571B2 (ja) * 2005-05-12 2010-05-26 株式会社デンソー ドライバ状態検出装置、車載警報装置、運転支援システム
US7739208B2 (en) * 2005-06-06 2010-06-15 Numenta, Inc. Trainable hierarchical memory system and method
DE102005030838A1 (de) * 2005-07-01 2007-01-04 Siemens Ag Nightvisionsystem
US20070031008A1 (en) * 2005-08-02 2007-02-08 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US7623681B2 (en) * 2005-12-07 2009-11-24 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US20070192267A1 (en) * 2006-02-10 2007-08-16 Numenta, Inc. Architecture of a hierarchical temporal memory based system
US7941389B2 (en) * 2006-02-10 2011-05-10 Numenta, Inc. Hierarchical temporal memory based system including nodes with input or output variables of disparate properties
US8732098B2 (en) 2006-02-10 2014-05-20 Numenta, Inc. Hierarchical temporal memory (HTM) system deployed as web service
US20080208966A1 (en) * 2007-02-28 2008-08-28 Numenta, Inc. Hierarchical Temporal Memory (HTM) System Deployed as Web Service
JP4456086B2 (ja) * 2006-03-09 2010-04-28 本田技研工業株式会社 車両周辺監視装置
JP4793638B2 (ja) * 2006-03-27 2011-10-12 マツダ株式会社 車両用歩行者検出装置
JP4171501B2 (ja) * 2006-04-25 2008-10-22 本田技研工業株式会社 車両の周辺監視装置
EP1897751B1 (en) * 2006-09-11 2012-08-15 Kawasaki Jukogyo Kabushiki Kaisha Driving assist system for a vehicle
US8131011B2 (en) * 2006-09-25 2012-03-06 University Of Southern California Human detection and tracking system
JP4254844B2 (ja) * 2006-11-01 2009-04-15 トヨタ自動車株式会社 走行制御計画評価装置
US7937342B2 (en) * 2006-11-28 2011-05-03 Numenta, Inc. Method and apparatus for detecting spatial patterns
DE102006058308A1 (de) * 2006-12-11 2008-06-12 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erfassen eines Hindernisses in einem Umgebungsbereich eines Kraftfahrzeugs und Kraftfahrzeug
JP4914234B2 (ja) * 2007-01-31 2012-04-11 富士重工業株式会社 先行車両検出装置
US7941392B2 (en) * 2007-02-28 2011-05-10 Numenta, Inc. Scheduling system and method in a hierarchical temporal memory based system
WO2008106623A2 (en) * 2007-02-28 2008-09-04 Numenta, Inc. Episodic memory with a hierarchical temporal memory based system
US8037010B2 (en) 2007-02-28 2011-10-11 Numenta, Inc. Spatio-temporal learning algorithms in hierarchical temporal networks
EP2162853A1 (en) * 2007-06-29 2010-03-17 Numenta, Inc. Hierarchical temporal memory system with enhanced inference capability
JP2009053815A (ja) * 2007-08-24 2009-03-12 Nikon Corp 被写体追跡プログラム、および被写体追跡装置
JP5354767B2 (ja) * 2007-10-17 2013-11-27 株式会社日立国際電気 物体検知装置
US20090116413A1 (en) * 2007-10-18 2009-05-07 Dileep George System and method for automatic topology determination in a hierarchical-temporal network
US8175984B2 (en) * 2007-12-05 2012-05-08 Numenta, Inc. Action based learning
JP4359710B2 (ja) * 2008-02-04 2009-11-04 本田技研工業株式会社 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
US8175985B2 (en) 2008-03-19 2012-05-08 Numenta, Inc. Plugin infrastructure for hierarchical temporal memory (HTM) system
US7983998B2 (en) 2008-03-21 2011-07-19 Numenta, Inc. Feedback in group based hierarchical temporal memory system
US8407166B2 (en) * 2008-06-12 2013-03-26 Numenta, Inc. Hierarchical temporal memory system with higher-order temporal pooling capability
JP4482599B2 (ja) * 2008-10-24 2010-06-16 本田技研工業株式会社 車両の周辺監視装置
US8195582B2 (en) * 2009-01-16 2012-06-05 Numenta, Inc. Supervision based grouping of patterns in hierarchical temporal memory (HTM)
WO2010140215A1 (ja) * 2009-06-02 2010-12-09 トヨタ自動車株式会社 車両用周辺監視装置
US8503727B2 (en) * 2009-07-22 2013-08-06 Omron Corporation Monitoring camera terminal
JP5382122B2 (ja) * 2009-07-31 2014-01-08 富士通株式会社 移動体位置検出装置および移動体位置検出方法
JP4922368B2 (ja) * 2009-08-27 2012-04-25 本田技研工業株式会社 車両周辺監視装置
US8675060B2 (en) 2009-08-28 2014-03-18 Indian Institute Of Science Machine vision based obstacle avoidance system
JP5039765B2 (ja) * 2009-09-17 2012-10-03 日立オートモティブシステムズ株式会社 車両制御装置
EP2544449B1 (en) * 2010-03-01 2016-03-16 Honda Motor Co., Ltd. Vehicle perimeter monitoring device
US11651277B2 (en) 2010-03-15 2023-05-16 Numenta, Inc. Sparse distributed representation for networked processing in predictive system
US9189745B2 (en) 2010-03-15 2015-11-17 Numenta, Inc. Temporal memory using sparse distributed representation
US8649592B2 (en) 2010-08-30 2014-02-11 University Of Illinois At Urbana-Champaign System for background subtraction with 3D camera
US8870751B2 (en) 2010-09-28 2014-10-28 Fujifilm Corporation Endoscope system, endoscope image recording apparatus, endoscope image acquisition assisting method and computer readable medium
US9160986B2 (en) * 2010-11-16 2015-10-13 Honda Motor Co., Ltd. Device for monitoring surroundings of a vehicle
JP5680436B2 (ja) * 2011-02-15 2015-03-04 アルパイン株式会社 車載カメラレンズ用異物付着判定装置
US9650893B2 (en) 2011-04-01 2017-05-16 Joy Mm Delaware, Inc. Imaging-based interface sensor and control device for mining machines
US8587657B2 (en) 2011-04-13 2013-11-19 Xerox Corporation Determining a number of objects in an IR image
US8825565B2 (en) 2011-08-25 2014-09-02 Numenta, Inc. Assessing performance in a spatial and temporal memory system
US8504570B2 (en) 2011-08-25 2013-08-06 Numenta, Inc. Automated search for detecting patterns and sequences in data using a spatial and temporal memory system
US8645291B2 (en) 2011-08-25 2014-02-04 Numenta, Inc. Encoding of data for processing in a spatial and temporal memory system
WO2013034182A1 (en) * 2011-09-08 2013-03-14 Valeo Schalter Und Sensoren Gmbh Method for creating a vehicle surroundings map, driver assistance device, and vehicle having a driver assistance device
US9292735B2 (en) * 2011-09-28 2016-03-22 Honda Motor Co., Ltd. Living body recognizing device
WO2013065121A1 (ja) * 2011-11-01 2013-05-10 アイシン精機株式会社 障害物警報装置
US8818030B2 (en) * 2011-12-13 2014-08-26 Xerox Corporation Post-processing a multi-spectral image for enhanced object identification
JP5615862B2 (ja) * 2012-03-07 2014-10-29 クラリオン株式会社 車両周囲監視装置
GB2497603B (en) * 2012-03-23 2014-08-20 Jaguar Land Rover Ltd Windscreen clearing system for a vehicle
US20150169980A1 (en) * 2012-06-26 2015-06-18 Honda Motor Co., Ltd. Object recognition device
US9159021B2 (en) 2012-10-23 2015-10-13 Numenta, Inc. Performing multistep prediction using spatial and temporal memory system
US10043067B2 (en) * 2012-12-03 2018-08-07 Harman International Industries, Incorporated System and method for detecting pedestrians using a single normal camera
JP5754470B2 (ja) * 2012-12-20 2015-07-29 株式会社デンソー 路面形状推定装置
US20140205139A1 (en) * 2013-01-18 2014-07-24 Caterpillar Inc. Object recognition system implementing image data transformation
US9542626B2 (en) * 2013-09-06 2017-01-10 Toyota Jidosha Kabushiki Kaisha Augmenting layer-based object detection with deep convolutional neural networks
US9355334B1 (en) * 2013-09-06 2016-05-31 Toyota Jidosha Kabushiki Kaisha Efficient layer-based object recognition
JP5906224B2 (ja) * 2013-09-27 2016-04-20 富士重工業株式会社 車外環境認識装置
CN103692974B (zh) * 2013-12-16 2015-11-25 广州中国科学院先进技术研究所 一种基于环境监测的车辆行驶安全预警方法及系统
US9485433B2 (en) 2013-12-31 2016-11-01 Personify, Inc. Systems and methods for iterative adjustment of video-capture settings based on identified persona
US10318878B2 (en) 2014-03-19 2019-06-11 Numenta, Inc. Temporal processing scheme and sensorimotor information processing
CN103927846A (zh) * 2014-03-26 2014-07-16 南京理工大学 基于车内温度和气体检测的汽车自动报警器
US10013616B2 (en) * 2014-05-27 2018-07-03 Robert Bosch Gmbh Detection, identification, and mitigation of lens contamination for vehicle mounted camera systems
JP6474396B2 (ja) * 2014-06-03 2019-02-27 住友重機械工業株式会社 人検知システム及びショベル
JP2016062134A (ja) * 2014-09-16 2016-04-25 コニカミノルタ株式会社 オブジェクト操作システム及びオブジェクト操作制御プログラム並びにオブジェクト操作制御方法
US10055643B2 (en) 2014-09-19 2018-08-21 Bendix Commercial Vehicle Systems Llc Advanced blending of stitched images for 3D object reproduction
KR101684095B1 (ko) * 2015-04-09 2016-12-07 현대자동차주식회사 보행자 거리 추정장치 및 방법
CN104776885A (zh) * 2015-04-28 2015-07-15 宁波萨瑞通讯有限公司 汽车内环境监测系统
US9563962B2 (en) 2015-05-19 2017-02-07 Personify, Inc. Methods and systems for assigning pixels distance-cost values using a flood fill technique
US9916668B2 (en) 2015-05-19 2018-03-13 Personify, Inc. Methods and systems for identifying background in video data using geometric primitives
JP6236039B2 (ja) * 2015-06-26 2017-11-22 株式会社Subaru 車外環境認識装置
EP3440630A4 (en) * 2016-04-06 2019-09-11 HRL Laboratories, LLC SYSTEM AND METHOD FOR REMOVING GHOST IMAGES IN A VIDEO SEQUENCE USING ENLARGING OBJECT BOXES
US9883155B2 (en) 2016-06-14 2018-01-30 Personify, Inc. Methods and systems for combining foreground video and background video using chromatic matching
JP6627680B2 (ja) * 2016-07-27 2020-01-08 株式会社Jvcケンウッド 人物検出装置、人物検出システム、人物検出方法及び人物検出プログラム
US9881207B1 (en) * 2016-10-25 2018-01-30 Personify, Inc. Methods and systems for real-time user extraction using deep learning networks
CN110312952B (zh) 2017-02-20 2022-09-27 3M创新有限公司 光学制品和与其交互的系统
EP3688662A1 (en) 2017-09-27 2020-08-05 3M Innovative Properties Company Personal protective equipment management system using optical patterns for equipment and safety monitoring
JP7135796B2 (ja) * 2018-11-30 2022-09-13 トヨタ自動車株式会社 サーバ装置、サーバ制御方法、サーバ制御プログラム、車両、車両制御方法、及び車両制御プログラム
TWI688502B (zh) * 2018-02-14 2020-03-21 先進光電科技股份有限公司 用於警告車輛障礙物的設備
JP7102800B2 (ja) * 2018-03-13 2022-07-20 富士通株式会社 評価プログラム、評価方法および評価装置
CN108806318A (zh) * 2018-06-19 2018-11-13 芜湖岭上信息科技有限公司 一种基于图像的停车位管理系统和方法
EP3666594B1 (en) * 2018-12-12 2022-08-10 Ningbo Geely Automobile Research & Development Co. Ltd. System and method for warning a driver of a vehicle of an object in a proximity of the vehicle
US11024169B2 (en) * 2019-09-09 2021-06-01 International Business Machines Corporation Methods and systems for utilizing vehicles to investigate events
CN110996053B (zh) * 2019-11-26 2021-06-01 浙江吉城云创科技有限公司 一种环境安全检测方法、装置、终端及存储介质
US11681922B2 (en) 2019-11-26 2023-06-20 Numenta, Inc. Performing inference and training using sparse neural network
CN114697761B (zh) * 2022-04-07 2024-02-13 脸萌有限公司 一种处理方法、装置、终端设备及介质

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4823194A (en) * 1986-08-01 1989-04-18 Hitachi, Ltd. Method for processing gray scale images and an apparatus thereof
US4916640A (en) * 1987-06-03 1990-04-10 Allen-Bradley Company, Inc. Video image processing system
DE68928895T2 (de) * 1988-10-11 1999-05-27 Oyo Keisoku Kenkyusho Kk Verfahren und Gerät für universelle adaptiv lernende Bildmessung und -erkennung
JP2552728B2 (ja) * 1989-05-31 1996-11-13 富士通株式会社 赤外線監視システム
JP3263699B2 (ja) * 1992-12-22 2002-03-04 三菱電機株式会社 走行環境監視装置
JP3037432B2 (ja) * 1993-11-01 2000-04-24 カドラックス・インク 光波オーブンによる食物調理方法および調理装置
US5978497A (en) * 1994-09-20 1999-11-02 Neopath, Inc. Apparatus for the identification of free-lying cells
US6088468A (en) * 1995-05-17 2000-07-11 Hitachi Denshi Kabushiki Kaisha Method and apparatus for sensing object located within visual field of imaging device
JPH08313632A (ja) 1995-05-19 1996-11-29 Omron Corp 警報発生装置および方法,ならびにこの警報発生装置を搭載した車両
JP3490559B2 (ja) * 1995-11-14 2004-01-26 富士写真フイルム株式会社 画像の主要部判定方法及び複写条件決定方法
US6088471A (en) * 1997-05-16 2000-07-11 Authentec, Inc. Fingerprint sensor including an anisotropic dielectric coating and associated methods
US5992753A (en) * 1997-10-30 1999-11-30 Metanetics Corporation Hand held dataform reader utilizing binarization process for dataform and signature area capture
JP3716623B2 (ja) 1998-07-09 2005-11-16 日産自動車株式会社 温体検出装置
US6546113B1 (en) * 1999-03-02 2003-04-08 Leitch Technology International Inc. Method and apparatus for video watermarking
US6839457B1 (en) * 1999-06-03 2005-01-04 Teijin Limited Bone measuring method
JP3515926B2 (ja) 1999-06-23 2004-04-05 本田技研工業株式会社 車両の周辺監視装置
JP4414054B2 (ja) * 2000-03-27 2010-02-10 本田技研工業株式会社 物体認識装置
WO2001085491A1 (en) * 2000-05-08 2001-11-15 Automotive Technologies International, Inc. Vehicular blind spot identification and monitoring system
JP2001351200A (ja) 2000-06-09 2001-12-21 Nissan Motor Co Ltd 車載用物体検知装置
WO2002019698A2 (en) * 2000-08-31 2002-03-07 Rytec Corporation Sensor and imaging system
US6785402B2 (en) * 2001-02-15 2004-08-31 Hewlett-Packard Development Company, L.P. Head tracking and color video acquisition via near infrared luminance keying
US6915010B2 (en) * 2001-06-15 2005-07-05 Siemens Corporate Research, Inc. Real time object localization and recognition from silhouette images
DE10301468B4 (de) 2002-01-18 2010-08-05 Honda Giken Kogyo K.K. Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs
WO2004029659A2 (en) * 2002-06-14 2004-04-08 Honda Giken Kogyo Kabushiki Kaisha Pedestrian detection and tracking with night vision
JP4047090B2 (ja) * 2002-07-31 2008-02-13 キヤノン株式会社 画像処理方法及び画像処理装置
US7310442B2 (en) * 2003-07-02 2007-12-18 Lockheed Martin Corporation Scene analysis surveillance system
US7340443B2 (en) * 2004-05-14 2008-03-04 Lockheed Martin Corporation Cognitive arbitration system
US7391934B2 (en) * 2005-10-05 2008-06-24 Ncr Corporation Method of creating a substitute check using check image data from a remote check image capture device and an apparatus therefor

Also Published As

Publication number Publication date
US20050063565A1 (en) 2005-03-24
DE102004041919B4 (de) 2008-05-08
DE102004041919A1 (de) 2005-04-28
US7672510B2 (en) 2010-03-02
JP2005079999A (ja) 2005-03-24

Similar Documents

Publication Publication Date Title
JP3987013B2 (ja) 車両周辺監視装置
JP3987048B2 (ja) 車両周辺監視装置
JP4060159B2 (ja) 車両周辺監視装置
JP3934119B2 (ja) 車両周辺監視装置
JP4104867B2 (ja) ナイトビジョンシステム
US8810653B2 (en) Vehicle surroundings monitoring apparatus
JP4203512B2 (ja) 車両周辺監視装置
JP3987057B2 (ja) 車両周辺監視装置
US8144195B2 (en) Vehicle zone monitoring apparatus
US20030138133A1 (en) Device for monitoring around a vehicle
EP1671216A2 (en) Moving object detection using low illumination depth capable computer vision
JP4094604B2 (ja) 車両周辺監視装置
JP3839329B2 (ja) ナイトビジョンシステム
JPH1186185A (ja) 車種判別装置
JP4425852B2 (ja) 車両周辺監視装置
JP2006151300A (ja) 車両周辺監視装置
JP3898157B2 (ja) 赤外線画像認識装置
JP3844750B2 (ja) 赤外線画像認識装置、及び赤外線画像認識装置を用いた警報装置
JP3939626B2 (ja) 車両周辺監視装置
JP3970876B2 (ja) 車両周辺監視装置
JP4647648B2 (ja) 車両周辺監視装置
JP4567072B2 (ja) 車両周辺監視装置
JP4298699B2 (ja) 車両周辺監視装置
JP3532896B2 (ja) スミア検出方法及びこのスミア検出方法を用いた画像処理装置
KR20140076043A (ko) 보행자 후보 검출장치 및 검출방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20060731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070711

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100720

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100720

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110720

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110720

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120720

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120720

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130720

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140720

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees