JP3934119B2 - 車両周辺監視装置 - Google Patents

車両周辺監視装置 Download PDF

Info

Publication number
JP3934119B2
JP3934119B2 JP2004175667A JP2004175667A JP3934119B2 JP 3934119 B2 JP3934119 B2 JP 3934119B2 JP 2004175667 A JP2004175667 A JP 2004175667A JP 2004175667 A JP2004175667 A JP 2004175667A JP 3934119 B2 JP3934119 B2 JP 3934119B2
Authority
JP
Japan
Prior art keywords
pedestrian
umbrella
binarized
area
binarized object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004175667A
Other languages
English (en)
Other versions
JP2005354597A (ja
Inventor
文則 谷口
伸治 長岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2004175667A priority Critical patent/JP3934119B2/ja
Priority to US11/150,733 priority patent/US7233233B2/en
Priority to DE102005026875A priority patent/DE102005026875B4/de
Publication of JP2005354597A publication Critical patent/JP2005354597A/ja
Application granted granted Critical
Publication of JP3934119B2 publication Critical patent/JP3934119B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/182Network patterns, e.g. roads or rivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、赤外線画像の2値化処理により、対象物の抽出を行う車両周辺監視装置に関する。
従来、赤外線撮像手段(赤外線カメラ)により捉えられた車両周辺の画像から、車両との衝突の可能性がある歩行者等の対象物を抽出する車両周辺監視装置がある。具体的に説明すると、この装置は赤外線画像を2値化処理して明部が集中している領域(2値化対象物)を探し、この2値化対象物の縦横比や充足率、更には実面積と画面上の重心位置を用いて距離を算出することで、2値化対象物が歩行者の頭部であるか否かを判定する。そして、歩行者の頭部を判定することができたら、画像上の歩行者の身長を計算して歩行者の身体を包含する領域を設定し、これらの領域を他の領域と区分して表示する。このように、赤外線画像上の歩行者の身体全体の位置を特定し、この情報を車両の運転者に対して表示することで、より効果的な視覚補助を行うことができる(例えば、特許文献1参照。)。
また、このような車両周辺監視装置には、車両周囲の天候が降雨状態で、歩行者が傘等の雨具に隠れてしまう状況にある場合には、歩行者検知警報を抑制するものもある。具体的に説明すると、赤外線センサを使用して歩行者検知を行う場合には、アスファルトや建物の熱を検出してしまうことによる検出精度の低下に加えて、降雨時に歩行者が傘等の雨具に隠れて正確に体温を検出できないことによる検出精度の低下も考えられるため、降雨量が一定値以上、つまり歩行者が傘等の雨具を必要とする程度の降雨であり、雨具の使用により歩行者が隠れてしまうという状況にあることを検出することにより、歩行者検知精度が低下したことを運転者に知らせ、歩行者検知警報の出力を停止する。これにより、車両周囲の天候が降雨状態である時の不適切な歩行者検知警報を抑制することができる(例えば、特許文献2参照。)。
特開平11−328364号公報 特開2000−211453号公報
上述のように、歩行者の頭部等、路上に存在する歩行者の比較的判別しやすい身体的特徴は、いつでも赤外線カメラにより捉えられるとは限らない。例えば、傘を差した歩行者を捉えた赤外線画像(グレースケール画像)を示す図13のように、歩行者が傘を深く差している場合(図13の白丸で囲った部分)、歩行者の頭部が隠された状態となり、歩行者を認識することが困難になる可能性が生じるという問題がある。
従って、運転者に対するより効果的な視覚補助を行うには、特許文献1に記載の装置のように、身長相当の存在に基づく形状判定や頭部と胴部の存在に基づく形状判定、あるいは頭部のみによる形状判定等、比較的判別しやすい身体的特徴を用いて歩行者の抽出を行うだけでなく、歩行者の比較的判別しやすい身体的特徴以外の特徴からも歩行者を認識し、歩行者の認識率を向上させる必要がある。
また、たとえ車両周囲の天候が雨天であっても、車両の周囲に歩行者が存在する場合には、特許文献2に記載の装置のように歩行者検知警報の出力を停止せず、雨天で視界が悪いからこそ、積極的に歩行者検出を行うと共に警報を出力して、車両の運転者に注意を促すべきである。
本発明は、上記課題に鑑みてなされたもので、赤外線画像から抽出される不定形な2値化対象物を的確に判定し、安定した歩行者の認識を行う車両周辺監視装置を提供することを目的とする。
上記課題を解決するために、請求項1の発明に係る車両周辺監視装置は、赤外線撮像手段(例えば後述する実施例の赤外線カメラ2R、2L)により撮像されたグレースケール画像を利用して車両(例えば後述する実施例の自車両10)周囲の対象物を抽出する車両周辺監視装置において、歩行者の脚部の特徴値を記憶した歩行者脚部特徴値記憶手段(例えば後述する実施例の画像処理ユニット1に備えられた歩行者脚部特徴値記憶手段)と、前記グレースケール画像を2値化処理することにより2値化対象物を抽出する2値化対象物抽出手段(例えば後述する実施例の画像処理ユニット1が実行するステップS4からステップS7の処理)と、前記2値化対象物抽出手段により抽出された前記2値化対象物の特徴値と前記歩行者の脚部の特徴値とを比較して、前記2値化対象物が前記歩行者の脚部であるか否かを判定する脚部判断手段(例えば後述する実施例の画像処理ユニット1が実行するステップS41からステップS44の処理)と、前記脚部判断手段により前記2値化対象物が前記歩行者の脚部であると判定された場合に、前記2値化対象物を含む前記対象物を歩行者として認識する歩行者認識手段(例えば後述する実施例の画像処理ユニット1が実行するステップS45の処理)とを備えることを特徴とする。
以上の構成を備えた車両周辺監視装置は、赤外線撮像手段により撮像されたグレースケール画像から2値化対象物抽出手段により2値化対象物を抽出し、抽出された2値化対象物の特徴値を歩行者脚部特徴値記憶手段に記憶された歩行者の脚部の特徴値と比較することで、脚部判断手段が2値化対象物が歩行者の脚部であるか否かを判定する。そして、脚部判断手段が歩行者の脚部であると判定した場合に、歩行者認識手段が該2値化対象物を含む対象物を歩行者として認識することで、赤外線撮像手段により撮像された歩行者の脚部の存在から車両周囲の歩行者を認識することができる。
請求項2の発明に係る車両周辺監視装置は、赤外線撮像手段(例えば後述する実施例の赤外線カメラ2R、2L)により撮像されたグレースケール画像を利用して車両(例えば後述する実施例の自車両10)周囲の対象物を抽出する車両周辺監視装置において、歩行者が差している状態の傘の特徴値を記憶した傘部特徴値記憶手段(例えば後述する実施例の画像処理ユニット1に備えられた傘部特徴値記憶手段)と、前記グレースケール画像を2値化処理することにより2値化対象物を抽出する2値化対象物抽出手段(例えば後述する実施例の画像処理ユニット1が実行するステップS4からステップS7の処理)と、前記2値化対象物抽出手段により抽出された前記2値化対象物の前記グレースケール画像上での外周領域を算出する外周領域算出手段(例えば後述する実施例の画像処理ユニット1が実行するステップS46の処理においてグレースケール対象物領域101を求める処理)と、前記外周領域算出手段にて算出された前記外周領域の上端と前記2値化対象物との間の領域に探索領域を設定する探索領域設定手段(例えば後述する実施例の画像処理ユニット1が実行するステップS46の処理)と、前記探索領域設定手段により設定された前記探索領域の特徴値と前記歩行者が差している状態の傘の特徴値とを比較して、前記探索領域に前記傘が存在するか否かを判定する傘部判断手段(例えば後述する実施例の画像処理ユニット1が実行するステップS47からステップS49の処理)と、前記傘部判断手段により前記探索領域に前記歩行者が差している傘が存在すると判定された場合に、前記2値化対象物を含む前記対象物を歩行者として認識する歩行者認識手段(例えば後述する実施例の画像処理ユニット1が実行するステップS45の処理)とを備えることを特徴とする。
以上の構成を備えた車両周辺監視装置は、赤外線撮像手段により撮像されたグレースケール画像から2値化対象物抽出手段により2値化対象物を抽出すると共に、外周領域算出手段により2値化対象物のグレースケール画像上での外周領域を算出し、更に、探索領域設定手段により、外周領域算出手段にて算出された外周領域の上端と該2値化対象物との間の領域に探索領域を設定する。そして、設定された探索領域の特徴値を傘部特徴値記憶手段に記憶された歩行者が差している状態の傘の特徴値と比較することで、傘部判断手段が探索領域に歩行者が差している傘が存在するか否かを判定し、傘部判断手段が探索領域に歩行者が差している傘が存在すると判定した場合に歩行者認識手段が該2値化対象物を含む対象物を歩行者として認識することで、赤外線撮像手段により撮像された歩行者が差している傘の存在から車両周囲の歩行者を認識することができる。
請求項3の発明に係る車両周辺監視装置は、請求項1に記載の車両周辺監視装置において、前記2値化対象物抽出手段により抽出された前記2値化対象物の前記グレースケール画像上での外周領域を算出する外周領域算出手段(例えば後述する実施例の画像処理ユニット1が実行するステップS46の処理においてグレースケール対象物領域101を求める処理)を備え、前記脚部判断手段が、前記2値化対象物の幅が所定範囲内で、かつ前記2値化対象物の縦横比が所定縦横しきい値以上で、更に前記2値化対象物が前記外周領域の下端から所定範囲の前記外周領域内に存在する場合に、前記2値化対象物を前記歩行者の脚部であると判断することを特徴とする。
以上の構成を備えた車両周辺監視装置は、外周領域算出手段が、2値化対象物抽出手段により抽出された2値化対象物のグレースケール画像上での外周領域を算出し、脚部判断手段が、2値化対象物の幅が所定範囲内で、かつ2値化対象物の縦横比が所定縦横しきい値以上で、更に2値化対象物が外周領域の下端から所定範囲の外周領域内に存在する場合に、該2値化対象物を歩行者の脚部であると判断することにより、2値化対象物が歩行者の脚部として適当な横幅か、あるいは2値化対象物が歩行者の脚部として適当な縦長形状か、更に2値化対象物が外周領域の下方に存在するか否かを判断して歩行者の存在を判断することができる。
請求項4の発明に係る車両周辺監視装置は、請求項3に記載の車両周辺監視装置において、前記2値化対象物抽出手段により抽出された前記2値化対象物の時系列的な輝度変化の有無を検出する輝度変化検出手段(例えば後述する実施例の画像処理ユニット1が実行するステップS44の処理)を備え、前記脚部判断手段が、前記輝度変化検出手段により前記2値化対象物の時系列的な輝度変化が検出された場合に、前記2値化対象物を前記歩行者の脚部であると判断することを特徴とする。
以上の構成を備えた車両周辺監視装置は、輝度変化検出手段が2値化対象物に時系列的な輝度変化を検出した場合に、脚部判断手段が該2値化対象物を歩行者の脚部であると判断することで、歩行者の歩行による時系列的な輝度変化を検出して対象物が歩行者であるか否かを判断することができる。
請求項5の発明に係る車両周辺監視装置は、請求項4に記載の車両周辺監視装置において、歩行者が差している状態の傘の特徴値を記憶した傘部特徴値記憶手段(例えば後述する実施例の画像処理ユニット1に備えられた傘部特徴値記憶手段)と、前記輝度変化算出手段により時系列的な輝度変化が検出されなかった前記2値化対象物の前記グレースケール画像上での前記外周領域の上端と該2値化対象物との間の領域に探索領域を設定する探索領域設定手段(例えば後述する実施例の画像処理ユニット1が実行するステップS46の処理)と、前記探索領域設定手段により設定された前記探索領域の特徴値と前記歩行者が差している状態の傘の特徴値とを比較して、前記探索領域に前記傘が存在するか否かを判定する傘部判断手段(例えば後述する実施例の画像処理ユニット1が実行するステップS47からステップS49の処理)とを備え、前記歩行者認識手段が、前記脚部判断手段により前記2値化対象物が前記歩行者の脚部であると判定された場合、あるいは前記傘部判断手段により前記探索領域に前記歩行者が差している傘が存在すると判定された場合に、前記2値化対象物を含む前記対象物を歩行者として認識することを特徴とする。
以上の構成を備えた車両周辺監視装置は、探索領域設定手段により、輝度変化算出手段にて時系列的な輝度変化が検出されなかった2値化対象物のグレースケール画像上での外周領域の上端と該2値化対象物との間の領域に探索領域を設定する。そして、設定された探索領域の特徴値を傘部特徴値記憶手段に記憶された歩行者が差している状態の傘の特徴値と比較することで、傘部判断手段が探索領域に歩行者が差している傘が存在するか否かを判定し、傘部判断手段が探索領域に歩行者が差している傘が存在すると判定した場合、歩行者認識手段は時系列的な輝度変化が検出されなかった2値化対象物を含む対象物でも歩行者として認識することができる。
請求項6の発明に係る車両周辺監視装置は、請求項2、または請求項5に記載の車両周辺監視装置において、前記赤外線撮像手段を2つ備えると共に、2つの前記赤外線撮像手段により撮像された2つのグレースケール画像を利用して、該グレースケール画像に含まれる前記2値化対象物までの距離を算出する距離算出手段(例えば後述する実施例の画像処理ユニット1が実行するステップS46の処理)と、前記探索領域の左右に副探索領域を設定する副探索領域設定手段と、前記探索領域に含まれる前記2値化対象物と前記副探索領域に含まれる前記2値化対象物との距離が同一である場合に、前記探索領域と前記副探索領域とを統合した統合探索領域を設定する統合探索領域設定手段(例えば後述する実施例の画像処理ユニット1が実行するステップS46の処理)と、前記統合探索領域設定手段により設定された前記統合探索領域の横幅を測定する横幅測定手段(例えば後述する実施例の画像処理ユニット1が実行するステップS48の処理)と、前記統合探索領域設定手段により設定された前記統合探索領域の平均輝度を算出する平均輝度算出手段(例えば後述する実施例の画像処理ユニット1が実行するステップS47の処理)とを備え、前記傘部判断手段が、前記統合探索領域の横幅が所定範囲内で、かつ前記統合探索領域の平均輝度が所定輝度しきい値以下である場合に、前記探索領域に前記傘が存在すると判断することを特徴とする。
以上の構成を備えた車両周辺監視装置は、副探索領域設定手段が、探索領域の左右に副探索領域を設定し、統合探索領域設定手段が、距離算出手段により算出された、探索領域に含まれる2値化対象物と副探索領域に含まれる2値化対象物との距離が同一である場合に、探索領域と副探索領域とを統合した統合探索領域を設定する。そして、傘部判断手段が、横幅測定手段により測定された統合探索領域の横幅が所定範囲内で、かつ平均輝度算出手段により算出された統合探索領域の平均輝度が所定輝度しきい値以下である場合に、探索領域に前記傘が存在すると判断することで、統合探索領域に含まれる2値化対象物が歩行者の差している傘として適当な横幅と平均輝度であるか否かを判断して歩行者の存在を判断することができる。
請求項7の発明に係る車両周辺監視装置は、請求項6に記載の車両周辺監視装置において、前記2値化対象物抽出手段により抽出された前記2値化対象物の重心の位置を算出する2値化対象物重心位置算出手段(例えば後述する実施例の画像処理ユニット1が実行するステップS49の処理)と、前記統合探索領域設定手段により設定された前記統合探索領域の重心の位置を算出する領域重心位置算出手段(例えば後述する実施例の画像処理ユニット1が実行するステップS49の処理)とを備え、前記傘部判断手段が、前記統合探索領域の横幅が所定範囲内で、かつ前記統合探索領域の平均輝度が所定輝度しきい値以下であり、更に前記2値化対象物の重心と前記統合探索領域の重心との横方向の位置の差が所定距離しきい値以下ある場合に、前記探索領域に前記傘が存在すると判断することを特徴とする。
以上の構成を備えた車両周辺監視装置は、傘部判断手段が、横幅測定手段により測定された統合探索領域の横幅が所定範囲内で、かつ平均輝度算出手段により算出された統合探索領域の平均輝度が所定輝度しきい値以下であり、更に2値化対象物重心位置算出手段により算出された2値化対象物の重心と、領域重心位置算出手段により算出された統合探索領域の重心との横方向の位置の差が所定距離しきい値以下ある場合に、探索領域に傘が存在すると判断することで、統合探索領域が歩行者の差している傘として適当な横幅と平均輝度であり、更に歩行者と思われる2値化対象物の重心の位置と歩行者の差している傘の範囲と思われる統合探索領域の重心の位置とが適当な位置関係にあるか否かを判断して歩行者の存在を判断することができる。
請求項8の発明に係る車両周辺監視装置は、請求項1から請求項7のいずれかに記載の車両周辺監視装置において、前記車両周囲の降雨状態を検知する雨天検知手段(例えば後述する実施例の自車両10に備えられたワイパー作動状態検出手段、あるいは雨滴センサ)を備え、前記歩行者認識手段が、前記雨天検知手段により前記車両周囲の降雨状態が検知された場合にのみ、前記グレースケール画像中の前記歩行者の脚部あるいは前記歩行者が差している傘の存在から前記歩行者を認識する処理を実行することを特徴とする。
以上の構成を備えた車両周辺監視装置は、雨天検知手段を備えて車両周囲の降雨状態を検知し、車両周囲の降雨状態が検知された場合にのみ、歩行者認識手段がグレースケール画像中の歩行者の脚部あるいは歩行者が差している傘の存在から歩行者を認識する処理を実行することで、車両周囲が雨天の場合にのみ、雨天の時の歩行者の特徴から歩行者を認識することができる。
請求項9の発明に係る車両周辺監視装置は、請求項1から請求項8のいずれかに記載の車両周辺監視装置において、前記歩行者認識手段が前記2値化対象物を含む前記対象物を歩行者として認識した場合に該歩行者に関する警報を出力する警報出力手段(例えば後述する実施例の画像処理ユニット1が実行するステップS19、S20の処理)を備えることを特徴とする。
以上の構成を備えた車両周辺監視装置は、警報出力手段が、歩行者認識手段により2値化対象物を含む対象物を歩行者として認識した場合に該歩行者に関する警報を出力することで、歩行者として認識した対象物にのみ警報を出力することができる。
請求項10の発明に係る車両周辺監視装置は、請求項9に記載の車両周辺監視装置において、前記赤外線撮像手段により撮像された前記車両周囲の映像を表示する表示手段(例えば後述する実施例の画像表示装置7)を備え、前記警報出力手段が、前記歩行者認識手段により前記歩行者として認識された前記対象物と、前記歩行者として認識されなかった前記対象物とを、前記表示手段に識別可能に表示することを特徴とする。
以上の構成を備えた車両周辺監視装置は、警報出力手段が、歩行者認識手段により歩行者として認識された対象物と歩行者として認識されなかった対象物とを、表示手段に識別して表示することで、歩行者認識手段により歩行者として認識された対象物を目立たせることができる。
請求項11の発明に係る車両周辺監視装置は、請求項10に記載の車両周辺監視装置において、前記警報出力手段が、前記歩行者認識手段により前記歩行者として認識された前記対象物と、前記歩行者として認識されなかった前記対象物とを、前記表示手段に識別可能に表示すると共に、警告音を出力することを特徴とする。
以上の構成を備えた車両周辺監視装置は、警報出力手段が、歩行者認識手段により歩行者として認識された対象物と歩行者として認識されなかった対象物とを、表示手段に識別して表示すると共に警告音を出力することで、歩行者認識手段により歩行者として認識された対象物を目立たせ、更に周囲に報知することができる。
請求項12の発明に係る車両周辺監視装置は、請求項10、または請求項11に記載の車両周辺監視装置において、前記歩行者認識手段が前記2値化対象物を含む前記対象物を歩行者として認識した場合に、該歩行者が警報を出力するべき対象であるか否かを判定する警報判定手段(例えば後述する実施例の画像処理ユニット1が実行するステップS18の処理)を備え、前記警報出力手段が、前記警報判定手段により警報を出力するべき歩行者であると判定された前記対象物と、警報を出力するべき歩行者であると判定されなかった前記対象物とを、前記表示手段に識別可能に表示することを特徴とする。
以上の構成を備えた車両周辺監視装置は、警報判定手段が、歩行者認識手段が2値化対象物を含む対象物を歩行者として認識した場合に、該歩行者が警報を出力するべき対象であるか否かを判定し、警報出力手段が、警報判定手段により警報を出力するべき歩行者であると判定された対象物と、警報を出力するべき歩行者であると判定されなかった対象物とを、表示手段に識別可能に表示することで、警報を出力するべき歩行者と判定された対象物だけを目立たせることができる。
請求項13の発明に係る車両周辺監視装置は、請求項10から請求項12のいずれかに記載の車両周辺監視装置において、前記警報出力手段が、前記表示手段に前記対象物を識別可能に表示する場合に、該対象物を強調表示することを特徴とする。
以上の構成を備えた車両周辺監視装置は、警報出力手段が、表示手段に対象物を強調表示することで、目立たせたい対象物を容易に判別することができる。
請求項1に記載の車両周辺監視装置によれば、脚部判断手段が2値化対象物を歩行者の脚部であると判定した場合に、歩行者認識手段が該2値化対象物を含む対象物を歩行者として認識することで、赤外線撮像手段により撮像された歩行者の脚部の存在から車両周囲の歩行者を認識することができる。
従って、赤外線画像を利用して車両周囲の歩行者を認識する場合に、従来のように歩行者の身体的特徴の判定が容易な歩行者の頭部を検出することができなくても、赤外線画像から歩行者の脚部の存在を判定することにより、赤外線画像から抽出される不定形な2値化対象物を的確に判定し、安定した歩行者の認識を行う車両周辺監視装置を実現することができるという効果が得られる。
請求項2に記載の車両周辺監視装置によれば、傘部判断手段が2値化対象物の上方の探索領域に歩行者が差している傘が存在すると判定した場合に、歩行者認識手段が該2値化対象物を含む対象物を歩行者として認識することで、赤外線撮像手段により撮像された歩行者が差している傘の存在から車両周囲の歩行者を認識することができる。
従って、赤外線画像を利用して車両周囲の歩行者を認識する場合に、歩行者が傘を差していることで歩行者の身体的特徴の判定が容易な歩行者の頭部を検出することができなくても、赤外線画像から歩行者の差している傘の存在を判定することにより、赤外線画像から抽出される不定形な2値化対象物を的確に判定し、安定した歩行者の認識を行う車両周辺監視装置を実現することができるという効果が得られる。
請求項3に記載の車両周辺監視装置によれば、2値化対象物が歩行者の脚部として適当な横幅か、あるいは2値化対象物が歩行者の脚部として適当な縦長形状か、更に2値化対象物が外周領域の下方に存在するか否かを判断して歩行者の存在を判断することができる。
従って、例えば2値化対象物として歩行者の脚部と類似する形状の看板等を抽出した場合でも、形状や画像中で存在する場所が歩行者の脚部として適当でない2値化対象物を除外することで、2値化対象物の形状が歩行者の脚部と類似する形状の看板等を歩行者の脚部と認識することを防止できるという効果が得られる。
請求項4に記載の車両周辺監視装置によれば、歩行者の歩行による時系列的な輝度変化を検出して対象物が歩行者であるか否かを判断することができる。
従って、従来は歩行者を認識するときの妨げになっていた歩行者の歩行に伴う脚部の輝度変化を利用して対象物が歩行者であるか否かを判断するので、歩行者の認識率を向上させることができるという効果が得られる。
請求項5に記載の車両周辺監視装置によれば、傘部判断手段が探索領域に歩行者が差している傘が存在すると判定した場合、歩行者認識手段は時系列的な輝度変化が検出されなかった2値化対象物を含む対象物でも歩行者として認識することができる。
従って、歩行者の歩行に伴う脚部の輝度変化を利用して対象物が歩行者であるか否かを判断することで、逆に歩行せずに停止している歩行者の脚部が検出できない場合が発生しても、歩行者の差している傘の存在から歩行者を認識することができるので、歩行者の歩行の如何を問わず対象物が歩行者であるか否かを判断することが可能となり、歩行者の認識率を向上させることができるという効果が得られる。
請求項6に記載の車両周辺監視装置によれば、統合探索領域に含まれる2値化対象物が歩行者の差している傘として適当な横幅と平均輝度であるか否かを判断して歩行者の存在を判断することができる。
従って、横幅や平均輝度が歩行者の差している傘として適当でない2値化対象物を除外することで、正確に赤外線撮像手段により撮像された歩行者の差している傘の存在を判断し、歩行者の認識率を向上させることができるという効果が得られる。
請求項7に記載の車両周辺監視装置によれば、統合探索領域が歩行者の差している傘として適当な横幅と平均輝度であり、更に歩行者と思われる2値化対象物の重心の位置と歩行者の差している傘の範囲と思われる統合探索領域の重心の位置とが適当な位置関係にあるか否かを判断して歩行者の存在を判断することができる。
従って、横幅や平均輝度が歩行者の差している傘として適当でないものや、歩行者と思われる部分の重心の位置と歩行者の差している傘と思われる部分の重心の位置とがずれていて、適当な位置関係にないものを除外することで、歩行者が差している傘と判断できない他の傘、あるいは他の対象物の存在から歩行者を認識することを防止できるという効果が得られる。
請求項8に記載の車両周辺監視装置によれば、車両周囲が雨天の場合にのみ、雨天の時の歩行者の特徴から歩行者を認識することができる。
従って、車両周囲が雨天の場合には雨天の時の歩行者の特徴から歩行者を認識し、その他の場合には雨天の時の歩行者の特徴を利用しないことで、車両周囲が雨天でない時に歩行者の脚部あるいは歩行者の差している傘でない対象物を検出することを防止し、歩行者の認識率を向上させることができるという効果が得られる。
請求項9に記載の車両周辺監視装置によれば、歩行者認識手段により2値化対象物を含む対象物を歩行者として認識した場合に該歩行者に関する警報を出力することで、歩行者として認識した対象物にのみ警報を出力することができる。
従って、歩行者以外の対象物に不要な警報を出力せずに、歩行者のみに対する注意を車両の運転者に促すことができるという効果が得られる。
請求項10に記載の車両周辺監視装置によれば、歩行者認識手段により歩行者として認識された対象物を目立たせることができる。
従って、歩行者の存在をより強く目立たせ、歩行者に対する注意を車両の運転者に促すことができるという効果が得られる。
請求項11に記載の車両周辺監視装置によれば、歩行者認識手段により歩行者として認識された対象物を目立たせ、更に周囲に報知することができる。
従って、表示手段に表示された歩行者の存在を見逃す可能性を排除して、歩行者の存在をより強く目立たせ、歩行者に対する注意をより強く車両の運転者に促すことができるという効果が得られる。
請求項12に記載の車両周辺監視装置によれば、警報を出力するべき歩行者と判定された対象物だけを目立たせることができる。
従って、歩行者以外の対象物に不要な警報を出力せずに、更に歩行者であっても、例えば車両との衝突の可能性が高い歩行者等、特に注意が必要な歩行者のみに対する注意を車両の運転者に促すことができるという効果が得られる。
請求項13に記載の車両周辺監視装置によれば、目立たせたい対象物を容易に判別することができる。
従って、注意が必要な歩行者の存在をわかりやすくすることにより明確に車両の運転者に意識させ、歩行者に対する注意をより強く車両の運転者に促すことができるという効果が得られる。
以下、図面を参照して本発明の実施例について説明する。
(全体構成)
図1は、本発明の一実施例の車両周辺監視装置の構成を示すブロック図である。
図1において、符号1は、本実施例の車両周辺監視装置を制御するCPU(中央演算装置)を備えた画像処理ユニットであって、遠赤外線を検出可能な2つの赤外線カメラ2R、2Lと当該車両のヨーレートを検出するヨーレートセンサ3、更に、当該車両の走行速度(車速)を検出する車速センサ4とブレーキの操作を検出するためのブレーキセンサ5が接続される。これにより、画像処理ユニット1は、車両の周辺の赤外線画像と車両の走行状態を示す信号とから、車両前方の歩行者や動物等の動く物体を検出し、衝突の可能性が高いと判断したときに警報を発する。
また、画像処理ユニット1には、音声で警報を発するためのスピーカ6と、赤外線カメラ2R、2Lにより撮影された画像を表示し、衝突の危険性が高い対象物を車両の運転者に認識させるための、例えば自車両の走行状態を数字で表すメータと一体化されたメータ一体Displayや自車両のコンソールに設置されるNAVIDisplay、更にフロントウィンドウの運転者の前方視界を妨げない位置に情報を表示するHUD(Head Up Display )7a等を含む画像表示装置7が接続されている。
また、画像処理ユニット1は、入力アナログ信号をディジタル信号に変換するA/D変換回路、ディジタル化した画像信号を記憶する画像メモリ、各種演算処理を行うCPU(中央演算装置)、CPUが演算途中のデータを記憶するために使用するRAM(Random Access Memory)、CPUが実行するプログラムやテーブル、マップなどを記憶するROM(Read Only Memory)、スピーカ6の駆動信号、画像表示装置7の表示信号などを出力する出力回路を備えており、赤外線カメラ2R、2L及びヨーレートセンサ3、車速センサ4、ブレーキセンサ5の各出力信号は、ディジタル信号に変換されてCPUに入力されるように構成されている。
また、画像処理ユニット1は、車両周囲が降雨状態であるために、歩行者が傘を差していて、歩行者の頭部等、路上に存在する歩行者の比較的判別しやすい身体的特徴が赤外線カメラにより捉えられていない場合でも車両周囲の歩行者を認識するために、歩行者判定処理において利用する、歩行者の脚部の特徴値を記憶した歩行者脚部特徴値記憶手段、及び歩行者が差している状態の傘の特徴値を記憶した傘部特徴値記憶手段を備えている。
また、図2に示すように、赤外線カメラ2R、2Lは、自車両10の前部に、自車両10の車幅方向中心部に対してほぼ対称な位置に配置されており、2つの赤外線カメラ2R、2Lの光軸が互いに平行であって、かつ両者の路面からの高さが等しくなるように固定されている。なお、赤外線カメラ2R、2Lは、対象物の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有している。
また、HUD7aは、自車両10のフロントウインドウの運転者の前方視界を妨げない位置に表示画面が表示されるように設けられている。
次に、本実施例の動作について図面を参照して説明する。
(対象物検出・警報動作)
図3は、本実施例の車両周辺監視装置の画像処理ユニット1における歩行者等の対象物検出・警報動作を示すフローチャートである。
図3において、まず画像処理ユニット1は、赤外線カメラ2R、2Lの出力信号である赤外線画像を取得して(ステップS1)、A/D変換し(ステップS2)、グレースケール画像を画像メモリに格納する(ステップS3)。なお、ここでは赤外線カメラ2Rにより右画像が得られ、赤外線カメラ2Lにより左画像が得られる。また、右画像と左画像では、同一の対象物の表示画面上の水平位置がずれて表示されるので、このずれ(視差)によりその対象物までの距離を算出することができる。
ステップS3においてグレースケール画像が得られたら、次に、赤外線カメラ2Rにより得られた右画像を基準画像とし、その画像信号の2値化処理、すなわち、輝度しきい値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う(ステップS4)。
図4(a)は、赤外線カメラ2Rにより得られたグレースケール画像を示し、これに2値化処理を行うことにより、図4(b)に示すような画像を得る。なお、図4(b)において、例えばP1からP4の枠で囲った物体を、表示画面上に白色として表示される対象物(以下「高輝度領域」という)とする。
赤外線画像から2値化された画像データを取得したら、2値化した画像データをランレングスデータに変換する処理を行う(ステップS5)。ランレングスデータにより表されるラインは、2値化により白となった領域を画素レベルで示したもので、いずれもy方向には1画素の幅を有しており、またx方向にはそれぞれランレングスデータを構成する画素の長さを有している。
次に、ランレングスデータに変換された画像データから、対象物のラベリングをする(ステップS6)ことにより、対象物を抽出する処理を行う(ステップS7)。すなわち、ランレングスデータ化したラインのうち、y方向に重なる部分のあるラインを1つの対象物とみなすことにより、例えば図4(b)に示す高輝度領域P1からP4が、それぞれ対象物(2値化対象物)として把握されることになる。
2値化対象物の抽出が完了したら、次に、抽出した2値化対象物の重心G、面積S及び外接四角形の縦横比ASPECTを算出する(ステップS8)。
ここで、面積Sは、ラベルAの対象物のランレングスデータを(x[i]、y[i]、run[i]、A)(i=0,1,2,・・・N−1)とすると、ランレングスデータの長さ(run[i]−1)を同一対象物(N個のランレングスデータ)について積算することにより算出する。また、対象物Aの重心Gの座標(xc、yc)は、各ランレングスデータの長さ(run[i]−1)と各ランレングスデータの座標x[i]、またはy[i]とをそれぞれ掛け合わせ、更にこれを同一対象物について積算したものを、面積Sで割ることにより算出する。
更に、縦横比ASPECTは、対象物の外接四角形の縦方向の長さDyと横方向の長さDxとの比Dy/Dxとして算出する。
なお、ランレングスデータは画素数(座標数)(=run[i])で示されているので、実際の長さは「−1」する(1を減算する)必要がある(=run[i]−1)。また、重心Gの位置は、外接四角形の重心位置で代用してもよい。
2値化対象物の重心、面積、外接四角形の縦横比が算出できたら、次に、対象物の時刻間追跡、すなわちサンプリング周期毎の同一対象物の認識を行う(ステップS9)。時刻間追跡は、アナログ量としての時刻tをサンプリング周期で離散化した時刻をkとし、例えば時刻kで対象物A、Bを抽出したら、時刻(k+1)で抽出した対象物C、Dと対象物A、Bとの同一性判定を行う。そして、対象物A、Bと対象物C、Dとが同一であると判定されたら、対象物C、Dをそれぞれ対象物A、Bというラベルに変更することにより、時刻間追跡が行われる。
また、このようにして認識された各対象物の(重心の)位置座標は、時系列位置データとしてメモリに格納され、後の演算処理に使用される。
なお、以上説明したステップS4〜S9の処理は、2値化した基準画像(本実施例では、右画像)について実行する。
次に、車速センサ4により検出される車速VCAR及びヨーレートセンサ3より検出されるヨーレートYRを読み込み、ヨーレートYRを時間積分することにより、自車両10の回頭角θrを算出する(ステップS10)。
一方、ステップS9とステップS10の処理に平行して、ステップS11〜S13では、対象物と自車両10との距離zを算出する処理を行う。この演算はステップS9、及びステップS10より長い時間を要するため、ステップS9、S10より長い周期(例えばステップS1〜S10の実行周期の3倍程度の周期)で実行される。
まず、基準画像(右画像)の2値化画像によって追跡される対象物の中の1つを選択することにより、右画像から探索画像R1(ここでは、外接四角形で囲まれる領域全体を探索画像とし、この探索画像の外接四角形を対象枠という)を抽出する(ステップS11)。
次に、左画像中から探索画像R1に対応する画像(以下「対応画像」という)を探索する探索領域を設定し、相関演算を実行して対応画像R4を抽出する(ステップS12)。具体的には、探索画像R1の各頂点座標に応じて、左画像中に探索領域R2を設定し、探索領域R2内で探索画像R1との相関の高さを示す輝度差分総和値C(a,b)を算出し、この総和値C(a,b)が最小となる領域を対応画像として抽出する。なお、この相関演算は、2値化画像ではなくグレースケール画像を用いて行う。また同一対象物についての過去の位置データがあるときは、その位置データに基づいて探索領域R2より狭い領域R2aを探索領域として設定する。
ステップS12の処理により、基準画像(右画像)中に探索画像R1と、左画像中にこの対象物に対応する対応画像R4とが抽出されるので、次に、探索画像R1の重心位置と対応画像R4の重心位置と視差Δd(画素数)を求め、これから自車両10と対象物との距離zを算出する(ステップS13)。
また、ステップS10における回頭角θrの算出と、ステップS13における対象物との距離zの算出が完了したら、次に、自車両10が回頭することによる画像上の位置ずれを補正するための回頭角補正を行う(ステップS14)。回頭角補正は、時刻kから(k+1)までの期間中に自車両10が例えば左方向に回頭角θrだけ回頭すると、カメラによって得られる画像上では、画像の範囲がΔxだけx方向にずれるので、これを補正する処理である。
また、回頭角補正を終了したら、画像内の座標(x,y)及び距離zを実空間座標(X,Y,Z)に変換する(ステップS15)。
ここで、実空間座標(X,Y,Z)は、図2に示すように、赤外線カメラ2R、2Lの取り付け位置の中点の位置(自車両10に固定された位置)を原点Oとして図示のように定め、画像内の座標は、画像の中心を原点として水平方向をx、垂直方向をyと定めている。なお、以下の説明では、回頭角補正後の座標を(X,Y,Z)と表示する。
次に、実空間座標に対する回頭角補正が完了したら、同一対象物について、ΔTのモニタ期間内に得られた、回頭角補正後のN個(例えばN=10程度)の実空間位置データ、すなわち時系列データから、対象物と自車両10との相対移動ベクトルに対応する近似直線LMVを求める。
次いで、最新の位置座標P(0)=(X(0),Y(0),Z(0))と、(N−1)サンプル前(時間ΔT前)の位置座標P(Nー1)=(X(N−1),Y(N−1),Z(N−1))を近似直線LMV上の位置に補正し、補正後の位置座標Pv(0)=(Xv(0),Yv(0),Zv(0))及びPv(N−1)=(Xv(N−1),Yv(N−1),Zv(N−1))を求める。
これにより、位置座標Pv(N−1)からPv(0)に向かうベクトルとして、相対移動ベクトルが得られる(ステップS16)。
このようにモニタ期間ΔT内の複数(N個)のデータから対象物の自車両10に対する相対移動軌跡を近似する近似直線を算出して相対移動ベクトルを求めることにより、位置検出誤差の影響を軽減して対象物との衝突の可能性をより正確に予測することが可能となる。
また、ステップS16において、相対移動ベクトルが求められたら、次に、検出した対象物との衝突の可能性を判定する警報判定処理を行う(ステップS17)。なお、警報判定処理については、詳細を後述する。
ステップS17において、自車両10と検出した対象物との衝突の可能性がないと判定された場合(ステップS17のNO)、ステップS1へ戻り、上述の処理を繰り返す。
また、ステップS17において、自車両10と検出した対象物との衝突の可能性があると判定された場合(ステップS17のYES)、ステップS18の警報出力判定処理へ進む。
ステップS18では、ブレーキセンサ5の出力BRから自車両10の運転者がブレーキ操作を行っているか否かを判別することにより、警報出力判定処理、すなわち警報出力を行うか否かの判定を行う(ステップS18)。
もし、自車両10の運転者がブレーキ操作を行っている場合には、それによって発生する加速度Gs(減速方向を正とする)を算出し、この加速度Gsが加速度しきい値GTHより大きいときは、ブレーキ操作により衝突が回避されると判定して警報出力判定処理を終了し(ステップS18のNO)、ステップS1へ戻り、上述の処理を繰り返す。
これにより、適切なブレーキ操作が行われているときは、警報を発しないようにして、運転者に余計な煩わしさを与えないようにすることができる。
また、加速度Gsが加速度しきい値GTH以下であるとき、または自車両10の運転者がブレーキ操作を行っていなければ、直ちにステップS19の処理へ進み(ステップS18のYES)、対象物と接触する可能性が高いので、スピーカ6を介して音声による警報を発する(ステップS19)とともに、画像表示装置7に対して、例えば赤外線カメラ2Rにより得られる画像を出力し、接近してくる対象物を自車両10の運転者に対する強調映像として表示する(ステップS20)。
なお、加速度しきい値GTHは、ブレーキ操作中の加速度Gsがそのまま維持された場合に、対象物と自車両10との距離Zv(0)以下の走行距離で自車両10が停止する条件に対応する値である。
(警報判定処理)
次に、図5に示すフローチャートを参照して、図3に示したフローチャートのステップS17における警報判定処理について更に詳細に説明する。
図5は、本実施例の警報判定処理動作を示すフローチャートである。
警報判定処理は、以下に示す衝突判定処理、接近判定領域内か否かの判定処理、進入衝突判定処理、歩行者判定処理、及び人工構造物判定処理により、自車両10と検出した対象物との衝突の可能性を判定する処理である。以下、図6に示すように、自車両10の進行方向に対してほぼ90°の方向から、速度Vpで進行してくる対象物20がいる場合を例に取って説明する。
図5において、まず、画像処理ユニット1は衝突判定処理を行う(ステップS31)。衝突判定処理は、図6において、対象物20が時間ΔTの間に距離Zv(N−1)から距離Zv(0)に接近した場合に、自車両10とのZ方向の相対速度Vsを求め、両者が高さH以内で相対速度Vsを維持して移動すると仮定して、余裕時間T以内に両者が衝突するか否かを判定する処理である。ここで、余裕時間Tは、衝突の可能性を予測衝突時刻より時間Tだけ前に判定することを意図したものである。従って、余裕時間Tは例えば2〜5秒程度に設定される。またHは、高さ方向の範囲を規定する所定高さであり、例えば自車両10の車高の2倍程度に設定される。
次に、ステップS31において、余裕時間T以内に自車両10と対象物とが衝突する可能性がある場合(ステップS31のYES)、更に判定の信頼性を上げるために、画像処理ユニット1は対象物が接近判定領域内に存在するか否かの判定処理を行う(ステップS32)。接近判定領域内か否かの判定処理は、図7に示すように、赤外線カメラ2R、2Lで監視可能な領域を太い実線で示す外側の三角形の領域AR0とすると、領域AR0内の、Z1=Vs×Tより自車両10に近い領域であって、対象物が自車両10の車幅αの両側に余裕β(例えば50〜100cm程度とする)を加えた範囲に対応する領域AR1、すなわち対象物がそのまま存在し続ければ自車両10との衝突の可能性がきわめて高い接近判定領域AR1内に存在するか否かを判定する処理である。なお、接近判定領域AR1も所定高さHを有する。
更に、ステップS32において、対象物が接近判定領域内に存在しない場合(ステップS32のNO)、画像処理ユニット1は対象物が接近判定領域内へ進入して自車両10と衝突する可能性があるか否かを判定する進入衝突判定処理を行う(ステップS33)。進入衝突判定処理は、上述の接近判定領域AR1よりX座標の絶対値が大きい(接近判定領域の横方向外側の)領域AR2、AR3を進入判定領域と呼び、この領域内にある対象物が、移動することにより接近判定領域AR1に進入すると共に自車両10と衝突するか否かを判定する処理である。なお、進入判定領域AR2、AR3も所定高さHを有する。
一方、ステップS32において、対象物が接近判定領域内に存在している場合(ステップS32のYES)、画像処理ユニット1は対象物が歩行者の可能性があるか否かを判定する歩行者判定処理を行う(ステップS34)。なお、歩行者判定処理については、詳細を後述する。
また、ステップS34において、対象物は歩行者の可能性があると判定された場合(ステップS34のYES)、更に判定の信頼性を上げるために、対象物が人工構造物であるか否かを判定する人工構造物判定処理を行う(ステップS35)。人工構造物判定処理は、対象物画像に、例えば以下の(a)から(d)に示すような歩行者にはあり得ない特徴が検出された場合、該対象物を人工構造物と判定し、警報の対象から除外する処理である。
(a)対象物の画像に直線エッジを示す部分が含まれる場合。
(b)対象物の画像の角が直角である場合。
(c)対象物の画像に同じ形状のものが複数含まれている場合。
(d)対象物の画像が予め登録された人口構造物の形状と一致する場合。
従って、上述のステップS33において、対象物が接近判定領域内へ進入して自車両10と衝突する可能性がある場合(ステップS33のYES)、及びステップS35において、歩行者の可能性があると判定された対象物が人工構造物でなかった場合(ステップS35のNO)、画像処理ユニット1は、自車両10と検出した対象物との衝突の可能性がある(警報の対象である)と判定し(ステップS36)、図3に示すステップS17のYESとしてステップS18へ進み、警報出力判定処理(ステップS18)を行う。
一方、上述のステップS31において、余裕時間T以内に自車両10と対象物とが衝突する可能性がない場合(ステップS31のNO)、あるいはステップS33において、対象物が接近判定領域内へ進入して自車両10と衝突する可能性がない場合(ステップS33のNO)、あるいはステップS34において、対象物は歩行者の可能性がないと判定された場合(ステップS34のNO)、更にはステップS35において、歩行者の可能性があると判定された対象物が人工構造物であった場合(ステップS35のYES)のいずれかであった場合は、画像処理ユニット1は、自車両10と検出した対象物との衝突の可能性がない(警報の対象ではない)と判定し(ステップS37)、図3に示すステップS17のNOとしてステップS1へ戻り、歩行者等の対象物検出・警報動作を繰り返す。
(歩行者判定処理)
次に、図8に示すフローチャート及び図9から図12に示す模式図を参照して、図5に示したフローチャートのステップS34における歩行者判定処理について更に詳細に説明する。図8は、本実施例における車両周囲が降雨状態の場合の歩行者判定処理動作を示すフローチャートである。
本実施例の歩行者判定処理では、車両周囲が降雨状態ではない場合は、従来通り歩行者の頭部等、路上に存在する歩行者の比較的判別しやすい身体的特徴についての形状判定により対象物から歩行者を認識する。一方、車両周囲が降雨状態であるために、歩行者が傘を差していて、歩行者の頭部等、路上に存在する歩行者の比較的判別しやすい身体的特徴が赤外線カメラにより捉えられていない場合でも歩行者を認識するために、本実施例の歩行者判定処理は、グレースケール画像中の歩行者の脚部の存在かあるいは歩行者が差している傘の存在を確かめて、歩行者を認識する。また、本実施例の歩行者判定処理は、車両周囲が降雨状態である場合、図8に示す一連の処理を例えば100[msec]周期で実行する。
なお、車両周囲が降雨状態であるか否かは、自車両10にワイパーの作動状態を検出するワイパー作動状態検出手段を備え、自車両10に備えられたワイパーの作動状態から判定したり、自車両10に雨滴を検出する雨滴センサを備え、雨滴センサの出力信号から判定すれば良い。
車両周囲が降雨状態である場合の歩行者判定処理について詳細に説明すると、図8において、画像処理ユニット1は、グレースケール画像中の歩行者の脚部の存在を確かめるために、まず、歩行者の脚部存在判定を行う際の2値化対象物とグレースケール対象物領域の位置関係を示す図9のように、目的の2値化対象物100の実空間での幅WBが歩行者の脚部として適当な幅であり、2値化対象物100の実空間での幅WBが所定範囲内か否かを判定する(ステップS41)。具体的には、下記(1)式により算出される2値化対象物100の実空間での幅WBが、予め設定された脚部最小幅(例えば、30[cm])以上で、かつ予め設定された脚部最大幅(例えば、70[cm])以下であるか否かを判定する。
WB=wb×Distance/(F/p) ・・・(1)
なお、(1)式において、wbは、図9に示すように、2値化対象物100の画像上での幅(2値化対象物の外接四角形の幅)を示し、またDistanceは2値化対象物100の実空間における自車両10からの距離[m]、Fは赤外線カメラ2R、2Lの焦点距離[m]、pは画素ピッチ[m/pixel]をそれぞれ示す。
もし、ステップS41において、2値化対象物100の実空間での幅WBが、脚部最小幅(例えば、30[cm])以上で、かつ脚部最大幅(例えば、70[cm])以下であり、目的の2値化対象物100の実空間での幅WBが歩行者の脚部として適当な幅であると判定された場合(ステップS41のYES)、次に、画像処理ユニット1は、目的の2値化対象物100が縦長形状であるか否かを判定する(ステップS42)。具体的には、2値化対象物100の画像上での高さ(2値化対象物の外接四角形の高さ)hbと2値化対象物100の画像上での幅wbとの比(hb/wb)が、縦横比率しきい値(例えば、1)以上であるか否かを判定し、「(hb/wb)≧縦横比率しきい値」の場合、2値化対象物100は縦長形状であると判定する。
そして、ステップS42において、「(hb/wb)≧縦横比率しきい値」であり、目的の2値化対象物100が縦長形状であると判定された場合(ステップS42のYES)、画像処理ユニット1は、2値化対象物100の下端位置が、グレースケール対象物(グレースケール画像上の対象物)領域の下部(下半分)に存在するか否かを判定する(ステップS43)。具体的には、図9に示すように、2値化対象物100を包含するグレースケール画像上の対象物の領域であるグレースケール対象物領域101を設定し、2値化対象物100の位置が該グレースケール対象物領域101の高さhgに対して下記(2)式を満足するか否かを判定する。
yb+hb≧yg+hg/2 ・・・(2)
なお、(2)式において、ybは、図9に示すように、グレースケール画像の左上端を原点(0、0)とした場合の、2値化対象物100の左上端座標(xb、yb)のY軸座標を示す。またygは、同様に、グレースケール画像の左上端を原点(0、0)とした場合の、グレースケール対象物領域101の左上端座標(xg、yg)のY軸座標を示す。
また、画像処理ユニット1は、所定の大きさのマスク領域を2値化対象物外接四角形の上端から複数個並べてグレースケール画像上に設定し、マスク領域内の輝度変化が大きく(対象物と背景画像とが含まれている)、かつ左右の画像間のマスク領域の相関度が高いと共に、更に2値化対象物と同距離(同視差)であるマスク領域を包含する領域を抽出することで、グレースケール対象物領域101を求める。
また、ステップS43において、2値化対象物100の位置がグレースケール対象物領域101の高さhgに対して(2)式を満足し、2値化対象物100の下端位置が、グレースケール対象物領域101の下部(下半分)に存在すると判定された場合(ステップS43のYES)、画像処理ユニット1は、2値化対象物100に時系列的な輝度変化があるか否かを判定する(ステップS44)。この処理は、2値化対象物100が歩行者の脚部であれば、歩行者の歩行動作に連動して画像上の形状が変化するので、その変化を検出するために行われる。
具体的には、2値化対象物の外接四角形内の輝度分散を求め、該輝度分散のばらつきから、輝度分散の標準偏差σを算出する。次に、算出された標準偏差σが輝度分散判定しきい値σTH以上であるか否かを判定する。なお、画像処理ユニット1は、輝度分散の標準偏差σを算出する場合、処理の実行周期は例えば0.5[秒]程度として、この0.5[秒]間に得られるm個の輝度分散のばらつきから輝度分散の標準偏差σを算出する。
そして、ステップS44において、算出された標準偏差σが輝度分散判定しきい値σTH以上で、2値化対象物100に時系列的な輝度変化があると判定された場合、該2値化対象物100は歩行者の脚部であると認識し(ステップS44のYES)、画像処理ユニット1は、検出された対象物は歩行者であると判定して(ステップS45)歩行者判定処理を終了し、図5に示すステップS34のYESとして図5のステップS35へ進み、人工構造物判定を行う。
一方、2値化対象物100に時系列的な輝度変化があるか否かを判定する場合は、歩行している歩行者の脚部を認識することができるものの、歩行者が静止している場合には、2値化対象物100が歩行者の脚部であっても、時間の経過によって画像上の形状が変化することがなく、歩行者の脚部として認識することができない。そこで、ステップS44において、算出された標準偏差σが輝度分散判定しきい値σTH未満で、2値化対象物100に時系列的な輝度変化がないと判定された場合(ステップS44のNO)、画像処理ユニット1は、グレースケール画像中の歩行者が差している傘の存在を確かめて、歩行者を認識する。
詳細に説明すると、まず画像処理ユニット1は、歩行者が差している傘と思われる傘領域の設定を行う(ステップS46)。具体的には、歩行者の差している傘存在判定を行う際の傘領域のエッジを示す図10のように、まず微分フィルタを用いてグレースケール画像を微分し、更に2値化処理することにより、歩行者が差している傘102と思われる領域のエッジ部分103の存在を判定する。そして、2値化対象物100の上方向に存在し、輝度変化が大きいエッジ部分103があれば、エッジ部分103のY軸座標を求め、これを傘領域の下端位置Ayとする。一方、グレースケール対象物領域101の上端位置のY軸座標を傘領域の上端位置Byとする。
また、エッジ部分103が存在する場合、歩行者の差している傘存在判定を行う際の傘領域とグレースケール対象物領域の位置関係を示す図11のように、グレースケール対象物領域101の左右に、傘領域の下端位置Ayと傘領域の上端位置Byとで囲まれた幅Mwの複数のマスク領域M1、M2、M3、M4・・・を設定し、それぞれのマスク領域M1、M2、M3、M4・・・の自車両10からの距離を算出する。そして、歩行者の差している傘存在判定を行う際の傘領域と2値化対象物及びグレースケール対象物領域の位置関係を示す図12のように、2値化対象物100と同一距離に存在するマスク領域を全て統合して、歩行者が差している傘102と思われる領域を示す傘領域104を推定する。
すなわち、図11に示す例では、マスク領域M1、M2、M3を統合して、2値化対象物100と同一距離に存在するマスク領域M1の右端のX軸座標を求め、これを傘領域の右端位置Cxとすると共に、同様に2値化対象物100と同一距離に存在するマスク領域M3の左端のX軸座標を求め、これを傘領域の左端位置Dxとし、図12に示すように、座標Ay、By、Cx、Dxで囲まれた領域を傘領域104とする。
一方、ステップS46において、歩行者が差している傘102と思われる傘領域104の設定を行うことができたら、画像処理ユニット1は、設定された傘領域104の輝度判定を行い、2値化対象物100の上方に温度の低い領域(輝度が低い領域)が存在するか否かを判定する(ステップS47)。具体的には、傘領域104の平均輝度AVEが傘判定輝度しきい値TH1より低いか否かを判定する。
また、ステップS47において、傘領域104の平均輝度AVEが傘判定輝度しきい値TH1より低く、2値化対象物100の上方に温度の低い領域(輝度が低い領域)が存在すると判定された場合(ステップS47のYES)、画像処理ユニット1は、傘領域104の横幅が歩行者の差している傘として適当な横幅であり、傘領域104の横幅が所定範囲内か否かを判定する(ステップS48)。具体的には、傘領域104の横幅(=|Cx−Dx|)について下記(3)式を満足するか否かを判定する。
TH2≦|Cx−Dx|≦TH3 ・・・(3)
なお、(3)式において、TH2は傘領域の幅の下限しきい値、TH3は傘領域の幅の上限しきい値をそれぞれ示す。また、一例として、傘領域の幅の下限しきい値TH2は、歩行者の肩幅を想定して例えば70[cm]とする。同様に、一例として、傘領域の幅の上限しきい値TH3は、歩行者の差している一般的な傘の幅を想定して例えば150[cm]とする。
また、ステップS48において、傘領域104の横幅(=|Cx−Dx|)が(3)式を満足し、傘領域104の横幅が歩行者の差している傘として適当な横幅であると判定された場合(ステップS48のYES)、画像処理ユニット1は、歩行者と該歩行者の差している傘とが適当な位置関係であり、傘領域104の重心位置と2値化対象物100の重心位置との位置関係が条件内か否かを判定する(ステップS49)。具体的には、図12に示すように、傘領域104の重心位置座標(Ux、Uy)のX軸座標Uxと2値化対象物100の重心位置座標(Lx、Ly)のX軸座標Lxとの関係が下記(4)式を満足するか否かを判定する。
|Ux−Lx|≦TH4 ・・・(4)
なお、(4)式において、TH4は重心ずれに対する重心ずれしきい値を示す。また、一例として、重心ずれしきい値TH4は、想定した歩行者の肩幅の半分として例えば35[cm]とする。
そして、ステップS49において、傘領域104の重心位置座標のX軸座標Uxと2値化対象物100の重心位置座標のX軸座標Lxとの関係が下記(4)式を満足し、傘領域104の重心位置座標と2値化対象物100の重心位置座標との位置関係が、歩行者と該歩行者の差している傘との位置関係として適当であると判定された場合、該2値化対象物100の上方には歩行者の差している傘が存在すると認識し(ステップS49のYES)、画像処理ユニット1は、検出された対象物は歩行者であると判定して(ステップS45)歩行者判定処理を終了し、図5に示すステップS34のYESとして図5のステップS35へ進み、人工構造物判定を行う。
一方、ステップS41において、2値化対象物100の実空間での幅WBが、脚部最小幅(例えば、30[cm])未満か、あるいは脚部最大幅(例えば、70[cm])より大きく、目的の2値化対象物100の実空間での幅WBが歩行者の脚部として適当な幅でないと判定された場合(ステップS41のNO)、画像処理ユニット1は、検出された対象物は歩行者ではないと判定して(ステップS50)歩行者判定処理を終了し、図5に示すステップS34のNOとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。
また、ステップS42において、「(hb/wb)<縦横比率しきい値」であり、目的の2値化対象物100が縦長形状でないと判定された場合(ステップS42のNO)も、画像処理ユニット1は、検出された対象物は歩行者ではないと判定して(ステップS50)歩行者判定処理を終了し、図5に示すステップS34のNOとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。
また、ステップS43において、2値化対象物100の位置がグレースケール対象物領域101の高さhgに対して(2)式を満足せず、2値化対象物100の下端位置が、グレースケール対象物領域101の下部(下半分)に存在しないと判定された場合(ステップS43のNO)も、画像処理ユニット1は、検出された対象物は歩行者ではないと判定して(ステップS50)歩行者判定処理を終了し、図5に示すステップS34のNOとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。
また、ステップS47において、傘領域104の平均輝度AVEが傘判定輝度しきい値TH1以上で、2値化対象物100の上方に温度の低い領域(輝度が低い領域)が存在しないと判定された場合(ステップS47のNO)も、画像処理ユニット1は、検出された対象物は歩行者ではないと判定して(ステップS50)歩行者判定処理を終了し、図5に示すステップS34のNOとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。
また、ステップS48において、傘領域104の横幅(=|Cx−Dx|)が(3)式を満足せず、傘領域104の横幅が歩行者の差している傘として適当な横幅でないと判定された場合(ステップS48のNO)も、画像処理ユニット1は、検出された対象物は歩行者ではないと判定して(ステップS50)歩行者判定処理を終了し、図5に示すステップS34のNOとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。
また、ステップS49において、傘領域104の重心位置座標のX軸座標Uxと2値化対象物100の重心位置座標のX軸座標Lxとの関係が下記(4)式を満足せず、傘領域104の重心位置座標と2値化対象物100の重心位置座標との位置関係が、歩行者と該歩行者の差している傘との位置関係として適当でないと判定された場合(ステップS49のNO)も、画像処理ユニット1は、検出された対象物は歩行者ではないと判定して(ステップS50)歩行者判定処理を終了し、図5に示すステップS34のNOとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。
また、本実施例では、画像処理ユニット1が、2値化対象物抽出手段と、警報判定手段と、警報出力手段と、脚部判断手段と、輝度変化検出手段と、歩行者認識手段とを含んでいる。より具体的には、図3のステップS4からステップS7の処理が2値化対象物抽出手段に相当し、図3のステップS18の処理が警報判定手段に相当し、図3のステップS19、ステップS20の処理が警報出力手段に相当し、図8のステップS41からステップS44の処理が脚部判断手段に相当し、図8のステップS44の処理が輝度変化検出手段に相当し、図8のステップS45の処理が歩行者認識手段に相当する。
更に、本実施例では、画像処理ユニット1が、外周領域算出手段と、探索領域設定手段と、距離算出手段と、統合探索領域設定手段とを含んでいる。より具体的には、図8のステップS46の処理が外周領域算出手段、探索領域設定手段、距離算出手段、統合探索領域設定手段の全てを含んでいる。
更に、本実施例では、画像処理ユニット1が、傘部判断手段と、平均輝度算出手段と、横幅測定手段と、2値化対象物重心位置算出手段と、領域重心位置算出手段とを含んでいる。より具体的には、図8のステップS47からステップS49の処理が傘部判断手段に相当し、図8のステップS47の処理が平均輝度算出手段に相当し、図8のステップS48の処理が横幅測定手段に相当し、図8のステップS49の処理が2値化対象物重心位置算出手段と領域重心位置算出手段に相当する。
以上説明したように、本実施例の車両周辺監視装置は、車両周囲が降雨状態ではない場合は、従来通り歩行者の頭部等、路上に存在する歩行者の比較的判別しやすい身体的特徴についての形状判定により対象物から歩行者を認識する一方、車両周囲が降雨状態であるために、歩行者が傘を差していて、歩行者の頭部等、路上に存在する歩行者の比較的判別しやすい身体的特徴が赤外線カメラにより捉えられていない場合には、グレースケール画像中の歩行者の脚部の存在か、あるいは歩行者が差している傘の存在を確かめて、歩行者を認識する。
具体的には、グレースケール画像中の歩行者の脚部の存在を確かめて歩行者を認識する場合は、図9に示すように、目的の2値化対象物100の実空間での幅WBが歩行者の脚部として適当な幅であるという条件と、同様に、目的の2値化対象物100が縦長形状であるという条件と、同様に、目的の2値化対象物100の下端位置がグレースケール対象物領域101の下部(下半分)に存在するという条件と、同様に、目的の2値化対象物100に時系列的な輝度変化があるという条件とを全て満足する場合に、目的の2値化対象物100は歩行者の脚部であり、検出された対象物は歩行者であると認識する。
一方、目的の2値化対象物100に時系列的な輝度変化がないときに、グレースケール画像中の歩行者が差している傘の存在を確かめて歩行者を認識する場合は、図12に示すように、目的の2値化対象物100の上方に傘領域104として温度の低い領域(輝度が低い領域)が存在するという条件と、傘領域104の横幅が歩行者の差している傘として適当な横幅であるという条件と、傘領域104の重心位置座標と2値化対象物100の重心位置座標との位置関係が、歩行者と該歩行者の差している傘との位置関係として適当であるという条件とを全て満足する場合に、目的の2値化対象物100の上方に歩行者の差している傘が存在するので、検出された対象物は歩行者であると認識する。
従って、赤外線画像を利用して車両周囲の歩行者を認識する場合に、従来のように歩行者の身体的特徴の判定が容易な歩行者の頭部を検出することができなくても、赤外線画像から歩行者の脚部の存在を判定することにより、赤外線画像から抽出される不定形な2値化対象物を的確に判定し、安定した歩行者の認識を行う車両周辺監視装置を実現することができるという効果が得られる。また、歩行者が傘を差していることで従来のように歩行者の身体的特徴の判定が容易な歩行者の頭部を検出することができず、更に歩行者の脚部を認識することができなくても、赤外線画像から歩行者の差している傘の存在を判定することにより、赤外線画像から抽出される不定形な2値化対象物を的確に判定し、安定した歩行者の認識を行う車両周辺監視装置を実現することができるという効果が得られる。
また、特に歩行者の脚部の存在を判定する場合、2値化対象物100が歩行者の脚部として適当な横幅か、あるいは2値化対象物100が歩行者の脚部として適当な縦長形状か、更に2値化対象物100が外周領域の下方に存在するか否かを判断することで、例えば2値化対象物100として歩行者の脚部と類似する形状の看板等を抽出した場合でも、形状や画像中で存在する場所が歩行者の脚部として適当でない2値化対象物を除外することで、看板等を歩行者の脚部として認識することを防止できるという効果が得られる。
また、歩行者の歩行に伴う脚部の輝度変化を利用して2値化対象物100が歩行者であるか否かを判断し、歩行者の認識率を向上させることができるものの、逆に歩行せずに停止している歩行者の脚部が検出できない場合が発生しても、歩行者の差している傘の存在から歩行者を認識することができるので、歩行者の歩行の如何を問わず対象物が歩行者であるか否かを判断することが可能となり、歩行者の認識率を向上させることができるという効果が得られる。
また、特に歩行者の差している傘の存在を判定する場合、傘と思われる領域が歩行者の差している傘として適当な横幅と平均輝度であり、更に歩行者と思われる2値化対象物の重心の位置と歩行者の差している傘の範囲と思われる領域の重心の位置とが適当な位置関係にあるか否かを判断して歩行者の存在を判断することで、横幅や平均輝度、更にはその位置が歩行者の差している傘として適当でないものを除外し、歩行者が差している傘と判断できない他の傘、あるいは他の対象物の存在から歩行者を認識することを防止できるという効果が得られる。
また、車両周囲が雨天の場合には歩行者の脚部あるいは歩行者の差している傘の存在から歩行者を認識し、その他の場合にはこれらの特徴を利用しないことで、車両周囲が雨天でない時に歩行者の脚部あるいは歩行者の差している傘でない対象物を検出することを防止し、歩行者の認識率を向上させることができるという効果が得られる。
なお、歩行者として認識した対象物にのみ警報を出力する、更に歩行者であっても、例えば車両との衝突の可能性が高い歩行者等、特に注意が必要な歩行者にのみ警報を出力することで、注意が必要な歩行者の存在をより強く目立たせ、歩行者に対する注意をより強く車両の運転者に促すことができるという効果が得られる。
本発明の一実施例の車両周辺監視装置の構成を示すブロック図である。 同実施例の車両における赤外線カメラやセンサ、ディスプレイ等の取り付け位置を示す図である。 同実施例における車両周辺監視装置の対象物検出・警報動作を示すフローチャートである。 赤外線カメラにより得られるグレースケール画像とその2値化画像を示す図である。 同実施例における警報判定処理動作を示すフローチャートである。 衝突が発生しやすい場合を示す図である。 車両前方の領域区分を示す図である。 同実施例における車両周囲が降雨状態の場合の歩行者判定処理動作を示すフローチャートである。 歩行者判定処理において歩行者の脚部存在判定を行う際の2値化対象物とグレースケール対象物領域の位置関係を示す図である。 歩行者判定処理において歩行者の差している傘存在判定を行う際の傘領域のエッジを示す図である。 歩行者判定処理において歩行者の差している傘存在判定を行う際の傘領域とグレースケール対象物領域の位置関係を示す図である。 歩行者判定処理において歩行者の差している傘存在判定を行う際の傘領域と2値化対象物及びグレースケール対象物領域の位置関係を示す図である。 傘を差した歩行者を捉えた赤外線画像(グレースケール画像)を示す図である。
符号の説明
1 画像処理ユニット
2R、2L 赤外線カメラ(赤外線撮像手段)
7 画像表示装置(表示手段)
10 自車両(車両)
S4〜S7 2値化対象物抽出手段
S18 警報判定手段
S19、S20 警報出力手段
S41〜S44 脚部判断手段
S44 輝度変化検出手段
S45 歩行者認識手段
S46 外周領域算出手段、探索領域設定手段、距離算出手段、統合探索領域設定手段
S47〜S49 傘部判断手段
S47 平均輝度算出手段
S48 横幅測定手段
S49 2値化対象物重心位置算出手段、領域重心位置算出手段



Claims (13)

  1. 赤外線撮像手段により撮像されたグレースケール画像を利用して車両周囲の対象物を抽出する車両周辺監視装置において、
    歩行者の脚部の特徴値を記憶した歩行者脚部特徴値記憶手段と、
    前記グレースケール画像を2値化処理することにより2値化対象物を抽出する2値化対象物抽出手段と、
    前記2値化対象物抽出手段により抽出された前記2値化対象物の特徴値と前記歩行者の脚部の特徴値とを比較して、前記2値化対象物が前記歩行者の脚部であるか否かを判定する脚部判断手段と、
    前記脚部判断手段により前記2値化対象物が前記歩行者の脚部であると判定された場合に、前記2値化対象物を含む前記対象物を歩行者として認識する歩行者認識手段と
    を備えることを特徴とする車両周辺監視装置。
  2. 赤外線撮像手段により撮像されたグレースケール画像を利用して車両周囲の対象物を抽出する車両周辺監視装置において、
    歩行者が差している状態の傘の特徴値を記憶した傘部特徴値記憶手段と、
    前記グレースケール画像を2値化処理することにより2値化対象物を抽出する2値化対象物抽出手段と、
    前記2値化対象物抽出手段により抽出された前記2値化対象物の前記グレースケール画像上での外周領域を算出する外周領域算出手段と、
    前記外周領域算出手段にて算出された前記外周領域の上端と前記2値化対象物との間の領域に探索領域を設定する探索領域設定手段と、
    前記探索領域設定手段により設定された前記探索領域の特徴値と前記歩行者が差している状態の傘の特徴値とを比較して、前記探索領域に前記傘が存在するか否かを判定する傘部判断手段と、
    前記傘部判断手段により前記探索領域に前記歩行者が差している傘が存在すると判定された場合に、前記2値化対象物を含む前記対象物を歩行者として認識する歩行者認識手段と
    を備えることを特徴とする車両周辺監視装置。
  3. 前記2値化対象物抽出手段により抽出された前記2値化対象物の前記グレースケール画像上での外周領域を算出する外周領域算出手段を備え、
    前記脚部判断手段が、前記2値化対象物の幅が所定範囲内で、かつ前記2値化対象物の縦横比が所定縦横しきい値以上で、更に前記2値化対象物が前記外周領域の下端から所定範囲の前記外周領域内に存在する場合に、前記2値化対象物を前記歩行者の脚部であると判断する
    ことを特徴とする請求項1に記載の車両周辺監視装置。
  4. 前記2値化対象物抽出手段により抽出された前記2値化対象物の時系列的な輝度変化の有無を検出する輝度変化検出手段を備え、
    前記脚部判断手段が、前記輝度変化検出手段により前記2値化対象物の時系列的な輝度変化が検出された場合に、前記2値化対象物を前記歩行者の脚部であると判断する
    ことを特徴とする請求項3に記載の車両周辺監視装置。
  5. 歩行者が差している状態の傘の特徴値を記憶した傘部特徴値記憶手段と、
    前記輝度変化算出手段により時系列的な輝度変化が検出されなかった前記2値化対象物の前記グレースケール画像上での前記外周領域の上端と該2値化対象物との間の領域に探索領域を設定する探索領域設定手段と、
    前記探索領域設定手段により設定された前記探索領域の特徴値と前記歩行者が差している状態の傘の特徴値とを比較して、前記探索領域に前記傘が存在するか否かを判定する傘部判断手段と
    を備え、
    前記歩行者認識手段が、前記脚部判断手段により前記2値化対象物が前記歩行者の脚部であると判定された場合、あるいは前記傘部判断手段により前記探索領域に前記歩行者が差している傘が存在すると判定された場合に、前記2値化対象物を含む前記対象物を歩行者として認識する
    ことを特徴とする請求項4に記載の車両周辺監視装置。
  6. 前記赤外線撮像手段を2つ備えると共に、
    2つの前記赤外線撮像手段により撮像された2つのグレースケール画像を利用して、該グレースケール画像に含まれる前記2値化対象物までの距離を算出する距離算出手段と、
    前記探索領域の左右に副探索領域を設定する副探索領域設定手段と、
    前記探索領域に含まれる前記2値化対象物と前記副探索領域に含まれる前記2値化対象物との距離が同一である場合に、前記探索領域と前記副探索領域とを統合した統合探索領域を設定する統合探索領域設定手段と、
    前記統合探索領域設定手段により設定された前記統合探索領域の横幅を測定する横幅測定手段と、
    前記統合探索領域設定手段により設定された前記統合探索領域の平均輝度を算出する平均輝度算出手段と
    を備え、
    前記傘部判断手段が、前記統合探索領域の横幅が所定範囲内で、かつ前記統合探索領域の平均輝度が所定輝度しきい値以下である場合に、前記探索領域に前記傘が存在すると判断する
    ことを特徴とする請求項2、または請求項5に記載の車両周辺監視装置。
  7. 前記2値化対象物抽出手段により抽出された前記2値化対象物の重心の位置を算出する2値化対象物重心位置算出手段と、
    前記統合探索領域設定手段により設定された前記統合探索領域の重心の位置を算出する領域重心位置算出手段と
    を備え、
    前記傘部判断手段が、前記統合探索領域の横幅が所定範囲内で、かつ前記統合探索領域の平均輝度が所定輝度しきい値以下であり、更に前記2値化対象物の重心と前記統合探索領域の重心との横方向の位置の差が所定距離しきい値以下ある場合に、前記探索領域に前記傘が存在すると判断する
    ことを特徴とする請求項6に記載の車両周辺監視装置。
  8. 前記車両周囲の降雨状態を検知する雨天検知手段を備え、
    前記歩行者認識手段が、前記雨天検知手段により前記車両周囲の降雨状態が検知された場合にのみ、前記グレースケール画像中の前記歩行者の脚部あるいは前記歩行者が差している傘の存在から前記歩行者を認識する処理を実行する
    ことを特徴とする請求項1から請求項7のいずれかに記載の車両周辺監視装置。
  9. 前記歩行者認識手段が前記2値化対象物を含む前記対象物を歩行者として認識した場合に該歩行者に関する警報を出力する警報出力手段
    を備えることを特徴とする請求項1から請求項8のいずれかに記載の車両周辺監視装置。
  10. 前記赤外線撮像手段により撮像された前記車両周囲の映像を表示する表示手段を備え、
    前記警報出力手段が、前記歩行者認識手段により前記歩行者として認識された前記対象物と、前記歩行者として認識されなかった前記対象物とを、前記表示手段に識別可能に表示する
    ことを特徴とする請求項9に記載の車両周辺監視装置。
  11. 前記警報出力手段が、前記歩行者認識手段により前記歩行者として認識された前記対象物と、前記歩行者として認識されなかった前記対象物とを、前記表示手段に識別可能に表示すると共に、警告音を出力する
    ことを特徴とする請求項10に記載の車両周辺監視装置。
  12. 前記歩行者認識手段が前記2値化対象物を含む前記対象物を歩行者として認識した場合に、該歩行者が警報を出力するべき対象であるか否かを判定する警報判定手段を備え、
    前記警報出力手段が、前記警報判定手段により警報を出力するべき歩行者であると判定された前記対象物と、警報を出力するべき歩行者であると判定されなかった前記対象物とを、前記表示手段に識別可能に表示する
    ことを特徴とする請求項10、または請求項11に記載の車両周辺監視装置。
  13. 前記警報出力手段が、前記表示手段に前記対象物を識別可能に表示する場合に、該対象物を強調表示する
    ことを特徴とする請求項10から請求項12のいずれかに記載の車両周辺監視装置。



JP2004175667A 2004-06-14 2004-06-14 車両周辺監視装置 Expired - Fee Related JP3934119B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004175667A JP3934119B2 (ja) 2004-06-14 2004-06-14 車両周辺監視装置
US11/150,733 US7233233B2 (en) 2004-06-14 2005-06-10 Vehicle surroundings monitoring apparatus
DE102005026875A DE102005026875B4 (de) 2004-06-14 2005-06-10 Fahrzeugumgebungs-Überwachungsvorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004175667A JP3934119B2 (ja) 2004-06-14 2004-06-14 車両周辺監視装置

Publications (2)

Publication Number Publication Date
JP2005354597A JP2005354597A (ja) 2005-12-22
JP3934119B2 true JP3934119B2 (ja) 2007-06-20

Family

ID=35460555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004175667A Expired - Fee Related JP3934119B2 (ja) 2004-06-14 2004-06-14 車両周辺監視装置

Country Status (3)

Country Link
US (1) US7233233B2 (ja)
JP (1) JP3934119B2 (ja)
DE (1) DE102005026875B4 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101351875B1 (ko) 2012-07-05 2014-01-17 주식회사 유비엠티 차량용 복합센서 및 그 방법

Families Citing this family (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE431605T1 (de) * 2002-07-17 2009-05-15 Fico Mirrors Sa Einrichtung zur aktiven überwachung der äusseren sicherheitsbegrenzung eines kraftfahrzeugs
JP4376653B2 (ja) * 2004-02-17 2009-12-02 富士重工業株式会社 車外監視装置
JP3934119B2 (ja) * 2004-06-14 2007-06-20 本田技研工業株式会社 車両周辺監視装置
DE102005056666B4 (de) * 2004-11-30 2010-09-30 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
US7489805B2 (en) 2004-11-30 2009-02-10 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
DE102005056647B4 (de) * 2004-11-30 2011-02-03 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
JP4032052B2 (ja) * 2004-11-30 2008-01-16 本田技研工業株式会社 位置検出装置及びその補正方法
JP4461091B2 (ja) 2004-11-30 2010-05-12 本田技研工業株式会社 位置検出装置及びその補正方法
JP3970876B2 (ja) 2004-11-30 2007-09-05 本田技研工業株式会社 車両周辺監視装置
US7515737B2 (en) 2004-11-30 2009-04-07 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
JP4224449B2 (ja) * 2004-11-30 2009-02-12 本田技研工業株式会社 画像抽出装置
JP4094604B2 (ja) 2004-11-30 2008-06-04 本田技研工業株式会社 車両周辺監視装置
US7590263B2 (en) * 2004-11-30 2009-09-15 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
US7599521B2 (en) 2004-11-30 2009-10-06 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
JP4128562B2 (ja) * 2004-11-30 2008-07-30 本田技研工業株式会社 車両周辺監視装置
DE102005030838A1 (de) * 2005-07-01 2007-01-04 Siemens Ag Nightvisionsystem
JP2007104171A (ja) * 2005-10-03 2007-04-19 Omron Corp 前方監視装置
KR100696392B1 (ko) * 2005-12-07 2007-03-19 주식회사단해 차량 외곽 모니터링 시스템 및 그 방법
JP4456086B2 (ja) * 2006-03-09 2010-04-28 本田技研工業株式会社 車両周辺監視装置
JP4536674B2 (ja) * 2006-03-27 2010-09-01 本田技研工業株式会社 歩行者認識装置
JP4203512B2 (ja) * 2006-06-16 2009-01-07 本田技研工業株式会社 車両周辺監視装置
JP4828333B2 (ja) * 2006-07-07 2011-11-30 本田技研工業株式会社 車両周辺監視システム
JP4857974B2 (ja) * 2006-07-13 2012-01-18 トヨタ自動車株式会社 車両周辺監視装置
JP4694441B2 (ja) * 2006-08-09 2011-06-08 本田技研工業株式会社 車両周辺監視システム
EP1912157A1 (en) * 2006-10-09 2008-04-16 MAGNETI MARELLI SISTEMI ELETTRONICI S.p.A. Digital image processing system for automatically representing surrounding scenes to the driver of a vehicle for driving assistance, and corresponding operating method
GB2443664A (en) * 2006-11-10 2008-05-14 Autoliv Dev An infra red object detection system de-emphasizing non relevant hot objects
US8194920B2 (en) * 2007-02-16 2012-06-05 Ford Global Technologies, Llc Method and system for detecting objects using far infrared images
JP4315991B2 (ja) 2007-04-20 2009-08-19 本田技研工業株式会社 車両周辺監視装置、車両周辺監視方法、車両周辺監視プログラム
JP4937844B2 (ja) * 2007-06-12 2012-05-23 富士重工業株式会社 歩行者検出装置
JP4977568B2 (ja) * 2007-09-28 2012-07-18 日産自動車株式会社 現在位置情報通知システム、センタ装置及び誤差補正方法
JP4359710B2 (ja) * 2008-02-04 2009-11-04 本田技研工業株式会社 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
JP4521642B2 (ja) * 2008-02-13 2010-08-11 本田技研工業株式会社 車両周辺監視装置、車両、車両周辺監視プログラム
DE102008001551A1 (de) * 2008-05-05 2009-11-12 Robert Bosch Gmbh Vorrichtung und Verfahren zum automatischen Einstellen der Leuchtdichte eines von einer Beleuchtungseinrichtung eines Fahrzeuges ausgesandten Lichtbündels in Abhängigkeit von der Sichtweite
JP5083164B2 (ja) * 2008-10-09 2012-11-28 住友電気工業株式会社 画像処理装置及び画像処理方法
JP4784659B2 (ja) * 2009-02-16 2011-10-05 トヨタ自動車株式会社 車両用周辺監視装置
JP5339969B2 (ja) * 2009-03-04 2013-11-13 本田技研工業株式会社 車両の周辺監視装置
JP5198346B2 (ja) * 2009-04-23 2013-05-15 本田技研工業株式会社 車両周辺監視装置
JP5213803B2 (ja) * 2009-07-07 2013-06-19 日立建機株式会社 路肩崩落リスク監視装置及び運搬車両
JP5039765B2 (ja) * 2009-09-17 2012-10-03 日立オートモティブシステムズ株式会社 車両制御装置
JP5173991B2 (ja) * 2009-11-18 2013-04-03 本田技研工業株式会社 車両周辺監視装置
JP5640423B2 (ja) * 2010-03-26 2014-12-17 日本電気株式会社 赤外線撮像装置及び赤外線画像の表示方法
US10703299B2 (en) * 2010-04-19 2020-07-07 SMR Patents S.à.r.l. Rear view mirror simulation
JP5593217B2 (ja) * 2010-12-28 2014-09-17 クラリオン株式会社 車両用外界認識装置およびそれを用いた車両システム
US9292735B2 (en) * 2011-09-28 2016-03-22 Honda Motor Co., Ltd. Living body recognizing device
JP5548667B2 (ja) * 2011-11-24 2014-07-16 富士重工業株式会社 車外環境認識装置
DE102011056051A1 (de) 2011-12-05 2013-06-06 Conti Temic Microelectronic Gmbh Verfahren zur Auswertung von Bilddaten einer Fahrzeugkamera unter Berücksichtigung von Informationen über Regen
US8781170B2 (en) * 2011-12-06 2014-07-15 GM Global Technology Operations LLC Vehicle ghosting on full windshield display
JP5486031B2 (ja) * 2012-03-06 2014-05-07 本田技研工業株式会社 配光制御装置
JP5720627B2 (ja) * 2012-06-11 2015-05-20 株式会社デンソー 人検出装置
EP2879113B1 (en) * 2012-07-27 2018-05-30 Nissan Motor Co., Ltd Three-dimensional object detection device, three-dimensional object detection method
US9052393B2 (en) * 2013-01-18 2015-06-09 Caterpillar Inc. Object recognition system having radar and camera input
JP5794255B2 (ja) 2013-05-21 2015-10-14 株式会社デンソー 物体検出装置
JP5901593B2 (ja) * 2013-09-11 2016-04-13 本田技研工業株式会社 車両用表示装置
JP5861072B2 (ja) * 2014-03-06 2016-02-16 パナソニックIpマネジメント株式会社 表示制御装置、表示装置および表示制御プログラム
KR101583776B1 (ko) * 2014-10-29 2016-01-11 동국대학교 산학협력단 대상체 검출 장치, 방법 및 컴퓨터프로그램
CN104539891A (zh) * 2014-12-18 2015-04-22 苏州市公安局交通巡逻警察支队 检验远程监管方法
CN104539892A (zh) * 2014-12-18 2015-04-22 苏州市公安局交通巡逻警察支队 检验远程监管系统
US9168869B1 (en) * 2014-12-29 2015-10-27 Sami Yaseen Kamal Vehicle with a multi-function auxiliary control system and heads-up display
KR101681282B1 (ko) * 2015-12-03 2016-12-02 동국대학교 산학협력단 대상체 검출 장치 및 방법
US10423836B2 (en) * 2016-06-16 2019-09-24 Optim Corporation Information providing system
US10176557B2 (en) 2016-09-07 2019-01-08 The Boeing Company Apparatus, system, and method for enhancing image video data
WO2018179312A1 (ja) * 2017-03-31 2018-10-04 本田技研工業株式会社 画像生成装置及び画像生成方法
US10549853B2 (en) * 2017-05-26 2020-02-04 The Boeing Company Apparatus, system, and method for determining an object's location in image video data
US10569708B2 (en) 2017-06-15 2020-02-25 Toyota Research Institute, Inc. Vehicles outputting context dependent warnings and alerts
US10789682B2 (en) 2017-06-16 2020-09-29 The Boeing Company Apparatus, system, and method for enhancing an image
CN107688830B (zh) * 2017-08-30 2021-02-26 西安邮电大学 一种用于案件串并的现勘视觉信息关联图层生成方法
JP6953922B2 (ja) * 2017-09-06 2021-10-27 株式会社デンソー 車両の運転支援装置および車両の運転支援方法
US11206375B2 (en) 2018-03-28 2021-12-21 Gal Zuckerman Analyzing past events by utilizing imagery data captured by a plurality of on-road vehicles
US11138418B2 (en) 2018-08-06 2021-10-05 Gal Zuckerman Systems and methods for tracking persons by utilizing imagery data captured by on-road vehicles
DE102018218733A1 (de) * 2018-10-31 2020-04-30 Robert Bosch Gmbh Verfahren zur Unterstützung einer kamerabasierten Umfelderkennung eines Fortbewegungsmittels mittels einer Strassennässeinformation eines ersten Ultraschallsensors
JP7115258B2 (ja) * 2018-11-29 2022-08-09 トヨタ自動車株式会社 情報処理システム、情報処理方法、及びプログラム
WO2020115981A1 (ja) * 2018-12-03 2020-06-11 株式会社Jvcケンウッド 認識処理装置、認識処理方法及びプログラム
JP7268616B2 (ja) * 2020-01-30 2023-05-08 いすゞ自動車株式会社 報知装置
CN116996749B (zh) * 2023-09-27 2023-12-15 北京仁光科技有限公司 多监控画面下的远程目标对象跟踪系统和方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69635101T2 (de) * 1995-11-01 2006-06-01 Canon K.K. Verfahren zur Extraktion von Gegenständen und dieses Verfahren verwendendes Bildaufnahmegerät
JP4135123B2 (ja) 1998-05-13 2008-08-20 日産自動車株式会社 表示処理装置
JP2000211453A (ja) 1999-01-22 2000-08-02 Nissan Motor Co Ltd 車両用赤外線人検知警報装置
US6697502B2 (en) * 2000-12-14 2004-02-24 Eastman Kodak Company Image processing method for detecting human figures in a digital image
DE60207655T2 (de) * 2001-09-07 2006-06-08 Matsushita Electric Industrial Co., Ltd., Kadoma Vorrichtung zum Anzeigen der Umgebung eines Fahrzeuges und System zur Bildbereitstellung
JP3764086B2 (ja) * 2001-10-29 2006-04-05 本田技研工業株式会社 車両用情報提供装置
US20040052418A1 (en) * 2002-04-05 2004-03-18 Bruno Delean Method and apparatus for probabilistic image analysis
JP3987048B2 (ja) * 2003-03-20 2007-10-03 本田技研工業株式会社 車両周辺監視装置
US7212651B2 (en) * 2003-06-17 2007-05-01 Mitsubishi Electric Research Laboratories, Inc. Detecting pedestrians using patterns of motion and appearance in videos
JP3934119B2 (ja) * 2004-06-14 2007-06-20 本田技研工業株式会社 車両周辺監視装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101351875B1 (ko) 2012-07-05 2014-01-17 주식회사 유비엠티 차량용 복합센서 및 그 방법

Also Published As

Publication number Publication date
US7233233B2 (en) 2007-06-19
JP2005354597A (ja) 2005-12-22
US20050276447A1 (en) 2005-12-15
DE102005026875A1 (de) 2006-01-05
DE102005026875B4 (de) 2008-03-27

Similar Documents

Publication Publication Date Title
JP3934119B2 (ja) 車両周辺監視装置
JP3987057B2 (ja) 車両周辺監視装置
JP4203512B2 (ja) 車両周辺監視装置
US8810653B2 (en) Vehicle surroundings monitoring apparatus
JP4410292B1 (ja) 車両の周辺監視装置
JP3764086B2 (ja) 車両用情報提供装置
JP4426535B2 (ja) 車両の周辺監視装置
JP4104867B2 (ja) ナイトビジョンシステム
JP4528283B2 (ja) 車両周辺監視装置
JP2004303219A (ja) 車両周辺監視装置
JP2003284057A (ja) 車両周辺監視装置
US9160986B2 (en) Device for monitoring surroundings of a vehicle
JP4094604B2 (ja) 車両周辺監視装置
JP4128562B2 (ja) 車両周辺監視装置
JP4813304B2 (ja) 車両周辺監視装置
JP4425852B2 (ja) 車両周辺監視装置
JP3839329B2 (ja) ナイトビジョンシステム
JP3844750B2 (ja) 赤外線画像認識装置、及び赤外線画像認識装置を用いた警報装置
JP3898157B2 (ja) 赤外線画像認識装置
US9030560B2 (en) Apparatus for monitoring surroundings of a vehicle
JP4943403B2 (ja) 車両の周辺監視装置
JP4358183B2 (ja) 車両周辺監視装置
JP4472623B2 (ja) 車両周辺監視装置
JP4871941B2 (ja) 車両周辺監視装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070314

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100330

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110330

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110330

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120330

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120330

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130330

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130330

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140330

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees