JP2007293627A - 車両の周辺監視装置、車両、車両の周辺監視方法、および車両の周辺監視用プログラム - Google Patents

車両の周辺監視装置、車両、車両の周辺監視方法、および車両の周辺監視用プログラム Download PDF

Info

Publication number
JP2007293627A
JP2007293627A JP2006121168A JP2006121168A JP2007293627A JP 2007293627 A JP2007293627 A JP 2007293627A JP 2006121168 A JP2006121168 A JP 2006121168A JP 2006121168 A JP2006121168 A JP 2006121168A JP 2007293627 A JP2007293627 A JP 2007293627A
Authority
JP
Japan
Prior art keywords
image
vehicle
type
symmetry
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006121168A
Other languages
English (en)
Other versions
JP4171501B2 (ja
Inventor
Makoto Aimura
誠 相村
Hiroshi Hattori
弘 服部
Akio Takahashi
昭夫 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2006121168A priority Critical patent/JP4171501B2/ja
Priority to US11/787,050 priority patent/US7957556B2/en
Priority to DE102007019491A priority patent/DE102007019491B4/de
Publication of JP2007293627A publication Critical patent/JP2007293627A/ja
Application granted granted Critical
Publication of JP4171501B2 publication Critical patent/JP4171501B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】撮像装置の撮像画像から抽出された対象物の種別が人などの生体であるか否かを高い信頼性で、簡易に判定することができる車両の周辺監視装置を提供する。
【解決手段】撮像装置2R,2Lの撮像画像から人などの対象物を抽出し、その対象物の上下方向における対称性の度合いの高低を判断する(STEP33)。対称性の度合いが高いと判断された対象物は、生体以外の種別であると判定する(STEP33a)。対称性の度合いが低いと判断された対象物は、生体である可能性が高いと判定する(STEP33b)。生体である可能性が高いと判定された対象物については、さらにその対象物が、所定種類の生体(例えば人)であるか否かを該対象物の画像に基づいて判定する(STEP34、35)。
【選択図】図5

Description

本発明は撮像装置の撮像画像を用いて車両の周辺に存在する対象物を検出する車両の周辺監視装置および周辺監視方法と、該周辺監視装置を搭載した車両と、該周辺監視装置にに使用する周辺監視用プログラムとに関する。
車両に搭載された撮像装置の撮像画像を基に、車両の周辺を監視する装置として、例えば特許文献1に見られるものが本願出願人により提案されている。
この特許文献1に見られる技術では、2つの赤外線カメラにより、車両の前方を撮像し、その2つの撮像画像のうちの一方の撮像画像から対象物を抽出する。そして、その抽出した対象物の、2つの撮像画像における視差などを基に、対象物の車両に対する実空間位置を検出する。さらに、抽出された対象物の実空間位置やその時系列データにより認識される対象物の移動方向、対象物の種類(人であるか人工構造物であるか)に関する判定を行なって、該対象物を警報の対象とすべきか否か(対象物が車両との接触を回避すべき回避対象であるか否か)を判断し、警報の対象とすべきと判断したときに、運転者に対して、音声や画像による警報を発するようにしている。なお、対象物の種類に関する判定は、概ね車両の正面前方の領域(車幅よりも若干広い領域)に存在する対象物について行なわれ、対象物の移動方向に関する判定は、該領域の外側に存在する対象物について行なわれる。
特開2003−284057号公報
ところで、赤外線カメラなどの撮像装置の撮像画像から抽出され得る対象物には、人だけでなく、人以外の動物や、他車両、樹木、電柱、自動販売機などの種々様々の物体が含まれる。そして、これらの対象物のうち、特に車両との接触を回避すべき対象物は、人、あるいは人を含む動物(生体)である。従って、撮像画像から抽出される対象物の種別を、人などの生体と、それ以外の種別(人工構造物)とに区別して判定することが望まれる。
一方、前記特許文献1のものでは、対象物が人(歩行者)である可能性が高いか否かの判定処理を、撮像画像における対象物の画像(対象物に相当する部分画像)の種々様々の特徴量(輝度分布や形状、サイズなど)に基づいて行なうようにしている。そして、この場合、歩行者でない物体が歩行者である可能性が高いと判定される可能性もあることから、さらに、対象物に関する部分画像の形状があらかじめ定められた人工構造物の登録図形と一致するか否かや、該部分画像が直角な部分や直線状のエッジを有するか否か等の判定処理(対象物に関する部分画像が、歩行者では一般的には有り得ないような特徴を有するか否かの判定処理)を行なうことによって、対象物が人工構造物であるか否かの判定を行なうようにしている。そして、上記の判定処理によっり、対象物が、歩行者である可能性が高く、且つ、人工構造物でないと判定されたときに、対象物が歩行者であると判定するようにしている。このような判定処理によって、対象物の種別が歩行者(人)であるか、それ以外の人工構造物などの種別であるかを高い信頼性で判定することが可能である。
しかるに、特許文献1のものでは、対象物の種別を歩行者とそれ以外の種別とに区別して判定するために、各対象物の種々様々の特徴量を算出したり、それらの特徴量に関する判定処理が必要となる。加えて、対象物が人工構造物であるか否かの判定も必要とする。これは、特許文献1の技術で使用される個々の特徴量は、それだけでは、対象物の種別を歩行者とそれ以外の種別とに高い信頼性で区別することが困難であるからである。さらに、歩行者だけでなく、他の動物(犬や猫など、地上を移動可能な動物)も含む生体を回避対象とする場合には、対象物がそれらの他の動物であるか否かの判定も必要となる。
このため、歩行者などの生体とこれ以外の種別とを高い信頼性で簡易に区別して判定し得る手法が望まれていた。
また、特許文献1の技術では、特に、撮像画像から多数の対象物が抽出された場合には、多数の対象物のそれぞれについて、種々様々の特徴量を算出する演算処理やそれらの特徴量に関する判定処理が必要となる。このため、特許文献1のものでは、対象物が歩行者であるか否かを確定的に判定するための演算処理の負荷が大きなものとなっており、それを軽減することが望まれていた。
本発明はかかる背景に鑑みてなされたものであり、撮像装置の撮像画像から抽出された対象物の種別の判定、特に対象物の種別が人などの生体であるか、該生体以外の種別であるかを高い信頼性で、簡易に判定することができる車両の周辺監視装置、周辺監視方法、および車両を提供することを目的とする。さらには、対象物の種別の判定処理の演算処理負荷を軽減することができる車両の周辺監視装置を提供することを目的とする。さらに、そのような周辺監視装置の処理をコンピュータに実行させることができる車両の周辺監視用プログラムを提供することを目的とする。
本発明の車両の周辺監視装置は、かかる目的を達成するために、車両に搭載された撮像装置の撮像画像から、該撮像装置の撮像領域に存在する対象物を抽出する対象物抽出手段と、その抽出された対象物の種別を前記撮像画像における該対象物の画像に基づいて判定する対象物種別判定手段とを備えた車両の周辺監視装置において、前記抽出された対象物の上下方向における対称性の度合いの高低を前記撮像画像における該対象物の画像に基づき判断する上下対称性判断手段を備え、前記対象物種別判定手段は、前記上下対称性判断手段の判断結果に基づいて前記抽出された対象物の種別を判定する第1種別判定手段を少なくとも有することを特徴とする(第1発明)。
かかる第1発明によれば、前記上下対称性判断手段によって、前記抽出された対象物の上下方向における対称性の度合いの高低が判断される。ここで、一般に、人などの生体、ひいては、それを撮像手段で撮像してなる画像は、上下方向における対称性の度合いが低く、対称性の度合いが高くなる可能性は極めて低い。これに対して、自動販売機や電柱などの人工構造物は、上下方向における対称性の度合いが高いものが多い。従って、撮像画像における対象物の上下方向の対称性の度合いの高低は、少なくとも、対象物の種別が生体であるか、それ以外の種別であるかを高い信頼性で反映する。
そこで、第1発明では、前記対象物種別判定手段は、前記上下対称性判断手段の判断結果に基づいて前記抽出された対象物の種別を判定する第1種別判定手段を少なくとも有する。この場合、上下対称性判断手段の判断結果、すなわち、対象物の上下方向の対称性の度合いの高低は、少なくとも、対象物の種別が生体であるか、それ以外の種別であるかを高い信頼性で反映している。従って、対象物の上下方向の対称性の度合いの高低の判断結果だけにより、少なくとも対象物の種別が生体であるか、それ以外の種別(人工構造物など)であるかを前記第1種別判定手段によって、高い信頼性で判定することが可能となる。
よって、第1発明によれば、対象物の上下方向の対称性の度合いの高低に基づいて、対象物の種別が人などの生体であるか、該生体以外の種別であるかを高い信頼性で、簡易に行なうことが可能となる。
この第1発明では、特に、上下方向の対称性の度合いが高いと判断される対象物が生体である可能性は極めて低い(生体以外の種別である可能性が極めて高い)ので、前記第1種別判定手段は、前記上下対称物判断手段により前記対称性の度合いが高いと判断された対象物の種別を生体以外の種別であると判定する(第2発明)。つまり、対象物の前記対称性の度合いが高いと判断された場合には、直ちに、その対象物の種別を生体以外の種別であると確定的に判定すればよい。
これにより、対象物の種別が生体以外の種別であるとの判定を、前記対称性の度合いの高低の判断結果から、高い信頼性で直ちに行なうことができる。
また、本発明の車両の周辺監視装置では、前記対象物種別判定手段は、前記抽出された対象物の種別を、少なくとも人を含む所定種類の生体と、該所定種類の生体以外の種別とに区別して判定する手段であることが好ましい。この場合、前記上下対称物判断手段によって、前記対称性の度合いが低いと判断された対象物は、生体である可能性は高いものの、生体でない対象物が含まれる場合もある。そして、前記対称性の度合いが高いと判断された対象物の種別は、生体以外の種別であると見なしてよい。従って、対象物の種別を、前記所定種類の生体とそれ以外の種別とに区別して判定する場合には、その判定処理は、前記対称性の度合いが低いと判断された対象物に対してのみ行なえば十分である。そこで、前記第2発明では、前記抽出された対象物のうち、前記第1種別判定手段により生体以外の種別であると判定された対象物を除外してなる対象物に対して、該対象物が前記所定種類の生体であるか否かを、前記撮像画像における該対象物の画像に基づいて判定する第2種別判定手段をさらに有する(第3発明)。
この第3発明によれば、前記第2種別判定手段は、前記抽出された対象物のうち、前記対称性の度合いが高い対象物を除外し、前記対称性が低いと判断された対象物だけに対して、該対象物が前記所定種類の生体であるか否かの判定を行なう。このため、第2種別判定手段は、前記抽出された対象物の全てについて前記所定種類の生体であるか否かの判定を行なわずに済み、生体である可能性が高い(上下方向における対称性の度合いが低い)対象物についてのみ、該対象物が前記所定種類の生体であるか否かの判定を行なえばよいこととなる。
その結果、第3発明によれば、撮像装置の撮像画像から抽出された対象物が人などの所定種類の生体であるか否かを判定する処理の演算処理負荷を軽減することができる。
なお、第2種別判定手段の判定では、例えば、前記撮像画像における対象物(前記対称性の度合いが低いと判断された対象物)の画像の形状やサイズ、輝度分布などに関する所定の特徴量を基に、対象物が所定種類の生体であるか否かの判定を行なうようにすればよい。
前記第1〜第3発明では、前記撮像装置が赤外線カメラであると共に、前記撮像画像がグレースケール画像である場合には、前記対象物抽出手段は、前記撮像画像から所定値以上の輝度値を有する領域を2値化対象物として抽出する手段と、少なくとも該2値化対象物と前記グレースケール画像の輝度値データとを基に、該グレースケール画像上で前記2値化対象物を包含する領域をグレースケール対象物の画像として抽出する手段とから構成され、前記上下対称性判断手段が前記対称性の度合いを判断する対象物は、前記グレースケール対象物であることが好ましい(第4発明)。
すなわち、赤外線カメラの撮像画像であるグレースケール画像では、人などの対象物のうちの相対的に温度の高い部分(頭部など)が高輝度部分となる。このため、所定値以上の輝度値を有する部分を抽出することで、該対象物を2値化対象物として容易に抽出できる。ただし、該2値化対象物は、個々の対象物の全体の一部である場合が多い。そこで、第2発明では、該2値化対象物をを包含する領域をグレースケール対象物の画像として抽出する。該グレースケール対象物の画像は、グレースケール画像上で個々の対象物の全体を包含するような最小の画像、もしくは、最小に近い画像で、例えば、グレースケール画像上で個々の対象物の全体の縦方向および横方向の幅とほぼ等しいか、もしくはそれよりも若干大きい幅の方形状の画像を意味する。そして、このグレースケール対象物に対して、上下方向における対称性の度合いが判断される。これにより、その対称性の度合いの判断を適切に行なうことができる。
なお、上下方向の対称性の度合いは、例えば上記グレースケール対象物の上部と下部との輝度分布の一致度合いや、輪郭形状の一致度合いに基づいて判断すればよい。
以上説明した本発明(第1〜第4発明)では、少なくとも前記対象物種別判定手段の判定結果を基に、前記対象物抽出手段により抽出された対象物が前記車両との接触を回避すべき回避対象であるか否かを判定する回避対象判定手段と、少なくとも該回避対象判定手段の判定結果に応じて前記車両に搭載された所定の機器を制御する車両機器制御手段とを備えることが好適である(第5発明)。
これによれば、人などの生体を回避対象に含ませて、該回避対象が所定の要件を満たす場合(例えば車両との接触の可能性が高い場合)などに、該回避対象と車両との接触を回避し得るように、もしくは回避しやすくなるように、車両の機器を制御することが可能となる。なお、前記車両の所定の機器としては、回避対象の対象物に対する運転者の注意を喚起する情報(例えば、視覚的な情報や聴覚的な情報)を出力可能な機器(ディスプレイやスピーカなど)、あるいは、車両の走行挙動を操作可能な機器(例えばステアリング装置、ブレーキ装置、アクセル装置のアクチュエータ)、あるいは、それらの両者の機器などが挙げられる。
また、本発明の車両は、前記した本発明の車両の周辺監視装置を搭載したことを特徴とする(第6発明)。
この第6発明の車両によれば、本発明の車両の周辺監視装置と同等の効果を奏する車両を実現できる。
また、本発明の車両の周辺監視方法は、車両に搭載された撮像装置の撮像画像から、該撮像装置の撮像領域に存在する対象物を抽出するステップと、その抽出された対象物の種別を前記撮像画像における該対象物の画像に基づいて判定するステップとを備えた車両の周辺監視方法において、前記抽出された対象物の上下方向における対称性の度合いの高低を前記撮像画像における該対象物の画像に基づき判断するステップを備え、前記抽出された対称物の種別を判定するステップは、前記対称性の度合いの高低の判断結果に基づいて該対象物の種別を判定するステップを少なくとも有することを特徴とする(第7発明)。
この第7発明によれば、前記第1発明と同様に、対象物の上下方向の対称性の判断結果だけによる簡易な手法で、少なくとも対象物の種別が生体であるか、それ以外の種別(人工構造物など)であるかを、高い信頼性で判定することが可能となる。
その結果、第7発明によれば、対象物の上下方向の対称性の度合いの高低に基づいて、対象物の種別が人などの生体であるか、該生体以外の種別であるかの判定を高い信頼性を確保しつつ、簡易に行なうことが可能となる。
また、本発明の車両の周辺監視用プログラムは、車両に搭載された撮像装置の撮像画像から、該撮像装置の撮像領域に存在する対象物を抽出し、その抽出された対象物の種別を前記撮像画像における該対象物の画像に基づいて判定する処理をコンピュータに実行させる機能を有する車両の周辺監視用プログラムであって、前記抽出された対象物の上下方向における対称性の度合いの高低を前記撮像画像における該対象物の画像に基づき判断する処理と、前記対称性の度合いの判断結果に基づいて対象物の種別を判定する処理とをコンピュータに実行させる機能を備えることを特徴とする(第8発明)。
この第8発明のプログラムによれば、前記第1発明に関して説明した効果を奏し得る処理をコンピュータに実行させることができる。
本発明の一実施形態を図1〜図9を参照して説明する。
まず、図1および図2を参照して、本実施形態の車両の周辺監視装置のシステム構成を説明する。図1は該周辺監視装置の全体構成を示すブロック図、図2は該周辺監視装置を搭載した車両の外観を示す斜視図である。なお、図2では、周辺監視装置の一部の構成要素の図示を省略している。
図1および図2を参照して、本実施形態の周辺監視装置は、画像処理ユニット1を備える。この画像処理ユニット1には、車両1の前方の画像を撮像する撮像装置としての2つの赤外線カメラ2R,2Lとが接続されると共に、車両10の走行状態を検出するセンサとして、車両10のヨーレートを検出するヨーレートセンサ3と、車両10の走行速度(車速)を検出する車速センサ4と、車両10のブレーキ操作(詳しくはブレーキペダルが操作されているか否か)を検出するブレーキセンサ5とが接続されている。さらに、画像処理ユニット1には、音声などによる聴覚的な注意喚起情報を出力するためのスピーカ6と、前記赤外線カメラ2R,2Lにより撮像された画像や視覚的な注意喚起情報を表示するための表示装置7とが接続されている。
画像処理ユニット1は、詳細な図示は省略するが、A/D変換回路、マイクロコンピュータ(CPU、RAM、ROM)、画像メモリなどを含む電子回路により構成され、前記赤外線カメラ2R,2L、ヨーレートセンサ3、車速センサ4およびブレーキセンサ5の出力(アナログ信号)がA/D変換回路を介してデジタル化されて入力される。そして、画像処理ユニット1は、入力されたデータを基に、人(歩行者)などの対象物を検出する処理や、その検出した対象物が車両との接触を回避すべき回避対象であるか否かを判定する処理、回避対象と判定された対象物に対する運転者の注意を喚起する処理などをマイクロコンピュータにより実行する。これらの処理は、マイクロコンピュータのROMにあらかじめ実装されたプログラムを該マイクロコンピュータにより実行することにより実現され、そのプログラムは、本発明の車両の周辺監視用プログラムを含んでいる。
なお、画像処理ユニット1は、上記プログラムにより実現される機能として、本発明における対象物抽出手段、対象物種別判定手段、上下対称性判断手段、回避対象判定手段、車両機器制御手段を含んでいる。
図2に示すように、前記赤外線カメラ2R,2Lは、車両10の前方を撮像するために、車両10の前部(図ではフロントグリルの部分)に取り付けられている。この場合、赤外線カメラ2R,2Lは、それぞれ、車両10の車幅方向の中心よりも右寄りの位置、左寄りの位置に配置されている。それらの位置は、自車両10の車幅方向の中心に対して左右対称である。そして、該赤外線カメラ2R,2Lは、それらの光軸が互いに平行に車両10の前後方向に延在し、且つ、それぞれの光軸の路面からの高さが互いに等しくなるように車両10の前部に固定されている。なお、各赤外線カメラ2R,2Lは、遠赤外域に感度を有する撮像装置であり、それにより撮像される物体の温度が高いほど、その物体の画像の出力信号のレベルが高くなる(該物体の画像の輝度が高くなる)特性を有している。
また、前記表示装置7は、本実施形態では、例えば車両10のフロントウィンドウに画像などの情報を表示するヘッド・アップ・ディスプレイ7a(以下、HUD7aという)を備えている。なお、表示装置7は、HUD7aの代わりに、もしくは、HUD7aと共に、自車両10の車速などの走行状態を表示するメータに一体的に設けられたディスプレイ、あるいは、車載ナビゲーション装置に備えられたディスプレイを含んでもよい。
次に、本実施形態の周辺監視装置の全体的動作を図3および図4のフローチャートを参照して説明する。なお、図3および図4のフローチャートの処理のうちの、前記特許文献1に記載されている処理と同じ処理については、本明細書での詳細な説明は省略する。補足すると、図3および図4のフローチャートの処理は、画像処理ユニット1のマイクロコンピュータが実行するプログラムにより実現される処理である。
まず、画像処理ユニット1は、赤外線カメラ2R,2Lのそれぞれの出力信号である赤外線画像を取得して(STEP1)、A/D変換し(STEP2)、それぞれの画像を画像メモリに格納する(STEP3)。これにより、各赤外線カメラ2R,2Lにより撮像された画像が画像処理ユニット1に取り込まれる。以降、赤外線カメラ2Rから得られた画像を右画像、赤外線カメラ2Lから得られた画像を左画像という。これらの右画像および左画像は、いずれもグレースケール画像である。
次いで、画像処理ユニット1は、前記右画像および左画像のうちの一方を基準画像とし、この基準画像を2値化する(STEP4)。基準画像は、本実施形態では右画像である。この2値化処理は、基準画像の各画素の輝度値を所定の輝度閾値と比較し、基準画像のうちの、該所定の輝度閾値よりも高い輝度値を有する領域(比較的明るい領域)を「1」(白)とし、該輝度閾値よりも低い輝度値を有する領域(比較的暗い領域)を「0」(黒)とする処理である。以降、この2値化処理により得られる画像(白黒画像)を2値化画像という。そして、この2値化画像のうちの、「1」とされる領域を高輝度領域という。なお、この2値化画像は、グレースケール画像(右画像および左画像)とは別に画像メモリに記憶される。
補足すると、STEP1〜4の処理は、前記特許文献1の図3のS1〜S4の処理と同じである。
次いで、画像処理ユニット1は、前記2値化画像に対してSTEP5〜7の処理を実行し、該2値化画像から対象物(より正確には対象物に対応する画像部分)を抽出する。すなわち、前記2値化画像の高輝度領域を構成する画素群を、基準画像の縦方向(y方向)に1画素分の幅を有して横方向(x方向)延在するラインに分類し、その各ラインを、その位置(基準画像上での2次元位置)の座標と長さ(画素数)とからなるランレングスデータに変換する(STEP5)。そして、このランレングスデータにより表されるラインのうちの、基準画像の縦方向に重なりを有するライン群のそれぞれにラベル(識別子)を付し(STEP6)、そのライン群のそれぞれを対象物として抽出する(STEP7)。このように2値化画像から抽出される対象物が本発明における2値化対象物に相当する。以降、STEP7で抽出された対象物を2値化対象物ということがある。
なお、STEP5〜7の処理により抽出される2値化対象物には、一般には、人(歩行者)などの生体だけでなく、他車両などの人工構造物なども含まれる。また、同一の物体の1つ、もしくは、複数の局所部分が2値化対象物として抽出される場合もある。例えば、人は、その頭部付近の箇所だけが、2値化対象物として抽出される場合もある。
次いで、画像処理ユニット1は、上記の如く抽出した各2値化対象物の重心の位置(基準画像上での位置)と面積と外接四角形の縦横比とを求める(STEP8)。なお、各2値化対象物の重心の位置は、該2値化対象物に含まれるランレングスデータの各ラインの位置(各ラインの中心位置)の座標に該ラインの長さを乗じたものを、該2値化対象物に含まれるランレングスデータの全てのラインについて加算し、その加算結果を該2値化対象物の面積により除算することにより求められる。また、各2値化対象物の重心の代わりに、該2値化対象物の外接四角形の重心(中心)の位置を求めてもよい。
次いで、画像処理ユニット1は、前記STEP7で抽出した2値化対象物の時刻間追跡、すなわち、画像処理ユニット1の演算処理周期毎の同一対象物の認識を行なう(STEP9)。この処理では、ある演算処理周期の時刻(離散系時刻)kにおけるSTEP7の処理により2値化対象物Aが抽出され、次の演算処理周期の時刻k+1におけるSTEP7の処理により2値化対象物Bが抽出されたとしたとき、それらの2値化対象物A,Bの同一性が判定される。この同一性の判定は、例えば、それらの2値化対象物A,Bの2値化画像上での形状やサイズ、基準画像(グレースケール画像)上での輝度分布の相関性などに基づいて行なえばよい。そして、それらの2値化対象物A,Bが互いに同一であると判定された場合に、時刻k+1で抽出した2値化対象物Bのラベル(STEP6で付したラベル)が2値化対象物Aのラベルと同じラベルに変更される。
なお、前記したSTEP5〜9の処理は、前記特許文献3の図3のS5〜S9の処理と同じである。
次いで、画像処理ユニット1は、前記車速センサ4およびヨーレートセンサ5の出力(車速の検出値およびヨーレートの検出値)を読み込む(STEP10)。なお、このSTEP10では、読込んだヨーレートの検出値を積分することにより、自車両10の回頭角(方位角)の算出も行なわれる。
一方、画像処理ユニット1は、STEP9,10の処理と並行して、STEP11〜13の処理を実行する。このSTEP11〜13の処理は、STEP7で抽出した各対象物(2値化対象物)の自車両10からの距離を求める処理であり、前記特許文献1の図3のS11〜S13の処理と同じである。その処理を概略的に説明すると、まず、右画像(基準画像)のうち、各対象物に対応する領域(例えば各2値化対象物の外接四角形の領域)を探索画像R1として抽出する(STEP11)。
次いで、左画像中で、右画像の探索画像R1に含まれる対象物と同じ対象物を探索するための領域である探索領域R2が設定され、その探索領域R2内で、探索画像R1との相関性が最も高い領域が、探索画像R1に対応する画像(探索画像R1と同等の画像)である対応画像R3として抽出される(STEP12)。この場合、左画像の探索領域R2のうち、右画像の探索画像R1の輝度分布に最も一致する輝度分布を有する領域が対応画像R3として抽出される。なお、STEP12の処理は、2値化画像ではなく、グレースケール画像を使用して行なわれる。
次いで、右画像における前記探索画像R1の重心の横方向位置(x方向位置)と、左画像における前記対応画像R3の重心の横方向位置(x方向位置)との差分の画素数を視差Δdとして算出し、その視差Δdを用いて、2値化対象物の自車両10からの距離z(自車両10の前後方向における距離)が算出される(STEP13)。距離zは、次式(1)により算出される。

z=(f×D)/(Δd×p) ……(1)

なお、fは赤外線カメラ2R,2Lの焦点距離、Dは赤外線カメラ2R,2Lの基線長(光軸の間隔)、pは画素ピッチ(1画素分の長さ)である。
以上がSTEP11〜13の処理の概要である。なお、STEP11〜13の処理は、前記STEP7で抽出された各2値化対象物に対して実行される。
前記STEP10およびSTEP13の処理の終了後、画像処理ユニット1は、次に、各2対象物の実空間上での位置(自車両10に対する相対位置)である実空間位置を算出する(STEP14)。ここで、実空間位置は、図2に示すように、赤外線カメラ2R,2Lの取り付け位置の中点を原点として設定された実空間座標系(XYZ座標系)での位置(X,Y,Z)である。実空間座標系のX方向およびY方向は、それぞれ自車両10の車幅方向、上下方向であり、これらのX方向およびY方向は、前記右画像および左画像のx方向(横方向)、y方向(縦方向)と同方向である。また、実空間座標系のZ方向は、自車両10の前後方向である。そして、対象物の実空間位置(X,Y,Z)は次式(2)、(3)、(4)により算出される。

X=x×z×p/f ……(2)
Y=y×z×p/f ……(3)
Z=z ……(4)

なお、x、yは基準画像上での対象物のx座標、y座標である。ただし、この場合の座標系は、図示は省略するが、基準画像の中心点の付近に原点を有するxy座標系である。その原点は、前記実空間座標系のZ軸上に対象物が存在するときに、該対象物の基準画像上でのx座標、y座標が共に0となるようにあらかじめ定められた点である。
次いで、画像処理ユニット1は、自車両10の回頭角の変化の影響を補償して、対象物の実空間位置の精度を高めるために、対象物の実空間位置(X,Y,Z)のうちのX方向の位置Xを上記式(2)により求めた値から、前記STEP10で求めた回頭角の時系列データに応じて補正する(STEP15)。これにより、最終的に対象物の実空間位置が求められる。以降の説明では、「対象物の実空間位置」は、この補正を施した対象物の実空間位置を意味する。なお、対象物の実空間位置は、所定の演算処理周期で逐次算出される。
次に、画像処理ユニット1は、対象物の車両10に対する移動ベクトルを求める(STEP16)。具体的には、同一対象物についての実空間位置の、所定期間(現在時刻から所定時間前までの期間。以下、モニタ期間という)における時系列データを近似する直線を求め、所定時間前の時刻での該直線上の対象物の位置(点)から、現在時刻における該直線上の対象物の位置(点)に向かうベクトルを対象物の移動ベクトルとして求める。この移動ベクトルは、対象物の車両10に対する相対速度ベクトルに比例する。なお、STEP14〜16の処理は、前記特許文献1の図3のS14〜S16の処理と同じである。
次に、画像処理ユニット1は、前記STEP7で抽出された各対象物(2値化対象物)が、車両10との接触を回避すべき回避対象であるか否かを判定する回避対象判定処理を実行する(STEP17)。この回避対象判定処理でついては詳細を後述する。なお、このSTEP17の回避対象判定処理は、本発明における回避対象判定手段を構成する処理である。
上記STEP17の回避対象判定処理で、対象物が回避対象でないと判定された場合(より正確には、全ての対象物が回避対象でないと判定された場合)には、STEP17の判定結果がNOとなる。この場合には、今回の演算処理周期の処理が終了し、次回の演算処理周期でSTEP1からの処理が繰り返される。また、STEP17で、対象物が回避対象であると判定された場合(回避対象であると判定された対象物が存在する場合)には、STEP17の判定結果がYESとなる。この場合には、STEP18に進んで、画像処理ユニット1は、回避対象であると判定された対象物に対する車両10の運転者の注意を喚起すべきが否かを判定する注意喚起出力判定処理を実行する。この注意喚起出力判定処理では、前記ブレーキセンサ5の出力から、運転者による車両10のブレーキ操作がなされていることが確認され、且つ、車両10の減速加速度(車速の減少方向の加速度を正とする)が所定の閾値(>0)よりも大きいときには、注意喚起を行なわないと判定される。また、運転者によるブレーキ操作が行なわれていない場合、あるいは、ブレーキ操作が行なわれていても、車両10の減速加速度が所定の閾値以下である場合には、注意喚起を行なうべきと判定される。
そして、画像処理ユニット1は、注意喚起を行なうべきと判定した場合(STEP18の判断結果がYESとなる場合)には、前記スピーカ6と表示装置7とによる注意喚起を車両10の運転者に対して行なう注意喚起処理を実行する(STEP19)。そして、この注意喚起処理の後、今回の演算処理周期の処理が終了して、次回の演算処理周期でSTEP1からの処理が再開される。上記注意喚起処理では、例えば表示装置7に前記基準画像を表示すると共に、その基準画像中の、回避対象の対象物の画像を強調的に表示する。さらに、そのような対象物が存在することをスピーカ6から運転者に音声案内する。これにより、該対象物に対する運転者の注意が喚起される。なお、運転者に対する注意喚起は、スピーカ6および表示装置7のいずれか一方だけで行なうようにしてもよい。
また、STEP18で注意喚起を行なわないと判断したとき(全ての回避対象の対象物について注意喚起を行なわないと判断したとき)には、STEP18の判断結果がNOとなり、この場合には、そのまま今回の演算処理周期の処理が終了して、次回の演算処理周期でSTEP1からの処理が再開される。
補足すると、本実施形態では、前記表示装置7およびスピーカ6が本発明における所定の機器に相当する。また、車両10が車両のステアリング装置、ブレーキ装置、アクセル装置のいずれかをアクチュエータによって操作可能(ひいては車両10の走行挙動を操作可能)なものである場合には、STEP17で回避対象であると判定された対象物との接触を回避するように、もしくは、回避が容易になるように車両10のステアリング装置、ブレーキ装置、アクセル装置を制御するようにしてもよい。例えば、運転者によるアクセルペダルの必要踏力が、回避対象の対象物が存在しない場合(通常の場合)よりも大きくなるようにアクセル装置を制御して加速しにくくする。あるいは、回避対象と車両10との接触を回避するために要求されるステアリング装置の操舵方向側へのステアリングハンドルの要求回転力を、反対側へのステアリングハンドルの要求回転力よりも低くして、当該操舵方向側へのステアリングハンドルの操作を容易に行い得るようにする。あるいは、ブレーキ装置のブレーキペダルの踏み込み量に応じた車両10の制動力の増加速度を、通常の場合よりも高くする。このようにすることで、回避対象との接触を避けるための車両10の運転が容易になる。
なお、このように車両10のステアリング装置や、アクセル装置、ブレーキ装置を制御する場合、これらの装置が本発明における所定の機器に相当するものとなる。また、上記のようなステアリング装置の制御と、前記表示装置7もしくはスピーカ6による注意喚起とは、並行して行なうようにしてもよい。
以上が本実施形態の周辺監視装置の全体的作動である。
補足すると、前記STEP18,19の処理は、本発明における車両機器制御手段を構成する処理である。
次に、説明を後回しにしたSTEP17の回避対象判定処理を図5〜図9を参照して詳細に説明する。図5はSTEP17の処理を示すフローチャート、図6は図5のSTEP33の判定処理を示すフローチャート、図7は図5のSTEP31,32の処理で使用する領域を説明するための図、図8および図9は図5のSTEP33の判定処理を説明するための図である。
図5を参照して、STEP17の回避対象判定処理では、まず、対象物の実空間位置に関する第1の判定処理としての第1対象物位置判定処理が実行される(STEP31)。この第1対象物位置判定処理は、車両10と対象物との接触を車両10の操舵やブレーキ操作によって余裕をもって回避し得るか否かを判定するための処理である。具体的には、該第1対象物位置判定処理では、赤外線カメラ2R,2Lの撮像領域(赤外線カメラ2R,2Lの視野角内領域)のうち、車両10からのZ方向の距離(車両10の前後方向の距離)が、所定値以下となる領域(以下、第1領域AR1という)に対象物の現在の実空間位置(実空間位置の今回値)が存在するか否かが判定される。
この場合、車両10からの距離に関する所定値は、前記STEP4で抽出された対象物(2値化対象物)毎に設定される。具体的には、前記STEP16で移動ベクトルを求めるための前記モニタ期間の時間で、該移動ベクトルのZ方向成分を除算することにより、該モニタ期間での対象物の平均速度Vz(車両10の前後方向での対象物の相対速度の平均値Vz)が求められ、この平均速度Vzに所定の定数T(時間の次元の定数)を乗じてなる値Vz・Tが前記第1領域の、Z方向の境界を規定する上記所定値として設定される。
このように設定される第1領域AR1は、平面視で、図7の三角形abcの領域となる。なお、線分abを含む直線L1、線分acを含む直線L2は、赤外線カメラ2R,2Lの視野角(水平方向の視野角)の左右の境界線である。また、第1領域AR1は、上下方向では、所定の高さ(例えば車両10の高さの2倍程度の高さ)を有する領域である。
STEP31の第1対象物位置判定処理は、上記の如く各対象物に対応して定まる第1領域AR1に対象物が存在するか否かを判定する処理であり、対象物の現在の実空間位置のZ方向位置がVz・T以下で、且つ、Y方向位置が所定の高さ以下の位置であるときに、該対象物が第1領域AR1に存在すると判定される。なお、車両10の前後方向における対象物の相対速度Vzが車両10から遠ざかる向きの相対速度である場合には、該対象物は第1領域AR1に存在しないと判定される。
STEP31において、対象物が第1領域AR1内に存在しないと判定された場合(STEP31の判定結果がNOとなる場合)は、車両10の操舵やブレーキ操作によって該対象物と車両10との接触を余裕をもって回避し得る状況である。そして、この場合には、画像処理ユニット1は、STEP37において、該対象物が回避対象で無いと判定し、該対象物についての回避対象判定処理を終了する。
一方、STEP31において、対象物が第1領域AR1内に存在すると判定された場合(STEP31の判断結果がYESとなる場合)には、画像処理ユニット1はさらに、対象物の実空間位置に関する第2の判定処理としての第2対象物位置判定処理を実行する(STEP32)。この第2対象物位置判定処理は、対象物の実空間位置が現在位置に維持されたとした場合に、車両10と対象物との接触の可能性が高いか否かを判定するための処理である。具体的には、該第2対象物位置判定処理では、対象物が、図7に示すように車両10の両側で前後方向に延在する(車両10の車幅中心線L0と平行に延在する)ように設定された一対の境界線L3,L4の間の領域AR2(以下、第2領域AR2という)に存在するか否かが判定される。
この場合、第2領域AR2の左右の境界線L3,L4は、それらの間隔をWとしたとき、図6に示すように、車両10の車幅中心線L0から左右に同じ間隔W/2を有する位置に設定される。そして、境界線L3,L4の間隔Wは、車両10の車幅αよりも若干広い間隔に設定される。なお、対象物が第2領域AR2に存在するか否かは、対象物の現在の実空間位置のX方向成分の値が、境界線L3のX方向位置と境界線L4のX方向位置との間の値であるか否によって判定される。
補足すると、第2領域AR2の幅Wは、車両10の走行環境(車両10の車速や、前走車との車間距離など)に応じて変化させるようにしてもよい。
STEP32において、対象物の実空間位置が第2領域AR2に存在すると判定された場合(STEP32の判定結果がYESとなる場合)は、対象物が現在の実空間位置に留まったとした場合に、該対象物が車両10と接触する可能性が高い。そして、この場合には、本実施形態では、対象物が歩行者(人)であることを要件として、該対象物が回避対象であると判定する。
そこで、STEP32の判定結果がYESとなる場合には、画像処理ユニット1は、対象物の種別判定を行なうために、まず、基準画像(グレースケール画像)上での各対象物の上下方向の対称性の度合いの高低(対称性が高いか否か)を判断する(STEP33)。
この判断処理は、図6のフローチャートで示す如く実行される。同図6を参照して、まず、基準画像から、各2値化対象物を包含するグレースケール対象物の画像を抽出する(STEP51)。
グレースケール対象物の画像は、グレースケール画像で捉えられている個々の物体(例えば人)の全体を含む最小限のサイズもしくはそれに近いサイズの画像を意味し、その画像の高輝度領域が、前記STEP7にて2値化対象物として抽出されるものである。
この処理STEP51の処理を図8を参照して具体的に説明する。図8は、基準画像(グレースケール画像)における人の画像の例を模式的に示したものであり、斜線を付した部分100が人の高輝度領域で、前記STEP7で2値化対象物として抽出される部分である。この例では、人の頭部を含む上部だけが2値化対象物100として抽出されることとなる。また、図8に示す破線は、基準画像(グレースケール画像)上で見られる人の全体の輪郭(エッジ線)を示している。この破線で囲まれた部分102がグレースケール対象物である。そして、STEP51では、このようなグレースケール対象物を含む方形状の画像(図8の太線枠で囲まれた画像)を抽出する。
STEP51の処理では、まず、図8に示すように、基準画像上で、2値化対象物100の上側と下側とにそれぞれ複数個のマスク領域MASKが上下方向に並べて設定される。図示の例では、2値化対象物100の上端から上側に3個のマスク領域MASKが配列され、2値化対象物の下端から下側に5個のマスク領域MASKが配列される。
各マスク領域MASKは、互いに同一サイズの方形状の領域で、その横幅W1と縦幅H1とは、前記STEP13で算出された2値化対象物100の車両10からの距離(Z方向の距離)に応じて設定される。すなわち、各マスク領域MASKの横幅W1と縦幅H1とをそれぞれ前記式(2)、(3)に基づき、実空間の長さに変換してなる値が、所定値(あらかじめ定められた固定値)となるように、各マスク領域MASKの横幅W1と縦幅H1とが設定される。なお、横幅W1を実空間に変換したときの値は、一般的な人の肩幅よりも若干、広い値である。また、マスク領域の配列個数は、最上段のマスク領域MASKの上端から最下段のマスク領域MASKの下端までの長さを実空間の長さに変換したときの値が、一般的な人の身長よりも、ある程度の余裕をもって長くなるように決定される。
次いで、以下の要件(A)〜(C)を満たすマスク領域MASKの全体を包含する最小の方形状の画像領域が、グレースケール対象物102の画像として抽出される。
(A)マスク領域MASKの輝度の分散が所定の閾値以上である。
(B)基準画像(右画像)におけるマスク領域MASKと、これに対応する左画像のマスク領域との相関度(輝度分布の一致度合い)が高い。
(C)右画像におけるマスク領域MASKと、これに対応する左領域のマスク領域との視差が、2値化対象物100の視差とほぼ同じである(それらの視差の差の絶対値が所定値以下である)。
要件(A)は、マスク領域MASKに人などの物体の画像と背景画像とが含まれていることを意味し、要件(B)は、右画像のマスク領域MASKとこれに対応する左画像のマスク領域との両者に単一の同じ対象物が含まれていることを意味し、要件(C)は、マスク領域MASKに含まれる物体の車両10からの距離が、2値化対象物100の視差から算出される該物体の車両10からの距離とほぼ同じであることを意味する。
なお、要件(B)における相関度(輝度分布の一致度合い)は、例えば、右画像のマスク領域MASKとこれに対応する左画像のマスク領域とで、それらの領域の互いに対応する画素の輝度値の差の絶対値を、該マスク領域の全画素について加え合わせてなる絶対差分和(いわゆるSAD)に基づいて判定され、該絶対差分和の値が所定値以下であるとき、要件(B)が満たされると判定される。また、要件(C)に関し、右画像におけるマスク領域MASKと、これに対応する左領域のマスク領域との視差は、例えば、それぞれのマスク領域における横方向(x方向)での輝度の変化点(輝度の変化量が所定値以上となる点)の視差として算出される。そして、その視差と、2値化画像の視差との差の絶対値が所定値以下であるときに、要件(C)が満たされると判定される。
以上説明したSTEP51の処理により、各2値化対象物に対応するグレースケール対象物の画像が抽出される。図8の例では、同図の太線で示す画像領域104が、グレースケール対象物102の画像として抽出される。なお、図8の例では、2値化対象物100の上側の各マスク領域MASKは、前記要件(A)〜(C)のうちのいずれかを満たさず、また、2値化対象物100の下側の各マスク領域MASKのうち、最下段のマスク領域MASKが要件(A)〜(C)のうちのいずれかを満たさず、且つ、下から2番目のマスク領域MASKが要件(A)〜(C)のうちのすべてを満たしていることとなる。2値化対象物100の下側の各マスク領域MASKのうち、下から2番目のマスク領域MASKよりも上側の各マスク領域MASKは、要件(A)〜(C)の全ての要件が満たされている場合と、いずれかの要件(A)〜(C)が満たされていない場合とがある。
図6の説明に戻って、上記のように、各2値化対象物に対応するグレースケール対象物の画像を抽出した後、画像処理ユニット1は、次に、この画像の上部と下部とに、グレースケール対象物の上下方向の対称性の度合いを判定するための対称性判定用マスク領域UMASK,DMASKを設定する(STEP52)。この場合、図9に示す如く、各対称性判定用マスク領域UMASK,DMASKは、その横幅W3が、グレースケール対象物102の画像104の横幅W2(=前記マスク領域MASKの横幅W1)と同じで、且つ、縦方向の長さH3が、グレースケール対象物102の画像104の縦方向の長さH2の所定割合の長さ(H2に1より小さい正の定数を乗じた長さ)となる方形状の領域である。なお、本実施形態では、各対称性判定用マスク領域UMASK,DMASKの縦方向の長さH3は、グレースケール対象物102の画像104の縦方向の長さH2の1/2(=H2/2)よりも小さいが、H2/2と同じであってもよい。すなわち、グレースケール対象物102の画像104を上下に2分割した領域を対称性判定用マスク領域UMASK,DMASKとして設定してもよい。また、対称性判定用マスク領域UMASK,DMASKの横幅W3は、グレースケール対象物102の画像104の横幅W2よりも若干小さくてもよい。
次いで、画像処理ユニット1は、対称性判定用マスク領域UMASK,DMASKの相関度(輝度分布の一致度合い)の高低を判断する(STEP53)。このとき、該相関度が高いと判断したときには、画像処理ユニット1は、該グレースケール対象物の上下方向の対称性の度合いが高いと判断する(STEP54)。一方、該相関度が低いと判断したときには、画像処理ユニット1は、該グレースケール対象物の上下方向の対称性の度合いが低いと判断する(STEP55)。この場合、STEP53の判断は、具体的には、対称性判定用マスク領域UMASK,DMASKの前記絶対差分和を所定の閾値と比較することで行なわれ、該絶対差分和が所定の閾値以下であるときに、相関度が高いと判断され、該絶対差分和が所定の閾値よりも大きいときに、相関度が低いと判断される。
以上がSTEP33の処理の詳細である。この場合、対象物が、人などの生体である場合には、一般に、上下方向の対称性の度合いが低いので、STEP33の処理によって、該対象物は、上下方向の対称性の度合いが低いと判断される。一方、自動販売機や電柱などの生体以外の種別の対象物は、上下方向の対称性の度合いが高いので、STEP33の処理によって、該対象物は、上下方向の対称性の度合いが低いと判断される。
図5のフローチャートの説明に戻って、上記STEP33でグレースケール対象物の上下方向の対称性の度合いが高いと判断された場合には、画像処理ユニット1は、該対象物の種別は、生体以外の種別(電柱などの人工構造物)であると判定する(STEP33a)。そして、この場合には、該対象物は、歩行者ではないので、画像処理ユニット1は、前記STEP37において、該対象物は回避対象ではないと判定する。
一方、STEP33でグレースケール対象物の上下方向の対称性の度合いが低いと判断された場合には、画像処理ユニット1は、該対象物は、人などの生体である可能性が高いと判定する(STEP33b)。
補足すると、STEP33で、上下方向の対象性の度合いが高いと判断されるということは、その対象物の種別が生体以外の種別であると判定することと実質的に同等である。また、STEP33で上下方向の対象性の度合いが低いと判断されるということは、その対象物の種別が生体である可能性が高いと判定することと実質的に同等である。従って、STEP33a、33bの処理そのものを実際の画像処理ユニット1で実行する必要はない。STEP33a、33bの処理は、本実施形態の説明の便宜上の処理である。
ここで、低頻度ではあるものの、生体以外の種別の対象物が、STEP33で上下方向の対称性の度合いが低いと判断される場合もある。また、対象物が歩行者以外の動物である場合にも、STEP33で上下方向の対称性の度合いが低いと判断される。
そこで、本実施形態では、画像処理ユニット1は、STEP33で上下方向の対称性が度合いが低いと判断された対象物に対して、さらに、STEP36において、グレースケール対象物が歩行者(人)であるか否か(より正確には、歩行者である可能性が高いか否か)の判定を行なう歩行者判定処理を実行する(STEP34)。この歩行者判定処理は、上下方向の対称性の度合いが低いと判断された対象物に対してのみ、実行される処理である。従って、該歩行者判定処理は、STEP7で抽出された対象物(より正確には、STEP32の判定結果がYESとなる対象物)から、STEP33で上下方向の対称性の度合いが高いと判断された対象物を除外してなる対象物に対して実行される。
この歩行者判定処理の具体的な処理は、前記特許文献1の図5のS34の処理と同じである。従って、本明細書での詳細な説明は省略するが、概略的には、グレースケール対象物および2値化対象物の形状やサイズ、グレースケール対象物の画像(図8の画像104)の輝度分布(輝度分散や輝度平均値)などの、あらかじめ決められた各種の特徴量に基づいて対象物が歩行者であるか否の判定を行なう。補足すると、前記特許文献1の図5のS34の処理では、その処理の中でグレースケール対象物の画像を抽出するようにしているが、本実施形態では、このグレースケール対象物の画像の抽出は、前記STEP33において行なわれる。従って、本実施形態では、STEP34の歩行者判定処理では、グレースケール対象物の画像の抽出を行なう必要はない。
STEP34の歩行者判定処理において、対象物(上下方向の対称性の度合いが低い対象物)が、歩行者である可能性が低いと判定された場合(STEP34の判定結果がNOとなる場合)には、STEP37において、該対象物が回避対象でないと判定する。
一方、STEP34で対象物(上下方向の対称性の度合いが低い対象物)が、歩行者である可能性が高いと判定された場合(STEP34の判定結果がNOとなる場合)には、その判定の信頼性を高めるために(対象物が歩行者であるか否かの確定的な判定を行なうために)、画像処理ユニット1は、該対象物が他車両などの人工構造物であるか否かの判定を行なう人工構造物判定処理を実行する(STEP35)。この人工構造物判定処理は、前記特許文献1の図5のS35の処理と同じである。従って、本明細書での詳細な説明は省略するが、概略的には、グレースケール画像上での対象物の直線部分や直角部分の有無、あらかじめ定められた登録図形との対象物の画像の一致度合いなどに基づいて行なわれる。
このとき、対象物が人工構造物であると判定された場合(STEP35の判定結果がYESとなる場合)には、画像処理ユニット1は、STEP37において対象物が回避対象でないと判定する。
また、STEP35で対象物が人工構造物でないと判定された場合(STEP35の判定結果がNOとなる場合)には、該対象物は歩行者であると確定することとなる。そして、この場合には、画像処理ユニット1は、STEP36において対象物が回避対象であると判定する。
一方、前記STEP32において、対象物が第2領域AR2に存在しないと判定された場合(STEP32の判定結果がNOとなる場合)には、画像処理ユニット1は、次に、対象物の移動方向に関する進入接触判定処理を実行する(STEP38)。この進入接触判定処理は、対象物が前記第2領域AR2に進入し、且つ、車両10と接触する可能性が高いか否かを判定する処理である。具体的には、対象物の移動ベクトルが現状に維持されると仮定し、この移動ベクトルを含む直線と、車両10の前端位置における実空間座標系のXY平面との交点のX方向位置が求められる。そして、この求めたX方向位置が、車両10の車幅中心線L0のX方向位置を中心とする所定範囲(車両10の車幅よりも若干広い範囲)に存在することを要件(以下、進入接触要件という)として、この進入接触要件が満たされるか否かが判定される。
STEP39において、対象物が前記進入接触要件を満たす場合(STEP38の判定結果がYESとなる場合)には、対象物が将来、車両10と接触する可能性が高い。そこで、この場合には、画像処理ユニット1は、前記STEP36において、該対象物が回避対象であると判定し、回避対象判定処理を終了する。
また、STEP38において、対象物が前記進入接触要件を満たさない場合(STEP38の判定結果がNOとなる場合)には、対象物が車両10と接触する可能性が低いので、画像処理ユニット1は、前記STEP37において、該対象物が回避対象で無いと判定し、回避対象判定処理を終了する。
以上がSTEP17の回避対象判定処理の詳細である。補足すると、前記STEP33の処理は、本発明における上下対称性判断手段を構成する処理である。そして、このSTEP33の処理とSTEP33a,33bの処理とを合わせた処理が、本発明における第1種別判定手段を構成する処理である。なお、前記したように、STEP33a,33bの処理は省略してもよいので、前記STEP33の処理が、上下対称性判断手段としての機能と、第1種別判定手段としての機能とを併せ持つ処理であるとみなすこともできる。また、STEP33〜35の処理は、本発明における対象部物種別判定手段を構成する処理である。この場合、STEP34,35の処理が、本発明における第2種別判定手段手段に相当する。また、前記STEP1〜7の処理と、STEP51の処理とは本発明における対象物抽出手段を構成する処理である。
以上説明した本実施形態によれば、STEP34の歩行者判定処理やSTEP35の人工構造物判定処理の実行前に、STEP33において、対象物(グレースケール対象物)の上下方向の対称性の度合いの高低が判断される。そして、対称性の度合いが高いと判断された対象物は、その種別が歩行者を含む生体以外の種別であるとされ、ひいては、STEP37において回避対象でないと判定される。この場合、対象物(グレースケール対象物)の上下方向の対称性の度合いが高いので、該対象物が生体以外の種別であるとの判定の信頼性は高い。そして、その判定は、対称性の度合いだけを基に適切になされる。
また、STEP34の歩行者判定処理では、STEP33で対称性の度合いが高いと判断された対象物は除外され、対称性の度合いが低いと判断された対象物についてのみ、STEP34の歩行者判定処理が実行される。このため、特に、複数の2値化対象物がSTEP7で抽出され、その各2値化対象物に関するSTEP32の判定結果がYESとなるような場合に、歩行者判定処理の判定対象を減らすことができる。つまり、STEP33で上下方向の対象性の度合いが高いと判定された対象物については、STEP34の歩行者判定処理やSTEP35の人工構造物判定処理を実行せずに済む。従って、歩行者判定処理の演算処理の負荷を軽減できる。
なお、以上説明した実施形態では、本発明における所定種類の生体を人(歩行者)とした場合を例に採って説明したが、人以外に、犬や猫などの生体(特に地上を移動する動物)をSTEP34における判定対象に含めてもよい。あるいは、STEP33で対称性の度合いが低いと判断される対象物は、生体である可能性が高いので、STEP34,35の処理を実行せずに、該対象物を直ちに、回避対象であると判定してもよい。もしくは、対称性の度合いが低いと判断された対象物について、STEP34の処理を省略してSTEP35の処理だけを実行するようにしてもよい。
また、前記実施形態では、前記グレースケール対象物102の上下方向の対称性の度合いを、該グレースケール対象物102の画像104の上部と下部の対称性判定用マスク領域UMASK,DMASKの相関度(輝度分布の一致度合い)に基づいて判断した。ただし、その判断手法は、これに限られるものではなく、対称性判定用マスク領域UMASK,DMASKにおけるグレースケール対象物102の形状(エッジ線の形状)の一致度合いに基づいて、該対象物102の上下方向の対称性の度合いを判断するようにしてもよい。
本発明の一実施形態における車両の周辺監視装置の全体構成を示すブロック図。 図1の周辺監視装置を搭載した車両(車両)の外観を示す斜視図。 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。 図4のSTEP17の処理を示すフローチャート。 図5のSTEP33の処理を示すフローチャート。 図5のSTEP51,52の処理で使用する領域を説明するための図。 図5のSTEP33の処理を説明するための図。 図5のSTEP33の処理を説明するための図。
符号の説明
1…画像処理ユニット(対象物抽出手段、生体判定手段、上下対象性判断手段)、2R,2L…赤外線カメラ(撮像装置)、7…表示装置(機器)、10…車両、STEP1〜7、51…対象物抽出手段、STEP33〜35…対象物種別判定手段、STEP33…上下対称性判断手段、STEP33,33a,33b…第1種別判定手段、STEP34,35…第2種別判定手段、STEP17…回避対象判定手段、STEP18,19…車両機器制御手段。

Claims (8)

  1. 車両に搭載された撮像装置の撮像画像から、該撮像装置の撮像領域に存在する対象物を抽出する対象物抽出手段と、その抽出された対象物の種別を前記撮像画像における該対象物の画像に基づいて判定する対象物種別判定手段とを備えた車両の周辺監視装置において、
    前記抽出された対象物の上下方向における対称性の度合いの高低を前記撮像画像における該対象物の画像に基づき判断する上下対称性判断手段を備え、
    前記対象物種別判定手段は、前記上下対称性判断手段の判断結果に基づいて前記抽出された対象物の種別を判定する第1種別判定手段を少なくとも有することを特徴とする車両の周辺監視装置。
  2. 前記第1種別判定手段は、前記上下対称物判断手段により前記対称性の度合いが高いと判断された対象物の種別を生体以外の種別であると判定することを特徴とする請求項1記載の車両の周辺監視装置。
  3. 前記対象物種別判定手段は、前記抽出された対象物の種別を、少なくとも人を含む所定種類の生体と、該所定種類の生体以外の種別とに区別して判定する手段であり、前記抽出された対象物のうち、前記第1種別判定手段により生体以外の種別であると判定された対象物を除外してなる対象物に対して、該対象物が前記所定種類の生体であるか否かを、前記撮像画像における該対象物の画像に基づいて判定する第2種別判定手段をさらに有することを特徴とする請求項2記載の車両の周辺監視装置。
  4. 前記撮像装置は赤外線カメラであると共に、前記撮像画像はグレースケール画像であり、
    前記対象物抽出手段は、前記撮像画像から所定値以上の輝度値を有する領域を2値化対象物として抽出する手段と、少なくとも該2値化対象物と前記グレースケール画像の輝度値データとを基に、該グレースケール画像上で前記2値化対象物を包含する領域をグレースケール対象物の画像として抽出する手段とから構成され、
    前記上下対称性判断手段が前記対称性の度合いを判断する対象物は、前記グレースケール対象物であることを特徴とする請求項1〜3のいずれか1項に記載の車両の周辺監視装置。
  5. 少なくとも前記対象物種別判定手段の判定結果を基に、前記対象物抽出手段により抽出された対象物が前記車両との接触を回避すべき回避対象であるか否かを判定する回避対象判定手段と、少なくとも該回避対象判定手段の判定結果に応じて前記車両に搭載された所定の機器を制御する車両機器制御手段とを備えたことを特徴とする請求項1〜4のいずれか1項に記載の車両の周辺監視装置。
  6. 請求項1〜5のいずれか1項に記載の車両の周辺監視装置を搭載したことを特徴とする車両。
  7. 車両に搭載された撮像装置の撮像画像から、該撮像装置の撮像領域に存在する対象物を抽出するステップと、その抽出された対象物の種別を前記撮像画像における該対象物の画像に基づいて判定するステップとを備えた車両の周辺監視方法において、
    前記抽出された対象物の上下方向における対称性の度合いの高低を前記撮像画像における該対象物の画像に基づき判断するステップを備え、
    前記抽出された対称物の種別を判定するステップは、前記対称性の度合いの高低の判断結果に基づいて該対象物の種別を判定するステップを少なくとも有することを特徴とする車両の周辺監視方法。
  8. 車両に搭載された撮像装置の撮像画像から、該撮像装置の撮像領域に存在する対象物を抽出し、その抽出された対象物の種別を前記撮像画像における該対象物の画像に基づいて判定する処理をコンピュータに実行させる機能を有する車両の周辺監視用プログラムであって、
    前記抽出された対象物の上下方向における対称性の度合いの高低を前記撮像画像における該対象物の画像に基づき判断する処理と、
    前記対称性の度合いの判断結果に基づいて対象物の種別を判定する処理とをコンピュータに実行させる機能を備えることを特徴とする車両の周辺監視用プログラム。
JP2006121168A 2006-04-25 2006-04-25 車両の周辺監視装置 Active JP4171501B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006121168A JP4171501B2 (ja) 2006-04-25 2006-04-25 車両の周辺監視装置
US11/787,050 US7957556B2 (en) 2006-04-25 2007-04-13 Vehicle surroundings monitoring apparatus, vehicle, vehicle surroundings monitoring method, and vehicle surroundings monitoring program
DE102007019491A DE102007019491B4 (de) 2006-04-25 2007-04-25 Fahrzeugumgebungs-Überwachungsvorrichtung, Fahrzeug, Fahrzeugumgebungs-Überwachungsverfahren und Fahrzeugumgebungs-Überwachungsprogramm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006121168A JP4171501B2 (ja) 2006-04-25 2006-04-25 車両の周辺監視装置

Publications (2)

Publication Number Publication Date
JP2007293627A true JP2007293627A (ja) 2007-11-08
JP4171501B2 JP4171501B2 (ja) 2008-10-22

Family

ID=38542557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006121168A Active JP4171501B2 (ja) 2006-04-25 2006-04-25 車両の周辺監視装置

Country Status (3)

Country Link
US (1) US7957556B2 (ja)
JP (1) JP4171501B2 (ja)
DE (1) DE102007019491B4 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013129380A1 (ja) * 2012-03-01 2013-09-06 日産自動車株式会社 車両検出装置及び車両検出方法
JP7468207B2 (ja) 2020-07-09 2024-04-16 株式会社Jvcケンウッド 画像認識装置、画像認識方法、及び画像認識プログラム

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8340354B2 (en) * 2009-01-21 2012-12-25 Texas Instruments Incorporated Method and apparatus for object detection in an image
EP2544449B1 (en) * 2010-03-01 2016-03-16 Honda Motor Co., Ltd. Vehicle perimeter monitoring device
JP2012000165A (ja) * 2010-06-14 2012-01-05 Sega Corp ビデオゲーム装置
WO2013047088A1 (ja) * 2011-09-28 2013-04-04 本田技研工業株式会社 生体認識装置
JP5754605B2 (ja) * 2011-11-01 2015-07-29 アイシン精機株式会社 障害物警報装置
CN104160434A (zh) * 2012-03-12 2014-11-19 本田技研工业株式会社 车辆周围监视装置
EP2674914B1 (en) * 2012-06-11 2018-08-08 Volvo Car Corporation Method for determining a body parameter of a person
KR102451091B1 (ko) * 2015-07-08 2022-10-05 엘지이노텍 주식회사 차량용 이동체 정보 제공 장치 및 방법과, 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체
US10416681B2 (en) * 2017-07-12 2019-09-17 Mitsubishi Electric Research Laboratories, Inc. Barcode: global binary patterns for fast visual inference
CN108583571A (zh) * 2018-04-28 2018-09-28 深圳市商汤科技有限公司 碰撞控制方法及装置、电子设备和存储介质
CN115023942A (zh) * 2020-01-30 2022-09-06 富士胶片株式会社 显示方法
US11926335B1 (en) * 2023-06-26 2024-03-12 Plusai, Inc. Intention prediction in symmetric scenarios

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4490851A (en) * 1982-04-16 1984-12-25 The United States Of America As Represented By The Secretary Of The Army Two-dimensional image data reducer and classifier
JPH09180090A (ja) 1995-12-25 1997-07-11 Mitsubishi Motors Corp 標識の認識方法
JP3307335B2 (ja) * 1998-07-22 2002-07-24 日本電気株式会社 車両領域検出装置及び車両領域検定方法
JP2002029346A (ja) 2000-07-14 2002-01-29 Hiroyuki Yokozawa 自動車の運転支援システム及び運転支援プログラムを記録した記録媒体
JP2003016429A (ja) 2001-06-28 2003-01-17 Honda Motor Co Ltd 車両周辺監視装置
JP4060159B2 (ja) 2002-01-18 2008-03-12 本田技研工業株式会社 車両周辺監視装置
DE10301468B4 (de) 2002-01-18 2010-08-05 Honda Giken Kogyo K.K. Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs
US7130488B2 (en) * 2002-10-09 2006-10-31 Xerox Corporation Systems for spectral multiplexing of source images including a textured source image to provide a composite image, for rendering the composite image, and for spectral demultiplexing of the composite image
JP3987013B2 (ja) * 2003-09-01 2007-10-03 本田技研工業株式会社 車両周辺監視装置
US7376250B2 (en) * 2004-01-05 2008-05-20 Honda Motor Co., Ltd. Apparatus, method and program for moving object detection

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013129380A1 (ja) * 2012-03-01 2013-09-06 日産自動車株式会社 車両検出装置及び車両検出方法
CN104145193A (zh) * 2012-03-01 2014-11-12 日产自动车株式会社 车辆检测装置以及车辆检测方法
US9081086B2 (en) 2012-03-01 2015-07-14 Nissan Motor Co., Ltd. Vehicle detection device and vehicle detection method
JPWO2013129380A1 (ja) * 2012-03-01 2015-07-30 日産自動車株式会社 車両検出装置及び車両検出方法
JP7468207B2 (ja) 2020-07-09 2024-04-16 株式会社Jvcケンウッド 画像認識装置、画像認識方法、及び画像認識プログラム

Also Published As

Publication number Publication date
US20070248245A1 (en) 2007-10-25
US7957556B2 (en) 2011-06-07
JP4171501B2 (ja) 2008-10-22
DE102007019491A1 (de) 2007-10-31
DE102007019491B4 (de) 2013-01-24

Similar Documents

Publication Publication Date Title
JP4171501B2 (ja) 車両の周辺監視装置
JP4173901B2 (ja) 車両周辺監視装置
US8810653B2 (en) Vehicle surroundings monitoring apparatus
JP4173902B2 (ja) 車両周辺監視装置
US9235990B2 (en) Vehicle periphery monitoring device
JP2007304033A (ja) 車両の周辺監視装置、車両、車両の周辺監視方法、および車両の周辺監視用プログラム
EP2352136A1 (en) System for monitoring the area around a vehicle
JP4528283B2 (ja) 車両周辺監視装置
US9165197B2 (en) Vehicle surroundings monitoring apparatus
JP2010097541A (ja) 車両の周辺監視装置
JP2007241898A (ja) 停止車両分別検出装置および車両の周辺監視装置
JP4644273B2 (ja) 車両周辺監視装置
JP2007334511A (ja) 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム
JP4813304B2 (ja) 車両周辺監視装置
JP4823753B2 (ja) 車両の周辺監視装置
JP5004903B2 (ja) 車両周辺監視装置
JP4629638B2 (ja) 車両の周辺監視装置
JP4694441B2 (ja) 車両周辺監視システム
JP5907849B2 (ja) 車両周辺監視装置
JP2008042779A5 (ja)
JP5026398B2 (ja) 車両周辺監視装置
JP5442050B2 (ja) 車両周辺監視システム
JP2007336091A (ja) 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム
JP2009193241A (ja) 車両周辺監視装置、車両、車両周辺監視プログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080805

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080808

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110815

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4171501

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110815

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120815

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120815

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130815

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140815

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250