JP6436357B2 - 車両用の歩行者動作識別装置 - Google Patents

車両用の歩行者動作識別装置 Download PDF

Info

Publication number
JP6436357B2
JP6436357B2 JP2016024989A JP2016024989A JP6436357B2 JP 6436357 B2 JP6436357 B2 JP 6436357B2 JP 2016024989 A JP2016024989 A JP 2016024989A JP 2016024989 A JP2016024989 A JP 2016024989A JP 6436357 B2 JP6436357 B2 JP 6436357B2
Authority
JP
Japan
Prior art keywords
pedestrian
area
vehicle
image
head position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016024989A
Other languages
English (en)
Other versions
JP2017142735A (ja
Inventor
岩本 太郎
太郎 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2016024989A priority Critical patent/JP6436357B2/ja
Publication of JP2017142735A publication Critical patent/JP2017142735A/ja
Application granted granted Critical
Publication of JP6436357B2 publication Critical patent/JP6436357B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、車両用の歩行者動作識別装置に係わり、特に、車両周辺に存在する歩行者の動作(動き)を識別する車両用の歩行者動作識別装置に関する。
近年、カメラ(撮像手段)の高機能化及び数値演算処理装置の高速化が進んだことで、画像認識技術を活用した高度な画像認識による機能を安価に提供可能となり、各種機能の搭載が進められている。車両の技術分野では、そのようなカメラや数値演算処理装置などの高度な機能を利用して、車両周辺に存在する歩行者を識別する技術が開発されている(例えば特許文献1及び2参照)。
具体的には、特許文献1には、車両周辺を撮像するカメラの撮像画像より歩行者が検出された場合に、撮像画像のデータを解析することで、同一の歩行者を含む複数の画像データ間の特徴量であって、歩行者の存在又は動きを検知するために用いる指標としての対象物追跡スコアと、歩行者を含む画像データの特徴量を示す情報であって、歩行者らしさを表す指標としての対象物検出スコアとを求め、これらのスコアに基づいて、歩行者の飛び出す可能性(つまり進路が急変する危険度)が高いか否かを判定する技術が開示されている。また、特許文献2には、予め記憶された移動方向別の複数の歩行者パターンの中から、カメラ画像より認識された歩行者の移動方向に対応する歩行者パターンを選択し、選択した歩行者パターンとカメラ画像中の歩行者の画像パターンとを照合して歩行者を認識する技術が開示されている。
特開2014−203196号公報 特開2009−237897号公報
一般的に、車両に搭載されたカメラの撮像画像から歩行者の動作を識別しようとした場合、歩行動作は急な加減速や方向転換の頻度が高く、また、時系列で大きな見掛けの変化を伴うため、歩行者の動作を精度良く識別することが困難である。
ここで、車両に搭載されたカメラの撮像画像から歩行者の動作を識別して、例えば車両と歩行者との衝突判定や衝突回避のための自動ブレーキやドライバへの警報などを行う場合、歩行者による次の瞬間の動作を推定(将来予測)することが望ましい。換言すると、例えば走り出しや歩行停止や方向転換などの歩行者の動態変化を推定することが望ましい。このように歩行者の動態変化を推定するためには、カメラによる撮像画像の時間差分から特徴を抽出して分析し、歩行者の身体部位の位置変化(つまり姿勢の時間変化)を捉えることが有効と考えられる。
一方で、移動中の車両に搭載されたカメラから得られる歩行者を含む撮像画像においては、画像上での歩行者の寸法や位置などが、車両と歩行者との相対位置の変化に伴って変化し、また、路面の凸凹やドライバの操舵や加減速等によるブレの影響を受ける。そのため、撮像画像の時間差分に対応する画像データには、歩行者の動作識別においてシグナルとなる歩行者の姿勢変化のデータに加えて、歩行者の動作識別にとってノイズとなるデータが含まれてしまう。その結果、画像全体の動きに歩行者の姿勢変化が埋もれて(つまりSN比が低い状態となる)、歩行者の動作の識別精度が低下してしまう。
上記のような問題に対して、特許文献1に開示された技術では、歩行者の動作の変化を検出するに当たって、撮像画像において歩行者を含む矩形領域を抽出する前処理を行い、歩行者の背景の領域(つまりノイズとなる部分)をできるだけ減らすことで対処しているものと考えられる。しかしながら、歩行者の見掛けの寸法や姿勢や移動などの種々の要因によって、撮像画像から抽出すべき歩行者を含む矩形領域の寸法及び形状が変化し、また、このような矩形領域の変化は1歩に要する時間の数分の一(例えば0.1秒以下)の時間刻みで生じる。したがって、そのような時間刻みで生じる変化に追従する応答性を備えつつ、撮像画像から抽出する矩形領域の寸法及び形状を高精度且つ安定して決定することが望ましいと言える。
本発明は、上述した従来技術の問題点を解決するためになされたものであり、撮像画像から歩行者を含む適切な歩行者領域を抽出して、この歩行者領域に基づき歩行者の動作を精度良く識別することができる車両用の歩行者動作識別装置を提供することを目的とする。
上記の目的を達成するために、本発明は、車両用の歩行者動作識別装置であって、車両に設けられた撮像手段により撮像された車両周囲の撮像画像を取得し、この撮像画像中に存在する歩行者を検出する歩行者検出手段と、撮像画像において歩行者検出手段により検出された歩行者の頭部位置を追跡する頭部位置追跡手段と、歩行者検出手段により検出された歩行者を含む、所定の形状を有する歩行者領域を撮像画像から抽出する歩行者領域抽出手段であって、この歩行者領域抽出手段は、頭部位置追跡手段により追跡された頭部位置に基づき、歩行者の頭部位置が内部の所定位置に固定された領域を歩行者領域として撮像画像から抽出する、歩行者領域抽出手段と、歩行者領域抽出手段により抽出された歩行者領域の画像の経時変化に基づき、歩行者の動作を識別する動作識別手段と、を有し、撮像手段により撮像された連続する撮像画像に対応する複数フレーム間において、歩行者領域が同一の寸法であり、頭部位置が歩行者領域内の同一位置に固定されることを特徴とする。
このように構成された本発明では、領域内における歩行者の頭部位置が所定位置に固定された所定の形状を有する領域を歩行者領域として撮像画像から抽出し、この歩行者領域の画像に基づいて歩行者の動作を識別する。したがって、本発明によれば、複数フレーム間において歩行者領域内で頭部位置が同一位置に固定されるため、歩行者の頭部の動きが歩行者領域において背景の動きとして現れるので、歩行者領域の背景の経時変化に基づき歩行者の動作を識別できるようになる。つまり、歩行者領域内の背景に対応する画像データをノイズとして扱わずに、歩行者領域内の歩行者に対応する画像データと共にシグナルとして利用して、歩行者の動作を識別できるようになる。その結果、SN比が向上して、歩行者の動作を精度良く識別することができる。また、本発明によれば、歩行者領域において頭部位置を固定することで、頭部を基準として撮像手段のブレによる影響を打ち消すことができ、歩行者の動作をより精度良く識別することができる。
本発明において、好ましくは、更に、車両と歩行者検出手段により検出された歩行者との距離の変化を算出する距離変化算出手段を備え、歩行者領域抽出手段は、頭部位置追跡手段により追跡された頭部位置及び距離変化算出手段により算出された距離の変化に基づき、領域内における歩行者の頭部位置が所定位置となり、且つ領域内に占める歩行者の比率が所定範囲内となるような、所定の形状を有すると共に所定の寸法を有する領域を、歩行者領域として撮像画像から抽出する。
このように構成された本発明によれば、領域内における歩行者の頭部位置が所定位置となり、且つ領域内に占める歩行者の比率が所定範囲内となるような所定の形状及び寸法を有する領域を、歩行者領域として用いるので、タイミングが異なる歩行者領域の画像についての単純な差分を求めることで歩行者の動作を容易に識別することができる。
本発明において、好ましくは、歩行者領域抽出手段は、距離変化算出手段により算出された距離の変化に応じた寸法を有すると共に所定の縦横比を有する、歩行者を含む矩形領域を用いて、この矩形領域内における歩行者の頭部位置を頭部位置追跡手段による追跡結果から求め、求めた頭部位置が所定位置になるような新たな矩形領域を抽出し、この矩形領域を所定の寸法にまで拡大又は縮小した領域を歩行者領域として用いるのがよい。
本発明において、好ましくは、動作識別手段は、歩行者領域抽出手段により抽出された歩行者領域内の歩行者に対応する画像の経時変化に加えて、歩行者領域内の歩行者の背景に対応する画像の経時変化に基づき、歩行者の動作を識別する。
このように構成された本発明によれば、歩行者領域内の歩行者に対応する画像データ及び歩行者領域内の背景に対応する画像データの両方を用いるので、歩行者領域内の歩行者に対応する画像データのみを用い、歩行者領域内の背景に対応する画像データがノイズとなる構成と比較して、SN比が向上して、歩行者の動作を精度良く識別することができる。
本発明において、好ましくは、車両のロールを検出するロール検出手段を更に備え、歩行者領域抽出手段は、ロール検出手段により検出されたロールに基づき撮像画像を補正した画像から歩行者領域を抽出する。
このように構成された本発明によれば、車両に発生するロールによる影響を抑制して、適切な歩行者領域を撮像画像から抽出することができ、歩行者の動作をより精度良く識別することが可能となる。
本発明において、好ましくは、ロール検出手段は、撮像画像に含まれる背景中の固定物上の1以上の点の画像における位置の変化、及び車両に設けられた加速度センサの出力のうちの少なくとも一方に基づき、車両のロールを検出するのがよい。
本発明において、好ましくは、動作識別手段は、一定の位置に固定された撮像手段により事前に撮像した、歩行者の複数の動作についての画像を用いて学習することで、歩行者領域の画像の経時変化に基づき歩行者の動作を識別する。
このように構成された本発明によれば、一定の位置に固定された撮像手段による撮像画像を用いて事前に学習しておくことで、車載カメラなどの撮像手段による撮像画像を用いて事前に学習しようとする構成と比較して、歩行者の種々の動作についての教師データ(学習データ)を作成するための時間及び手間を大幅に削減することができる。
本発明において、好ましくは、動作識別手段は、歩行者の動作として歩行者の動態変化を識別する。
このように構成された本発明によれば、例えば走り出しや歩行停止や方向転換などの歩行者の動作を適切に予測することができる。その結果、自動ブレーキやドライバへの警報などを早期に行うことができ、車両と歩行者との衝突を効果的に回避することが可能となる。
本発明の車両用の歩行者動作識別装置によれば、撮像画像から歩行者を含む適切な歩行者領域を抽出して、この歩行者領域に基づき歩行者の動作を精度良く識別することができる。
本発明の実施形態による車両用の歩行者動作識別装置を含むシステムを示すブロック図である。 走行する車両に設けられた撮像部により車両前方を歩行する歩行者を撮像する様子を示す模式図である。 図2に示すような撮像部の撮像により得られた撮像画像を示す図である。 一定の位置に固定された撮像部により撮像される歩行者の撮像画像についての説明図である。 図3に示した撮像画像のそれぞれから従来の方法により抽出した、歩行者を含む歩行者領域を示す図である。 本発明の実施形態において適用する歩行者領域についての説明図である。 本発明の実施形態において歩行者の頭部位置を固定した歩行者領域を用いる理由についての説明図である。 本発明の実施形態による車両用の歩行者動作識別装置が実行する全体処理を示すフローチャートである。 図8のステップS16において実行される、本発明の実施形態による歩行者領域抽出処理を示すフローチャートである。 本発明の実施形態の変形例による車両のロールの検出方法についての説明図である。
以下、添付図面を参照して、本発明の実施形態による車両用の歩行者動作識別装置について説明する。
[装置構成]
まず、図1を参照して、本発明の実施形態による車両用の歩行者動作識別装置の構成について説明する。図1は、本発明の実施形態による車両用の歩行者動作識別装置を含むシステムを示すブロック図である。
図1に示すように、車両用の歩行者動作識別装置1は、撮像部2及び距離検出部4から信号が入力される。撮像部2は、車両に設けられ、車両周辺(典型的には車両前方)を撮像するカメラである。距離検出部4は、車両と車両周辺に存在する対象物との距離を検出する。特に、距離検出部4は、車両と車両周辺に存在する歩行者との距離を検出する。例えば、距離検出部4には、ステレオカメラや、ミリ波レーダや、超音波センサなどの、車両と対象物との距離を検出可能な種々の装置が適用される。
具体的には、車両用の歩行者動作識別装置1は、図1に示すように、歩行者検出部6と、距離変化算出部8と、頭部位置追跡部10と、歩行者領域抽出部12と、動作識別部14と、を有する。例えば、車両用の歩行者動作識別装置1は、車両に搭載されたECU(Electronic Control Unit)などのコンピュータにより実現される。なお、ここでは、車両用の歩行者動作識別装置1が有する各構成要素6、8、10、12、14の処理内容の概要を簡単に説明する。
歩行者検出部6は、撮像部2により撮像された車両周辺の撮像画像を取得し、この撮像画像を解析することで、撮像画像中に存在する歩行者を検出する。距離変化算出部8は、距離検出部4及び歩行者検出部6による検出結果に基づき、車両と車両周辺に存在する歩行者との距離の変化(所定時間における相対距離の変化)を算出する。頭部位置追跡部10は、歩行者検出部6により検出された歩行者の頭部位置を追跡する、換言すると撮像画像中における歩行者の頭部位置を算出する。
歩行者領域抽出部12は、歩行者を含む歩行者領域を撮像画像から抽出する。特に、歩行者領域抽出部12は、頭部位置追跡部10により追跡された頭部位置及び距離変化算出部8により算出された距離の変化に基づき、領域内における歩行者の頭部位置が所定位置となり、且つ領域内に占める歩行者の比率が所定範囲内となるような所定の形状及び寸法を有する領域を、歩行者領域として撮像画像から抽出する。動作識別部14は、歩行者領域抽出部12により抽出された歩行者領域の画像の経時変化から歩行者の動き特徴量を算出して、学習(典型的には機械学習)により歩行者の動作を識別する。特に、動作識別部14は、例えば走り出しや歩行停止や方向転換などの歩行者の動態変化を識別する。
上記のように識別された歩行者の動作に基づいて、車両側では、車両と歩行者とが衝突する可能性が判定される。1つの例では、識別によって歩行者の走りだしが予測されたときに、この直後に予測される歩行者の状態に基づき、歩行者との車両との衝突余裕時間(TTC(Time to Collision))が求められ、この衝突余裕時間が所定時間以下である場合に、車両と歩行者とが衝突する可能性が高いと判定される。こうして車両と歩行者とが衝突する可能性が高いと判定された場合、車両と歩行者との衝突を回避すべく、自動ブレーキが行われたり、ドライバへの警報が行われたりする。
[歩行者領域]
次に、本発明の実施形態において適用する歩行者領域について具体的に説明する。
最初に、図2及び図3を参照して、走行する車両の撮像部2により撮像される歩行者の撮像画像について説明する。図2は、走行する車両(符号V1で示す)に設けられた撮像部2により車両前方を歩行する歩行者(符号Wで示す)を撮像する様子を示しており、図3は、図2に示すような撮像部2の撮像により得られた撮像画像G11〜G14を示している。一方で、図4は、一定の位置に固定された撮像部により撮像される歩行者の撮像画像についての説明図を示している。具体的には、図4(a)は、一定の位置に固定された撮像部20(定置カメラ)により前方を歩行する歩行者(符号Wで示す)を撮像する様子を示しており、図4(b)は、図4(a)に示すような撮像部20の撮像により得られた撮像画像G21〜G24を示している。
図4(b)に示すように、一定の位置に固定された撮像部20により撮像された撮像画像G21〜G24においては、これらの画像に含まれる歩行者の寸法がほぼ一定で、歩行者の背景の画像も一定である。これに対して、図3に示すように、走行する車両に設けられた撮像部2により撮像された撮像画像G11〜G14においては、これらの画像に含まれる歩行者の寸法が変動すると共に、歩行者の背景の画像も変動している。具体的には、車両が歩行者に近付くことで、画像中の歩行者の寸法が徐々に大きくなっており、また、車両の移動に伴うオプティカルフローが画像のほぼ全体に生じている。更には、撮像画像G11〜G14においては、車両の走行路面の凸凹やドライバの操舵等に起因する撮像部2のブレ(振動など)の影響が現れる傾向にある。
次に、図5は、図3に示した撮像画像G11〜G14のそれぞれから従来の方法により抽出した、歩行者を含む歩行者領域R11〜R14を示している。従来の方法では、撮像画像G11〜G14から必要最小限の範囲で歩行者全体を含む領域(矩形領域)をそのまま歩行者領域R11〜R14として抽出するものである。撮像画像G11〜G14中の歩行者の寸法が変動するため、このような従来の方法では、抽出される歩行者領域R11〜R14のそれぞれで矩形領域の寸法が変動する。また、歩行者の姿勢などの変化に応じて、歩行者領域R11〜R14のそれぞれで矩形領域の形状(詳しくは矩形の縦横比)が変動する。加えて、図3において述べた撮像部2のブレの影響が、歩行者領域R11〜R14にも表れることとなる。
このように歩行者領域R11〜R14の寸法及び形状が変動すると、歩行者領域R11〜R14の画像の経時変化に基づいた歩行者の動作の識別精度が低下してしまう。また、歩行者領域R11〜R14には、歩行者だけでなく背景が依然として含まれており、当該背景の画像が変化するため(オプティカルフローに相当する)、歩行者の画像をシグナルとして考えた場合、そのような背景の画像の変化がノイズとなり、SN比が低い状態となることで歩行者の動作の識別精度が低下してしまう。更には、歩行者領域R11〜R14に含まれる、上記したような撮像部2のブレ(振動など)の影響によっても、歩行者の動作の識別精度が低下してしまう。
以上のことから、本実施形態では、歩行者の動作を精度良く識別できるような適切な歩行者領域を撮像画像から抽出するようにした。具体的には、本実施形態では、縦横比及び寸法が固定された矩形領域であって、領域内における歩行者の頭部位置が所定位置に固定され、且つ領域内に占める歩行者の比率がほぼ固定された領域を、歩行者領域として撮像画像から抽出することで、歩行者動作の識別精度の向上を図った。
図6は、本発明の実施形態において適用する歩行者領域を具体的に説明するための図を示している。図6において、符号R21〜R24及び符号R31〜R34は、図3に示したような撮像画像G11〜G14(つまり走行する車両に設けられた撮像部2による撮像画像)からそれぞれ抽出された歩行者領域を示している。
具体的には、図6の上に示す歩行者領域R21〜R24は、撮像画像G11〜G14のそれぞれから抽出した、歩行者全体を含む矩形領域である。詳しくは、歩行者領域R21〜R24は、それぞれで、矩形領域の縦横比が同一で、且つ、矩形領域内における歩行者の頭部位置が同一で(矩形の外形に対する頭部の相対的な位置がそれぞれで同一であることを意味する)、尚且つ、矩形領域内に占める歩行者の比率がほぼ同一となるように(矩形領域に対する相対的な歩行者の大きさがほぼ同一であることを意味する)、撮像画像G11〜G14から抽出された領域である。
他方で、図6の下に示す歩行者領域R31〜R34は、上記した歩行者領域R21〜R24を同一の寸法となるように縮小又は拡大した領域、換言すると所定の縦寸法及び横寸法になるように縮小又は拡大した領域である(以下ではこのように縮小又は拡大することを適宜「正規化」と呼ぶ)。本実施形態では、こうして得られた歩行者領域R31〜R34を用いて歩行者の動作を識別する。
次に、図7を参照して、本発明の実施形態において歩行者の頭部位置を固定した歩行者領域を用いる理由について説明する。図7において、車両に搭載された撮像部2の撮像画像から抽出された、2つの異なる歩行者領域R41、R42(異なるタイミングで得られた撮像画像から抽出されたもの)を示している。図7に示すように、歩行者領域R41、R42のそれぞれの歩行者の頭部位置HPが同一位置になっている。
このように歩行者の頭部位置HPが同一位置に固定されるように歩行者領域を抽出すると、歩行者の頭部の動きが、連続するフレーム間の歩行者領域において歩行者の背景の動きに反映されることとなる。特に、歩行者の頭部の上下動が歩行者領域において背景の上下動に反映されることとなる、換言すると背景の上下動が頭部の上下動に連動するものとなる。即ち、歩行者領域において現れない歩行者の頭部の上下動が、歩行者領域において背景の上下動として現れることとなる。具体的には、歩行者の頭部位置HPが下がった場合には、歩行者領域に含まれる背景が上に動き、歩行者の頭部位置HPが上がった場合には、歩行者領域に含まれる背景が下に動く。図7に示す例では、歩行者による足の踏み込み時に頭部位置HPが下がることで、歩行者領域R41に含まれる背景が大きく上に動いており(矢印A11参照)、歩行者の空中浮遊時に頭部位置HPが上がることで、歩行者領域R42に含まれる背景がわずかに下に動いている(矢印A12参照)。
このように、歩行者の頭部位置HPが同一位置に固定された歩行者領域を抽出することにより、歩行者の頭部の動きが歩行者領域において背景の動きとして現れるので、歩行者領域の背景の経時変化に基づき歩行者の動作を識別できるようになる。つまり、歩行者領域内の背景に対応する画像データをノイズとして扱わずに、歩行者領域内の歩行者に対応する画像データと共にシグナルとして利用して、歩行者の動作を識別できるようになる(この場合SN比が比較的高い状態となる)。更に、頭部位置HPが固定された歩行者領域においては、頭部を基準として撮像部2のブレによる影響が打ち消されることとなる。以上のことから、本実施形態では、歩行者の頭部位置を固定した歩行者領域を用いているのである。
また、歩行者の体の部位において頭部を追跡することとした理由は以下の通りである。撮像画像中の所定箇所を追跡する場合にはコーナー(角)を特徴として抽出することになるが、歩行者の体の所定の部位を追跡しようとした場合、歩行者の端部の部位を特徴として抽出することとなる。この場合、歩行者の足を追跡しようとすると、歩行中においては足の動きが大きいため、足の位置を固定した歩行者領域においてはフレーム間で大きなブレが生じる傾向にある。加えて、歩行中には2本の足が交差するが、このときに追跡している足が入れ替わってしまう場合がある。同様のことが、歩行者の手を追跡しようとした場合にも言える。また、歩行者の腰を追跡しようとすると、歩行中に腰の付近を手が動いているため、腰ではなく手を追跡してしまう場合がある。このようなことから、本実施形態では、追跡の精度を確保できるという観点から、歩行者の体の部位において頭部を追跡することとした。また、歩行者の頭部の動きは、歩行者の上下方向の動きを大きく反映したものとなっているため(例えば、歩行中に重心となる腰の部分の先(上方向)に頭部があるため、腰の傾きなども頭部の上下動に現れる)、この観点からも、本実施形態では、歩行者の体の部位において頭部を追跡することとした。つまり、本実施形態では、特徴の基点として頭部を用いる観点から、歩行者の頭部を追跡することとした。
[処理フロー]
次に、図8を参照して、本発明の実施形態による車両用の歩行者動作識別装置1が実行する処理について、より具体的に説明する。図8は、本発明の実施形態による車両用の歩行者動作識別装置1が実行する全体処理を示すフローチャートである。このフローは、車両用の歩行者動作識別装置1によって所定の周期で繰り返し実行される。
まず、ステップS11では、車両用の歩行者動作識別装置1の歩行者検出部6が、カメラなどの撮像部2が撮像することで生成した車両周辺の撮像画像を取得する。次いで、ステップS12では、歩行者検出部6は、ステップS11において取得された撮像画像中に存在する歩行者を検出する。例えば、歩行者検出部6は、Viola−Jones法を用いて、撮像画像中に存在する歩行者を検出する。このViola−Jones法は、大量の学習データを用いたAdaBoost(Adaptive Boosting)による識別器の学習を事前に行っておき、Haar−Like特徴量を用いたCascade構造の識別による画像中の高速全探索を行う方法である。
次いで、ステップS13では、歩行者検出部6は、ステップS12の処理により撮像画像中に歩行者が検出されたか否かを判定する。その結果、歩行者が検出されと判定された場合(ステップS13:Yes)、処理はステップS14に進み、歩行者が検出されと判定されなかった場合(ステップS13:No)、処理は終了する。
ステップS14では、車両用の歩行者動作識別装置1の頭部位置追跡部10が、歩行者検出部6による検出結果を用いて、撮像画像中の歩行者の頭部位置を追跡する。具体的には、頭部位置追跡部10は、歩行者検出部6によって歩行者が検出された撮像画像中の大まかな歩行者の位置に基づき、公知の種々の方法を用いて特徴量追跡を行うことで、撮像画像中の歩行者の頭部位置を求める。
次いで、ステップS15では、車両用の歩行者動作識別装置1の距離変化算出部8が、車両と歩行者検出部6によって検出された歩行者との距離の変化(所定時間における相対距離の変化)を算出する。1つの例では、距離変化算出部8は、距離検出部4によって現在検出された車両と歩行者との距離と距離検出部4によって所定時間前に検出された車両と歩行者との距離との差分(距離の変化)を求める。他の例では、距離変化算出部8は、車速センサによって検出された車速を時間積分して所定時間の間に車両が進んだ距離を求めて、この距離に基づき車両と歩行者との距離の変化を求める(この例では歩行者の速度をほぼ0と扱い所定時間の間に車両が進んだ距離から車両と歩行者との距離の変化を求めてもよい)。
次いで、ステップS16では、車両用の歩行者動作識別装置1の歩行者領域抽出部12が、ステップS14において算出された頭部位置及びステップS15において算出された距離の変化に基づき、歩行者を含む歩行者領域を撮像画像から抽出する。具体的には、歩行者領域抽出部12は、領域内における歩行者の頭部位置が所定位置となり、且つ領域内に占める歩行者の比率が所定範囲内となるような所定の縦横比を有する矩形領域を、歩行者領域として撮像画像から抽出する。なお、歩行者領域抽出部12が行う処理(歩行者領域抽出処理)の詳細は後述する。
次いで、ステップS17では、車両用の歩行者動作識別装置1の動作識別部14が、ステップS16において抽出された歩行者領域の画像の経時変化から歩行者の動き特徴量を算出して、学習により歩行者の動作を識別する。具体的には、まず、動作識別部14は、例えばHOG(Histograms of Oriented Gradients)やSHIFT(Scale-Invariant Feature Transform)などの方法を用いて、歩行者領域の画像の経時変化から歩行者の動き特徴量を算出し、この後、例えばSVM(Support Vector Machine)やニューラルネットワークなどの方法を用いて、算出された動き特徴量と事前に蓄積した特徴量のデータ(教師データ/学習データ)とを比較して動きの類似度合を算出することにより歩行者の動作を識別する。この場合、動作識別部14は、歩行者領域内の歩行者に対応する画像の経時変化だけでなく、歩行者領域内の歩行者の背景に対応する画像の経時変化も用いて、歩行者の動作を識別する(つまり歩行者に対応する画像及び背景に対応する画像の両方について動き特徴量を算出して歩行者の動作を識別する)。特に、ステップS17では、動作識別部14は、例えば走り出しや歩行停止や方向転換などの歩行者の動態変化を識別する。
典型例な例では、ステップS17では、動作識別部14は、STACOG(Space-time Auto-Correlation of Gradient)を用いて歩行者の動作を識別する。この例では、図4に示したような定置カメラにより撮像した歩行者の複数の動作についての画像(動画)からSTACOGにより動き特徴量を算出して、学習により識別器(学習結果)を事前に作成しておき、動作識別部14は、ステップS16において抽出された歩行者領域の画像(動画)からSTACOGにより動き特徴量を算出して、事前に作成された識別器を用いて歩行者の動作を識別して分類する。
このように定置カメラの撮像画像を用いて事前に学習しておくことで、撮像部2などの車載カメラの撮像画像を用いて事前に学習しようとする場合と比較して、歩行者の種々の動作についての教師データ(学習データ)を作成するための時間及び手間を大幅に削減することができる。
次に、図9を参照して、車両用の歩行者動作識別装置1の歩行者領域抽出部12が行う処理(歩行者領域抽出処理)の詳細について説明する。図9は、図8のステップS16において実行される、本発明の実施形態による歩行者領域抽出処理を示すフローチャートである。
まず、ステップS21では、歩行者領域抽出部12は、基準として用いる歩行者領域(以下では適宜「基準歩行者領域」と呼ぶ。)について縦及び横のそれぞれの寸法を求める。基準歩行者領域は、最終的に用いる歩行者領域(つまり上記したステップS17で用いる歩行者領域)の元となる、事前に設定された所定の縦横比を有する矩形領域である。この場合、歩行者領域抽出部12は、歩行者検出部6によって歩行者が検出された撮像画像中の大まかな歩行者の位置に基づき、距離変化算出部8によって求められた車両と歩行者との距離に応じた基準歩行者領域の縦寸法及び横寸法を求める。具体的には、歩行者領域抽出部12は、車両と歩行者との距離から想定される撮像画像中の歩行者の寸法に基づき(この場合、歩行者の実際の大きさ(一般的な身長など)も考慮される)、歩行者の全体が含まれるような矩形領域の寸法を基準歩行者領域の寸法として求める。より詳しくは、歩行者領域抽出部12は、領域内に歩行者の全体が含まれ、且つ、領域内に占める歩行者の比率(領域全体の面積に対する歩行者の面積が占める割合)が事前に設定された所定範囲内となるような、所定の縦横比を有する矩形領域の縦寸法及び横寸法を求める。
次いで、ステップS22では、歩行者領域抽出部12は、ステップS21において求められた寸法を有する基準歩行者領域内の歩行者の頭部位置を算出する。この場合、歩行者領域抽出部12は、ステップS14において追跡された歩行者の頭部位置に基づき、基準歩行者領域に対する相対的な頭部位置を算出する。
次いで、ステップS23では、歩行者領域抽出部12は、ステップS22において求められた頭部位置が所定位置になるような歩行者領域(最終的に用いる歩行者領域(つまり上記したステップS17で用いる歩行者領域)である)の位置を算出する。具体的には、歩行者領域抽出部12は、上記した基準歩行者領域を移動させて頭部位置が領域内の所定位置になるようにしたときの矩形領域の位置を算出する。この所定位置は、矩形領域の外形に対して相対的に規定される位置であり、事前に設定される。例えば、所定位置は、矩形の1つの頂点の位置を基準として、矩形の縦寸法の所定比率(1未満)に対応する値だけ当該頂点から縦方向に離れ、且つ矩形の横寸法の所定比率(1未満)に対応する値だけ当該頂点から横方向に離れた点といった具合に規定される。
次いで、ステップS24では、歩行者領域抽出部12は、ステップS23において求められた歩行者領域の位置に基づき、この歩行者領域を撮像画像から実際に抽出する(つまり切り出す)。
次いで、ステップS25では、歩行者領域抽出部12は、ステップS24において抽出された歩行者領域を正規化する。具体的には、歩行者領域抽出部12は、歩行者領域が事前に設定された所定の縦寸法及び横寸法(例えば縦横サイズが100ピクセル×100ピクセル)となるように縮小又は拡大する処理を行う。基本的には、歩行者領域抽出部12は、ステップS24において抽出された歩行者領域の縦横比を固定して縮小又は拡大する処理を行う。このようなステップS25の後、上記したステップS17に進み、抽出された歩行者領域に基づいて歩行者の動作を識別する処理が行われる。
[作用効果]
次に、本発明の実施形態による車両用の歩行者動作識別装置の作用効果について説明する。
本実施形態では、領域内における歩行者の頭部位置が所定位置となり、且つ領域内に占める歩行者の比率が所定範囲内となるような、所定の縦横比及び寸法を有する矩形領域を、歩行者領域として撮像画像から抽出し、この歩行者領域の画像の経時変化に基づいて歩行者の動作を識別する。
このような本実施形態によれば、複数フレーム間において歩行者領域内で頭部位置が同一位置に固定されるため、歩行者の頭部の動きが歩行者領域において背景の動きとして現れるので(特に上下動に関して)、歩行者領域の背景の経時変化に基づき歩行者の動作を識別できるようになる。つまり、歩行者領域内の背景に対応する画像データをノイズとして扱わずに、歩行者領域内の歩行者に対応する画像データと共にシグナルとして利用して、歩行者の動作を識別できるようになる。その結果、SN比が向上して、歩行者の動作を精度良く識別することができる。
また、本実施形態によれば、歩行者領域において頭部位置を固定することで、頭部を基準として撮像部2のブレによる影響を打ち消すことができ、歩行者の動作をより精度良く識別することができる。更に、本実施形態によれば、同一の形状及び寸法を有する歩行者領域を用いるので、タイミングが異なる歩行者領域の画像についての単純な差分を求めることで歩行者の動作を容易に識別することができる。
[変形例]
次に、上記した実施形態の変形例について説明する。
上記した実施形態では、車両に発生するロールの影響を考慮していなかったが、車両にロールが発生した場合には、撮像部2による撮像画像がこのロールの影響を受けてしまう。したがって、変形例では、車両に発生するロールの影響を考慮して処理を行ってもよい。具体的には、変形例では、車両に発生するロールに基づき撮像部2による撮像画像を補正し、つまり当該撮像画像をロールが発生していない状態の画像へと補正し(例えばロールに相当する角度だけ撮像画像を回転させる)、補正した画像から上記した歩行者領域を抽出してもよい。こうすることで、車両に発生するロールによる影響を抑制し、撮像画像から適切な歩行者領域を抽出することができ、歩行者の動作をより精度良く識別することが可能となる。
図10は、本発明の実施形態の変形例による、車両に発生するロールの検出方法についての説明図である。図10において、符号G30は、車両に搭載された撮像部2の撮像画像の一例を示し、符号OBは、この撮像画像G30において歩行者の背景に存在する固定物を示し、符号P1、P2は、この固定物OB上の2点を示している(ここでは角に対応する点を例示している)。このような撮像画像G30中の背景に存在する固定物OB上の2点P1、P2を用いて、車両に発生するロールを検出することができる。この場合、連続する複数フレームに対応する複数の撮像画像G30中の固定物OB上の2点P1、P2の位置の変化から、車両に発生するロールを検出すればよい。例えば、2点P1、P2を結んだ線分の傾きの変化から、車両のロールに起因して撮像画像G30が傾いている角度を求めて、この角度だけ撮像画像G30を回転させることでロールが発生していない状態の画像へと補正すればよい。
なお、このように撮像画像G30中の固定物OB上の2点P1、P2を用いて車両のロールを検出することに限定はされず、他の例では、固定物OB上の1点のみ又は3点以上を用いて車両のロールを検出してもよい。更に他の例では、撮像画像G30中の固定物OB上の点を用いることに代えて、若しくは撮像画像G30中の固定物OB上の点を用いることに加えて、車両に設けられた加速度センサ(換言するとGセンサ)が検出した車両の傾きに基づいて、車両のロールを検出してもよい。
また、上記した実施形態では、(1)領域内における歩行者の頭部位置が所定位置となる、(2)領域内に占める歩行者の比率が所定範囲内となる、(3)所定の形状を有する、(4)所定の寸法を有する、という4つの条件を全て満たす領域を、歩行者領域として撮像画像から抽出していた。他の例では、(1)領域内における歩行者の頭部位置が所定位置となる、(3)所定の形状を有する、という2つの条件のみを満たす領域を歩行者領域として抽出してもよい。つまり、領域内に占める歩行者の比率が固定でない歩行者領域や、領域の寸法が固定でない歩行者領域(但し領域の形状は固定)を用いてもよい。更に、上記した実施形態では、矩形の歩行者領域を用いていたが、歩行者領域の形状として矩形を適用することに限定はされない。
また、上記した実施形態では、歩行者領域に基づき歩行者の動作を識別していたが、本発明の適用は歩行者の動作の識別に限定されない。本発明は、例えば二輪車(自転車や自動二輪車)の運転者の動きなど、人の動き全般の識別に適用可能である。
1 車両用の歩行者動作識別装置
2 撮像部
4 距離検出部
6 歩行者検出部
8 距離変化算出部
10 頭部位置追跡部
12 歩行者領域抽出部
14 動作識別部

Claims (8)

  1. 車両用の歩行者動作識別装置であって、
    車両に設けられた撮像手段により撮像された車両周囲の撮像画像を取得し、この撮像画像中に存在する歩行者を検出する歩行者検出手段と、
    上記撮像画像において上記歩行者検出手段により検出された歩行者の頭部位置を追跡する頭部位置追跡手段と、
    上記歩行者検出手段により検出された歩行者を含む、所定の形状を有する歩行者領域を上記撮像画像から抽出する歩行者領域抽出手段であって、この歩行者領域抽出手段は、上記頭部位置追跡手段により追跡された頭部位置に基づき、上記歩行者の頭部位置が内部の所定位置に固定された領域を上記歩行者領域として上記撮像画像から抽出する、上記歩行者領域抽出手段と、
    上記歩行者領域抽出手段により抽出された歩行者領域の画像の経時変化に基づき、上記歩行者の動作を識別する動作識別手段と、を有し、
    上記撮像手段により撮像された連続する撮像画像に対応する複数フレーム間において、上記歩行者領域が同一の寸法であり、上記頭部位置が上記歩行者領域内の同一位置に固定されることを特徴とする車両用の歩行者動作識別装置。
  2. 更に、上記車両と上記歩行者検出手段により検出された歩行者との距離の変化を算出する距離変化算出手段を備え、
    上記歩行者領域抽出手段は、上記頭部位置追跡手段により追跡された頭部位置及び上記距離変化算出手段により算出された距離の変化に基づき、領域内における上記歩行者の頭部位置が上記所定位置となり、且つ領域内に占める上記歩行者の比率が所定範囲内となるような、上記所定の形状を有すると共に所定の寸法を有する領域を、上記歩行者領域として上記撮像画像から抽出する、請求項1に記載の車両用の歩行者動作識別装置。
  3. 上記歩行者領域抽出手段は、上記距離変化算出手段により算出された距離の変化に応じた寸法を有すると共に所定の縦横比を有する、上記歩行者を含む矩形領域を用いて、この矩形領域内における上記歩行者の頭部位置を上記頭部位置追跡手段による追跡結果から求め、求めた頭部位置が上記所定位置になるような新たな矩形領域を抽出し、この矩形領域を上記所定の寸法にまで拡大又は縮小した領域を上記歩行者領域として用いる、請求項2に記載の車両用の歩行者動作識別装置。
  4. 上記動作識別手段は、上記歩行者領域抽出手段により抽出された歩行者領域内の歩行者に対応する画像の経時変化に加えて、上記歩行者領域内の歩行者の背景に対応する画像の経時変化に基づき、上記歩行者の動作を識別する、請求項1乃至3のいずれか一項に記載の車両用の歩行者動作識別装置。
  5. 上記車両のロールを検出するロール検出手段を更に備え、
    上記歩行者領域抽出手段は、上記ロール検出手段により検出されたロールに基づき上記撮像画像を補正した画像から上記歩行者領域を抽出する、請求項1乃至4のいずれか一項に記載の車両用の歩行者動作識別装置。
  6. 上記ロール検出手段は、上記撮像画像に含まれる背景中の固定物上の1以上の点の画像における位置の変化、及び上記車両に設けられた加速度センサの出力のうちの少なくとも一方に基づき、上記車両のロールを検出する、請求項5に記載の車両用の歩行者動作識別装置。
  7. 上記動作識別手段は、一定の位置に固定された撮像手段により事前に撮像した、歩行者の複数の動作についての画像を用いて学習することで、上記歩行者領域の画像の経時変化に基づき上記歩行者の動作を識別する、請求項1乃至6のいずれか一項に記載の車両用の歩行者動作識別装置。
  8. 上記動作識別手段は、上記歩行者の動作として歩行者の動態変化を識別する、請求項1乃至7のいずれか一項に記載の車両用の歩行者動作識別装置。
JP2016024989A 2016-02-12 2016-02-12 車両用の歩行者動作識別装置 Active JP6436357B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016024989A JP6436357B2 (ja) 2016-02-12 2016-02-12 車両用の歩行者動作識別装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016024989A JP6436357B2 (ja) 2016-02-12 2016-02-12 車両用の歩行者動作識別装置

Publications (2)

Publication Number Publication Date
JP2017142735A JP2017142735A (ja) 2017-08-17
JP6436357B2 true JP6436357B2 (ja) 2018-12-12

Family

ID=59627334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016024989A Active JP6436357B2 (ja) 2016-02-12 2016-02-12 車両用の歩行者動作識別装置

Country Status (1)

Country Link
JP (1) JP6436357B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7166088B2 (ja) * 2018-06-28 2022-11-07 株式会社小松製作所 作業車両による作業を判定するためのシステム、方法、及び学習済みモデルの製造方法
JP7279588B2 (ja) * 2019-09-05 2023-05-23 スズキ株式会社 車両用挙動制御装置
US11577757B2 (en) 2019-11-01 2023-02-14 Honda Motor Co., Ltd. System and method for future forecasting using action priors
CN113627220A (zh) * 2020-05-09 2021-11-09 上海汽车集团股份有限公司 一种电动尾门的开启控制方法及装置
CN111783624B (zh) * 2020-06-29 2023-03-24 厦门市美亚柏科信息股份有限公司 一种保留平移不变性的行人重识别方法、装置及存储介质
CN113163334A (zh) * 2021-02-19 2021-07-23 合肥海赛信息科技有限公司 一种基于视频分析的流动摊贩智能检测方法
CN117392621B (zh) * 2023-11-07 2024-06-07 西南交通大学 一种机动车右转不礼让行人行为识别方法及系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5083841B2 (ja) * 2007-04-27 2012-11-28 本田技研工業株式会社 車両周辺監視装置、車両周辺監視用プログラム、車両周辺監視方法
JP5100688B2 (ja) * 2009-03-10 2012-12-19 株式会社豊田中央研究所 対象物検出装置及びプログラム
JP5821274B2 (ja) * 2011-05-20 2015-11-24 マツダ株式会社 移動体位置検出装置
JP2014006700A (ja) * 2012-06-25 2014-01-16 Mitsubishi Motors Corp 歩行者検出装置
JP2014232516A (ja) * 2013-05-30 2014-12-11 トヨタ自動車株式会社 対象物変化検出装置、警報装置、対象物変化検出方法及び警報方法

Also Published As

Publication number Publication date
JP2017142735A (ja) 2017-08-17

Similar Documents

Publication Publication Date Title
JP6436357B2 (ja) 車両用の歩行者動作識別装置
CN109074651B (zh) 移动体的周围环境识别装置
Prioletti et al. Part-based pedestrian detection and feature-based tracking for driver assistance: real-time, robust algorithms, and evaluation
US9904846B2 (en) Pedestrian behavior predicting device and pedestrian behavior predicting method
US7817848B2 (en) Apparatus, method, and computer product for discriminating object
JP5737397B2 (ja) 歩行者動作予測装置
JP5999127B2 (ja) 画像処理装置
JP2014115978A (ja) 移動物体認識装置及びこれを用いた報知装置及びその移動物体認識装置に用いる移動物体認識用プログラム及び移動物体認識装置を備えた移動体
WO2010109831A1 (ja) ドライブレコーダ
CN110730966A (zh) 用于行人检测的系统和方法
US20160314363A1 (en) Obstacle detection apparatus and method
KR101866381B1 (ko) 변형 가능한 파트 모델을 사용한 보행자 검출 장치 및 방법
JP2012221162A (ja) 対象物検出装置及びプログラム
Xiao et al. Detection of drivers visual attention using smartphone
JP5345999B2 (ja) レーンマーク認識装置
JP4575315B2 (ja) 物体検出装置及びその方法
JP5125214B2 (ja) 障害物検出方法および障害物検出装置
JP2020144758A (ja) 移動物体検出装置、移動物体検出方法およびコンピュータプログラム
JP2014203196A (ja) 危険度判定装置、危険度判定方法、警報装置、及び運転支援装置
JP4692081B2 (ja) 車載物体検出装置、および物体検出方法
JP5692024B2 (ja) 対象物変化検出装置および対象物変化検出方法
JP7260499B2 (ja) 物体検出装置
JP7309630B2 (ja) 画像処理装置
JP2004046501A (ja) 移動物体検出方法及び移動物体検出装置
JP2020101935A (ja) 画像認識装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180402

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181031

R150 Certificate of patent or registration of utility model

Ref document number: 6436357

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150