JP2010244194A - 物体識別装置 - Google Patents

物体識別装置 Download PDF

Info

Publication number
JP2010244194A
JP2010244194A JP2009090322A JP2009090322A JP2010244194A JP 2010244194 A JP2010244194 A JP 2010244194A JP 2009090322 A JP2009090322 A JP 2009090322A JP 2009090322 A JP2009090322 A JP 2009090322A JP 2010244194 A JP2010244194 A JP 2010244194A
Authority
JP
Japan
Prior art keywords
pedestrian
identification device
detected
object identification
detected object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009090322A
Other languages
English (en)
Other versions
JP5136504B2 (ja
Inventor
Akihiro Tsukada
明宏 塚田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2009090322A priority Critical patent/JP5136504B2/ja
Publication of JP2010244194A publication Critical patent/JP2010244194A/ja
Application granted granted Critical
Publication of JP5136504B2 publication Critical patent/JP5136504B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】対象物の識別精度を高めることができる物体識別装置を提供する。
【解決手段】物体識別装置1は、検出された被検出物体について歩行者の歩行動作に関連する所定の指標値を抽出し、抽出された被検出物体の指標値と所定の基準値との比較に基づいて歩行者を識別する物体識別装置であって、所定の基準値は、歩行者における特定の部位の他の部位に対する相対的な状態変化に関する特徴を示すことを特徴とする。
【選択図】図1

Description

本発明は、物体識別装置に関するものであり、特に、自動車の周辺の歩行者を識別する用途に好適に利用される物体識別装置に関するものである。
従来、このような分野の技術として、下記特許文献1に記載の物体認識装置が知られている。この装置は、車両の前方に存在する物体の横幅について、予測値と観測値とを比較し、その比較結果に基づいて前方の物体が車両である確率を算出する。
特開2006−47033号公報
しかしながら、この特許文献1の装置では、横幅が固定されている車両等の物体識別については適用が容易であるものの、歩行者など、動作に伴って状態が変化する対象物は、見える様態が経時的に変化し、動作の影響で横幅の予測精度が低下するので、対象物の識別精度が低下することになる。
このような問題に鑑み、本発明は、対象物の識別精度を高めることができる物体識別装置を提供することを目的とする。
本発明の物体識別装置は、検出された被検出物体について所定の認識対象物に関連する所定の指標値を抽出し、抽出された被検出物体の指標値と所定の基準値との比較に基づいて認識対象物を識別する物体識別装置であって、所定の基準値は、認識対象物における特定の部位の他の部位に対する相対的な状態変化に関する特徴を示すことを特徴とする。
この物体識別装置によれば、認識対象物における特定の部位の他の部位に対する相対的な状態変化に基づいて、被検出物体から認識対象物を識別することができる。従って、被検出物体が、所定の部位の状態を変化させるような動作を行う物体である場合にも、その動作に基づいて認識対象物を精度良く識別することができる。
本発明の物体識別装置は、検出された被検出物体について歩行者に関連する指標値を抽出し、抽出された被検出物体の指標値と所定の基準値との比較に基づいて歩行者を識別する物体識別装置であって、指標値は、歩行者の歩行動作に関する特徴量であることを特徴とする。
この物体識別装置によれば、歩行者の歩行動作に関する特徴量を、基準値と比較することによって被検出物体から歩行者を識別することができる。従って、歩行者を精度良く識別することができる。
また、所定の基準値は、被検出物体についての現在までの指標値に基づく予測により求められることとしてもよい。このような基準値を用いることにより、被検出物体の状況に応じた基準値を設定することができる。
また、所定の基準値は、認識対象物が分割されてなる部位ごとに定められることが好ましい。このような構成によれば、被検出物体の一部が遮蔽された場合でも、露出している部位の状態変化を指標値として、所定の基準値との比較を行うことができる。
また、所定の基準値は、歩行動作の歩調に関する特徴量を含むことが好ましい。この構成によれば、識別された歩行者について、更に歩調の速さによって区別可能な歩行者分類を識別することができる。
また、所定の指標値は、被検出物体の撮像画面における輝度の差分の時系列情報であることとしてもよい。この構成によれば、例えば、撮像画面中で被検出物体のエッジ部が明確に抽出できないなどの環境に左右されず、歩行動作に伴う撮像画面の輝度変化に基づいて歩行者を識別することができる。
また、本発明の物体識別装置は、被検出物体の撮像画面上における被検出物体の移動軌跡と、撮像画面上における水平な消失線と、の位置関係が所定の位置関係である場合には、被検出物体は認識対象物ではないと判定することが好ましい。識別すべき認識対象物の撮像画面上の移動軌跡と水平な消失線との間に、取り得る位置関係が存在する場合においては、この取り得る位置関係以外の位置関係を示す被検出物体を、認識対象物の候補から容易に除外することができる。
また、この場合、具体的には、被検出物体の撮像画面上における被検出物体の移動軌跡と、撮像画面上における水平な消失線と、がなす角度が所定の値以上である場合には、被検出物体は認識対象物ではないと判定することとしてもよい。識別すべき識別対象物が撮像画面上で水平な消失線に交差しないように動く傾向にある場合においては、このような動き以外の被検出物体を、認識対象物の候補から容易に除外することができる。
本発明の物体識別装置によれば、対象物の識別精度を高めることができる。
本発明の物体識別装置の第1実施形態の構成を示すブロック図である。 図1の物体識別装置に入力される撮像画面を示す図である。 被検出物体を追跡して得られる複数フレーム分の検出枠の画像を示す図である。 検出枠を上下に分割してなる検出枠上部と検出枠下部とを示す図である。 様態モデル保存部に保存された歩行者モデルを示す図である。 歩行者モデルの特徴量と被検出物体の特徴量との比較処理を示す図である。 図1の物体識別装置による歩行者検出処理の結果を示すグラフである。 本発明の物体識別装置の第2実施形態の構成を示すブロック図である。 図8の物体識別装置に入力される撮像画面を示す図である。 本発明の物体識別装置の第3実施形態の構成を示すブロック図である。 本発明の物体識別装置の第4実施形態の構成を示すブロック図である。 被検出物体を追跡して得られる複数フレーム分の検出枠の画像を示す図である。 本発明の物体識別装置の第5実施形態の構成を示すブロック図である。 図13の物体識別装置に入力される撮像画面を示す図である。
以下、図面を参照しつつ本発明に係る物体識別装置の好適な実施形態について詳細に説明する。
(第1実施形態)
図1に示す物体識別装置1は、自動車に搭載され、当該自動車の前方を撮像するカメラの映像に基づいて、自動車前方に存在する歩行者を識別する装置である。
物体識別装置1は、特徴量算出器13と、尤度算出器15と、対象物追跡部17と、様態予測器19と、時系列変化調整部21と、類似度算出器23と、補正尤度算出器25と、様態モデル保存部27と、を備えている。この物体識別装置1には、例えば、自動車の前方を撮像する車載カメラからの入力信号Sが入力される。
特徴量算出器13は、入力信号Sで表される撮像画面中に歩行者らしき物体(以下「被検出物体」という。)が存在する場合に、当該被検出物体の特徴量を算出する。尤度算出器15は、特徴量算出器13で算出された特徴量に基づいて被検出物体の歩行者尤度を算出する。なお、歩行者尤度とは、被検出物体の歩行者らしさを定量的に示す指標である。対象物追跡部17は、所定の閾値以上の歩行者尤度を示す被検出物体を、撮像画面中で追跡する。様態モデル保存部27は、一般的な歩行者に見られる歩行動作を示す種々のタイプの歩行者モデルと、その歩行動作に対応する各映像フレームの特徴量と、が保存されている。様態予測器19は、追跡中の被検出物体の連続したフレームにおける特徴量に基づいて、当該被検出物体の次のフレームにおける様態及び特徴量を予測する。時系列変化調整部21は、歩行者モデルの時系列方向の伸縮処理を行う。
類似度算出器23は、対象物追跡部17で実際に得られた現在のフレームにおける被検出物体の特徴量(指標値)と、上記様態予測器19の予測で得られる特徴量(基準値)と、を比較し、両者の類似度を算出する。補正尤度算出器25は、類似度算出器23で得られた類似度と、尤度算出器15で得られた歩行者尤度と、に基づいて、更に高精度に補正された歩行者尤度(以下「補正歩行者尤度」という)を算出する。そして、この補正尤度算出器25で得られた補正歩行者尤度が、被検出物体の歩行者尤度として物体識別装置1から出力され、更に後段のシステムに引き渡される。
続いて、物体識別装置1によって行われる補正歩行者尤度の導出処理について図1〜図5を参照しながら説明する。
図2に示すような撮像画面51を表す入力信号S(図1)が物体識別装置1に入力され、撮像画面51内に歩行者らしき物体53(以下「被検出物体53」という。)が検出された場合を考える。
このとき、物体識別装置1は、被検出物体53が歩行者であるか否かの粗い判定を行う。具体的には、物体識別装置1の特徴量算出器13は、当該被検出物体53の画像の特徴量を算出する。そして、尤度算出器15は、算出された特徴量を、予め設定された歩行者の特徴量と比較することにより、被検出物体53の暫定的な歩行者尤度を算出する。そして、算出された歩行者尤度が、予め設定された尤度閾値よりも高い場合には、対象物追跡部17は、撮像画面51内における被検出物体53の追跡を行う。
このとき、被検出物体53を囲む矩形の検出枠55が画面上に設定される。対象物追跡部17による追跡の結果として、図3に示すように、複数フレームt1〜t4分の検出枠55の画像が取得される。以上の被検出物体53の検出、被検出物体53の歩行者尤度算出、及び被検出物体53の追跡の手法としては、公知の手法が用いられる。
次に、様態予測器19は、複数フレームt1〜t4において検出枠55の画面の変化を示す特徴量を抽出する。
具体的には、フレームt1における直前フレームからの変化を示す特徴量は以下のように導出される。すなわち、図4に示すように、検出枠55を検出枠上部55Uと検出枠下部55Lとに2分割する。さらに、検出枠上部55Uを縦横16分割し、16箇所の格子部57Uを設定する。同様にして検出枠下部55Lにも、16箇所の格子部57Lを設定する。
まず、様態予測器19は、フレームt1及び直前フレームの検出枠55において、被検出物体53のエッジ部を検出し、このエッジ部のオプティカルフローを算出する。そして、検出枠下部55Lにおけるオプティカルフローの方向と大きさとを、16箇所の各格子部57Lごとに集計してヒストグラムを算出する。この算出されたヒストグラムのデータが、フレームt1における検出枠下部55Lの特徴量となる。検出枠下部55Lの特徴量D_lowは、各格子部57Lごとのオプティカルフローの方向ごとの、オプティカルフローの大きさを要素として、
D_low={d1,d2,d3,…,dN}
と表される。例えば、オプティカルフローの方向が4種類に分類されるとすれば、N=16×4=64である。なお、まったく同様にして、検出枠上部55Uの特徴量D_upも、
D_up={d'1,d'2,d'3,…,d'N}
といったようにD_lowと同じ形で表される。
様態予測器19は、以上のような処理により、被検出物体53における、検出枠上部55Uの動きを示す特徴量D_up及び検出枠下部55Lの動きを示す特徴量D_lowを、各フレームt1〜t4ごとに得ることができる。
続いて、様態予測器19は、検出枠下部55Lの現在までの直近の4フレーム分t1〜t4の特徴量D_lowに基づいて、その次のフレームt5における検出枠下部55Lの特徴量D_lowを予測する。この予測処理の具体的な処理は、次の通りである。
ここで、様態モデル保存部27には、図5に示すように、複数の種々のタイプの歩行者モデルが複数登録されている。また、様態モデル保存部27には、各タイプの歩行者モデルごとに、時系列画像の各インデックスに対応する特徴量が予め登録されている。歩行者モデルのインデックスごとの特徴量は、直前のインデックスからの変化の特徴を示すものである。また、歩行者モデルのインデックスごとの特徴量は、前述の検出枠55における特徴量の算出と同じ手法で算出されるものであり、また、様態モデル保存部27には、歩行者モデルの画像における上半身部分の特徴量と、下半身部分の特徴量とが、それぞれ登録されている。特に、下半身部分の動きの特徴量は、一般的な歩行者が歩行動作を行う場合における、胴部W1に対する足W2の相対的な動きに関する特徴を定量的に示すものである。
まず、様態予測器19は、各フレームt1〜t4の検出枠下部55Lの特徴量D_low(t1)〜D_low(t4)と、所定の歩行者モデルの各インデックスの下半身部分の特徴量D1〜D18との各類似度を算出する。図6に示すように、各類似度は、各フレームt1〜t4と歩行者モデルの各インデックスとの各組み合わせごとにマトリックス状に算出される。ここでは、i番目のフレームtiとj番目のインデックスとの類似度Sijは、下式(1)で算出される。
ij=Σk=0toN(dk−dk) …(1)
類似度Sijが大きいほど、被検出物体53の歩行動作と歩行者モデルの歩行動作とが類似していることを意味する。続いて、DP(Dynamic Programming)マッチング法によって、検出枠下部55Lと歩行者モデルとの時系列での対応を求める。なお、この場合、DPマッチング法に代えて、HMM(Hidden Markov Model)を用いてもよい。そして、図6のマトリックス上において、時系列の対応が取れた位置(図6中に網かけで表示する)について直線近似した直線y=ax+bを求める。そして、この直線y=ax+bに基づいて、フレームt5における検出枠下部55Lの特徴量D_low(t5)の予測値(以下「予測特徴量」という)を算出する。なおこの場合、直線y=ax+bの傾きaとDPの類似度とが閾値を満たすような歩行者モデルのタイプが、様態モデル保存部27内に複数存在すれば、当該複数のタイプの歩行者モデルを用いて複数の様態を予測する。このようにして様態予測器19で得られた予測特徴量は、類似度算出器23に入力される。
一方、類似度算出器23には、対象物追跡部17で実際に得られたフレームt5の画像が入力される。そして、類似度算出器23は、フレームt5における検出枠下部55Lの特徴量(以下「実測特徴量」という)を算出する。次に類似度算出器23は、この実測特徴量(指標値)と、様態予測器19から入力された予測特徴量(基準値)とを比較するため、両者間の類似度を算出する。そして、算出された類似度が、類似度閾値sim_thresh以上であれば、補正尤度算出器25で算出される被検出物体53の補正歩行者尤度が上昇する。以上のように様態予測器19は、基準値としての予測特徴量を算出する基準値算出手段として機能し、類似度算出器23は、指標値としての実測特徴量を、基準値としての予測特徴量と比較する特徴量比較手段として機能する。
具体的には、補正尤度算出器25では、時刻tにおける被検出物体53の補正歩行者尤度をλ(t)とすると、次時刻t+1における補正歩行者尤度λ(t+1)を、下式(2)で算出する。
λ(t)=λ(t)+P(t)・λ(t) …(2)
但し、λ(t)は、時刻tまでの被検出物体53の補正歩行者尤度の平均値であり、P(t)は、補正項である。ここで、類似度算出器23で算出された類似度が連続して類似度閾値sim_thresh以上である回数をtで表し、類似度算出器23で算出された類似度が連続して類似度閾値sim_thresh以下である回数をtで表し(t+、≧0)、tに応じて尤度を増加させる係数をτで表し、tに応じて尤度を抑制する係数をτで表すと、P(t)は、下式(3)で表される。

以上の式(2)及び式(3)によれば、実測特徴量と予測特徴量との類似度が類似度閾値sim_thresh以上である間は、補正歩行者尤度λ(t)は継続的に上昇することになる。
以上説明したような被検出物体53の補正歩行者尤度の導出によれば、歩行動作に伴う特定の部位(ここでは、歩行者の足)の他の部位(ここでは、歩行者の胴体)に対する相対的な動きの特徴量について、被検出物体53の現在までの特徴量の推移と予め準備された歩行者モデルとに基づいて被検出物体53の次フレームでの特徴量を予測する。そして、実際に得られる次フレームの被検出物体53の実測特徴量と、上記予測で得られた予測特徴量と、の類似度に基づいて、被検出物体53の歩行者尤度をより正確に算出することができ、ひいては、歩行者をより精度良く識別することが可能になる。そして、その結果、物体識別装置1の後段のシステムでは、車両のドライバに対してより的確な情報を提示することが可能になる。
ここでは、様態モデル保存部27には、歩行者モデルにおける上半身部分の動きの特徴量と、下半身部分の動きの特徴量とが、それぞれ保存されている。そして、検出枠下部55Lの特徴量と歩行者モデルの下半身部分の特徴量との比較により、上記の予測特徴量が算出されている。このように、歩行者モデルにおいて、上半身部分と下半身部分といったように部位ごとに特徴量が定められているので、被検出物体53と歩行者モデルとの比較にあたっては、部位ごとの比較が可能になる。例えば、撮像画面51において被検出物体53の上半分が物陰に隠れているといった状態であっても、被検出物体53の下半分と歩行者モデルの下半身部分との比較が可能であり、被検出物体53の歩行者尤度を算出することができる。
なお、同様に、撮像画面51において被検出物体53の下半分が物陰に隠れているといった状態であっても、被検出物体53の上半分と歩行者モデルの上半身部分との比較が可能であり、被検出物体53の歩行者尤度を算出することができる。但し、歩行動作という動作の性質上、歩行者の上半身に比べて下半身に動作の特徴が明確に現れやすいので、被検出物体53の下半分と歩行者モデルの下半身部分との比較を行う方式の方が好ましい。また、上半身部分と下半身部分といったような2部位に限られず、更に細かく分割された歩行者モデルの部位ごとに特徴量を設定してもよい。例えば、歩行者モデルを上中下に3分割にしてもよい。また、被検出物体53の影を被検出物体53の部位として取り扱っても良い。また、比較部位を切り替えながら被検出物体53と歩行者モデルとのすべての部位同士の比較を行ってもよい。このように、分割された部位ごとに被検出物体と歩行者モデルとの比較を行うことにより、遮蔽物背後の歩行者の身体の一部分のみが撮像された場合にも、精度良く歩行者を識別することができる。
本発明者らは、物体識別装置1によって歩行者の補正尤度算出処理を行った。また、比較のために、同じ条件で従来の手法による歩行者尤度の算出処理も併せて行った。ここで用いた従来の手法とは、公知文献「N.Dalaland and B.Triggs, Histograms of gradients for HumanDetection, CVPR(IEEE Computer Society Conference on Computer Vision and PatternRecognition)2005」に開示されている手法である。物体識別装置1により算出された補正歩行者尤度の推移と、従来の手法により算出された歩行者尤度の推移とを、図7に示している。
図7のグラフに示す通り、従来の手法では、10フレーム目までに歩行者尤度0.6〜0.7程度の値が出力されている。これに対し、物体識別装置1により算出された補正歩行者尤度は、8フレーム目で約0.85となり、9フレーム目以降も徐々に上昇している。一般な判断基準としては、歩行者尤度が約0.82(グラフ中に一点鎖線で示す)を超えれば、「被検出物体は間違いなく歩行者である」とされ、歩行者尤度が約0.44(グラフ中に一点鎖線で示す)を下回れば、「被検出物体は歩行者ではない」とされ、歩行者尤度が約0.44〜0.82の範囲では「被検出物体は歩行者の可能性がある」とされる。この判断基準に基づけば、従来の手法では、「被検出物体は歩行者の可能性がある」といった結論しか得られないところ、物体識別装置1によれば、「被検出物体は間違いなく歩行者である」といった結論を得ることができる。従って、物体識別装置1によれば、従来の手法に比べて、歩行者を精度良く識別することができることが示された。
(第2実施形態)
本発明の第2実施形態に係る物体識別装置201について、図8及び図9を参照しながら説明する。この物体識別装置201において、前述の物体識別装置1と同一又は同等の構成部分には同一符号を付し重複する説明を省略する。
図8に示すように、物体識別装置201は、上述の物体識別装置1に加えて、閾値制御部216を備えている。閾値制御部216は、図9に例示する撮像画面251上において被検出物体253の追跡を行うか否かの判断基準である歩行者尤度の閾値(以下「追跡閾値」という)を制御する。閾値制御部216は、撮像画面251内における被検出物体253の位置に基づいて、追跡閾値を上下させる。
具体的には、閾値制御部216は、撮像画面251上に自車両の将来の進路Fを投影する進路投影部216aを有している。そして、閾値制御部216は、投影された自車両進路Fとの位置関係に基づいて、自車両にとって特に歩行者に注意すべき注意領域Gを算出する注意領域算出部216bを有している。注意領域Gとは、自車両進路Fの周囲の領域であり、注意領域算出部216bは、自車両進路Fからの距離rと、自車両からの距離Rとが、所定の関係にある領域を、注意領域Gとして算出する。注意領域算出部216bは、例えば、r=1/Rといったような関係を満たす地点の内側を、注意領域Gとして算出する。このように、自車両進路F及び注意領域Gを撮像画面251上に投影する処理としては、公知の手法を用いればよい。
ここで、撮像画面251内において、注意領域G内に存在する被検出物体253が検出された場合には、閾値制御部216は、被検出物体253が注意領域G外に存在する場合に比べて、上記の追跡閾値を低下させる制御を行う。このような追跡閾値の制御により、対象物追跡部17の追跡対象となる歩行者の候補が増加することになり、その結果、自車両が特に注意すべき注意領域Gに注力して、当該注意領域G内の歩行者をより確実に識別することができる。また、この場合、歩行者の候補の中に混入する非歩行者が増加することになるが、前述のように、様態予測器19、時系列変化調整部21、類似度算出器23、補正尤度算出器25によって、歩行者候補の補正歩行者尤度を精度よく算出することができ、その結果、非歩行者を精度よく排除することができる。その一方で、自車両にとって注意の必要性が比較的低い注意領域G外の被検出物体については、より高い追跡閾値で篩い分けすることにより、無駄な処理を排除し、物体識別装置201の計算負荷を抑えることができる。
(第3実施形態)
本発明の第3実施形態に係る物体識別装置301について、図10を参照しながら説明する。この物体識別装置301において、前述の物体識別装置1と同一又は同等の構成部分には同一符号を付し重複する説明を省略する。
図10に示すように、物体識別装置301の様態予測器319は、前述の様態予測器19の構成に加えて、リズム算出部319aを備えている。リズム算出部319aは、被検出物体53(図2)の様態変化のリズムを算出する。そして、様態予測器319は、前述の検出枠下部55L(図4)の特徴量に加えて、被検出物体53の様態変化のリズム情報を特徴量として類似度算出器323に出力する。具体的には、様態予測器319は、様態予測器19と同様に、図6のマトリックス上の直線y=ax+bを求め、当該直線の傾きaに基づいて、被検出物体53の様態変化のリズム(指標値)を算出する。すなわち、この直線の傾きaの絶対値の大きさは被検出物体53の様態変化のリズムに対応しており、傾きaの絶対値が小さいほど(直線が水平に近いほど)様態変化のリズムは速く、傾きaの絶対値が大きいほど(直線が垂直に近いほど)様態変化のリズムは遅いことを意味する。従って、リズム算出部319aは、上記傾きaに基づいて被検出物体53の様態変化のリズムを取得することができる。ここで取得されるリズムとは、被検出物体53が歩行者とした場合には、歩行動作の歩調(歩行ピッチ)の速さに対応する。
類似度算出器323は、撮像画面51上における検出枠55(図2)の移動速度に基づき、公知の処理手法を用いて、被検出物体53の路上での移動速度を算出する。更に、類似度算出器323は、様態予測器319から上記のリズム情報を取得する。類似度算出器323は、予め保持する所定のリズム基準値とリズム情報が示すリズムとを比較すると共に、予め保持する所定の速度基準値と被検出物体53の路上での移動速度とを比較することで、被検出物体53がどのような歩行者であるかを推定することができる。
すなわち、例えば、被検出物体53の路上での移動速度が速度基準値よりも遅く、様態変化のリズムがリズム基準値よりも速い(歩調が速い)場合には、被検出物体53は、子供の歩行者である可能性が高いと判断できる。また、例えば、被検出物体53の路上での移動速度が速度基準値よりも遅く、様態変化のリズムがリズム基準値よりも遅い(歩調が遅い)場合には、被検出物体53は、老人の歩行者である可能性が高いと判断できる。また、例えば、被検出物体53の路上での移動速度が速度基準値よりも速く、様態変化のリズムがリズム基準値よりも速い(歩調が速い)場合には、被検出物体53は、大人の歩行者である可能性が高いと判断できる。従って、類似度算出器323は、子供の歩行者、老人の歩行者、及び大人の歩行者といったような歩行者分類ごとに、被検出物体53の類似度を算出することができる。よって、この物体識別装置301によれば、補正尤度算出器25から、歩行者分類ごとの補正歩行者尤度を出力することができる。その結果、物体識別装置301の後段のシステムでは、例えば、被検出物体53が子供の歩行者である可能性が高い場合、一般に子供の歩行者は自車両前方に飛び出してくる可能性が比較的高いことに鑑み、独自の警告処理を行うなど、歩行者分類に応じた適切な処理が可能になる。
(第4実施形態)
本発明の第4実施形態に係る物体識別装置401について、図11を参照しながら説明する。この物体識別装置401において、前述の物体識別装置1と同一又は同等の構成部分には同一符号を付し重複する説明を省略する。
例えば、前述の物体識別装置1においては、歩行者が木陰など暗い位置を歩行しており歩行者が見え難い、歩行者の向きにより画面上に投影される足の動きが小さいなど、撮像環境によっては、歩行者の歩行動作をオプティカルフローとして抽出し難い場合があり得る。そこで、物体識別装置401の様態予測器419は、対象物追跡部17で取得された複数フレームt1〜t4において検出枠55(図2)の画面の輝度変化を示す輝度差分特徴量を抽出する。
具体的には、フレームt1における直前フレームからの輝度の差分を示す輝度差分特徴量は以下のように導出される。すなわち、図4に示したように、検出枠55を検出枠上部55Uと検出枠下部55Lとに2分割する。さらに、検出枠上部55Uを縦横16分割し、16箇所の格子部57Uを設定する。同様にして検出枠下部55Lにも、16箇所の格子部57Lを設定する。そして、各格子部57Lごとに画面の輝度の差分をヒストグラム化したデータが、検出枠下部55Lの輝度差分特徴量となる。
一方、物体識別装置401の様態モデル保存部427には、前述の様態モデル保存部27に記憶された歩行者モデルの特徴量に加えて、更に、歩行者モデルの歩行動作に起因する撮像画面の輝度差分特徴量がインデックスごとに登録されている。この歩行者モデルのインデックスごとの輝度差分特徴量は、直前のインデックスからの画面の輝度変化の特徴を示すものである。また、歩行者モデルのインデックスごとの輝度差分特徴量は、前述の検出枠55における輝度差分特徴量の算出と同じ手法で算出されるものであり、また、様態モデル保存部427には、歩行者モデルの画像における上半身部分の輝度差分特徴量と、下半身部分の輝度差分特徴量とが、それぞれ登録されている。
様態予測器419では、様態モデル保存部427に記憶された歩行者モデルの下半身部分の輝度差分特徴量と、被検出物体53の画像の過去のフレームにおける検出枠下部55Lの輝度差分特徴量とに基づいて、現在のフレームにおける検出枠下部55Lの輝度差分特徴量の予測値(以下「予測輝度差分特徴量」という)を算出し、類似度算出器423に出力する。なお、様態予測器419による予測輝度差分特徴量の算出処理は、様態予測器19による予測特徴量の算出処理と同様の処理であるので、詳細な説明を省略する。
一方、類似度算出器423には、対象物追跡部17で実際に得られた検出枠55の現在のフレームの画像が入力される。類似度算出器423は、現在のフレームにおける検出枠下部55Lの輝度差分特徴量(以下「実測輝度差分特徴量」という)を算出し、予測輝度差分特徴量と実測輝度差分特徴量との類似度を算出し、補正尤度算出器25に出力する。類似度算出器423による類似度の算出処理は、類似度算出器23による類似度の算出処理と同様の処理であるので、詳細な説明を省略する。
また、このような処理に並行して、様態予測器419及び類似度算出器423では、様態予測器19及び類似度算出器23と同じ処理を行い、予測特徴量と実測特徴量との類似度を算出する。
そして、予測輝度差分特徴量と実測輝度差分特徴量との類似度と、予測特徴量と実測特徴量との類似度と、のうち何れかの類似度が所定の類似度閾値以上であれば、補正尤度算出器425で算出される被検出物体53の補正歩行者尤度が上昇する。補正尤度算出器425による補正歩行者尤度の算出処理は、補正尤度算出器25による補正歩行者尤度の算出処理と同様の処理であるので、詳細な説明を省略する。
この物体識別装置401によれば、例えば、歩行者が木陰など暗い位置を歩行しており歩行者が見え難い、歩行者の向きにより画面上に投影される足の動きが小さいなど、撮像環境が悪い場合にも、検出枠の画面の輝度変化に関する特徴量を用いて、補正歩行者尤度の算出が可能である。例えば、歩行者が暗い位置を歩行し、車両のほぼ正面から車両に向かって歩行している状態を考える。この場合には、検出枠455のフレームt1,t2,t3,…として、図12に示すような画像が得られる。すなわち、正面側から撮像された歩行者にあっては、正面からの足の動きは小さく見える。また、当該歩行者が暗い位置を歩行していることから、撮像画面上においてはエッジが鮮明でない。しかしながら、この場合にも、歩行動作に伴って歩行者の右足及び左足の明るさが交互に変化するので、検出枠455においては、特に、右下部と左下部とに交互に規則的な輝度変化が生じることになる。従って、物体識別装置401によれば、このような検出枠455の輝度変化に関する輝度差分特徴量を抽出することにより、撮像環境が悪い場合にも、補正歩行者尤度の算出処理が可能になる。
(第5実施形態)
本発明の第5実施形態に係る物体識別装置501について、図13及び図14を参照しながら説明する。この物体識別装置501において、前述の物体識別装置1と同一又は同等の構成部分には同一符号を付し重複する説明を省略する。
この種の物体識別装置では、被検出物体が遠方に存在するほど鮮明な画像が取得し難くなるので、遠方の領域ほど歩行者の誤認識が増える傾向にある。ここで、車両用の物体識別装置が識別すべき歩行者は、路上を移動するという条件に拘束されることから、撮像画面上においても歩行者の移動は一定の規則に拘束されると考えられる。例えば、図14に示すように、撮像画面551上で水平方向に延びる消失線Hを考えると、撮像画面551上の歩行者は、この消失線に対して上下方向に極端に移動することはないと考えられる。特に、遠方の歩行者については、画面551上で、消失線Hとの上下方向の位置関係はほとんど変化しない。また、特に、車両の進行方向を横切る方向に移動する歩行者は車両にとって識別の必要性が高いが、このような移動を行う歩行者は、撮像画面551上では消失線Hに対してほぼ平行に移動する。従って、撮像画面551上で消失線Hに対して上下方向に極端に移動する物体は、歩行者である可能性が極めて低いと考えることができる。
このような知見に鑑み、物体識別装置501は、図13に示すように、物体識別装置1に加えて追跡物体スクリーニング部518を備えている。追跡物体スクリーニング部518は、対象物追跡部17で追跡中の被検出物体のうち、歩行者である可能性が低いものを予め篩い落とす機能を有している。具体的には、追跡物体スクリーニング部518は、図14に示すように、撮像画面551上で水平方向に延びる消失線H(t)を複数フレームにわたって検出する消失線検出部518aを備えている。消失線検出部518aによる消失線Hの検出処理は、公知の手法が用いられる。更に、追跡物体スクリーニング部518は、被検出物体553を囲む検出枠555の中心点555aの座標を、複数フレーム分にわたって取得する枠座標取得部518bを備えている。
フレームtの画面551上における消失線H(t)の上下方向の位置座標をT(y,t)とし、フレームtの画面551上における中心点555a(t)の上下方向の位置座標をL(y,t)とすれば、フレームtの画面551上における消失線Hと中心点555aとの距離d(t)は、d(t)=T(y,t)-L(y,t)で表される。追跡物体スクリーニング部518は、複数フレーム分にわたって取得された距離d(t)の分散値std(d)と、平均値mean_dと、d(t)を近似した直線(線形近似)の勾配Aとを算出する。そして、分散値std(d)、平均値mean_d、勾配Aの何れかが所定の閾値よりも大きい場合、或いは所定の範囲内に含まれない場合には、追跡中の被検出物体553が歩行者ではないと考えられるので、追跡物体スクリーニング部518は、追跡中止の旨を示す信号を対象物追跡部17に出力する。このとき、対象物追跡部17は上記信号に対応して、被検出物体553の追跡処理を中止し、その結果、被検出物体553は歩行者ではないものと判定される。
例えば、上記の勾配Aが所定の閾値よりも大きい場合とは、画面551上において、中心点555aの移動軌跡と消失線Hとがなす角度が所定値以上になることを意味する。すなわち、被検出物体553は、消失線Hに対して交差する方向に移動していることを意味し、このような移動を行う被検出物体553は、歩行者ではないと考えることができる。また、例えば、分散値std(d)が所定の閾値よりも大きい場合とは、画面551上において、被検出物体553が消失線Hに対して極端に上下移動していることを意味し、このような移動を行う被検出物体553は、歩行者ではないと考えることができる。
この物体識別装置501では、遠方の被検出物体についても、画面551上の消失線Hとの位置関係を利用して歩行者の可能性が低いものを排除することができるので、誤認識を低減することができる。また、物体識別装置501によれば、歩行者である可能性が極めて低い被検出物体を予め歩行者候補から篩い落とすことができるので、無駄な処理を排除し計算負荷を抑えることができる。
なお、この物体識別装置501では、消失線検出部518aによって消失線Hを検出し、中心点555aと消失線Hとの上下方向の距離d(t)を求めているが、消失線Hの上下位置はほとんど変動しないものと考えられるので、消失線Hの位置を撮像画面551上で固定し、撮像画面551上における中心点555aの絶対的な上下位置を、距離d(t)の代わりに用いてもよい。
本発明は、上述した第1〜第5実施形態に限定されるものではない。例えば、本発明の物体識別装置は、歩行者の識別装置に限られず、特定の部位が他の部位に対して状態を変化させる動作を行う物体の識別装置に適用することができる。このような物体としては、例えば、ウインカを点滅させる他車両が考えられる。この場合、他車両の車体(他の部位)に対するウインカの位置(特定の部位)の相対的な輝度変化や色調変化を特徴量として取り扱うことができる。
本発明は、物体識別装置に関するものであり、特に、自動車の前方の歩行者を識別する用途に好適に利用され、対象物の識別精度を高めることができるものである。
1,201,301,401,501…物体識別装置、19,319,419…様態予測器(基準値算出手段)、23,323,423…類似度算出器(特徴量比較手段)、25…補正尤度算出器、51,251,551…撮像画面、53,253,555…被検出物体、55U…検出枠上部、55L…検出枠下部、319a…リズム検出部、H,H(t)…消失線、W1…歩行者の胴部(他の部位)、W2…歩行者の足(特定の部位)。

Claims (8)

  1. 検出された被検出物体について所定の認識対象物に関連する所定の指標値を抽出し、抽出された前記被検出物体の前記指標値と所定の基準値との比較に基づいて前記認識対象物を識別する物体識別装置であって、
    前記所定の基準値は、
    前記認識対象物における特定の部位の他の部位に対する相対的な状態変化に関する特徴を示すことを特徴とする物体識別装置。
  2. 検出された被検出物体について歩行者に関連する指標値を抽出し、抽出された前記被検出物体の前記指標値と所定の基準値との比較に基づいて前記歩行者を識別する物体識別装置であって、
    前記指標値は、
    前記歩行者の歩行動作に関する特徴量であることを特徴とする物体識別装置。
  3. 前記所定の基準値は、
    前記被検出物体についての現在までの前記指標値に基づく予測により求められることを特徴とする請求項1又は2に記載の物体識別装置。
  4. 前記所定の基準値は、
    前記認識対象物が分割されてなる部位ごとに定められることを特徴とする請求項1又は2に記載の物体識別装置。
  5. 前記所定の基準値は、
    前記歩行動作の歩調に関する特徴量を含むことを特徴とする請求項2に記載の物体識別装置。
  6. 前記所定の指標値は、
    前記被検出物体の撮像画面における輝度の差分の時系列情報であることを特徴とする請求項2に記載の物体識別装置。
  7. 前記被検出物体の撮像画面上における前記被検出物体の移動軌跡と、前記撮像画面上における水平な消失線と、の位置関係が所定の位置関係である場合には、
    前記被検出物体は前記認識対象物ではないと判定することを特徴とする請求項1又は2に記載の物体識別装置。
  8. 前記被検出物体の撮像画面上における前記被検出物体の移動軌跡と、前記撮像画面上における水平な消失線と、がなす角度が所定の値以上である場合には、
    前記被検出物体は前記認識対象物ではないと判定することを特徴とする請求項7に記載の物体識別装置。
JP2009090322A 2009-04-02 2009-04-02 物体識別装置 Active JP5136504B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009090322A JP5136504B2 (ja) 2009-04-02 2009-04-02 物体識別装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009090322A JP5136504B2 (ja) 2009-04-02 2009-04-02 物体識別装置

Publications (2)

Publication Number Publication Date
JP2010244194A true JP2010244194A (ja) 2010-10-28
JP5136504B2 JP5136504B2 (ja) 2013-02-06

Family

ID=43097167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009090322A Active JP5136504B2 (ja) 2009-04-02 2009-04-02 物体識別装置

Country Status (1)

Country Link
JP (1) JP5136504B2 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012186536A (ja) * 2011-03-03 2012-09-27 Nikon Corp 電子機器及びグループ化方法
JP2013114401A (ja) * 2011-11-28 2013-06-10 Toyota Motor Corp 対象物変化検出装置および対象物変化検出方法
JP2013132682A (ja) * 2011-12-27 2013-07-08 Jfe Steel Corp 通板異常検出装置
JP2014002530A (ja) * 2012-06-18 2014-01-09 Toyota Motor Corp 対象物変化検出装置および対象物変化検出方法
JP2014232516A (ja) * 2013-05-30 2014-12-11 トヨタ自動車株式会社 対象物変化検出装置、警報装置、対象物変化検出方法及び警報方法
JP2015062121A (ja) * 2013-09-23 2015-04-02 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド 歩行者の視覚的認識が困難であり得ることを運転者に警告するシステム及び方法
US9177196B2 (en) 2011-06-27 2015-11-03 Clarion Co., Ltd. Vehicle periphery monitoring system
WO2016159364A1 (ja) * 2015-04-02 2016-10-06 株式会社デンソー 歩行者判定装置
WO2018003146A1 (ja) * 2016-06-28 2018-01-04 Necソリューションイノベータ株式会社 同定システム、同定方法、プログラム、および記録媒体
JP2018124801A (ja) * 2017-02-01 2018-08-09 株式会社エクスビジョン ジェスチャ認識装置およびジェスチャ認識プログラム
JP2019053647A (ja) * 2017-09-19 2019-04-04 富士ゼロックス株式会社 行動推定装置及び行動推定プログラム
JP2019160003A (ja) * 2018-03-15 2019-09-19 株式会社デンソー 障害物認識システム、障害物認識方法及びデータベース構築方法
JP2019207523A (ja) * 2018-05-29 2019-12-05 大井電気株式会社 目標物認識装置
KR102052833B1 (ko) * 2018-07-17 2019-12-09 김항섭 영상 추적을 이용한 차량 속도 검출 장치 및 방법
CN115546192A (zh) * 2022-11-03 2022-12-30 中国平安财产保险股份有限公司 牲畜数量识别方法、装置、设备及存储介质
CN118197062A (zh) * 2024-05-16 2024-06-14 图为信息科技(深圳)有限公司 基于边缘计算的智能交通多模态信息融合系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0546583A (ja) * 1991-08-15 1993-02-26 Nippon Telegr & Teleph Corp <Ntt> 動物体行動認識装置
JPH08235198A (ja) * 1995-02-23 1996-09-13 Hitachi Ltd マルチメディア情報管理システム
JP2005316607A (ja) * 2004-04-27 2005-11-10 Toyota Motor Corp 画像処理装置及び画像処理方法
JP2007288460A (ja) * 2006-04-17 2007-11-01 Nissan Motor Co Ltd 物体検出方法および物体検出装置
JP2008181423A (ja) * 2007-01-25 2008-08-07 Fujitsu Ten Ltd 歩行者認識装置および歩行者認識方法
JP2008282097A (ja) * 2007-05-08 2008-11-20 Toyota Central R&D Labs Inc 衝突危険度推定装置及びドライバ支援装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0546583A (ja) * 1991-08-15 1993-02-26 Nippon Telegr & Teleph Corp <Ntt> 動物体行動認識装置
JPH08235198A (ja) * 1995-02-23 1996-09-13 Hitachi Ltd マルチメディア情報管理システム
JP2005316607A (ja) * 2004-04-27 2005-11-10 Toyota Motor Corp 画像処理装置及び画像処理方法
JP2007288460A (ja) * 2006-04-17 2007-11-01 Nissan Motor Co Ltd 物体検出方法および物体検出装置
JP2008181423A (ja) * 2007-01-25 2008-08-07 Fujitsu Ten Ltd 歩行者認識装置および歩行者認識方法
JP2008282097A (ja) * 2007-05-08 2008-11-20 Toyota Central R&D Labs Inc 衝突危険度推定装置及びドライバ支援装置

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012186536A (ja) * 2011-03-03 2012-09-27 Nikon Corp 電子機器及びグループ化方法
US9177196B2 (en) 2011-06-27 2015-11-03 Clarion Co., Ltd. Vehicle periphery monitoring system
JP2013114401A (ja) * 2011-11-28 2013-06-10 Toyota Motor Corp 対象物変化検出装置および対象物変化検出方法
JP2013132682A (ja) * 2011-12-27 2013-07-08 Jfe Steel Corp 通板異常検出装置
JP2014002530A (ja) * 2012-06-18 2014-01-09 Toyota Motor Corp 対象物変化検出装置および対象物変化検出方法
JP2014232516A (ja) * 2013-05-30 2014-12-11 トヨタ自動車株式会社 対象物変化検出装置、警報装置、対象物変化検出方法及び警報方法
JP2015062121A (ja) * 2013-09-23 2015-04-02 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド 歩行者の視覚的認識が困難であり得ることを運転者に警告するシステム及び方法
WO2016159364A1 (ja) * 2015-04-02 2016-10-06 株式会社デンソー 歩行者判定装置
JP2016197278A (ja) * 2015-04-02 2016-11-24 株式会社デンソー 歩行者判定装置
US10482332B2 (en) 2015-04-02 2019-11-19 Denso Corporation Pedestrian determining apparatus for determining whether an object is a pedestrian crossing ahead of an own vehicle
JPWO2018003146A1 (ja) * 2016-06-28 2019-06-13 Necソリューションイノベータ株式会社 同定システム
WO2018003146A1 (ja) * 2016-06-28 2018-01-04 Necソリューションイノベータ株式会社 同定システム、同定方法、プログラム、および記録媒体
JP2018124801A (ja) * 2017-02-01 2018-08-09 株式会社エクスビジョン ジェスチャ認識装置およびジェスチャ認識プログラム
JP2019053647A (ja) * 2017-09-19 2019-04-04 富士ゼロックス株式会社 行動推定装置及び行動推定プログラム
JP7110568B2 (ja) 2017-09-19 2022-08-02 富士フイルムビジネスイノベーション株式会社 行動推定装置及び行動推定プログラム
JP2019160003A (ja) * 2018-03-15 2019-09-19 株式会社デンソー 障害物認識システム、障害物認識方法及びデータベース構築方法
JP6996368B2 (ja) 2018-03-15 2022-01-17 株式会社デンソー サーバ、障害物認識装置
JP2019207523A (ja) * 2018-05-29 2019-12-05 大井電気株式会社 目標物認識装置
KR102052833B1 (ko) * 2018-07-17 2019-12-09 김항섭 영상 추적을 이용한 차량 속도 검출 장치 및 방법
CN115546192A (zh) * 2022-11-03 2022-12-30 中国平安财产保险股份有限公司 牲畜数量识别方法、装置、设备及存储介质
CN118197062A (zh) * 2024-05-16 2024-06-14 图为信息科技(深圳)有限公司 基于边缘计算的智能交通多模态信息融合系统

Also Published As

Publication number Publication date
JP5136504B2 (ja) 2013-02-06

Similar Documents

Publication Publication Date Title
JP5136504B2 (ja) 物体識別装置
JP7052663B2 (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
JP4919036B2 (ja) 移動物体認識装置
US7139411B2 (en) Pedestrian detection and tracking with night vision
JP6266238B2 (ja) 接近物検出システム、及び車両
US8355539B2 (en) Radar guided vision system for vehicle validation and vehicle motion characterization
US10776946B2 (en) Image processing device, object recognizing device, device control system, moving object, image processing method, and computer-readable medium
US20150367781A1 (en) Lane boundary estimation device and lane boundary estimation method
US20140348390A1 (en) Method and apparatus for detecting traffic monitoring video
US11093762B2 (en) Method for validation of obstacle candidate
US20140293052A1 (en) Image-based vehicle detection and distance measuring method and apparatus
WO2009088035A1 (ja) 車線認識装置、車線認識方法および車線認識プログラム
JP2019124683A (ja) オブジェクト速度推定方法と装置及び画像処理機器
JPWO2015052896A1 (ja) 乗車人数計測装置、乗車人数計測方法および乗車人数計測プログラム
US10235579B2 (en) Vanishing point correction apparatus and method
Panev et al. Road curb detection and localization with monocular forward-view vehicle camera
KR101483742B1 (ko) 지능형 차량의 차선 검출방법
US10984264B2 (en) Detection and validation of objects from sequential images of a camera
JP3729025B2 (ja) 歩行者検知装置
CN108629225B (zh) 一种基于多幅子图与图像显著性分析的车辆检测方法
US11120292B2 (en) Distance estimation device, distance estimation method, and distance estimation computer program
JP4969359B2 (ja) 移動物認識装置
JP2013069045A (ja) 画像認識装置、画像認識方法および画像認識プログラム
CN108268866A (zh) 一种车辆检测方法和系统
JP2007233469A (ja) 物体検出装置及びその方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120731

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121016

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121029

R151 Written notification of patent or utility model registration

Ref document number: 5136504

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151122

Year of fee payment: 3