JPWO2011013281A1 - 移動体検出方法及び移動体検出装置 - Google Patents

移動体検出方法及び移動体検出装置 Download PDF

Info

Publication number
JPWO2011013281A1
JPWO2011013281A1 JP2010530203A JP2010530203A JPWO2011013281A1 JP WO2011013281 A1 JPWO2011013281 A1 JP WO2011013281A1 JP 2010530203 A JP2010530203 A JP 2010530203A JP 2010530203 A JP2010530203 A JP 2010530203A JP WO2011013281 A1 JPWO2011013281 A1 JP WO2011013281A1
Authority
JP
Japan
Prior art keywords
distance
movement
trajectories
moving
short
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010530203A
Other languages
English (en)
Other versions
JP4668360B2 (ja
Inventor
登 一生
一生 登
岩崎 正宏
正宏 岩崎
中田 幹也
幹也 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Application granted granted Critical
Publication of JP4668360B2 publication Critical patent/JP4668360B2/ja
Publication of JPWO2011013281A1 publication Critical patent/JPWO2011013281A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

動画像中における移動体の形状の変化などの影響を受けずに、高精度に移動体の領域を抽出することができる移動体検出方法を提供する。移動体検出方法は、複数の移動軌跡から、TL枚(TL>=3)のピクチャにわたる長時間移動軌跡をNL個(NL>=2)と、TL枚のピクチャに含まれるTS枚(TL>TS>=2)のピクチャにわたる短時間移動軌跡をNS個(NS>NL)とを抽出し、NL個の長時間移動軌跡間の測地距離とNS個の短時間移動軌跡間の測地距離とを算出する距離算出ステップ(S205)と、算出された長時間移動軌跡間の測地距離及び短時間移動軌跡間の測地距離に基づいて、TL枚のピクチャにわたるNS個の移動軌跡間の測地距離を近似測地距離として算出する距離補間ステップ(S206)と、算出された近似測地距離に基づいて、領域分割をする領域分割ステップ(S207)とを含む。

Description

本発明は、動画像中の移動体の領域を分割することによって移動体を検出する画像処理技術に関し、特に、移動体が人物のように形状が変化しながら移動する対象である場合においても、動画像中の動き情報に基づいて移動体を検出する装置に関する。
従来より、移動体の像(以下、単に「移動体」という。)が含まれる画像から、画像中の移動体の領域を抽出することによって移動体を検出する領域抽出技術の研究開発が広く行われてきている。特に移動体が人である場合にその移動体の領域を抽出する技術は、デジタルビデオカメラもしくはデジタルスチルカメラにおける焦点制御、画質改善処理、自動車の安全運転支援システム、又はロボットにおける人との衝突回避制御もしくは衝突回避のための警報などに、共通して利用される基礎技術である。
画像中の移動体の領域を抽出する技術のうち、一般的な手法として、(1)あらかじめ用意した移動体のモデルと、画像中の候補領域との類似度を評価して移動体の領域を特定する方法と、(2)画像を複数の小領域に分割して特徴量を算出し、特徴量を基準として類似する領域を統合することで移動体の領域を特定する方法の2つの手法がある。
前者の代表的な手法として、画像から移動体領域の候補を抽出したのち、抽出した移動体領域の候補とあらかじめ用意した移動体モデルとの類似度を評価して、類似度が高い領域を移動体領域として抽出する手法がある。さらに、歩行する人物等のように、変形しながら移動する移動体の領域を抽出する場合、変形を考慮した移動体モデルを利用する手法がある。
例えば、特許文献1に記載の手法では、移動体領域候補として複数の画像から移動体のシルエット画像を抽出する。そして、あらかじめパラメータ化した移動体の変形に関するモデルと、抽出したシルエット画像との類似度を評価し、類似度が高い領域とモデルのパラメータとを推定する。これによって、形状が周期的に変化しながら移動する人物に対しても、パラメータ化したモデルを当てはめることができるため、移動体の領域抽出を可能にしている。
後者の代表的な手法としては、画像を複数の小領域に一旦分割し、各小領域の画素の輝度値に基づいた特徴量を抽出したのち、複数の小領域間の特徴量の類似度を評価して、類似度が高い領域を同一の移動体領域として統合する手法がある。
例えば、特許文献2に記載の手法では、画像を矩形の小領域に一旦分割し、小領域の輝度や動きに基づいて特徴量を算出し、特徴量の類似度の順番に基づいて小領域を統合することで、移動体の領域抽出を可能にしている。
特開平8−214289号公報 特開2006−031114号公報
しかしながら、上記従来の領域抽出の技術は、例えば、街頭などで複数の人物等の移動体が行き交うシーンなどのように、移動体が他の移動体によって部分的に遮蔽される場合、あるいは移動体の大きさが著しく異なる場合などに、正しく移動体を抽出することができないという問題がある。
特許文献1に記載の手法に代表される、あらかじめ用意したモデルを用いる従来の領域抽出手法では、画像から移動体領域の候補を抽出する必要がある。この時、適切に移動体領域の候補を抽出できなければ、移動体をパラメータ化したモデルを正確に移動体領域候補に当てはめることが不可能になる。特に、上述のようなシーンにおいては、移動体の大きさあるいは形が大きく変化するため、移動体領域候補を適切に抽出することは困難である。
さらに、移動体領域の候補を適切に抽出できたとしても以下のような課題がある。特に人物等の多関節物体が移動体である場合、移動体のさまざまな姿勢あるいは大きさに起因する画像の変化の幅が非常に大きいため、移動体モデルのパラメータ化を行う際に膨大な数のパラメータが必要となる。このことは、モデルの当てはめ誤りを誘発する。そのため、例えば、複数の移動体を1つの移動体として誤って領域抽出したり、抽出対象となる移動体が存在しない領域を移動体として誤って領域抽出したりするなど、正しく移動体を検出することができないという課題があった。
特許文献2に記載の手法に代表される、小領域間の特徴量を用いる従来の領域抽出手法では、特徴量として用いる輝度値あるいは動きが類似していない小領域は、異なる領域として分離される。そのため、人物のように、場所によって輝度値が異なり、かつ、場所によって動きが異なる移動体は、同一移動体の上の2つの小領域を異なる移動体の領域として抽出されてしまい、正しく移動体を検出することができないという課題があった。
そこで本発明は、上記従来の課題を解決するためになされたものであり、動画像中における移動体の形状の変化、大きさの変化、又は遮蔽などの影響を受けずに、移動体の領域を高精度に抽出することができる移動体検出方法等を提供することを目的とする。
本発明の一実施形態は、動画像中の移動体の全部又は一部の領域を分割することによって動画像中の移動体を検出する移動体検出方法であって、動画像に含まれる2枚以上のピクチャにわたる対応点である複数の移動軌跡から、TL枚(TL>=3)のピクチャにわたる移動軌跡である長時間移動軌跡をNL個(NL>=2)と、前記TL枚のピクチャに含まれるTS枚(TL>TS>=2)のピクチャにわたる移動軌跡である短時間移動軌跡をNS個(NS>NL)とを抽出し、NL個の長時間移動軌跡間の測地距離と、NS個の短時間移動軌跡間の測地距離とをそれぞれについて算出する距離算出ステップと、前記距離算出ステップで算出された、長時間移動軌跡間の測地距離及び短時間移動軌跡間の測地距離に基づいて、TL枚のピクチャにわたるNS個の移動軌跡間の測地距離を近似測地距離として算出する距離補間ステップと、前記距離補間ステップで算出された近似測地距離に基づいて、移動軌跡の集まりを1つの領域として分割することによって、領域分割をする領域分割ステップとを含む移動体検出方法としたものである。
上記の構成によって、長時間の移動軌跡間の近似測地距離に含まれる移動軌跡の動きの違いの情報に基づいて領域分割することで、形状の変化の影響を受けることなく、高精度にその領域を抽出することができる。つまり、長時間移動軌跡間の測地距離と短時間移動距離間の測地距離とから算出される近似測地距離に基づいて領域分割をすることができるので、動画像中における移動体の形状の変化、大きさの変化、又は遮蔽などの影響を受けずに、移動体の領域を高精度に抽出することが可能となる。
ここで、近似測地距離の算出方法としては、前記距離補間ステップでは、前記短時間移動軌跡間の測地距離に基づいて、短時間移動軌跡の集まりである部分短時間移動軌跡を抽出し、抽出した部分短時間移動軌跡に基づいて、前記近似測地距離を算出するとしてもよい。
上記の構成によって、複数の短時間移動軌跡の中に動きの異なる複数の移動体上の短時間移動軌跡が含まれる場合であっても、類似する短時間移動軌跡のみに基づいて近似測地距離を算出することができるため、移動体の領域を高精度に抽出することが可能となる。
ここで、近似測地距離の算出方法としては、前記距離補間ステップでは、前記短時間移動軌跡間の測地距離に基づいて前記長時間移動軌跡間の測地距離の線形補間を行うことによって、前記近似測地距離を算出するとしてもよい。
上記の構成によって、短時間移動軌跡間の測地距離の関係を保った近似測地距離を算出することができ、この近似測地距離に基づいて領域分割することで、移動体をより正しく領域抽出することができる。
ここで、近似測地距離の算出方法としては、前記距離補間ステップでは、短時間移動軌跡間の測地距離が小さいほど重みが大きくなるように重み付きの前記線形補間を行うことによって、前記近似測地距離を算出するとしてもよい。
上記の構成によって、短時間移動軌跡間の局所的な測地距離の関係を保った近似測地距離を算出することができ、この近似測地距離に基づいて領域分割することで、移動体をより高精度に領域抽出することができる。
また、本発明のより好ましい形態は、さらに、前記画像入力ステップで受け付けた動画像に、前記領域分割ステップで分割された領域ごとに異なる表示態様となるように画像処理を施し、画像処理後の動画像を出力する出力ステップを含むとしたものである。
上記の構成によって、特定された領域ごとに異なる表示態様で画像処理が施されるので、検出された移動体を容易に確認することができる。
また、本発明のより好ましい形態は、前記出力ステップでは、前記距離補間ステップで算出された近似測地距離と、前記距離算出ステップで抽出されたNL個の長時間移動軌跡及びNS個の短時間移動軌跡とに基づいて、仮想的な長時間移動軌跡を補完したNS個の近似長時間移動軌跡を算出し、算出した近似長時間移動軌跡を含む動画像を出力するとしたものである。
上記の構成によって、動画像からは算出できなかった長時間の移動軌跡を含む画像を表示することができるので、検出された移動体の移動軌跡を容易に確認することができる。
本発明の一実施形態は、さらに、前記領域分割ステップで分割された領域に含まれる移動軌跡から、当該領域を代表する移動軌跡を算出し、算出した代表の移動軌跡に従って当該領域が移動すると予測することで、前記移動体の動きを予測する動き予測ステップを含むとしたものである。
上記の構成によって、複数の移動軌跡を代表する軌跡を用いて移動体の動きを予測することにより、より精度良く動きを予測することができる。
また、長時間移動軌跡を抽出するときに、前記距離算出ステップでは、抽出される長時間移動軌跡の個数に応じて、前記TLを変化させて長時間移動軌跡を抽出するとしてもよい。
上記の構成によって、複数のピクチャに含まれる移動体の特徴に応じて、長時間移動軌跡のピクチャ数を変更できるので、より多くピクチャ数にわたるより多くの個数の長時間移動軌跡を抽出することが可能となる。すなわち、より多くの情報を含む長時間移動軌跡を用いることができるので、より高精度に領域分割をすることが可能となる。
また、長時間移動軌跡を抽出するときに、前記距離算出ステップでは、抽出される長時間移動軌跡の個数があらかじめ定められた第1の上限値を越える場合に、前記TLを増加させて長時間移動軌跡を抽出するとしてもよい。
上記の構成によって、より多くのピクチャ数にわたる長時間移動軌跡を、適切な個数抽出することができる。
また、長時間移動軌跡を抽出するときに、前記距離算出ステップでは、抽出される長時間移動軌跡の個数があらかじめ定められた第1の下限値を下回る場合に、前記TLを減少させて長時間移動軌跡を抽出するとしてもよい。
上記の構成によって、できる限りの多くのピクチャ数を確保しながら、長時間移動軌跡があらかじめ定められた移動軌跡の数を下回らないようにすることができる。
また、短時間移動軌跡を抽出するときに、前記距離算出ステップでは、抽出される短時間移動軌跡の個数に応じて、前記TSを変化させて短時間移動軌跡を抽出するとしてもよい。
上記の構成によって、複数のピクチャに含まれる移動体の特徴に応じて、短時間移動軌跡のピクチャ数を変更できるので、より多くピクチャ数にわたるより多くの個数の短時間移動軌跡を抽出することが可能となる。すなわち、より多くの情報を含む短時間移動軌跡を用いることができるので、より高精度に領域分割をすることが可能となる。
また、短時間移動軌跡を抽出するときに、前記距離算出ステップでは、抽出された短時間移動軌跡の個数があらかじめ定められた第2の上限値を超える場合に、前記TSを増加させて短時間移動軌跡を抽出するとしてもよい。
上記の構成によって、より多くのピクチャ数にわたる短時間移動軌跡を、適切な個数抽出することができる。
また、短時間移動軌跡を抽出するときに、前記距離算出ステップでは、抽出される短時間移動軌跡の個数があらかじめ定められた第2の下限値を下回る場合に、前記TSを減少させて短時間移動軌跡を抽出するとしてもよい。
上記の構成によって、できる限りの多くのピクチャ数を確保しながら、短時間移動軌跡があらかじめ定められた移動軌跡の数を下回らないようにすることができる。
なお、本発明の移動体検出方法は、コンピュータ上のプログラムによって実現されるだけでなく、上記各ステップをハードウェアによって構成した移動体検出装置、上記各ステップをコンピュータに実行させるプログラム、そのプログラムを格納したCD−ROM(Compact Disc Read Only Memory)等のコンピュータ読み取り可能な記録媒体、動画像において動きをもつオブジェクトの領域を抽出、あるいは、分割する画像処理装置等として実現することもできる。
上記の方法及び装置等により、長時間移動軌跡間の測地距離と短時間移動距離間の測地距離とに基づいて算出される近似測地距離を用いて領域分割をすることができるので、動画像中における移動体の形状の変化、大きさの変化、又は遮蔽などの影響を受けずに、移動体の領域を高精度に抽出することが可能となる。
図1は、本発明の実施の形態における移動体検出装置の構成を示す図である。 図2は、コンピュータによって構成された移動体検出装置のハードウェア構成を示す図である。 図3は、移動体検出装置の動作の手順を示すフローチャートである。 図4は、撮影状況の一例を示す図である。 図5は、動画像に含まれる複数枚のピクチャの一例を示す図である。 図6は、移動軌跡の一例を示す図である。 図7は、移動軌跡とピクチャ数との関係の一例を示す図である。 図8Aは、ピクチャ上の複数の移動軌跡の一例を示す図である。 図8Bは、複数の移動軌跡のデータの分布を示す図である。 図8Cは、複数の移動軌跡のデータの分布を示す図である。 図9Aは、測地距離の特徴を説明するための概念図である。 図9Bは、測地距離の特徴を説明するための概念図である。 図10Aは、近似測地距離を用いたクラスタリングの一例を説明するための図である。 図10Bは、近似測地距離を用いたクラスタリングの一例を説明するための図である。 図10Cは、近似測地距離を用いたクラスタリングの一例を説明するための図である。 図11Aは、出力部が生成した画像の一例を示す図である。 図11Bは、出力部が生成した画像の一例を示す図である。 図12は、理想的な移動軌跡の分布を示す概念図である。 図13は、本発明の実施の形態における移動体検出装置による効果を説明するための図である。 図14Aは、長時間移動軌跡を算出するためのピクチャと短時間移動軌跡を算出するためのピクチャとの関係の別の一例を示す図である。 図14Bは、長時間移動軌跡を算出するためのピクチャと短時間移動軌跡を算出するためのピクチャとの関係の別の一例を示す図である。 図15Aは、本発明の実施の形態の変形例における移動体検出装置の構成を示す図である。 図15Bは、本発明の実施の形態の変形例における移動検出装置の動作を表すフローチャートである。 図16は、本発明の実施の形態の変形例における移動体検出装置による動き予測を説明するための図である。 図17は、移動予測の結果の一例を示す図である。
以下、本発明の実施の形態について、図面を用いて説明する。
図1は、実施の形態における移動体検出装置100の構成を示す図である。図1に示されるように、移動体検出装置100は、画像入力部101、動き解析部102、移動体検出部103、及び出力部104を備える。さらに移動体検出部103は、距離算出部105、距離補間部106、領域分割部107を備える。移動体検出装置100は、複数枚のピクチャを含む動画像中の移動体の全部又は一部の領域を特定する領域分割をすることによって動画像中の移動体を検出する装置である。本実施の形態では、移動体検出装置100は、カメラ110で撮影した動画像を取得し、取得した動画像中の移動体を検出し、検出結果に基づいて画像を生成して出力する。ディスプレイ120は、移動体検出装置100から出力される画像を表示する。
画像入力部101は、動画像を構成する複数枚のピクチャの入力を受け付ける処理部であり、例えば、カメラ、あるいは、カメラと接続された通信インターフェース等である。
動き解析部102は、画像入力部101によって受け付けられた複数枚のピクチャに含まれる2枚以上のピクチャにわたる対応点である移動軌跡を算出する処理部である。具体的には、動き解析部102は、画像入力部101で受け付けた複数のピクチャについて、連続する2枚のピクチャ間の対応点を検出することにより、複数枚のピクチャにわたる対応点である複数の移動軌跡を算出し出力する。ここで、動き解析部102は、ピクチャの1画素ごとに対応点を検出する、又は、ピクチャ内の隣接する複数の画素(ブロック)ごとに代表する1つの対応点を検出する。
なお、「対応点」とは、複数枚のピクチャにおいて、同一の画像要素を示すと考えられるピクチャ内の位置を示すものである。したがって、移動軌跡は、連続する2枚以上のピクチャにわたる画像要素の動きを示す。
本明細書では、1画素ごとに検出された対応点であるか、複数の画素に1つ検出された対応点であるかを区別して記載しない。また、あるピクチャの画素iに対応する他のピクチャの対応点、及び、あるピクチャのブロックiに対応する他のピクチャの対応点によって示される移動軌跡を、いずれも画素iの移動軌跡と呼ぶ。
移動体検出部103は、動き解析部102によって検出された複数の移動軌跡に基づいて、類似する移動軌跡の集まりを1つの領域として特定することで、移動軌跡のクラスタリングを行う処理部である。移動体検出部103は、距離算出部105、距離補間部106、及び領域分割部107を備える。
距離算出部105は、動画像を構成する複数枚のピクチャにわたる対応点である移動軌跡を複数取得し、取得した移動軌跡間の類似度を表す距離を算出する処理部である。
本実施の形態では、距離算出部105は、動き解析部102によって算出された複数の移動軌跡から、TL枚(TL>=3)のピクチャにわたるNL個の長時間移動軌跡と、TS枚(TL>TS>=2)のピクチャにわたるNS個の短時間移動軌跡とを抽出する。このときTS枚のピクチャは、TL枚のピクチャに含まれるものとする。また、NL個の長時間移動軌跡に含まれるTS枚のピクチャにわたる対応点は、NS個の短時間移動軌跡にも含まれているものとする。
さらに、距離算出部105は、抽出したNL個の長時間移動軌跡と、NS個の短時間移動軌跡に対して、それぞれ2つの移動軌跡間の類似度をあらわす距離を算出して出力する。
本明細書において「距離」は、2次元画像空間における2点間の距離だけでなく、後述するように、多次元のデータ間の算術的な距離を含む。なお、一般的に距離と類似度は相反する関係がある。すなわち、2つのデータ間の距離が小さい場合、類似度が高く、逆に2つのデータ間の距離が大きい場合、類似度が低い。
距離補間部106は、距離算出部105で算出された、NL個の長時間移動軌跡間の距離と、NS個の短時間移動軌跡間の距離とから、NL個の長時間移動軌跡間の距離に基づいたNS個の移動軌跡間の距離である近似距離を算出して出力する処理部である。
領域分割部107は、距離補間部106で算出された近似距離に基づいて、類似する移動軌跡の集まりを1つの領域として特定することで、領域分割をする処理部である。
出力部104は、移動体検出部103で動画像中の移動体の検出結果もしくは、画像の領域分割結果を出力する。具体的には、出力部104は、画像入力部101で受け付けた動画像に対して、例えば、移動体検出部103で特定された領域ごとに異なる表示態様となるように、画像処理を施し、ディスプレイ装置等に出力する。
本明細書において、「領域分割」とは、ある特定の対象物が存在する画像領域を抽出する検出技術と、対象物が何であるかの区別なく画像中の領域を分割する領域分割技術との、両者を含んでいる。検出技術と領域分割技術とは共通する部分が多いため、本明細書においては両者を区別しない。
また、本明細書において、「移動体検出」とは、基準となる座標系に対して移動している物体が存在する画像領域のみを特定する検出技術と、相対的に異なる移動をしている物体ごとに画像中の領域を分割する領域分割技術の両者を含んでいる。
なお、移動体検出装置100を構成する各構成要素(画像入力部101、動き解析部102、移動体検出部103、出力部104)は、コンピュータ上で実行されるプログラム等のソフトウェアで実現されてもよいし、電子回路等のハードウェアで実現されてもよい。図2は、ソフトウェアによって実現された本実施の形態における移動体検出装置のハードウェア構成を示す図である。
カメラ1001は、動画像を撮影して、撮影した動画像をコンピュータ1002に出力する。コンピュータ1002は、カメラ1001から出力された動画像を取得して領域分割処理を行う。そして、コンピュータ1002は、領域分割処理の結果を表示するための画像を生成する。ディスプレイ1003は、コンピュータ1002によって生成された画像を取得して表示する。
コンピュータ1002は、I/F(インターフェース)1004、CPU(Central Processing Unit)1005、ROM(Read Only Memory)1006、RAM(Random Access Memory)1007、HDD(Hard Disk Drive)1008、及びビデオカード1009を備える。コンピュータ1002を動作させるプログラムは、ROM1006又はHDD1008にあらかじめ保持されている。プログラムは、プロセッサであるCPU1005によって、ROM1006又はHDD1008からRAM1007に読み出されて展開される。CPU1005はRAM1007に展開されたプログラム中のコード化された各命令を実行する。I/F1004は、プログラムの実行に応じて、カメラ1001で撮影された画像を、RAM1007へ取り込む。ビデオカード1009は、プログラムの実行に応じて生成された画像を出力し、ディスプレイ1003で表示される。
なお、プログラムは、半導体であるROM1006又はHDD1008に限られず、たとえば光ディスクに格納されていてもよい。また、プログラムは、有線ネットワーク、無線ネットワーク、又は放送などを介して伝送され、コンピュータのRAM1007に取り込まれてもよい。
以下、本実施の形態の移動体検出装置100の動作を、図3を用いて説明する。
図3は、本実施の形態の移動体検出装置100の動作を表すフローチャートである。
図3において、7つのステップS201〜S207は、それぞれ図1の各処理部101〜107に対応している。すわなち、画像入力部101は画像入力ステップS201の処理を実行し、動き解析部102は動き解析ステップS202の処理を実行し、移動体検出部103は移動物検出ステップS203の処理を実行し、出力部104は画像出力ステップS204の処理を実行する。また、移動物検出ステップS203は、距離算出ステップS205、距離補間ステップS206、及び領域分割ステップS207の3つのサブステップからなる。距離算出部105は距離算出ステップS205の処理を実行し、距離補間部106は距離補間ステップS206の処理を実行し、領域分割部107は領域分割ステップS207の処理を実行する。
まず、画像入力部101は、カメラ1001から、動画像を構成する複数枚のピクチャを取得する(ステップS201)。続いて、動き解析部102は、画像入力部101によって取得された複数枚のピクチャに含まれる連続する2枚以上のピクチャにわたる移動軌跡を算出する(ステップS202)。そして、距離算出部105は、動き解析部102によって算出された複数の移動軌跡に基づいて、TL枚のピクチャにわたる長時間移動軌跡をNL個と、TS枚のピクチャにわたる短時間移動軌跡をNS個とを抽出する。さらに、距離算出部105は、抽出した長時間移動軌跡間の測地距離及び短時間移動軌跡間の測地距離を算出する(ステップS205)。続いて、距離補間部106は、距離算出部105によって算出された長時間移動軌跡間の測地距離と、短時間移動軌跡間の測地距離とに基づいて、TL枚のピクチャにわたるNS個の移動軌跡間の近似測地距離を算出する(ステップS206)。次に、領域分割部107は、距離補間部106によって算出された近似測地距離に基づいて、類似する移動軌跡の集まりを1つの領域として検出することで、領域分割を行う(ステップS207)。最後に、出力部104は、領域分割部107によって分割された領域に基づいて画像を生成して、ディスプレイ1003に表示する(ステップS204)。
以下に、図3に示した各ステップの詳細について説明する。
まず、画像入力部101により実行される画像入力ステップS201の詳細について説明する。画像入力部101は、カメラ1001から、動画像を構成する複数のピクチャを取得する。本実施の形態では、カメラ1001から取得される動画像は30フレーム/秒の動画像であるとする。
図4は、カメラ110によって撮影される対象物の状況である撮影状況の一例を示す図である。また、図5は、カメラ110によって、図4の撮影状況において撮影された動画像に含まれる複数枚のピクチャの一例を示す図である。画像入力部101は、第1フレームから第TLフレームまでのTL枚(TL>=3)のピクチャをカメラ110から受け付ける。本実施の形態では、ピクチャの数TLは、あらかじめ定められており、30フレーム(TL=30)とする。
次に、動き解析部102により実行される動き解析ステップS202の詳細について説明する。動き解析部102は、画像入力部101から複数枚のピクチャを取得し、取得した複数枚のピクチャについて、2枚のピクチャ間の対応点を検出することにより、連続する2枚以上のピクチャにわたる移動軌跡を算出して出力する。
具体的には、動き解析部102は、第1フレームのピクチャ上の全ての画素(I個)を基準として、第2フレームから第TLフレームまでの(TL−1)枚のピクチャ上の対応する画素を検出する。また、動き解析部102は、連続する2枚のピクチャ間の対応点をTL枚のピクチャについて検出し、検出した対応点を第1フレームから連続する2枚以上のピクチャにわたって連結することにより、第1フレームのピクチャ上の画素に対応する他のピクチャ上の画素を検出しても良い。なお、複数枚のピクチャにわたる対応点を検出するさらに具体的な手法は、非特許文献1もしくは非特許文献2などに詳しく記載されているため、ここでは詳細な説明を省略する。
P.Anandan,"A Computational Framework and an Algorithm for the Measurement of Visual Motion",International Journal of Computer Vision, Vol.2, pp.283−310,1989 Vladimir Kolmogorov and Ramin Zabih, "Computing Visual Correspondence with Occlusions via Graph Cuts", International Conference on Computer Vision,2001 そして、動き解析部102は、TL枚のピクチャにおいて対応点を検出した結果のうち、TS枚(TL>TS>=2)以上のピクチャにわたって検出された対応点を抽出することにより、移動軌跡を算出する。本実施の形態において、ピクチャ数TSはあらかじめ定められており、ここでは10フレーム(TS=10)とする。
画素iの移動軌跡xは、第1フレームのピクチャ上のある画素iの座標値(x ,y )と、対応点の画素座標値(x ,y )とを用いて、下記式1のように示される。
Figure 2011013281
ここで式1の移動軌跡xは、第1フレームから第TLフレームまでのTL枚のピクチャ全てにわたる対応点の画素座標を含む場合のほかに、第(TS+1)フレームから第TLフレームの対応点の画素座標が存在しない移動軌跡も含まれることとなる。
なお、動き解析部102は、ピクチャの全ての画素ごとに対応点を検出する代わりに、ピクチャ内の隣接する複数の画素(ブロック)ごとに対応点を検出してもよい。
次に、距離算出部105によって実行される距離算出ステップS205の詳細について説明する。距離算出部105は、動き解析部102で算出した複数の移動軌跡Xに基づいて、TL枚のピクチャにわたる長時間移動軌跡XLと、TS枚のピクチャにわたる短時間移動軌跡XSとをそれぞれ抽出して、移動軌跡間の距離を算出する(ステップS205)。
本実施の形態において、長時間移動軌跡XLは、第1フレームから第TLフレームまでの連続するTL枚のピクチャにわたる対応点である。また、短時間移動軌跡XSは、第1フレームから第TSフレームまでの連続するTS枚のピクチャにわたる対応点である。また、以降の説明では、動き解析部102で算出されたNS個の移動軌跡から、長時間移動軌跡はNL個、短時間移動軌跡はNS個、それぞれ抽出された場合について説明する。
図6は、移動軌跡の一例を示す図である。動き解析部102に入力された動画像は、TL枚のピクチャ601で構成されている。このとき移動軌跡x603aは、第1フレームの所定の画素i602aに対応する、第2フレームから第TLフレームまでのピクチャ上の対応点の集まりであり、各ピクチャの画像座標値の集まりからなるベクトルで表される。また、移動軌跡には、図6の画素k602bの移動軌跡x603bのように、第(TS+1)フレーム以降に対応点がピクチャ上に存在しない移動軌跡も含まれる。
図7は、移動軌跡とピクチャ数との関係の一例を示す図である。図7の棒グラフにおいて、横軸はピクチャを示し、縦軸は移動軌跡を示す。各棒として示される移動軌跡は、当該棒の左端に対応するピクチャにおいて発生した対応点が当該棒の右端に対応するピクチャの次のピクチャにおいて消滅したことを示す。
図7に示されるように、複数のピクチャにわたって検出される移動軌跡の数は、ピクチャの枚数が増えるほど少なくなる。これは、ピクチャの枚数が増えるほど、被写体の出現、消失、又は一時的な遮蔽などによって、あるピクチャ上の対応点が別のピクチャには存在しない場合が増えるためである。具体的には、図4〜図6における人の脚もしくは腕、手前の人物に遮蔽される背景、又は他の人物上の対応点などが、別のピクチャにおいて存在しない場合が増える。また、ピクチャの枚数が増えるほど移動軌跡の数が少なくなる別の原因として、被写体の変形あるいは照明の変化などに起因して、動き解析部102において対応点を検出できない場合が増えるためである。上記のような理由により、長時間移動軌跡の数NLは、短時間移動軌跡の数NS以下となる。
次に、距離算出部105は、抽出したNL個の長時間移動軌跡及びNS個の短時間移動軌跡のそれぞれについて、2つの移動軌跡間の類似度を表す距離を算出する。
以下、距離算出部105において、NL個の長時間移動軌跡、及び、NS個の短時間移動軌跡のそれぞれについて、移動軌跡間の類似度を表す距離を算出する方法を詳細に説明する。
距離算出部105は、下記式2により、画素iの長時間移動軌跡と画素jの長時間移動軌跡との線形距離f(i,j)を算出する。また、距離算出部105は、下記式3により、画素iの短時間移動軌跡と画素jの短時間移動軌跡との線形距離f(i,j)を算出する。
Figure 2011013281
ここで式2によって算出される線形距離f(i,j)は、表記の都合上、全ての移動軌跡間について定義されているが、線形距離として有限な値となるのは、NL個の長時間移動軌跡XLの間でのみとなる。画素iの移動軌跡もしくは画素jの移動軌跡が長時間移動軌跡XLに属さない場合、線形距離f(i,j)は∞(無限大)となる。
なお、本実施の形態において、線形距離は、式2及び式3によって算出されるが、これらの式に限定されるものではない。線形距離は、式2及び式3と同様に、移動軌跡間の画像座標における位置、動き、加速度、回転速度などのような、幾何的な類似度を表す指標であればよく、例えば、下記の式4及び式5を用いて算出されてもよい。
Figure 2011013281
式4及び式5において、wは重み係数であり、設計者が設定するパラメータである。上記式4及び式5の移動軌跡間の距離f(i,j)及びf(i,j)は、移動軌跡間の画像座標の距離の時間平均に、画像座標の距離の時間変動成分を加えたものである。特に移動軌跡間距離の時間変動成分は、移動軌跡の動きの類似度を示すものであり、これによって、画素間のなす距離の関係が時間的に変化しない剛体だけでなく、関節物体等の形状変化を捉えることができる。
式2及び式3によって算出された移動軌跡間の線形距離f(i,j)及びf(i,j)の集まりを、下記式6に示すように、それぞれ線形距離マトリクスF及びFとして表す。
Figure 2011013281
なお、本実施の形態において、後述する測地距離gおよび非線形化された距離f’と区別するために、式2〜式5によって算出される距離を線形距離と呼ぶが、線形距離の定義式を線形演算に限定するものではなく、線形距離の定義式に非線形の演算が含まれていても良い。
続いて、距離算出部105は、移動軌跡間の線形距離f(i,j)及びf(i,j)から移動軌跡間の測地距離g(i,j)及びg(i,j)を算出する。
以降、距離算出部105が、線形距離f(i,j)から測地距離g(i,j)を算出する処理を詳しく説明する。
まず、距離算出部105は、算出した線形距離f(i,j)に対してあらかじめ定められた閾値Rを用いて、下記式7に示すように非線形化された距離f’(i,j)を算出する。
Figure 2011013281
次に、距離算出部105は、非線形化された距離f’(i,j)から、測地距離g(i,j)を算出する。ここで測地距離とは、複数の点を結ぶノードの距離(長さ)が得られているときに、ある2点間を結び得る全ての経路の距離のうちの最短の距離である。すなわち、本実施の形態において測地距離とは、2個の移動軌跡間の類似度を表す距離であって、他の移動軌跡を中継点として一方の移動軌跡から他方の移動軌跡にたどりつく経路の距離のうち最短の距離である。
よって、距離算出部105は、第iの移動軌跡から第jの移動軌跡までの測地距離の算出においては、他の複数の移動軌跡のいずれかを中継点として第iの移動軌跡から第jの移動軌跡にたどりつく全ての経路のうちの最短の経路の距離を、測地距離として算出する。
例えば、移動軌跡iと移動軌跡jの2点間を直接結ぶノードの距離f’(i,j)が得られている場合、移動軌跡iと移動軌跡jとの2点間を結ぶ経路は、2点を直接結ぶ経路以外に、別の移動軌跡sを中継する経路もある。移動軌跡sを中継する経路の距離は、f’(i,s)+f’(s,j)となる。このような移動軌跡iと移動軌跡jとの2点間を結ぶ経路は複数ある。距離算出部105は、下記式8に示すように、それらの複数の経路の距離のうち、最も短い距離を測地距離g(i,j)として算出する。
Figure 2011013281
式8において、min(x,y,…)は、値x、値yなどの値のうち最も小さい値を返す関数である。また、移動軌跡sは、移動軌跡iから移動軌跡jにたどりつくための中継点である。ここで、中継点としての移動軌跡sは1個に限るものではない。すなわち、移動軌跡iから移動軌跡jまでの経路には、2個以上の移動軌跡を中継点とする経路も含まれる。
上述した測地距離の算出における2点間の最短経路を探索する手法の詳細は、例えば非特許文献3のダイクストラ法が広く知られているため、ここでは処理手順の詳細説明を省略する。
E.W.Dijkstra,"A note on two problems in connexion with graphs",Numerische Mathematik,pp.269−271,1959
非特許文献3に記載の手順等により、距離算出部105は、長時間移動軌跡間の線形距離f(i,j)から測地距離g(i,j)を算出する。さらに距離算出部105は、上記と同様の手順によって、あらかじめ定められた閾値Rを用いて、短時間移動軌跡間の線形距離f(i,j)から測地距離g(i,j)を算出する。算出した移動軌跡間の測地距離g(i,j)及びg(i,j)の集まりを、下記式9に示すように、測地距離マトリクスG及びGと表す。
Figure 2011013281
以上の手順によって、距離算出部105は、NL個の長時間移動軌跡間の類似度を表す測地距離g(i,j)、及び、NS個の短時間移動軌跡間の類似度を表す測地距離g(i,j)を算出する。そして、距離算出部105は、算出した測地距離g(i,j)及びg(i,j)を、測地距離マトリクスG及びGとして出力する。
なお、上記式などから明らかなように本実施の形態では、測地距離は、同一の次元の移動軌跡間において算出される。つまり、距離算出部105は、同じ枚数のピクチャにわたる移動軌跡間において測地距離を算出する。
上述した複数の移動軌跡間の線形距離から測地距離を算出する処理について、図8A〜図8Cの概念図を用いて説明する。
図8Aは、ピクチャ上の複数の移動軌跡の一例を示す図である。移動軌跡は、背景領域においても算出されるが、表記を容易にするため、以降において、背景領域の移動軌跡は図示しないものとする。図8B及び図8Cは、上記式1によって表される複数の移動軌跡のデータの分布を示す図である。
図8B中の「×」印によって示された各データ点は、式1で示した画素iの移動軌跡xに相当する。なお、移動軌跡xは、独立した(TL×2)個の変数からなるベクトルである。したがって、移動軌跡xは、本来は最大で(TL×2)次元空間のデータであるが、図8Bでは表記の都合上、3次元空間の点として表す。
図8Bに示す矢印は、上記式2及び式3で得られる、移動軌跡iと移動軌跡jとの線形距離f(i,j)を表す。データ点iとデータ点jとの線形距離は、データ間を直接結んだ距離になる。一方、図8Cに示す矢印は、式7及び式8で得られる移動軌跡iと移動軌跡jの測地距離g(i,j)を表す。図8Cに示すように、データ点iとデータ点jとの測地距離は、図中の矢印のように中継のデータ点sをたどった距離となる。
次に、線形距離f(i,j)と、式7及び式8により算出された測地距離g(i,j)の特徴を、図9A及び図9Bの概念図を用いて説明する。
図9A及び図9Bは、測地距離の特徴を説明するための概念図である。例えば、頭部の移動軌跡iと手先部の移動軌跡jとの線形距離は、図9Aに示すように、他の移動軌跡とは無関係な2つの移動軌跡間の距離となる。一方、頭部の移動軌跡iと手先部の移動軌跡jとの測地距離は、図9Bに示されるように、近傍の複数の移動軌跡を通って移動軌跡jにたどり着くまでの矢印で示したような距離の和となる。言い換えると、図9Aに示される線形距離は、他の移動軌跡の分布をまったく反映していないため、人物のような関節で繋がった形状に沿った移動軌跡間の距離を表現できない。これに対して、図9Bに示される測地距離は、他の移動軌跡を反映した距離となっているため、関節が繋がった形状に沿った移動軌跡間の距離を表現することが可能となる。
前述したように、式1によって表される移動軌跡xは、数学的には最大で(TL×2)次元空間のデータである。しかし、実際に画像から検出される移動軌跡は、図8B及び図8Cのように(TL×2)空間のごく一部の領域に局在化する性質をもつことが、発明者の実験によっても確認されている。このような性質をもつ移動軌跡に対して、データの分布とは無関係である2データ間の距離のみの線形距離(図8Bの矢印)よりも、近傍のデータの分布を反映した測地距離(図8Cの矢印)の方が、移動軌跡間の類似度を表す距離の尺度として適していると言える。
なお、距離算出部105が、線形距離から測地距離を求める手法として、式7及び式8を用いる手法を示したが、測地距離を求める手法を限定するものではない。例えば、距離算出部105は、線形距離から非線形化距離を求めるときに、閾値R以上の線形距離を無限大に置き換える代わりに、移動軌跡iとの距離が小さいほうからk番目より大きい移動軌跡との距離を無限大で置き換えることによって、非線形化距離を算出してもよい。
次に、距離補間部106により実行される距離補間ステップS206の詳細について説明する。距離補間部106は、距離算出部105によって算出されたNL個の長時間移動軌跡間の測地距離と、NS個の短時間移動軌跡間の測地距離とに基づいて、移動軌跡間の近似測地距離を算出して出力する。
以降、距離補間部106において、長時間移動軌跡間の測地距離g(i,j)と短時間移動軌跡間の測地距離g(i,j)とを用いて、近似測地距離g(i,j)を算出する手順を詳しく説明する。
距離補間部106は、NL個の長時間移動軌跡の測地距離g(i,j)とNS個の短時間移動軌跡の測地距離g(i,j)とを用いて、下記式10によって補間長時間測地距離g’(i,j)を求める。
Figure 2011013281
次に、距離補間部106は、前述した式8の最短経路算出と同様に下記式11に示すように、補間長時間測地距離g’(i,j)に対して、ある2点間を結び得る全ての経路の距離のうちの最短距離を計算し、計算結果を近似測地距離g(i,j)として出力する。
Figure 2011013281
ここで近似測地距離g(i,j)は、短時間移動軌跡と同じ数のNS個の移動軌跡間について算出できる。この近似測地距離g(i,j)は、式10及び式11のもつ意味から、NL個の長時間移動軌跡に対して、より数の多いNS個の短時間移動軌跡を用いて移動軌跡を補間して加えることにより補完した、NS個の仮想的な移動軌跡間の測地距離と解釈することができる。また、別の解釈としては、近似測地距離g(i,j)は、TSフレームにわたる短時間移動軌跡に対して、よりピクチャ数の多いTLフレームにわたる長時間移動軌跡を用いてピクチャ数を補外することによって生成した、TSフレームにわたる仮想的な移動軌跡間の測地距離とも解釈することができる。すなわち、近似測地距離g(i,j)は、長時間移動軌跡間の測地距離g(i,j)より多くの移動軌跡の情報を含み、短時間移動軌跡の測地距離g(i,j)より多くのピクチャの情報を含むこととなる。言い換えると、近似測地距離g(i,j)は、TLフレームにわたるNS個の仮想的な移動軌跡についての、移動軌跡間の近似的な測地距離に相当すると言える。
つまり、距離補間部106は、連続するTL枚のピクチャにわたるNL個の長時間移動軌跡間の測地距離と、連続するTS枚のピクチャにわたるNS個の短時間移動軌跡間の測地距離とを用いて、連続するTL枚のピクチャにわたるNS個の移動軌跡間の測地距離を近似測地距離として算出する。言い換えると、距離補間部106は、長時間移動軌跡間の測地距離及び短時間移動軌跡間の測地距離の一方を用いて他方を補間又は補外することにより、近似測地距離を算出する。具体的には、式10及び式11に示すように、距離補間部106は、短時間移動軌跡間の測地距離を用いて長時間移動軌跡間の測地距離の線形補間を行うことによって、近似測地距離を算出する。
次に、領域分割部107により実行される領域分割ステップS207の詳細について説明する。領域分割部107は、距離補間部106で算出された近似測地距離g(i,j)に基づいて、類似する移動軌跡の集まりを1つの領域として検出することで、領域分割を行う。
本実施の形態において領域分割部107は、近似測地距離g(i,j)が張る高次元空間の次元圧縮を行ったのち、次元圧縮された空間においてクラスタリングを行うものとする。
次元圧縮は、Young−Householder変換を行った後、Eigen systemを求めることで実現できる。次元圧縮は、多次元空間に分布するデータを低次元空間に効率良く射影するための方法である。
以降、領域分割部107が、近似測地距離g(i,j)の次元圧縮を行う手順について示す。
下記式12に示すように、近似測地距離g(i,j)のNS×NSのマトリクスを近似測地距離マトリクスGと表す。
Figure 2011013281
領域分割部107は、近似測地距離マトリクスGに対して、中心化行列Hを両側からかけるYoung−Householder変換を行う。これは、距離マトリクスが点間距離からなる距離行列であるのに対して、重心を原点とした距離マトリクスに変換するために行うものである。
Figure 2011013281
ここで、Hは中心化行列であり、
Figure 2011013281
である。Iは単位行列、NSは移動軌跡の数である。
また、
Figure 2011013281
である。
次に、領域分割部107は、次元圧縮を行うために、τ(G)に対するP個の固有ベクトル(eigen vector)e及びそれに対応する固有値(eigen value)λを算出する。
これにより、(式11)より、
Figure 2011013281
と表した場合、次元圧縮された空間上にgを射影した結果は、データz として以下のように表すことができる。
Figure 2011013281
なお、e は、p番目の固有ベクトルeのi番目の要素である。領域分割部107は、固有ベクトルの数Pを、利用するシーンに応じて実験的に決定しても良いし、以下のように固有値λから寄与率aを算出し、それに基づいて決定しても良い。
Figure 2011013281
ここで、Pは利用する固有ベクトルの数、すなわち圧縮された空間の次元数である。Nは全固有ベクトルの数である。そこで、領域分割部107は、寄与率aが一定値以上となる時の数Pを固有ベクトルの数と決定すれば良い。
以上のように領域分割部107は、式12から式17に示される計算処理により、近似測地距離g(i,j)の次元圧縮を行う。これにより領域分割部107は、距離補間部106によって算出された近似測地距離g及び対応する仮想的な移動軌跡を、固有ベクトルeで張られる次元圧縮された空間上のデータz と対応付けることができる。
図10A〜図10Cは、近似測地距離を用いたクラスタリングの一例を説明するための図である。なお、図10B及び図10Cは、人物の歩行画像を入力とした場合の画素iの時間的移動軌跡が非線形に次元圧縮された空間に射影された結果を示す図でもある。図10B及び図10Cに示すグラフの縦軸、横軸はそれぞれ固有ベクトルe、eである。2次元上に射影された点(z ,z )は、近似測地距離gを射影したものである。ここで、非線形空間上のデータz と画像上での画素iの移動軌跡xとは一対一の対応関係にあるため、点(z ,z )は、画素iの移動軌跡xに対応していると捉えることができる。なお、ここでは結果を可視化するために非線形空間の次元数を2次元としたが、前述のように必ずしも2次元である必要は無いし、高い次元数の方がより高い精度でデータを射影することができる。
次に、領域分割部107は、図10Bに示したような移動軌跡を次元圧縮したデータz に対してクラスタリングを行うことで、移動軌跡のセグメンテーションと移動体の検出を行う。本実施の形態では、クラス数を所与としてクラス内分散が最小となるように移動軌跡をクラスタリングする手法を用いるものとする。
まず、セグメント領域を次のように表現する。
Figure 2011013281
ここで、Mは、セグメント領域数であり利用するシーンに応じて経験的に決定される。それぞれのセグメント領域θは、パラメータ
Figure 2011013281
及びパラメータZで表現される。ここで、パラメータ
Figure 2011013281
は、次元圧縮された空間におけるセグメント領域θに属するデータの座標値の平均値である。また、パラメータZは、セグメント領域θに属するデータの座標値に関する共分散行列である。領域分割部107は、パラメータ
Figure 2011013281
の初期値をランダムに決定しても良いし、圧縮された非線形空間中をグリッドで等間隔に分割する等して、そのグリッドの交点の座標値を初期値として決定しても良い。
なお、パラメータ
Figure 2011013281
及びパラメータZは、以下の式20及び式21のように表すことができる。
Figure 2011013281
Figure 2011013281
ここで、Cは圧縮された非線形空間上でセグメント領域θに属するデータ数である。
以下、具体的なクラスタリングの方法について説明する。まず、領域分割部107は、次式22の距離関数を用いて、データzが属するセグメント領域θを求める。
Figure 2011013281
ここで、ψ(z)は、画素iの移動軌跡に対応するデータzとそれぞれのセグメント領域θとの距離を示すものである。各データは、ψ(z)が最小値をとるセグメント領域θに属するものとする。なお、φ(z)はマハラノビス距離であり、下記式23によって表される。
Figure 2011013281
ここで、領域分割部107は、φ(z)をψ(z)の代わりとして用いて計算しても構わない。
さらに、p(ω)は、一定値であっても良いし、人物など決まった被写体のセグメンテーションを行う場合は、人物部位の形状や面積比等をもとにあらかじめ設定された値であっても良い。ωは、セグメント領域θに対する重み係数である。
次に、領域分割部107は、式22の計算結果から、セグメント領域θに属するデータzを用いて、以下式24及び式25のようにセグメント領域θのパラメータ
Figure 2011013281
及びパラメータZを更新する。
Figure 2011013281
Figure 2011013281
ここで、zcmは、セグメント領域θに属する圧縮された非線形空間上のデータである。また、ωは、一定値「1」であっても良いし、入力データの平均値からのずれ具合によって調整された値であっても良い。このように、領域分割部107は、式22から式25の距離計算及びパラメータ更新を規定回数繰り返すことによって、非線形空間上の各データが属するセグメント領域θを算出することができる。なお、領域分割部107は、上記に加えて、k−mean、競合学習など、他のクラスタリング方法を用いてセグメント領域を算出しても構わない。
図10Cは、M=3として非線形空間上のデータをセグメンテーションした一例を示す図である。圧縮された非線形空間上でのセグメント領域θからθについて画像上での対応を見ると、θは手前の人物、θは後方の人物に対応している。なお、実際には背景領域の移動軌跡も含んでおり、背景領域は領域θとしてセグメンテーションされるが、図の表記の都合上省略する。
ここで、圧縮された非線形空間上のセグメント領域に対応するのは、1枚の画像上の領域だけではなく時間的に連続した複数枚の画像に渡って画素を追跡した結果である。すなわち、領域分割部107は、圧縮された非線形空間上でセグメンテーションを行うことによって、画像中を移動する物体の領域を時間的に追跡した結果として、画像中の移動する被写体ごとに画像領域を抽出することができる。また、移動体検出装置100は、前処理として人物候補領域を設定する必要がないため、人物候補領域の検出ミスに起因するセグメンテーションの失敗がない。以上のように、移動体検出装置100は、膨大なパラメータのフィッティングを必要とせずに、非線形空間でクラスタリングを行うことによって、形状が変化しながら移動する人物等を含む画像を安定的にセグメンテーションし、これによって画像中の移動体の検出を行うことが可能となる。
最後に、出力部104によって実行される出力ステップS204の詳細について説明する。出力部104は、移動軌跡のセグメント領域θに基づいて画像を生成して、ディスプレイ1003に表示する。
本実施の形態において出力部104は、画像入力部101で受け付けた動画像に対して、移動体検出部103で特定された移動軌跡の領域ごとに異なる表示態様となるように、画像処理を施して出力し、ディスプレイ1003に表示する。ここでは、出力部104は、複数の移動軌跡のセグメント領域θごとに異なる色を選択し、選択した色でそれぞれ移動軌跡の画像座標位置の画素を描画することで、画像を生成する。
図11A及び図11Bは、出力部104が生成した画像の一例を示す図である。図11A及び図11Bに示すように、ディスプレイ1003にはクラスタリングした移動軌跡ごとに異なる色を持つ画像が表示されることとなる。
なお、出力部104は、移動軌跡の画像座標位置の画素をセグメント領域に応じた色で描画することにより画像を生成するとしたが、画像を生成する方法をこれに限定されるものではない。出力部104は、移動軌跡の数と画像全体の画素数とが同数であれば、上述した方法により画像中の全画素をクラスタに応じた色で描画することができる。一方、移動軌跡の数が画像全体の画素数より少ない場合、どの移動軌跡の画像座標位置とも一致しない画素が存在する。
このような移動軌跡の画像座標位置と一致しない画素については、出力部104は、上記の方法とは別の方法で描画しても良い。例えば、出力部104は、動き解析部102が、ある移動軌跡を生成するための動き検出に用いたブロックに属する画素を、その移動軌跡のセグメント領域と同じ色で描画するとしても良い。
また、移動軌跡の画像座標位置と一致しない画素を描画する別の方法として、出力部104は、最近傍の移動軌跡のセグメント領域と同じ色で描画するとしても良い。
また、移動軌跡の画像座標位置と一致しない画素を描画する別の方法として、出力部104は、複数の移動軌跡の画像座標位置(点)の間を、Delaunay三角メッシュ生成法にて結び、同一のセグメント領域に属する3点に囲まれる3角形に含まれる画素を、そのセグメント領域と同じ色で描画するとしても良い。
なお、連続して入力される動画像に対して処理を行う場合は、移動体検出装置100は、上述した図3のステップS201〜S207の動作を、TL枚のピクチャが入力されるたびに繰り返し行うとしても良い。
以上のように、本実施の形態の移動体検出装置は、動画像中の移動軌跡間の類似度に基づいて移動軌跡をクラスタリングして、画像中の移動体の領域を抽出する。そして移動体検出装置は、移動軌跡の類似度の指標として、移動軌跡間の測地距離を用いることにより、被写体の形状の変化や関節物体の姿勢の変化によらずに、画像中の移動体の領域抽出をすることができる。
さらに、本実施の形態の移動体検出装置は、距離補間部106によって算出した複数の移動軌跡間の近似測地距離を類似度の指標として、移動軌跡のクラスタリングを行う。ここで、移動軌跡間の類似度の算出において、より多くのピクチャ数にわたる移動軌跡を用いた場合、より長い時間にわたる移動軌跡の類似度を算出することができる。そのため、より多くのピクチャ数にわたる移動軌跡を用いることは、正しいクラスタリング結果を得るために有効である。しかしながら、前述したように、多くのピクチャを用いるほど算出可能な移動軌跡の数は減ってしまう。その結果、移動軌跡の粗密の差がおおきくなり、移動体検出装置が領域分割を誤る原因となる。一方、より少ないピクチャを用いた場合、算出可能な移動軌跡の数は増えるが、移動軌跡間の類似度の差が小さくなる。そのため、特に、長い時間では異なる動きを示すはずが、短い時間では似ている動きを示す移動軌跡が発生し、移動体検出装置が領域分割を誤る原因になる。このようなジレンマに対して、本実施の形態の移動体検出装置は、長時間移動軌跡に対して短時間移動軌跡を用いて移動軌跡の数を増加させた近似測地距離を用いて移動軌跡のクラスタリングを行うため、より正しいクラスタリング結果を得ることが期待できる。
このような例を、図12及び図13を用いて説明する。図12は、図4及び図5と同様なシーンにおいて、TLフレームにわたって全ての移動軌跡が追跡可能であった理想的な場合の移動軌跡の分布を示す概念図である。しかしながら、実際の移動軌跡は、遮蔽などが原因で、ピクチャ数が多いほど数が減ってしまうので、図13(a)に示すような分布となる。移動体検出装置100が、図13(a)のように疎な移動軌跡を用いて測地距離を算出し、算出した測地距離を用いてクラスタリングを行った場合、誤ったクラスタリングが行われてしまう可能性が高くなる。一方、より少ないピクチャ数にわたる移動軌跡であれば、その個数は理想的な状態に近づくが、図13(b)に示すように移動軌跡間の類似度の違いが少なくなる。このような場合に、長時間移動軌跡と短時間移動軌跡との両方に基づいて近似測地距離を算出することは、図13(c)に示すような、図12の理想的な分布に近い移動軌跡に基づいて測地距離を算出することに相当する。
以上のようにして、本実施の形態における移動体検出装置及び方法によれば、画像の移動軌跡の類似度にもとづいてクラスタリングを行うことによって、画像中を移動する物体の領域を時間的に追跡した結果として、関節物体の姿勢によらずに、画像中の移動体の領域抽出をすることができる。また、前処理として人物候補領域を設定する必要がないため、人物候補領域の検出ミスに起因する領域抽出の失敗がない。以上のように、膨大なパラメータのフィッティングを必要とせずに、移動軌跡間の測地距離に基づいてクラスタリングを行うことによって、形状が変化しながら移動する人物等を含む画像を安定的に領域抽出し、これによって画像中の移動体の検出を高精度に行うことが可能となる。
なお、本実施の形態の移動体検出装置において、距離補間部106は、長時間移動軌跡間の測地距離と短時間移動軌跡間の測地距離とから、上記式10及び式11によって近似測地距離を算出したが、本発明はこれらの式に限定されるものではない。距離補間部106は、長時間移動軌跡間の測地距離g(i,j)より多くの移動軌跡の情報を含み、短時間移動軌跡の測地距離g(i,j)より多くのピクチャの情報を含むように近似測地距離を算出する式であれば、他の式を用いて近似測地距離g(i,j)を算出してもよい。例えば、距離補間部106は、式10の代わりに、下記式30を用いて補間長時間測地距離g’(i,j)を算出したのち、式11を用いて近似測地距離g(i,j)を算出しても良い。
Figure 2011013281
式30は、長時間移動軌跡間の測地距離を短時間移動軌跡間の測地距離を用いて補間する際に、短時間移動軌跡間の測地距離が小さいほど重みwが大きくなるように重み付きの線形補間をすることに相当する。つまり、距離補間部106は、短時間移動軌跡間の測地距離を用いて長時間移動軌跡間の測地距離の線形補間を行うときに、短時間移動軌跡間の測地距離が小さいほど重みが大きくなるように重み付きの線形補間を行うことによって、近似測地距離を算出しても良い。このような重みを加えて線形補間を行うことにより、距離補間部106は、短時間移動軌跡間の測地距離のより局所的な分布を保持しながら、近似測地距離を算出することが可能になる。すなわち、移動体検出装置は、このように算出された近似測地距離を用いることにより、移動体の領域をさらに高精度に抽出することが可能となる。
なお、本実施の形態の移動体検出装置において、距離補間部106は、ある2つの移動軌跡間の近似測地距離を算出する際に、全ての短時間移動軌跡の測地距離g(i,j)を用いて計算するとしたが、短時間移動軌跡を全て用いる方法に限定するものではない。例えば、一部の短時間移動軌跡を抽出し、抽出した短時間移動軌跡の測地距離g(i,j)を用いて近似測地距離を計算するとしても良い。より具体的には、例えば、移動軌跡iと移動軌跡jの近似測地距離g(i,j)を算出する場合に、全ての短時間移動軌跡のうち、移動軌跡iに類似する短時間移動軌跡と、移動軌跡jに類似する短時間移動軌跡とを抽出して、これらを部分短時間移動軌跡とする。そして、全ての短時間移動軌跡の測地距離g(i,j)の代わりに、抽出した部分短時間移動軌跡の測地距離g’(i,j)を用いて、式10及び式30によって、補間長時間測地距離g’(i,j)を算出する。最後に、式11を用いて補間長時間測地距離g’(i,j)から近似測地距離g(i,j)を算出する。
すなわち、距離補間部106は、短時間移動軌跡間の測地距離に基づいて、類似する短時間移動軌跡の集まりである部分短時間移動軌跡を抽出し、抽出した部分短時間移動軌跡に基づいて、近似測地距離を算出しても良い。つまり、距離補間部106は、短時間移動軌跡間の測地距離が類似する短時間移動軌跡の集まりを部分短時間移動軌跡として抽出し、抽出した部分短時間移動軌跡を用いて近似測地距離を算出しても良い。これにより、移動体検出装置100は、例えば動きの異なる複数の移動体が含まれる場合であっても、移動軌跡i及び移動軌跡jに対応する移動体と同一または類似する動きの移動体の短時間移動軌跡を用いて近似測地距離g(i,j)を算出することができるため、より精度の高い近似測地距離g(i,j)を算出することができ、その結果、移動体の領域を高精度に抽出することが可能となる。
なお、本実施の形態の移動体検出装置において、距離補間部106は、式10及び式30の計算を行う際に、長時間移動軌跡の測地距離g(i,j)と短時間移動軌跡の測地距離g(i,j)とが、いずれもその要素に無限大(∞)の値を含まないものと仮定して計算している。もしも測地距離の値として無限大が含まれる場合、すなわち、ある移動軌跡iと移動軌跡jとの距離が無限大の場合は、距離補間部106は、移動軌跡iとの測地距離が有限である複数の移動軌跡と、移動軌跡jとの測地距離が有限である複数の移動軌跡との2つの部分集合(部分移動軌跡)に分割することが好ましい。そして、分割された部分集合が、それぞれ別のクラスタであるものとして、各処理部は以降の各処理を行うと良い。
すなわち、距離補間部106は、短時間移動軌跡間の測地距離に基づいて、類似する短時間移動軌跡の集まりである部分短時間移動軌跡を複数抽出し、抽出した複数の部分短時間移動軌跡に基づいて、近似測地距離を算出しても良い。つまり、距離補間部106は、短時間移動軌跡間の測地距離が有限となる短時間移動軌跡の集まりを部分短時間移動軌跡として複数抽出し、抽出した複数の部分短時間移動軌跡ごとに近似測地距離を算出しても良い。この場合、領域分割部107は、同じ部分短時間移動軌跡から算出された近似測地距離ごとに類似する移動軌跡の集まりを1つの領域として特定する。これにより、移動体検出装置100は、抽出された複数の短時間移動軌跡の中に適切な測地距離を算出できない短時間移動軌跡の組合せが含まれる場合であっても、移動体の領域を高精度に抽出することが可能となる。
なお、本実施の形態の移動体検出装置において、距離算出部105は、動き解析部102によって生成された移動軌跡から抽出する、長時間移動軌跡のピクチャ数TLと短時間移動軌跡のピクチャ数TSは、それぞれTL=30、TS=10であるとしたが、この数値に限定するものではない。例えば、検出すべき移動体の種類や状態に応じて別の数値を用いても良い。
例えば、検出する対象が歩行者と仮定できる場合、平均的な歩行周期が約1秒(30フレーム)であることから、TL=30フレームのピクチャにわたる長時間移動軌跡は、人の歩行1周期分で正規化された動きの情報を表す。歩行周期で正規化された移動軌跡は、歩行周期に満たない一部の移動軌跡に比べて、歩行者ごとの移動方向の違いを表現するのに適していると言える。したがって、30枚を長時間移動軌跡のピクチャ数TLとして長時間移動軌跡を抽出することは、複数の歩行者が含まれる動画像から、歩行者ごとに移動体を抽出することを目的とした場合に、適しているといえる。一方、例えば片方の足や手などのように、歩行1周期のうち一時的に遮蔽される領域は、歩行1周期分のピクチャにわたる移動軌跡が抽出できない。そこで、距離算出部105は、移動軌跡を抽出可能なピクチャ数である10枚を短時間移動軌跡のピクチャ数TSとして短時間移動軌跡を抽出すれば、このような1周期分の移動軌跡が算出できない領域に対しても短時間移動軌跡を抽出することができる。移動体検出装置100は、このように抽出された短時間移動軌跡を用いることで、一時遮蔽された領域に対しても、移動体領域の判定や抽出が可能になる。
以上のように、検出すべき対象が周期的な変形を伴う移動体である場合、距離算出部105において抽出する長時間移動軌跡のピクチャ数(TL)を、移動体の変形周期に対応するピクチャ数とすることで、移動体の変形の影響を受けにくくなり、移動体をより正しく抽出することができるという効果がある。また、長時間移動軌跡が算出できないピクチャ中の移動体領域について、移動体か否かを検出するために、移動軌跡が算出可能な最大のピクチャ数をTSとすることで、移動体の領域に、より正確に対応した移動体領域の検出が可能になるという効果がある。
なお、本実施の形態の移動体検出装置において、距離算出部105が、動き解析部102によって生成された移動軌跡から抽出する、TLフレームにわたる長時間移動軌跡と、TSフレームにわたる短時間移動軌跡との時間的な位置関係は、図7の配置であるものとしたが、これに限定するものではない。TSフレームのピクチャがTLフレームに含まれていれば、どのような位置関係であっても良い。例えば、長時間移動軌跡と短時間移動軌跡との時間的な位置関係が、図14A又は図14Bに示すような位置関係などであっても、距離算出部105は、図7に示す位置関係の場合と同様に処理することができる。
図7、図14A、及び図14Bのように、短時間移動軌跡を抽出するピクチャと長時間移動軌跡を抽出するピクチャとの相対的なピクチャの配置が異なる場合、距離補間部106によって、短時間移動軌跡間の距離と長時間移動軌跡間の距離とから算出される近似測地距離に反映される各ピクチャの重みが変化する。例えば、図7の場合、第1フレームから第TLフレームまでのピクチャのうち、第1フレームから第TSフレームにおいて抽出された短時間移動軌跡は移動体の検出に利用可能である。一方、第1フレームから第TSフレームにおいて一時的に遮蔽され、後の第(TS+1)フレームから第TLフレームまでにピクチャ中に存在する領域は、移動軌跡を用いた移動体の検出処理ができない。したがって、第1フレームから第TLフレームまでのピクチャのうち、移動体抽出の結果の重要度がピクチャによって異なる場合は、距離算出部105は、より重要度の高いピクチャが、短時間移動軌跡を抽出するピクチャに含まれるように、ピクチャの配置を決定すればよい。例えば、第1フレームから第TLフレームまでのピクチャのうち、最初のピクチャが重要な場合は、距離算出部105は、短時間移動軌跡を抽出するピクチャの配置を、図7の配置に決定すれば良い。一方、ロボットや車両の制御のための移動体検出などのように、移動体が撮影されてから装置が移動体を検出するまでの時間遅延が少ないことが望ましい場合は、距離算出部105は、短時間移動軌跡を抽出するピクチャの配置を、図14Bのような配置に決定すれば良い。
また、距離算出部105は、図7と図14Aと図14Bとの関係のように、第1フレームから第TLフレームまでのピクチャに対して配置が異なるTSフレームの短時間移動軌跡を用いて同様の処理を行った結果を、それぞれTSフレーム分のピクチャに対応する、移動体領域の抽出結果としても良い。
なお、本実施の形態の移動体検出装置において、距離算出部105が、移動軌跡から抽出する、長時間移動軌跡のピクチャ数TLと短時間移動軌跡のピクチャ数TSは、あらかじめ定められており、一定であるものとして説明したが、それぞれの移動軌跡の算出に利用するピクチャ数を動的に変化させても良い。具体的には、距離算出部105は、抽出される長時間移動軌跡の数に応じて、長時間移動軌跡のピクチャ数TLを変化させて長時間移動軌跡を抽出しても良い。また、距離算出部105は、抽出される短時間移動軌跡の数に応じて、短時間移動軌跡のピクチャ数TSを変化させて短時間移動軌跡を抽出しても良い。これにより、距離算出部105は、複数のピクチャに含まれる移動体の特徴に応じて、移動軌跡のピクチャ数を変更できるので、より多くピクチャ数にわたるより多くの個数の移動軌跡を抽出することが可能となる。すなわち、移動体検出装置100は、より多くの情報を含む移動軌跡を用いることができるので、より高精度に領域分割をすることが可能となる。
具体的には、長時間移動軌跡のピクチャ数TLと短時間移動軌跡のピクチャ数TSを動的に変化させる手法として、距離算出部105は、例えば、長時間移動軌跡と短時間移動軌跡のどちらか一方、又は両方の、移動軌跡個数の上限値をあらかじめ定めておき、これらの上限値を大きく超えないようにピクチャ数TL又はTSを動的に変化させても良い。より具体的には、距離算出部105は、ピクチャ数TLにわたる長時間移動軌跡の個数が、あらかじめ定められた長時間移動軌跡の個数の上限値NLmax(第1の上限値)を超えた場合に、ピクチャ数TLを増加させるとしても良い。また、短時間移動軌跡のピクチャ数についても同様に、距離算出部105は、ピクチャ数TSにわたる短時間移動軌跡の個数が、あらかじめ定められた短時間移動軌跡の個数の上限値NLmax(第2の上限値)を超えた場合に、ピクチャ数TSを増加させるとしても良い。距離算出部105は、このように増加させたピクチャ数にわたる移動軌跡を再度抽出することにより、より多くのピクチャ数にわたる移動軌跡を適切な個数抽出することができる。ここで移動軌跡の数が多いということは、動画像中の変化が小さい、被写体の動きが小さい、動きによる遮蔽領域が少ない、などの理由により、複数のピクチャにわたる対応点が多く算出可能であることに相当する。このような場合、ピクチャ数TL、又はTSを増加させることによって、移動軌跡により多くのピクチャにわたる動きの情報を含ませることができるため、その結果、移動軌跡に基づいて移動体を正しく検出できるという効果が期待できる。
また、長時間移動軌跡のピクチャ数TLと短時間移動軌跡のピクチャ数TSを動的に変化させる別の手法として、距離算出部105は、例えば、長時間移動軌跡と短時間移動軌跡のどちらか一方、又は両方の、移動軌跡個数の下限値をあらかじめ定めておき、これらの下限値を下回らないようにピクチャ数TL又はTSを動的に変化させるとしても良い。具体的には、距離算出部105は、ピクチャ数TLにわたる長時間移動軌跡の個数が、あらかじめ定められた長時間移動軌跡の個数の下限値NLmin(第1の下限値)を下回った場合に、長時間移動軌跡の個数がNLminを超えるように、ピクチャ数TLを減少させるとしても良い。また、短時間移動軌跡のピクチャ数についても同様に、距離算出部105は、ピクチャ数TSにわたる短時間移動軌跡の個数が、あらかじめ定められた短時間移動軌跡の個数の下限値NLmin(第2の下限値)を下回った場合に、ピクチャ数TSを減少させるとしても良い。距離算出部105は、このように減少させたピクチャ数にわたる移動軌跡を再度抽出することにより、できる限り多くのピクチャ数を確保しながら、移動軌跡があらかじめ定められた移動軌跡の数を下回らないようにすることができる。そのため、例えば動画像中の被写体の動きによる遮蔽によって長時間移動軌跡の個数が相対的に小さくなる動画像に対しても、移動軌跡の数が極端に少なくなるということが発生しにくくなる。その結果、領域分割ができないということが発生しにくくなるという効果がある。
なお、本発明に係る移動体検出装置及び方法は、上記実施の形態に限定されるものではなく、上記実施の形態に対して当業者が思いつく各種変形を施して得られる形態、あるいは後述する各種変形例を含む複数の形態における構成要素を任意に組み合わせて得られる形態も本発明に含まれる。
例えば、上記実施の形態の移動体検出装置の距離算出部105は、あらかじめ定められた一定の値である閾値Rを用いて測地距離を算出した。しかし、本発明の距離算出部105は、これに限定されるものではない。例えば、距離算出部105は、閾値Rを徐々に小さくしながら測地距離を算出しても良い。この場合、距離算出部105、距離補間部106及び領域分割部107は、徐々に小さくなる閾値Rごとに、距離算出、距離補間、及び領域分割を繰り返し行い、所定の条件に達した時点で処理を終了しても良い。
なお、本実施の形態の移動体検出装置において、領域分割部107は、式12から式17の処理によって近似測地距離g(i,j)の次元圧縮を行ったのち、次元圧縮された測地距離を用いて、クラス数を所与としてクラス内分散が最小となるように移動軌跡をクラスタリングする手法を用いるものとしたが、領域分割の手法はこれに限定されるものではない。領域分割部107は、近似測地距離を用いて、移動軌跡をクラスタリングする手法であれば、他の手法を用いてもよい。
また、上記実施の形態では、領域分割の結果はディスプレイに表示されたが、例えば、移動体の動き予測に利用されてもよい。具体的には、本発明に係る移動体検出装置は、図15Aに示すように、上記実施の形態における構成要素に加え、動き予測部150を備えてもよい。
図15Aは、本発明の実施の形態の変形例における移動検出装置の構成を示す図である。図15Aに示すように、本変形例における移動体検出装置は、図1に示した移動体検出装置が有する構成要素に加えて、動き予測部150を備える。なお、図15Aにおいて、図1と同じ構成要素については、同一の符号を付し、説明を省略する。
また、図15Bは、本発明の実施の形態の変形例における移動検出装置の動作を表すフローチャートである。図15Bにおいて、図3と同様の処理については、同一の符号を付し、適宜説明を省略する。なお、図15Bにおいて、ステップS250は、図15Aの動き予測部150に対応している。つまり、動き予測部150は、動き予測ステップS250の処理を実行する。
動き予測部150は、領域分割部107で得られた領域分割の結果に基づいて、各領域に含まれる画素の移動軌跡から代表軌跡を算出し、その代表軌跡をもとに移動体の動きを予測する(ステップS250)。
さらに具体的には、領域θに属する画素の移動軌跡をxcmと表現した場合、動き予測部150は、まず、下記式26のように、クラスタ領域θごとに代表の移動軌跡
Figure 2011013281
を求める。なお、動き予測部150は、式26を用いて、代表の移動軌跡として、平均移動軌跡を算出しているが、その計算に対して画素の移動軌跡xcmごとに重み付け等を行って算出してもよいし、画像上でのクラスタの重心に対応する画素の移動軌跡を代表の移動軌跡として算出してもよい。
Figure 2011013281
ここで、Cは、領域θに属する画素数もしくは画素の移動軌跡の数である。
図16は、本変形例における移動体検出装置による動き予測を説明するための図である。つまり、図16は、式26に基づいてクラスタ領域θごとに代表の移動軌跡を求める一例を示す図である。図中の「×」は、それぞれ時刻tに対応する代表の移動軌跡
Figure 2011013281
の画素位置を示している。このような算出方法によれば、上述したように非線形空間上でのクラスタリングによる領域分割が、画素動きの類似度を考慮して行われるため、動き予測部150は、単純に近接した画素の移動軌跡の時間平均を求めるような方法と比較して、動きが類似した画素の移動軌跡のみを用いて代表の移動軌跡を算出できるため、より高精度に代表の移動軌跡を求めることができる。このように、動き予測部150は、クラスタ領域ごとに代表の移動軌跡を求めることによって、領域ごとの動きを正確かつ簡便に表現することができる。
次に、動き予測部150は、算出した代表の移動軌跡から、時刻Tより先の時刻における移動体の位置を予測する。そのために、動き予測部150は、代表の移動軌跡から加速度を算出し、T+1以降の移動体の位置を予測する。動き予測部150は、3枚以上の時系列画像が入力された場合は、次式27のように代表の移動軌跡
Figure 2011013281
ごとに加速度ベクトルsを算出する。
Figure 2011013281
ここで、u は動きベクトルであり、次式のように表すことができる。
Figure 2011013281
動き予測部150は、式27に示される加速度ベクトルsを用いて、図16において「×」で示されるように、移動体ごとに、時刻T+t’における移動体の位置pos(T+t’)を、以下の式29のように、予測する。
Figure 2011013281
最後に、出力部104は、このように動き予測部150が予測した移動体の位置を出力する。これにより、動き予測部150は、加速度を加味した動き予測が可能となる。移動体の動きが急激に早くなったり、急激に止まったりといった場合に、動き予測部150は、その加速度を反映して移動体の位置を予測することができる。なお、動き予測部150は、上記動きベクトルの代わりにアフィンパラメータを用いて動き予測をしてもかまわない。アフィンパラメータは、回転運動を含む動きの表現が可能であり、物体の位置をより正確に予測することができる。
図17は、別の動画像に対する移動予測の結果の一例を示す図である。つまり、図17は、人物が1人含まれる動画像において、クラスタ数が9である場合に、式26に基づいてクラスタ領域θごとに代表の移動軌跡を求める一例を示す図である。ただし、図17において、見やすさを考慮して、頭部に対応するクラスタ領域θと脚部に対応するクラスタ領域θに関する代表の移動軌跡のみを示している。また、背景は図示していない。図中の「×」は、それぞれ時刻tに対応する代表の移動軌跡
Figure 2011013281
の要素であり画素位置を示している。
以上のようにして、本実施の形態及びその変形例に係る移動体検出装置及び方法では、画素間の距離あるいは移動軌跡の類似度に基づいてクラスタリングを行うことによって、画像中を移動する物体の領域を時間的に追跡した結果として、関節物体の姿勢によらずに、画像中の移動体もしくは、移動体の部位の検出、移動体を含む画像の領域分割をすることができる。また、前処理として人物候補領域を設定する必要がないため、人物候補領域の検出ミスに起因する領域分割の失敗がない。以上のように、膨大なパラメータのフィッティングを必要とせずに、非線形空間でクラスタリングを行うことによって、形状が変化しながら移動する人物等を含む画像に対しても正しく領域分割し、これによって画像中の移動体の検出を行うことが可能となる。
また、上記実施の形態における移動体検出装置100は、画像入力部101及び動き解析部102を備えたが、本発明は、これらの構成要素を必須とするものではない。つまり、動画像を構成する複数のブロックのそれぞれにおける画像の移動軌跡が予め算出されている場合には、移動体検出装置100は、外部から、そのような移動軌跡を取得し、取得した移動軌跡に対して、図3のステップS203〜S207の処理を実行してもよい。
また、本発明は、移動体検出装置として実現されたが、領域分割部107の機能を持つものであれば、動画像において動きをもつオブジェクトの領域を抽出、あるいは、分割する画像処理装置として実現することができるのは言うまでもない。
本発明は、複数枚のピクチャにおける動きに基づいて、形状が変化しながら移動する人物等の移動体を含む画像を領域抽出することによって画像中の移動体を検出する移動体検出装置として、例えば、運動解析装置、監視装置、ビデオカメラやTV等のAV機器に内蔵させる移動体検出装置等として利用することが可能である。
100 移動体検出装置
101 画像入力部
102 動き解析部
103 移動体検出部
104 出力部
105 距離算出部
106 距離補間部
107 領域分割部
110 カメラ
120 ディスプレイ
150 動き予測部
1001 カメラ
1002 コンピュータ
1003 ディスプレイ
1004 I/F
1005 CPU
1006 ROM
1007 RAM
1008 HDD
1009 ビデオカード
本発明は、動画像中の移動体の領域を分割することによって移動体を検出する画像処理技術に関し、特に、移動体が人物のように形状が変化しながら移動する対象である場合においても、動画像中の動き情報に基づいて移動体を検出する装置に関する。
従来より、移動体の像(以下、単に「移動体」という。)が含まれる画像から、画像中の移動体の領域を抽出することによって移動体を検出する領域抽出技術の研究開発が広く行われてきている。特に移動体が人である場合にその移動体の領域を抽出する技術は、デジタルビデオカメラもしくはデジタルスチルカメラにおける焦点制御、画質改善処理、自動車の安全運転支援システム、又はロボットにおける人との衝突回避制御もしくは衝突回避のための警報などに、共通して利用される基礎技術である。
画像中の移動体の領域を抽出する技術のうち、一般的な手法として、(1)あらかじめ用意した移動体のモデルと、画像中の候補領域との類似度を評価して移動体の領域を特定する方法と、(2)画像を複数の小領域に分割して特徴量を算出し、特徴量を基準として類似する領域を統合することで移動体の領域を特定する方法の2つの手法がある。
前者の代表的な手法として、画像から移動体領域の候補を抽出したのち、抽出した移動体領域の候補とあらかじめ用意した移動体モデルとの類似度を評価して、類似度が高い領域を移動体領域として抽出する手法がある。さらに、歩行する人物等のように、変形しながら移動する移動体の領域を抽出する場合、変形を考慮した移動体モデルを利用する手法がある。
例えば、特許文献1に記載の手法では、移動体領域候補として複数の画像から移動体のシルエット画像を抽出する。そして、あらかじめパラメータ化した移動体の変形に関するモデルと、抽出したシルエット画像との類似度を評価し、類似度が高い領域とモデルのパラメータとを推定する。これによって、形状が周期的に変化しながら移動する人物に対しても、パラメータ化したモデルを当てはめることができるため、移動体の領域抽出を可能にしている。
後者の代表的な手法としては、画像を複数の小領域に一旦分割し、各小領域の画素の輝度値に基づいた特徴量を抽出したのち、複数の小領域間の特徴量の類似度を評価して、類似度が高い領域を同一の移動体領域として統合する手法がある。
例えば、特許文献2に記載の手法では、画像を矩形の小領域に一旦分割し、小領域の輝度や動きに基づいて特徴量を算出し、特徴量の類似度の順番に基づいて小領域を統合することで、移動体の領域抽出を可能にしている。
特開平8−214289号公報 特開2006−031114号公報
しかしながら、上記従来の領域抽出の技術は、例えば、街頭などで複数の人物等の移動体が行き交うシーンなどのように、移動体が他の移動体によって部分的に遮蔽される場合、あるいは移動体の大きさが著しく異なる場合などに、正しく移動体を抽出することができないという問題がある。
特許文献1に記載の手法に代表される、あらかじめ用意したモデルを用いる従来の領域抽出手法では、画像から移動体領域の候補を抽出する必要がある。この時、適切に移動体領域の候補を抽出できなければ、移動体をパラメータ化したモデルを正確に移動体領域候補に当てはめることが不可能になる。特に、上述のようなシーンにおいては、移動体の大きさあるいは形が大きく変化するため、移動体領域候補を適切に抽出することは困難である。
さらに、移動体領域の候補を適切に抽出できたとしても以下のような課題がある。特に人物等の多関節物体が移動体である場合、移動体のさまざまな姿勢あるいは大きさに起因する画像の変化の幅が非常に大きいため、移動体モデルのパラメータ化を行う際に膨大な数のパラメータが必要となる。このことは、モデルの当てはめ誤りを誘発する。そのため、例えば、複数の移動体を1つの移動体として誤って領域抽出したり、抽出対象となる移動体が存在しない領域を移動体として誤って領域抽出したりするなど、正しく移動体を検出することができないという課題があった。
特許文献2に記載の手法に代表される、小領域間の特徴量を用いる従来の領域抽出手法では、特徴量として用いる輝度値あるいは動きが類似していない小領域は、異なる領域として分離される。そのため、人物のように、場所によって輝度値が異なり、かつ、場所によって動きが異なる移動体は、同一移動体の上の2つの小領域を異なる移動体の領域として抽出されてしまい、正しく移動体を検出することができないという課題があった。
そこで本発明は、上記従来の課題を解決するためになされたものであり、動画像中における移動体の形状の変化、大きさの変化、又は遮蔽などの影響を受けずに、移動体の領域を高精度に抽出することができる移動体検出方法等を提供することを目的とする。
本発明の一実施形態は、動画像中の移動体の全部又は一部の領域を分割することによって動画像中の移動体を検出する移動体検出方法であって、動画像に含まれる2枚以上のピクチャにわたる対応点である複数の移動軌跡から、TL枚(TL>=3)のピクチャにわたる移動軌跡である長時間移動軌跡をNL個(NL>=2)と、前記TL枚のピクチャに含まれるTS枚(TL>TS>=2)のピクチャにわたる移動軌跡である短時間移動軌跡をNS個(NS>NL)とを抽出し、NL個の長時間移動軌跡間の測地距離と、NS個の短時間移動軌跡間の測地距離とをそれぞれについて算出する距離算出ステップと、前記距離算出ステップで算出された、長時間移動軌跡間の測地距離及び短時間移動軌跡間の測地距離に基づいて、TL枚のピクチャにわたるNS個の移動軌跡間の測地距離を近似測地距離として算出する距離補間ステップと、前記距離補間ステップで算出された近似測地距離に基づいて、移動軌跡の集まりを1つの領域として分割することによって、領域分割をする領域分割ステップとを含む移動体検出方法としたものである。
上記の構成によって、長時間の移動軌跡間の近似測地距離に含まれる移動軌跡の動きの違いの情報に基づいて領域分割することで、形状の変化の影響を受けることなく、高精度にその領域を抽出することができる。つまり、長時間移動軌跡間の測地距離と短時間移動距離間の測地距離とから算出される近似測地距離に基づいて領域分割をすることができるので、動画像中における移動体の形状の変化、大きさの変化、又は遮蔽などの影響を受けずに、移動体の領域を高精度に抽出することが可能となる。
ここで、近似測地距離の算出方法としては、前記距離補間ステップでは、前記短時間移動軌跡間の測地距離に基づいて、短時間移動軌跡の集まりである部分短時間移動軌跡を抽出し、抽出した部分短時間移動軌跡に基づいて、前記近似測地距離を算出するとしてもよい。
上記の構成によって、複数の短時間移動軌跡の中に動きの異なる複数の移動体上の短時間移動軌跡が含まれる場合であっても、類似する短時間移動軌跡のみに基づいて近似測地距離を算出することができるため、移動体の領域を高精度に抽出することが可能となる。
ここで、近似測地距離の算出方法としては、前記距離補間ステップでは、前記短時間移動軌跡間の測地距離に基づいて前記長時間移動軌跡間の測地距離の線形補間を行うことによって、前記近似測地距離を算出するとしてもよい。
上記の構成によって、短時間移動軌跡間の測地距離の関係を保った近似測地距離を算出することができ、この近似測地距離に基づいて領域分割することで、移動体をより正しく領域抽出することができる。
ここで、近似測地距離の算出方法としては、前記距離補間ステップでは、短時間移動軌跡間の測地距離が小さいほど重みが大きくなるように重み付きの前記線形補間を行うことによって、前記近似測地距離を算出するとしてもよい。
上記の構成によって、短時間移動軌跡間の局所的な測地距離の関係を保った近似測地距離を算出することができ、この近似測地距離に基づいて領域分割することで、移動体をより高精度に領域抽出することができる。
また、本発明のより好ましい形態は、さらに、前記画像入力ステップで受け付けた動画像に、前記領域分割ステップで分割された領域ごとに異なる表示態様となるように画像処理を施し、画像処理後の動画像を出力する出力ステップを含むとしたものである。
上記の構成によって、特定された領域ごとに異なる表示態様で画像処理が施されるので、検出された移動体を容易に確認することができる。
また、本発明のより好ましい形態は、前記出力ステップでは、前記距離補間ステップで算出された近似測地距離と、前記距離算出ステップで抽出されたNL個の長時間移動軌跡及びNS個の短時間移動軌跡とに基づいて、仮想的な長時間移動軌跡を補完したNS個の近似長時間移動軌跡を算出し、算出した近似長時間移動軌跡を含む動画像を出力するとしたものである。
上記の構成によって、動画像からは算出できなかった長時間の移動軌跡を含む画像を表示することができるので、検出された移動体の移動軌跡を容易に確認することができる。
本発明の一実施形態は、さらに、前記領域分割ステップで分割された領域に含まれる移動軌跡から、当該領域を代表する移動軌跡を算出し、算出した代表の移動軌跡に従って当該領域が移動すると予測することで、前記移動体の動きを予測する動き予測ステップを含むとしたものである。
上記の構成によって、複数の移動軌跡を代表する軌跡を用いて移動体の動きを予測することにより、より精度良く動きを予測することができる。
また、長時間移動軌跡を抽出するときに、前記距離算出ステップでは、抽出される長時間移動軌跡の個数に応じて、前記TLを変化させて長時間移動軌跡を抽出するとしてもよい。
上記の構成によって、複数のピクチャに含まれる移動体の特徴に応じて、長時間移動軌跡のピクチャ数を変更できるので、より多くピクチャ数にわたるより多くの個数の長時間移動軌跡を抽出することが可能となる。すなわち、より多くの情報を含む長時間移動軌跡を用いることができるので、より高精度に領域分割をすることが可能となる。
また、長時間移動軌跡を抽出するときに、前記距離算出ステップでは、抽出される長時間移動軌跡の個数があらかじめ定められた第1の上限値を越える場合に、前記TLを増加させて長時間移動軌跡を抽出するとしてもよい。
上記の構成によって、より多くのピクチャ数にわたる長時間移動軌跡を、適切な個数抽出することができる。
また、長時間移動軌跡を抽出するときに、前記距離算出ステップでは、抽出される長時間移動軌跡の個数があらかじめ定められた第1の下限値を下回る場合に、前記TLを減少させて長時間移動軌跡を抽出するとしてもよい。
上記の構成によって、できる限りの多くのピクチャ数を確保しながら、長時間移動軌跡があらかじめ定められた移動軌跡の数を下回らないようにすることができる。
また、短時間移動軌跡を抽出するときに、前記距離算出ステップでは、抽出される短時間移動軌跡の個数に応じて、前記TSを変化させて短時間移動軌跡を抽出するとしてもよい。
上記の構成によって、複数のピクチャに含まれる移動体の特徴に応じて、短時間移動軌跡のピクチャ数を変更できるので、より多くピクチャ数にわたるより多くの個数の短時間移動軌跡を抽出することが可能となる。すなわち、より多くの情報を含む短時間移動軌跡を用いることができるので、より高精度に領域分割をすることが可能となる。
また、短時間移動軌跡を抽出するときに、前記距離算出ステップでは、抽出された短時間移動軌跡の個数があらかじめ定められた第2の上限値を超える場合に、前記TSを増加させて短時間移動軌跡を抽出するとしてもよい。
上記の構成によって、より多くのピクチャ数にわたる短時間移動軌跡を、適切な個数抽出することができる。
また、短時間移動軌跡を抽出するときに、前記距離算出ステップでは、抽出される短時間移動軌跡の個数があらかじめ定められた第2の下限値を下回る場合に、前記TSを減少させて短時間移動軌跡を抽出するとしてもよい。
上記の構成によって、できる限りの多くのピクチャ数を確保しながら、短時間移動軌跡があらかじめ定められた移動軌跡の数を下回らないようにすることができる。
なお、本発明の移動体検出方法は、コンピュータ上のプログラムによって実現されるだけでなく、上記各ステップをハードウェアによって構成した移動体検出装置、上記各ステップをコンピュータに実行させるプログラム、そのプログラムを格納したCD−ROM(Compact Disc Read Only Memory)等のコンピュータ読み取り可能な記録媒体、動画像において動きをもつオブジェクトの領域を抽出、あるいは、分割する画像処理装置等として実現することもできる。
上記の方法及び装置等により、長時間移動軌跡間の測地距離と短時間移動距離間の測地距離とに基づいて算出される近似測地距離を用いて領域分割をすることができるので、動画像中における移動体の形状の変化、大きさの変化、又は遮蔽などの影響を受けずに、移動体の領域を高精度に抽出することが可能となる。
図1は、本発明の実施の形態における移動体検出装置の構成を示す図である。 図2は、コンピュータによって構成された移動体検出装置のハードウェア構成を示す図である。 図3は、移動体検出装置の動作の手順を示すフローチャートである。 図4は、撮影状況の一例を示す図である。 図5は、動画像に含まれる複数枚のピクチャの一例を示す図である。 図6は、移動軌跡の一例を示す図である。 図7は、移動軌跡とピクチャ数との関係の一例を示す図である。 図8Aは、ピクチャ上の複数の移動軌跡の一例を示す図である。 図8Bは、複数の移動軌跡のデータの分布を示す図である。 図8Cは、複数の移動軌跡のデータの分布を示す図である。 図9Aは、測地距離の特徴を説明するための概念図である。 図9Bは、測地距離の特徴を説明するための概念図である。 図10Aは、近似測地距離を用いたクラスタリングの一例を説明するための図である。 図10Bは、近似測地距離を用いたクラスタリングの一例を説明するための図である。 図10Cは、近似測地距離を用いたクラスタリングの一例を説明するための図である。 図11Aは、出力部が生成した画像の一例を示す図である。 図11Bは、出力部が生成した画像の一例を示す図である。 図12は、理想的な移動軌跡の分布を示す概念図である。 図13は、本発明の実施の形態における移動体検出装置による効果を説明するための図である。 図14Aは、長時間移動軌跡を算出するためのピクチャと短時間移動軌跡を算出するためのピクチャとの関係の別の一例を示す図である。 図14Bは、長時間移動軌跡を算出するためのピクチャと短時間移動軌跡を算出するためのピクチャとの関係の別の一例を示す図である。 図15Aは、本発明の実施の形態の変形例における移動体検出装置の構成を示す図である。 図15Bは、本発明の実施の形態の変形例における移動検出装置の動作を表すフローチャートである。 図16は、本発明の実施の形態の変形例における移動体検出装置による動き予測を説明するための図である。 図17は、移動予測の結果の一例を示す図である。
以下、本発明の実施の形態について、図面を用いて説明する。
図1は、実施の形態における移動体検出装置100の構成を示す図である。図1に示されるように、移動体検出装置100は、画像入力部101、動き解析部102、移動体検出部103、及び出力部104を備える。さらに移動体検出部103は、距離算出部105、距離補間部106、領域分割部107を備える。移動体検出装置100は、複数枚のピクチャを含む動画像中の移動体の全部又は一部の領域を特定する領域分割をすることによって動画像中の移動体を検出する装置である。本実施の形態では、移動体検出装置100は、カメラ110で撮影した動画像を取得し、取得した動画像中の移動体を検出し、検出結果に基づいて画像を生成して出力する。ディスプレイ120は、移動体検出装置100から出力される画像を表示する。
画像入力部101は、動画像を構成する複数枚のピクチャの入力を受け付ける処理部であり、例えば、カメラ、あるいは、カメラと接続された通信インターフェース等である。
動き解析部102は、画像入力部101によって受け付けられた複数枚のピクチャに含まれる2枚以上のピクチャにわたる対応点である移動軌跡を算出する処理部である。具体的には、動き解析部102は、画像入力部101で受け付けた複数のピクチャについて、連続する2枚のピクチャ間の対応点を検出することにより、複数枚のピクチャにわたる対応点である複数の移動軌跡を算出し出力する。ここで、動き解析部102は、ピクチャの1画素ごとに対応点を検出する、又は、ピクチャ内の隣接する複数の画素(ブロック)ごとに代表する1つの対応点を検出する。
なお、「対応点」とは、複数枚のピクチャにおいて、同一の画像要素を示すと考えられるピクチャ内の位置を示すものである。したがって、移動軌跡は、連続する2枚以上のピクチャにわたる画像要素の動きを示す。
本明細書では、1画素ごとに検出された対応点であるか、複数の画素に1つ検出された対応点であるかを区別して記載しない。また、あるピクチャの画素iに対応する他のピクチャの対応点、及び、あるピクチャのブロックiに対応する他のピクチャの対応点によって示される移動軌跡を、いずれも画素iの移動軌跡と呼ぶ。
移動体検出部103は、動き解析部102によって検出された複数の移動軌跡に基づいて、類似する移動軌跡の集まりを1つの領域として特定することで、移動軌跡のクラスタリングを行う処理部である。移動体検出部103は、距離算出部105、距離補間部106、及び領域分割部107を備える。
距離算出部105は、動画像を構成する複数枚のピクチャにわたる対応点である移動軌跡を複数取得し、取得した移動軌跡間の類似度を表す距離を算出する処理部である。
本実施の形態では、距離算出部105は、動き解析部102によって算出された複数の移動軌跡から、TL枚(TL>=3)のピクチャにわたるNL個の長時間移動軌跡と、TS枚(TL>TS>=2)のピクチャにわたるNS個の短時間移動軌跡とを抽出する。このときTS枚のピクチャは、TL枚のピクチャに含まれるものとする。また、NL個の長時間移動軌跡に含まれるTS枚のピクチャにわたる対応点は、NS個の短時間移動軌跡にも含まれているものとする。
さらに、距離算出部105は、抽出したNL個の長時間移動軌跡と、NS個の短時間移動軌跡に対して、それぞれ2つの移動軌跡間の類似度をあらわす距離を算出して出力する。
本明細書において「距離」は、2次元画像空間における2点間の距離だけでなく、後述するように、多次元のデータ間の算術的な距離を含む。なお、一般的に距離と類似度は相反する関係がある。すなわち、2つのデータ間の距離が小さい場合、類似度が高く、逆に2つのデータ間の距離が大きい場合、類似度が低い。
距離補間部106は、距離算出部105で算出された、NL個の長時間移動軌跡間の距離と、NS個の短時間移動軌跡間の距離とから、NL個の長時間移動軌跡間の距離に基づいたNS個の移動軌跡間の距離である近似距離を算出して出力する処理部である。
領域分割部107は、距離補間部106で算出された近似距離に基づいて、類似する移動軌跡の集まりを1つの領域として特定することで、領域分割をする処理部である。
出力部104は、移動体検出部103で動画像中の移動体の検出結果もしくは、画像の領域分割結果を出力する。具体的には、出力部104は、画像入力部101で受け付けた動画像に対して、例えば、移動体検出部103で特定された領域ごとに異なる表示態様となるように、画像処理を施し、ディスプレイ装置等に出力する。
本明細書において、「領域分割」とは、ある特定の対象物が存在する画像領域を抽出する検出技術と、対象物が何であるかの区別なく画像中の領域を分割する領域分割技術との、両者を含んでいる。検出技術と領域分割技術とは共通する部分が多いため、本明細書においては両者を区別しない。
また、本明細書において、「移動体検出」とは、基準となる座標系に対して移動している物体が存在する画像領域のみを特定する検出技術と、相対的に異なる移動をしている物体ごとに画像中の領域を分割する領域分割技術の両者を含んでいる。
なお、移動体検出装置100を構成する各構成要素(画像入力部101、動き解析部102、移動体検出部103、出力部104)は、コンピュータ上で実行されるプログラム等のソフトウェアで実現されてもよいし、電子回路等のハードウェアで実現されてもよい。図2は、ソフトウェアによって実現された本実施の形態における移動体検出装置のハードウェア構成を示す図である。
カメラ1001は、動画像を撮影して、撮影した動画像をコンピュータ1002に出力する。コンピュータ1002は、カメラ1001から出力された動画像を取得して領域分割処理を行う。そして、コンピュータ1002は、領域分割処理の結果を表示するための画像を生成する。ディスプレイ1003は、コンピュータ1002によって生成された画像を取得して表示する。
コンピュータ1002は、I/F(インターフェース)1004、CPU(Central Processing Unit)1005、ROM(Read Only Memory)1006、RAM(Random Access Memory)1007、HDD(Hard Disk Drive)1008、及びビデオカード1009を備える。コンピュータ1002を動作させるプログラムは、ROM1006又はHDD1008にあらかじめ保持されている。プログラムは、プロセッサであるCPU1005によって、ROM1006又はHDD1008からRAM1007に読み出されて展開される。CPU1005はRAM1007に展開されたプログラム中のコード化された各命令を実行する。I/F1004は、プログラムの実行に応じて、カメラ1001で撮影された画像を、RAM1007へ取り込む。ビデオカード1009は、プログラムの実行に応じて生成された画像を出力し、ディスプレイ1003で表示される。
なお、プログラムは、半導体であるROM1006又はHDD1008に限られず、たとえば光ディスクに格納されていてもよい。また、プログラムは、有線ネットワーク、無線ネットワーク、又は放送などを介して伝送され、コンピュータのRAM1007に取り込まれてもよい。
以下、本実施の形態の移動体検出装置100の動作を、図3を用いて説明する。
図3は、本実施の形態の移動体検出装置100の動作を表すフローチャートである。
図3において、7つのステップS201〜S207は、それぞれ図1の各処理部101〜107に対応している。すわなち、画像入力部101は画像入力ステップS201の処理を実行し、動き解析部102は動き解析ステップS202の処理を実行し、移動体検出部103は移動物検出ステップS203の処理を実行し、出力部104は画像出力ステップS204の処理を実行する。また、移動物検出ステップS203は、距離算出ステップS205、距離補間ステップS206、及び領域分割ステップS207の3つのサブステップからなる。距離算出部105は距離算出ステップS205の処理を実行し、距離補間部106は距離補間ステップS206の処理を実行し、領域分割部107は領域分割ステップS207の処理を実行する。
まず、画像入力部101は、カメラ1001から、動画像を構成する複数枚のピクチャを取得する(ステップS201)。続いて、動き解析部102は、画像入力部101によって取得された複数枚のピクチャに含まれる連続する2枚以上のピクチャにわたる移動軌跡を算出する(ステップS202)。そして、距離算出部105は、動き解析部102によって算出された複数の移動軌跡に基づいて、TL枚のピクチャにわたる長時間移動軌跡をNL個と、TS枚のピクチャにわたる短時間移動軌跡をNS個とを抽出する。さらに、距離算出部105は、抽出した長時間移動軌跡間の測地距離及び短時間移動軌跡間の測地距離を算出する(ステップS205)。続いて、距離補間部106は、距離算出部105によって算出された長時間移動軌跡間の測地距離と、短時間移動軌跡間の測地距離とに基づいて、TL枚のピクチャにわたるNS個の移動軌跡間の近似測地距離を算出する(ステップS206)。次に、領域分割部107は、距離補間部106によって算出された近似測地距離に基づいて、類似する移動軌跡の集まりを1つの領域として検出することで、領域分割を行う(ステップS207)。最後に、出力部104は、領域分割部107によって分割された領域に基づいて画像を生成して、ディスプレイ1003に表示する(ステップS204)。
以下に、図3に示した各ステップの詳細について説明する。
まず、画像入力部101により実行される画像入力ステップS201の詳細について説明する。画像入力部101は、カメラ1001から、動画像を構成する複数のピクチャを取得する。本実施の形態では、カメラ1001から取得される動画像は30フレーム/秒の動画像であるとする。
図4は、カメラ110によって撮影される対象物の状況である撮影状況の一例を示す図である。また、図5は、カメラ110によって、図4の撮影状況において撮影された動画像に含まれる複数枚のピクチャの一例を示す図である。画像入力部101は、第1フレームから第TLフレームまでのTL枚(TL>=3)のピクチャをカメラ110から受け付ける。本実施の形態では、ピクチャの数TLは、あらかじめ定められており、30フレーム(TL=30)とする。
次に、動き解析部102により実行される動き解析ステップS202の詳細について説明する。動き解析部102は、画像入力部101から複数枚のピクチャを取得し、取得した複数枚のピクチャについて、2枚のピクチャ間の対応点を検出することにより、連続する2枚以上のピクチャにわたる移動軌跡を算出して出力する。
具体的には、動き解析部102は、第1フレームのピクチャ上の全ての画素(I個)を基準として、第2フレームから第TLフレームまでの(TL−1)枚のピクチャ上の対応する画素を検出する。また、動き解析部102は、連続する2枚のピクチャ間の対応点をTL枚のピクチャについて検出し、検出した対応点を第1フレームから連続する2枚以上のピクチャにわたって連結することにより、第1フレームのピクチャ上の画素に対応する他のピクチャ上の画素を検出しても良い。なお、複数枚のピクチャにわたる対応点を検出するさらに具体的な手法は、非特許文献1もしくは非特許文献2などに詳しく記載されているため、ここでは詳細な説明を省略する。
P.Anandan,"A Computational Framework and an Algorithm for the Measurement of Visual Motion",International Journal of Computer Vision, Vol.2, pp.283−310,1989 Vladimir Kolmogorov and Ramin Zabih, "Computing Visual Correspondence with Occlusions via Graph Cuts", International Conference on Computer Vision,2001
そして、動き解析部102は、TL枚のピクチャにおいて対応点を検出した結果のうち、TS枚(TL>TS>=2)以上のピクチャにわたって検出された対応点を抽出することにより、移動軌跡を算出する。本実施の形態において、ピクチャ数TSはあらかじめ定められており、ここでは10フレーム(TS=10)とする。
画素iの移動軌跡xは、第1フレームのピクチャ上のある画素iの座標値(x ,y )と、対応点の画素座標値(x ,y )とを用いて、下記式1のように示される。
Figure 2011013281
ここで式1の移動軌跡xは、第1フレームから第TLフレームまでのTL枚のピクチャ全てにわたる対応点の画素座標を含む場合のほかに、第(TS+1)フレームから第TLフレームの対応点の画素座標が存在しない移動軌跡も含まれることとなる。
なお、動き解析部102は、ピクチャの全ての画素ごとに対応点を検出する代わりに、ピクチャ内の隣接する複数の画素(ブロック)ごとに対応点を検出してもよい。
次に、距離算出部105によって実行される距離算出ステップS205の詳細について説明する。距離算出部105は、動き解析部102で算出した複数の移動軌跡Xに基づいて、TL枚のピクチャにわたる長時間移動軌跡XLと、TS枚のピクチャにわたる短時間移動軌跡XSとをそれぞれ抽出して、移動軌跡間の距離を算出する(ステップS205)。
本実施の形態において、長時間移動軌跡XLは、第1フレームから第TLフレームまでの連続するTL枚のピクチャにわたる対応点である。また、短時間移動軌跡XSは、第1フレームから第TSフレームまでの連続するTS枚のピクチャにわたる対応点である。また、以降の説明では、動き解析部102で算出されたNS個の移動軌跡から、長時間移動軌跡はNL個、短時間移動軌跡はNS個、それぞれ抽出された場合について説明する。
図6は、移動軌跡の一例を示す図である。動き解析部102に入力された動画像は、TL枚のピクチャ601で構成されている。このとき移動軌跡x603aは、第1フレームの所定の画素i602aに対応する、第2フレームから第TLフレームまでのピクチャ上の対応点の集まりであり、各ピクチャの画像座標値の集まりからなるベクトルで表される。また、移動軌跡には、図6の画素k602bの移動軌跡x603bのように、第(TS+1)フレーム以降に対応点がピクチャ上に存在しない移動軌跡も含まれる。
図7は、移動軌跡とピクチャ数との関係の一例を示す図である。図7の棒グラフにおいて、横軸はピクチャを示し、縦軸は移動軌跡を示す。各棒として示される移動軌跡は、当該棒の左端に対応するピクチャにおいて発生した対応点が当該棒の右端に対応するピクチャの次のピクチャにおいて消滅したことを示す。
図7に示されるように、複数のピクチャにわたって検出される移動軌跡の数は、ピクチャの枚数が増えるほど少なくなる。これは、ピクチャの枚数が増えるほど、被写体の出現、消失、又は一時的な遮蔽などによって、あるピクチャ上の対応点が別のピクチャには存在しない場合が増えるためである。具体的には、図4〜図6における人の脚もしくは腕、手前の人物に遮蔽される背景、又は他の人物上の対応点などが、別のピクチャにおいて存在しない場合が増える。また、ピクチャの枚数が増えるほど移動軌跡の数が少なくなる別の原因として、被写体の変形あるいは照明の変化などに起因して、動き解析部102において対応点を検出できない場合が増えるためである。上記のような理由により、長時間移動軌跡の数NLは、短時間移動軌跡の数NS以下となる。
次に、距離算出部105は、抽出したNL個の長時間移動軌跡及びNS個の短時間移動軌跡のそれぞれについて、2つの移動軌跡間の類似度を表す距離を算出する。
以下、距離算出部105において、NL個の長時間移動軌跡、及び、NS個の短時間移動軌跡のそれぞれについて、移動軌跡間の類似度を表す距離を算出する方法を詳細に説明する。
距離算出部105は、下記式2により、画素iの長時間移動軌跡と画素jの長時間移動軌跡との線形距離f(i,j)を算出する。また、距離算出部105は、下記式3により、画素iの短時間移動軌跡と画素jの短時間移動軌跡との線形距離f(i,j)を算出する。
Figure 2011013281
ここで式2によって算出される線形距離f(i,j)は、表記の都合上、全ての移動軌跡間について定義されているが、線形距離として有限な値となるのは、NL個の長時間移動軌跡XLの間でのみとなる。画素iの移動軌跡もしくは画素jの移動軌跡が長時間移動軌跡XLに属さない場合、線形距離f(i,j)は∞(無限大)となる。
なお、本実施の形態において、線形距離は、式2及び式3によって算出されるが、これらの式に限定されるものではない。線形距離は、式2及び式3と同様に、移動軌跡間の画像座標における位置、動き、加速度、回転速度などのような、幾何的な類似度を表す指標であればよく、例えば、下記の式4及び式5を用いて算出されてもよい。
Figure 2011013281
式4及び式5において、wは重み係数であり、設計者が設定するパラメータである。上記式4及び式5の移動軌跡間の距離f(i,j)及びf(i,j)は、移動軌跡間の画像座標の距離の時間平均に、画像座標の距離の時間変動成分を加えたものである。特に移動軌跡間距離の時間変動成分は、移動軌跡の動きの類似度を示すものであり、これによって、画素間のなす距離の関係が時間的に変化しない剛体だけでなく、関節物体等の形状変化を捉えることができる。
式2及び式3によって算出された移動軌跡間の線形距離f(i,j)及びf(i,j)の集まりを、下記式6に示すように、それぞれ線形距離マトリクスF及びFとして表す。
Figure 2011013281
なお、本実施の形態において、後述する測地距離gおよび非線形化された距離f’と区別するために、式2〜式5によって算出される距離を線形距離と呼ぶが、線形距離の定義式を線形演算に限定するものではなく、線形距離の定義式に非線形の演算が含まれていても良い。
続いて、距離算出部105は、移動軌跡間の線形距離f(i,j)及びf(i,j)から移動軌跡間の測地距離g(i,j)及びg(i,j)を算出する。
以降、距離算出部105が、線形距離f(i,j)から測地距離g(i,j)を算出する処理を詳しく説明する。
まず、距離算出部105は、算出した線形距離f(i,j)に対してあらかじめ定められた閾値Rを用いて、下記式7に示すように非線形化された距離f’(i,j)を算出する。
Figure 2011013281
次に、距離算出部105は、非線形化された距離f’(i,j)から、測地距離g(i,j)を算出する。ここで測地距離とは、複数の点を結ぶノードの距離(長さ)が得られているときに、ある2点間を結び得る全ての経路の距離のうちの最短の距離である。すなわち、本実施の形態において測地距離とは、2個の移動軌跡間の類似度を表す距離であって、他の移動軌跡を中継点として一方の移動軌跡から他方の移動軌跡にたどりつく経路の距離のうち最短の距離である。
よって、距離算出部105は、第iの移動軌跡から第jの移動軌跡までの測地距離の算出においては、他の複数の移動軌跡のいずれかを中継点として第iの移動軌跡から第jの移動軌跡にたどりつく全ての経路のうちの最短の経路の距離を、測地距離として算出する。
例えば、移動軌跡iと移動軌跡jの2点間を直接結ぶノードの距離f’(i,j)が得られている場合、移動軌跡iと移動軌跡jとの2点間を結ぶ経路は、2点を直接結ぶ経路以外に、別の移動軌跡sを中継する経路もある。移動軌跡sを中継する経路の距離は、f’(i,s)+f’(s,j)となる。このような移動軌跡iと移動軌跡jとの2点間を結ぶ経路は複数ある。距離算出部105は、下記式8に示すように、それらの複数の経路の距離のうち、最も短い距離を測地距離g(i,j)として算出する。
Figure 2011013281
式8において、min(x,y,…)は、値x、値yなどの値のうち最も小さい値を返す関数である。また、移動軌跡sは、移動軌跡iから移動軌跡jにたどりつくための中継点である。ここで、中継点としての移動軌跡sは1個に限るものではない。すなわち、移動軌跡iから移動軌跡jまでの経路には、2個以上の移動軌跡を中継点とする経路も含まれる。
上述した測地距離の算出における2点間の最短経路を探索する手法の詳細は、例えば非特許文献3のダイクストラ法が広く知られているため、ここでは処理手順の詳細説明を省略する。
E.W.Dijkstra,"A note on two problems in connexion with graphs",Numerische Mathematik,pp.269−271,1959
非特許文献3に記載の手順等により、距離算出部105は、長時間移動軌跡間の線形距離f(i,j)から測地距離g(i,j)を算出する。さらに距離算出部105は、上記と同様の手順によって、あらかじめ定められた閾値Rを用いて、短時間移動軌跡間の線形距離f(i,j)から測地距離g(i,j)を算出する。算出した移動軌跡間の測地距離g(i,j)及びg(i,j)の集まりを、下記式9に示すように、測地距離マトリクスG及びGと表す。
Figure 2011013281
以上の手順によって、距離算出部105は、NL個の長時間移動軌跡間の類似度を表す測地距離g(i,j)、及び、NS個の短時間移動軌跡間の類似度を表す測地距離g(i,j)を算出する。そして、距離算出部105は、算出した測地距離g(i,j)及びg(i,j)を、測地距離マトリクスG及びGとして出力する。
なお、上記式などから明らかなように本実施の形態では、測地距離は、同一の次元の移動軌跡間において算出される。つまり、距離算出部105は、同じ枚数のピクチャにわたる移動軌跡間において測地距離を算出する。
上述した複数の移動軌跡間の線形距離から測地距離を算出する処理について、図8A〜図8Cの概念図を用いて説明する。
図8Aは、ピクチャ上の複数の移動軌跡の一例を示す図である。移動軌跡は、背景領域においても算出されるが、表記を容易にするため、以降において、背景領域の移動軌跡は図示しないものとする。図8B及び図8Cは、上記式1によって表される複数の移動軌跡のデータの分布を示す図である。
図8B中の「×」印によって示された各データ点は、式1で示した画素iの移動軌跡xに相当する。なお、移動軌跡xは、独立した(TL×2)個の変数からなるベクトルである。したがって、移動軌跡xは、本来は最大で(TL×2)次元空間のデータであるが、図8Bでは表記の都合上、3次元空間の点として表す。
図8Bに示す矢印は、上記式2及び式3で得られる、移動軌跡iと移動軌跡jとの線形距離f(i,j)を表す。データ点iとデータ点jとの線形距離は、データ間を直接結んだ距離になる。一方、図8Cに示す矢印は、式7及び式8で得られる移動軌跡iと移動軌跡jの測地距離g(i,j)を表す。図8Cに示すように、データ点iとデータ点jとの測地距離は、図中の矢印のように中継のデータ点sをたどった距離となる。
次に、線形距離f(i,j)と、式7及び式8により算出された測地距離g(i,j)の特徴を、図9A及び図9Bの概念図を用いて説明する。
図9A及び図9Bは、測地距離の特徴を説明するための概念図である。例えば、頭部の移動軌跡iと手先部の移動軌跡jとの線形距離は、図9Aに示すように、他の移動軌跡とは無関係な2つの移動軌跡間の距離となる。一方、頭部の移動軌跡iと手先部の移動軌跡jとの測地距離は、図9Bに示されるように、近傍の複数の移動軌跡を通って移動軌跡jにたどり着くまでの矢印で示したような距離の和となる。言い換えると、図9Aに示される線形距離は、他の移動軌跡の分布をまったく反映していないため、人物のような関節で繋がった形状に沿った移動軌跡間の距離を表現できない。これに対して、図9Bに示される測地距離は、他の移動軌跡を反映した距離となっているため、関節が繋がった形状に沿った移動軌跡間の距離を表現することが可能となる。
前述したように、式1によって表される移動軌跡xは、数学的には最大で(TL×2)次元空間のデータである。しかし、実際に画像から検出される移動軌跡は、図8B及び図8Cのように(TL×2)空間のごく一部の領域に局在化する性質をもつことが、発明者の実験によっても確認されている。このような性質をもつ移動軌跡に対して、データの分布とは無関係である2データ間の距離のみの線形距離(図8Bの矢印)よりも、近傍のデータの分布を反映した測地距離(図8Cの矢印)の方が、移動軌跡間の類似度を表す距離の尺度として適していると言える。
なお、距離算出部105が、線形距離から測地距離を求める手法として、式7及び式8を用いる手法を示したが、測地距離を求める手法を限定するものではない。例えば、距離算出部105は、線形距離から非線形化距離を求めるときに、閾値R以上の線形距離を無限大に置き換える代わりに、移動軌跡iとの距離が小さいほうからk番目より大きい移動軌跡との距離を無限大で置き換えることによって、非線形化距離を算出してもよい。
次に、距離補間部106により実行される距離補間ステップS206の詳細について説明する。距離補間部106は、距離算出部105によって算出されたNL個の長時間移動軌跡間の測地距離と、NS個の短時間移動軌跡間の測地距離とに基づいて、移動軌跡間の近似測地距離を算出して出力する。
以降、距離補間部106において、長時間移動軌跡間の測地距離g(i,j)と短時間移動軌跡間の測地距離g(i,j)とを用いて、近似測地距離g(i,j)を算出する手順を詳しく説明する。
距離補間部106は、NL個の長時間移動軌跡の測地距離g(i,j)とNS個の短時間移動軌跡の測地距離g(i,j)とを用いて、下記式10によって補間長時間測地距離g’(i,j)を求める。
Figure 2011013281
次に、距離補間部106は、前述した式8の最短経路算出と同様に下記式11に示すように、補間長時間測地距離g’(i,j)に対して、ある2点間を結び得る全ての経路の距離のうちの最短距離を計算し、計算結果を近似測地距離g(i,j)として出力する。
Figure 2011013281
ここで近似測地距離g(i,j)は、短時間移動軌跡と同じ数のNS個の移動軌跡間について算出できる。この近似測地距離g(i,j)は、式10及び式11のもつ意味から、NL個の長時間移動軌跡に対して、より数の多いNS個の短時間移動軌跡を用いて移動軌跡を補間して加えることにより補完した、NS個の仮想的な移動軌跡間の測地距離と解釈することができる。また、別の解釈としては、近似測地距離g(i,j)は、TSフレームにわたる短時間移動軌跡に対して、よりピクチャ数の多いTLフレームにわたる長時間移動軌跡を用いてピクチャ数を補外することによって生成した、TSフレームにわたる仮想的な移動軌跡間の測地距離とも解釈することができる。すなわち、近似測地距離g(i,j)は、長時間移動軌跡間の測地距離g(i,j)より多くの移動軌跡の情報を含み、短時間移動軌跡の測地距離g(i,j)より多くのピクチャの情報を含むこととなる。言い換えると、近似測地距離g(i,j)は、TLフレームにわたるNS個の仮想的な移動軌跡についての、移動軌跡間の近似的な測地距離に相当すると言える。
つまり、距離補間部106は、連続するTL枚のピクチャにわたるNL個の長時間移動軌跡間の測地距離と、連続するTS枚のピクチャにわたるNS個の短時間移動軌跡間の測地距離とを用いて、連続するTL枚のピクチャにわたるNS個の移動軌跡間の測地距離を近似測地距離として算出する。言い換えると、距離補間部106は、長時間移動軌跡間の測地距離及び短時間移動軌跡間の測地距離の一方を用いて他方を補間又は補外することにより、近似測地距離を算出する。具体的には、式10及び式11に示すように、距離補間部106は、短時間移動軌跡間の測地距離を用いて長時間移動軌跡間の測地距離の線形補間を行うことによって、近似測地距離を算出する。
次に、領域分割部107により実行される領域分割ステップS207の詳細について説明する。領域分割部107は、距離補間部106で算出された近似測地距離g(i,j)に基づいて、類似する移動軌跡の集まりを1つの領域として検出することで、領域分割を行う。
本実施の形態において領域分割部107は、近似測地距離g(i,j)が張る高次元空間の次元圧縮を行ったのち、次元圧縮された空間においてクラスタリングを行うものとする。
次元圧縮は、Young−Householder変換を行った後、Eigen systemを求めることで実現できる。次元圧縮は、多次元空間に分布するデータを低次元空間に効率良く射影するための方法である。
以降、領域分割部107が、近似測地距離g(i,j)の次元圧縮を行う手順について示す。
下記式12に示すように、近似測地距離g(i,j)のNS×NSのマトリクスを近似測地距離マトリクスGと表す。
Figure 2011013281
領域分割部107は、近似測地距離マトリクスGに対して、中心化行列Hを両側からかけるYoung−Householder変換を行う。これは、距離マトリクスが点間距離からなる距離行列であるのに対して、重心を原点とした距離マトリクスに変換するために行うものである。
Figure 2011013281
ここで、Hは中心化行列であり、
Figure 2011013281
である。Iは単位行列、NSは移動軌跡の数である。
また、
Figure 2011013281
である。
次に、領域分割部107は、次元圧縮を行うために、τ(G)に対するP個の固有ベクトル(eigen vector)e及びそれに対応する固有値(eigen value)λを算出する。
これにより、(式11)より、
Figure 2011013281
と表した場合、次元圧縮された空間上にgを射影した結果は、データz として以下のように表すことができる。
Figure 2011013281
なお、e は、p番目の固有ベクトルeのi番目の要素である。領域分割部107は、固有ベクトルの数Pを、利用するシーンに応じて実験的に決定しても良いし、以下のように固有値λから寄与率aを算出し、それに基づいて決定しても良い。
Figure 2011013281
ここで、Pは利用する固有ベクトルの数、すなわち圧縮された空間の次元数である。Nは全固有ベクトルの数である。そこで、領域分割部107は、寄与率aが一定値以上となる時の数Pを固有ベクトルの数と決定すれば良い。
以上のように領域分割部107は、式12から式17に示される計算処理により、近似測地距離g(i,j)の次元圧縮を行う。これにより領域分割部107は、距離補間部106によって算出された近似測地距離g及び対応する仮想的な移動軌跡を、固有ベクトルeで張られる次元圧縮された空間上のデータz と対応付けることができる。
図10A〜図10Cは、近似測地距離を用いたクラスタリングの一例を説明するための図である。なお、図10B及び図10Cは、人物の歩行画像を入力とした場合の画素iの時間的移動軌跡が非線形に次元圧縮された空間に射影された結果を示す図でもある。図10B及び図10Cに示すグラフの縦軸、横軸はそれぞれ固有ベクトルe、eである。2次元上に射影された点(z ,z )は、近似測地距離gを射影したものである。ここで、非線形空間上のデータz と画像上での画素iの移動軌跡xとは一対一の対応関係にあるため、点(z ,z )は、画素iの移動軌跡xに対応していると捉えることができる。なお、ここでは結果を可視化するために非線形空間の次元数を2次元としたが、前述のように必ずしも2次元である必要は無いし、高い次元数の方がより高い精度でデータを射影することができる。
次に、領域分割部107は、図10Bに示したような移動軌跡を次元圧縮したデータz に対してクラスタリングを行うことで、移動軌跡のセグメンテーションと移動体の検出を行う。本実施の形態では、クラス数を所与としてクラス内分散が最小となるように移動軌跡をクラスタリングする手法を用いるものとする。
まず、セグメント領域を次のように表現する。
Figure 2011013281
ここで、Mは、セグメント領域数であり利用するシーンに応じて経験的に決定される。それぞれのセグメント領域θは、パラメータ
Figure 2011013281
及びパラメータZで表現される。ここで、パラメータ
Figure 2011013281
は、次元圧縮された空間におけるセグメント領域θに属するデータの座標値の平均値である。また、パラメータZは、セグメント領域θに属するデータの座標値に関する共分散行列である。領域分割部107は、パラメータ
Figure 2011013281
の初期値をランダムに決定しても良いし、圧縮された非線形空間中をグリッドで等間隔に分割する等して、そのグリッドの交点の座標値を初期値として決定しても良い。
なお、パラメータ
Figure 2011013281
及びパラメータZは、以下の式20及び式21のように表すことができる。
Figure 2011013281
Figure 2011013281
ここで、Cは圧縮された非線形空間上でセグメント領域θに属するデータ数である。
以下、具体的なクラスタリングの方法について説明する。まず、領域分割部107は、次式22の距離関数を用いて、データzが属するセグメント領域θを求める。
Figure 2011013281
ここで、ψ(z)は、画素iの移動軌跡に対応するデータzとそれぞれのセグメント領域θとの距離を示すものである。各データは、ψ(z)が最小値をとるセグメント領域θに属するものとする。なお、φ(z)はマハラノビス距離であり、下記式23によって表される。
Figure 2011013281
ここで、領域分割部107は、φ(z)をψ(z)の代わりとして用いて計算しても構わない。
さらに、p(ω)は、一定値であっても良いし、人物など決まった被写体のセグメンテーションを行う場合は、人物部位の形状や面積比等をもとにあらかじめ設定された値であっても良い。ωは、セグメント領域θに対する重み係数である。
次に、領域分割部107は、式22の計算結果から、セグメント領域θに属するデータzを用いて、以下式24及び式25のようにセグメント領域θのパラメータ
Figure 2011013281
及びパラメータZを更新する。
Figure 2011013281
Figure 2011013281
ここで、zcmは、セグメント領域θに属する圧縮された非線形空間上のデータである。また、ωは、一定値「1」であっても良いし、入力データの平均値からのずれ具合によって調整された値であっても良い。このように、領域分割部107は、式22から式25の距離計算及びパラメータ更新を規定回数繰り返すことによって、非線形空間上の各データが属するセグメント領域θを算出することができる。なお、領域分割部107は、上記に加えて、k−mean、競合学習など、他のクラスタリング方法を用いてセグメント領域を算出しても構わない。
図10Cは、M=3として非線形空間上のデータをセグメンテーションした一例を示す図である。圧縮された非線形空間上でのセグメント領域θからθについて画像上での対応を見ると、θは手前の人物、θは後方の人物に対応している。なお、実際には背景領域の移動軌跡も含んでおり、背景領域は領域θとしてセグメンテーションされるが、図の表記の都合上省略する。
ここで、圧縮された非線形空間上のセグメント領域に対応するのは、1枚の画像上の領域だけではなく時間的に連続した複数枚の画像に渡って画素を追跡した結果である。すなわち、領域分割部107は、圧縮された非線形空間上でセグメンテーションを行うことによって、画像中を移動する物体の領域を時間的に追跡した結果として、画像中の移動する被写体ごとに画像領域を抽出することができる。また、移動体検出装置100は、前処理として人物候補領域を設定する必要がないため、人物候補領域の検出ミスに起因するセグメンテーションの失敗がない。以上のように、移動体検出装置100は、膨大なパラメータのフィッティングを必要とせずに、非線形空間でクラスタリングを行うことによって、形状が変化しながら移動する人物等を含む画像を安定的にセグメンテーションし、これによって画像中の移動体の検出を行うことが可能となる。
最後に、出力部104によって実行される出力ステップS204の詳細について説明する。出力部104は、移動軌跡のセグメント領域θに基づいて画像を生成して、ディスプレイ1003に表示する。
本実施の形態において出力部104は、画像入力部101で受け付けた動画像に対して、移動体検出部103で特定された移動軌跡の領域ごとに異なる表示態様となるように、画像処理を施して出力し、ディスプレイ1003に表示する。ここでは、出力部104は、複数の移動軌跡のセグメント領域θごとに異なる色を選択し、選択した色でそれぞれ移動軌跡の画像座標位置の画素を描画することで、画像を生成する。
図11A及び図11Bは、出力部104が生成した画像の一例を示す図である。図11A及び図11Bに示すように、ディスプレイ1003にはクラスタリングした移動軌跡ごとに異なる色を持つ画像が表示されることとなる。
なお、出力部104は、移動軌跡の画像座標位置の画素をセグメント領域に応じた色で描画することにより画像を生成するとしたが、画像を生成する方法をこれに限定されるものではない。出力部104は、移動軌跡の数と画像全体の画素数とが同数であれば、上述した方法により画像中の全画素をクラスタに応じた色で描画することができる。一方、移動軌跡の数が画像全体の画素数より少ない場合、どの移動軌跡の画像座標位置とも一致しない画素が存在する。
このような移動軌跡の画像座標位置と一致しない画素については、出力部104は、上記の方法とは別の方法で描画しても良い。例えば、出力部104は、動き解析部102が、ある移動軌跡を生成するための動き検出に用いたブロックに属する画素を、その移動軌跡のセグメント領域と同じ色で描画するとしても良い。
また、移動軌跡の画像座標位置と一致しない画素を描画する別の方法として、出力部104は、最近傍の移動軌跡のセグメント領域と同じ色で描画するとしても良い。
また、移動軌跡の画像座標位置と一致しない画素を描画する別の方法として、出力部104は、複数の移動軌跡の画像座標位置(点)の間を、Delaunay三角メッシュ生成法にて結び、同一のセグメント領域に属する3点に囲まれる3角形に含まれる画素を、そのセグメント領域と同じ色で描画するとしても良い。
なお、連続して入力される動画像に対して処理を行う場合は、移動体検出装置100は、上述した図3のステップS201〜S207の動作を、TL枚のピクチャが入力されるたびに繰り返し行うとしても良い。
以上のように、本実施の形態の移動体検出装置は、動画像中の移動軌跡間の類似度に基づいて移動軌跡をクラスタリングして、画像中の移動体の領域を抽出する。そして移動体検出装置は、移動軌跡の類似度の指標として、移動軌跡間の測地距離を用いることにより、被写体の形状の変化や関節物体の姿勢の変化によらずに、画像中の移動体の領域抽出をすることができる。
さらに、本実施の形態の移動体検出装置は、距離補間部106によって算出した複数の移動軌跡間の近似測地距離を類似度の指標として、移動軌跡のクラスタリングを行う。ここで、移動軌跡間の類似度の算出において、より多くのピクチャ数にわたる移動軌跡を用いた場合、より長い時間にわたる移動軌跡の類似度を算出することができる。そのため、より多くのピクチャ数にわたる移動軌跡を用いることは、正しいクラスタリング結果を得るために有効である。しかしながら、前述したように、多くのピクチャを用いるほど算出可能な移動軌跡の数は減ってしまう。その結果、移動軌跡の粗密の差がおおきくなり、移動体検出装置が領域分割を誤る原因となる。一方、より少ないピクチャを用いた場合、算出可能な移動軌跡の数は増えるが、移動軌跡間の類似度の差が小さくなる。そのため、特に、長い時間では異なる動きを示すはずが、短い時間では似ている動きを示す移動軌跡が発生し、移動体検出装置が領域分割を誤る原因になる。このようなジレンマに対して、本実施の形態の移動体検出装置は、長時間移動軌跡に対して短時間移動軌跡を用いて移動軌跡の数を増加させた近似測地距離を用いて移動軌跡のクラスタリングを行うため、より正しいクラスタリング結果を得ることが期待できる。
このような例を、図12及び図13を用いて説明する。図12は、図4及び図5と同様なシーンにおいて、TLフレームにわたって全ての移動軌跡が追跡可能であった理想的な場合の移動軌跡の分布を示す概念図である。しかしながら、実際の移動軌跡は、遮蔽などが原因で、ピクチャ数が多いほど数が減ってしまうので、図13(a)に示すような分布となる。移動体検出装置100が、図13(a)のように疎な移動軌跡を用いて測地距離を算出し、算出した測地距離を用いてクラスタリングを行った場合、誤ったクラスタリングが行われてしまう可能性が高くなる。一方、より少ないピクチャ数にわたる移動軌跡であれば、その個数は理想的な状態に近づくが、図13(b)に示すように移動軌跡間の類似度の違いが少なくなる。このような場合に、長時間移動軌跡と短時間移動軌跡との両方に基づいて近似測地距離を算出することは、図13(c)に示すような、図12の理想的な分布に近い移動軌跡に基づいて測地距離を算出することに相当する。
以上のようにして、本実施の形態における移動体検出装置及び方法によれば、画像の移動軌跡の類似度にもとづいてクラスタリングを行うことによって、画像中を移動する物体の領域を時間的に追跡した結果として、関節物体の姿勢によらずに、画像中の移動体の領域抽出をすることができる。また、前処理として人物候補領域を設定する必要がないため、人物候補領域の検出ミスに起因する領域抽出の失敗がない。以上のように、膨大なパラメータのフィッティングを必要とせずに、移動軌跡間の測地距離に基づいてクラスタリングを行うことによって、形状が変化しながら移動する人物等を含む画像を安定的に領域抽出し、これによって画像中の移動体の検出を高精度に行うことが可能となる。
なお、本実施の形態の移動体検出装置において、距離補間部106は、長時間移動軌跡間の測地距離と短時間移動軌跡間の測地距離とから、上記式10及び式11によって近似測地距離を算出したが、本発明はこれらの式に限定されるものではない。距離補間部106は、長時間移動軌跡間の測地距離g(i,j)より多くの移動軌跡の情報を含み、短時間移動軌跡の測地距離g(i,j)より多くのピクチャの情報を含むように近似測地距離を算出する式であれば、他の式を用いて近似測地距離g(i,j)を算出してもよい。例えば、距離補間部106は、式10の代わりに、下記式30を用いて補間長時間測地距離g’(i,j)を算出したのち、式11を用いて近似測地距離g(i,j)を算出しても良い。
Figure 2011013281
式30は、長時間移動軌跡間の測地距離を短時間移動軌跡間の測地距離を用いて補間する際に、短時間移動軌跡間の測地距離が小さいほど重みwが大きくなるように重み付きの線形補間をすることに相当する。つまり、距離補間部106は、短時間移動軌跡間の測地距離を用いて長時間移動軌跡間の測地距離の線形補間を行うときに、短時間移動軌跡間の測地距離が小さいほど重みが大きくなるように重み付きの線形補間を行うことによって、近似測地距離を算出しても良い。このような重みを加えて線形補間を行うことにより、距離補間部106は、短時間移動軌跡間の測地距離のより局所的な分布を保持しながら、近似測地距離を算出することが可能になる。すなわち、移動体検出装置は、このように算出された近似測地距離を用いることにより、移動体の領域をさらに高精度に抽出することが可能となる。
なお、本実施の形態の移動体検出装置において、距離補間部106は、ある2つの移動軌跡間の近似測地距離を算出する際に、全ての短時間移動軌跡の測地距離g(i,j)を用いて計算するとしたが、短時間移動軌跡を全て用いる方法に限定するものではない。例えば、一部の短時間移動軌跡を抽出し、抽出した短時間移動軌跡の測地距離g(i,j)を用いて近似測地距離を計算するとしても良い。より具体的には、例えば、移動軌跡iと移動軌跡jの近似測地距離g(i,j)を算出する場合に、全ての短時間移動軌跡のうち、移動軌跡iに類似する短時間移動軌跡と、移動軌跡jに類似する短時間移動軌跡とを抽出して、これらを部分短時間移動軌跡とする。そして、全ての短時間移動軌跡の測地距離g(i,j)の代わりに、抽出した部分短時間移動軌跡の測地距離g’(i,j)を用いて、式10及び式30によって、補間長時間測地距離g’(i,j)を算出する。最後に、式11を用いて補間長時間測地距離g’(i,j)から近似測地距離g(i,j)を算出する。
すなわち、距離補間部106は、短時間移動軌跡間の測地距離に基づいて、類似する短時間移動軌跡の集まりである部分短時間移動軌跡を抽出し、抽出した部分短時間移動軌跡に基づいて、近似測地距離を算出しても良い。つまり、距離補間部106は、短時間移動軌跡間の測地距離が類似する短時間移動軌跡の集まりを部分短時間移動軌跡として抽出し、抽出した部分短時間移動軌跡を用いて近似測地距離を算出しても良い。これにより、移動体検出装置100は、例えば動きの異なる複数の移動体が含まれる場合であっても、移動軌跡i及び移動軌跡jに対応する移動体と同一または類似する動きの移動体の短時間移動軌跡を用いて近似測地距離g(i,j)を算出することができるため、より精度の高い近似測地距離g(i,j)を算出することができ、その結果、移動体の領域を高精度に抽出することが可能となる。
なお、本実施の形態の移動体検出装置において、距離補間部106は、式10及び式30の計算を行う際に、長時間移動軌跡の測地距離g(i,j)と短時間移動軌跡の測地距離g(i,j)とが、いずれもその要素に無限大(∞)の値を含まないものと仮定して計算している。もしも測地距離の値として無限大が含まれる場合、すなわち、ある移動軌跡iと移動軌跡jとの距離が無限大の場合は、距離補間部106は、移動軌跡iとの測地距離が有限である複数の移動軌跡と、移動軌跡jとの測地距離が有限である複数の移動軌跡との2つの部分集合(部分移動軌跡)に分割することが好ましい。そして、分割された部分集合が、それぞれ別のクラスタであるものとして、各処理部は以降の各処理を行うと良い。
すなわち、距離補間部106は、短時間移動軌跡間の測地距離に基づいて、類似する短時間移動軌跡の集まりである部分短時間移動軌跡を複数抽出し、抽出した複数の部分短時間移動軌跡に基づいて、近似測地距離を算出しても良い。つまり、距離補間部106は、短時間移動軌跡間の測地距離が有限となる短時間移動軌跡の集まりを部分短時間移動軌跡として複数抽出し、抽出した複数の部分短時間移動軌跡ごとに近似測地距離を算出しても良い。この場合、領域分割部107は、同じ部分短時間移動軌跡から算出された近似測地距離ごとに類似する移動軌跡の集まりを1つの領域として特定する。これにより、移動体検出装置100は、抽出された複数の短時間移動軌跡の中に適切な測地距離を算出できない短時間移動軌跡の組合せが含まれる場合であっても、移動体の領域を高精度に抽出することが可能となる。
なお、本実施の形態の移動体検出装置において、距離算出部105は、動き解析部102によって生成された移動軌跡から抽出する、長時間移動軌跡のピクチャ数TLと短時間移動軌跡のピクチャ数TSは、それぞれTL=30、TS=10であるとしたが、この数値に限定するものではない。例えば、検出すべき移動体の種類や状態に応じて別の数値を用いても良い。
例えば、検出する対象が歩行者と仮定できる場合、平均的な歩行周期が約1秒(30フレーム)であることから、TL=30フレームのピクチャにわたる長時間移動軌跡は、人の歩行1周期分で正規化された動きの情報を表す。歩行周期で正規化された移動軌跡は、歩行周期に満たない一部の移動軌跡に比べて、歩行者ごとの移動方向の違いを表現するのに適していると言える。したがって、30枚を長時間移動軌跡のピクチャ数TLとして長時間移動軌跡を抽出することは、複数の歩行者が含まれる動画像から、歩行者ごとに移動体を抽出することを目的とした場合に、適しているといえる。一方、例えば片方の足や手などのように、歩行1周期のうち一時的に遮蔽される領域は、歩行1周期分のピクチャにわたる移動軌跡が抽出できない。そこで、距離算出部105は、移動軌跡を抽出可能なピクチャ数である10枚を短時間移動軌跡のピクチャ数TSとして短時間移動軌跡を抽出すれば、このような1周期分の移動軌跡が算出できない領域に対しても短時間移動軌跡を抽出することができる。移動体検出装置100は、このように抽出された短時間移動軌跡を用いることで、一時遮蔽された領域に対しても、移動体領域の判定や抽出が可能になる。
以上のように、検出すべき対象が周期的な変形を伴う移動体である場合、距離算出部105において抽出する長時間移動軌跡のピクチャ数(TL)を、移動体の変形周期に対応するピクチャ数とすることで、移動体の変形の影響を受けにくくなり、移動体をより正しく抽出することができるという効果がある。また、長時間移動軌跡が算出できないピクチャ中の移動体領域について、移動体か否かを検出するために、移動軌跡が算出可能な最大のピクチャ数をTSとすることで、移動体の領域に、より正確に対応した移動体領域の検出が可能になるという効果がある。
なお、本実施の形態の移動体検出装置において、距離算出部105が、動き解析部102によって生成された移動軌跡から抽出する、TLフレームにわたる長時間移動軌跡と、TSフレームにわたる短時間移動軌跡との時間的な位置関係は、図7の配置であるものとしたが、これに限定するものではない。TSフレームのピクチャがTLフレームに含まれていれば、どのような位置関係であっても良い。例えば、長時間移動軌跡と短時間移動軌跡との時間的な位置関係が、図14A又は図14Bに示すような位置関係などであっても、距離算出部105は、図7に示す位置関係の場合と同様に処理することができる。
図7、図14A、及び図14Bのように、短時間移動軌跡を抽出するピクチャと長時間移動軌跡を抽出するピクチャとの相対的なピクチャの配置が異なる場合、距離補間部106によって、短時間移動軌跡間の距離と長時間移動軌跡間の距離とから算出される近似測地距離に反映される各ピクチャの重みが変化する。例えば、図7の場合、第1フレームから第TLフレームまでのピクチャのうち、第1フレームから第TSフレームにおいて抽出された短時間移動軌跡は移動体の検出に利用可能である。一方、第1フレームから第TSフレームにおいて一時的に遮蔽され、後の第(TS+1)フレームから第TLフレームまでにピクチャ中に存在する領域は、移動軌跡を用いた移動体の検出処理ができない。したがって、第1フレームから第TLフレームまでのピクチャのうち、移動体抽出の結果の重要度がピクチャによって異なる場合は、距離算出部105は、より重要度の高いピクチャが、短時間移動軌跡を抽出するピクチャに含まれるように、ピクチャの配置を決定すればよい。例えば、第1フレームから第TLフレームまでのピクチャのうち、最初のピクチャが重要な場合は、距離算出部105は、短時間移動軌跡を抽出するピクチャの配置を、図7の配置に決定すれば良い。一方、ロボットや車両の制御のための移動体検出などのように、移動体が撮影されてから装置が移動体を検出するまでの時間遅延が少ないことが望ましい場合は、距離算出部105は、短時間移動軌跡を抽出するピクチャの配置を、図14Bのような配置に決定すれば良い。
また、距離算出部105は、図7と図14Aと図14Bとの関係のように、第1フレームから第TLフレームまでのピクチャに対して配置が異なるTSフレームの短時間移動軌跡を用いて同様の処理を行った結果を、それぞれTSフレーム分のピクチャに対応する、移動体領域の抽出結果としても良い。
なお、本実施の形態の移動体検出装置において、距離算出部105が、移動軌跡から抽出する、長時間移動軌跡のピクチャ数TLと短時間移動軌跡のピクチャ数TSは、あらかじめ定められており、一定であるものとして説明したが、それぞれの移動軌跡の算出に利用するピクチャ数を動的に変化させても良い。具体的には、距離算出部105は、抽出される長時間移動軌跡の数に応じて、長時間移動軌跡のピクチャ数TLを変化させて長時間移動軌跡を抽出しても良い。また、距離算出部105は、抽出される短時間移動軌跡の数に応じて、短時間移動軌跡のピクチャ数TSを変化させて短時間移動軌跡を抽出しても良い。これにより、距離算出部105は、複数のピクチャに含まれる移動体の特徴に応じて、移動軌跡のピクチャ数を変更できるので、より多くピクチャ数にわたるより多くの個数の移動軌跡を抽出することが可能となる。すなわち、移動体検出装置100は、より多くの情報を含む移動軌跡を用いることができるので、より高精度に領域分割をすることが可能となる。
具体的には、長時間移動軌跡のピクチャ数TLと短時間移動軌跡のピクチャ数TSを動的に変化させる手法として、距離算出部105は、例えば、長時間移動軌跡と短時間移動軌跡のどちらか一方、又は両方の、移動軌跡個数の上限値をあらかじめ定めておき、これらの上限値を大きく超えないようにピクチャ数TL又はTSを動的に変化させても良い。より具体的には、距離算出部105は、ピクチャ数TLにわたる長時間移動軌跡の個数が、あらかじめ定められた長時間移動軌跡の個数の上限値NLmax(第1の上限値)を超えた場合に、ピクチャ数TLを増加させるとしても良い。また、短時間移動軌跡のピクチャ数についても同様に、距離算出部105は、ピクチャ数TSにわたる短時間移動軌跡の個数が、あらかじめ定められた短時間移動軌跡の個数の上限値NLmax(第2の上限値)を超えた場合に、ピクチャ数TSを増加させるとしても良い。距離算出部105は、このように増加させたピクチャ数にわたる移動軌跡を再度抽出することにより、より多くのピクチャ数にわたる移動軌跡を適切な個数抽出することができる。ここで移動軌跡の数が多いということは、動画像中の変化が小さい、被写体の動きが小さい、動きによる遮蔽領域が少ない、などの理由により、複数のピクチャにわたる対応点が多く算出可能であることに相当する。このような場合、ピクチャ数TL、又はTSを増加させることによって、移動軌跡により多くのピクチャにわたる動きの情報を含ませることができるため、その結果、移動軌跡に基づいて移動体を正しく検出できるという効果が期待できる。
また、長時間移動軌跡のピクチャ数TLと短時間移動軌跡のピクチャ数TSを動的に変化させる別の手法として、距離算出部105は、例えば、長時間移動軌跡と短時間移動軌跡のどちらか一方、又は両方の、移動軌跡個数の下限値をあらかじめ定めておき、これらの下限値を下回らないようにピクチャ数TL又はTSを動的に変化させるとしても良い。具体的には、距離算出部105は、ピクチャ数TLにわたる長時間移動軌跡の個数が、あらかじめ定められた長時間移動軌跡の個数の下限値NLmin(第1の下限値)を下回った場合に、長時間移動軌跡の個数がNLminを超えるように、ピクチャ数TLを減少させるとしても良い。また、短時間移動軌跡のピクチャ数についても同様に、距離算出部105は、ピクチャ数TSにわたる短時間移動軌跡の個数が、あらかじめ定められた短時間移動軌跡の個数の下限値NLmin(第2の下限値)を下回った場合に、ピクチャ数TSを減少させるとしても良い。距離算出部105は、このように減少させたピクチャ数にわたる移動軌跡を再度抽出することにより、できる限り多くのピクチャ数を確保しながら、移動軌跡があらかじめ定められた移動軌跡の数を下回らないようにすることができる。そのため、例えば動画像中の被写体の動きによる遮蔽によって長時間移動軌跡の個数が相対的に小さくなる動画像に対しても、移動軌跡の数が極端に少なくなるということが発生しにくくなる。その結果、領域分割ができないということが発生しにくくなるという効果がある。
なお、本発明に係る移動体検出装置及び方法は、上記実施の形態に限定されるものではなく、上記実施の形態に対して当業者が思いつく各種変形を施して得られる形態、あるいは後述する各種変形例を含む複数の形態における構成要素を任意に組み合わせて得られる形態も本発明に含まれる。
例えば、上記実施の形態の移動体検出装置の距離算出部105は、あらかじめ定められた一定の値である閾値Rを用いて測地距離を算出した。しかし、本発明の距離算出部105は、これに限定されるものではない。例えば、距離算出部105は、閾値Rを徐々に小さくしながら測地距離を算出しても良い。この場合、距離算出部105、距離補間部106及び領域分割部107は、徐々に小さくなる閾値Rごとに、距離算出、距離補間、及び領域分割を繰り返し行い、所定の条件に達した時点で処理を終了しても良い。
なお、本実施の形態の移動体検出装置において、領域分割部107は、式12から式17の処理によって近似測地距離g(i,j)の次元圧縮を行ったのち、次元圧縮された測地距離を用いて、クラス数を所与としてクラス内分散が最小となるように移動軌跡をクラスタリングする手法を用いるものとしたが、領域分割の手法はこれに限定されるものではない。領域分割部107は、近似測地距離を用いて、移動軌跡をクラスタリングする手法であれば、他の手法を用いてもよい。
また、上記実施の形態では、領域分割の結果はディスプレイに表示されたが、例えば、移動体の動き予測に利用されてもよい。具体的には、本発明に係る移動体検出装置は、図15Aに示すように、上記実施の形態における構成要素に加え、動き予測部150を備えてもよい。
図15Aは、本発明の実施の形態の変形例における移動検出装置の構成を示す図である。図15Aに示すように、本変形例における移動体検出装置は、図1に示した移動体検出装置が有する構成要素に加えて、動き予測部150を備える。なお、図15Aにおいて、図1と同じ構成要素については、同一の符号を付し、説明を省略する。
また、図15Bは、本発明の実施の形態の変形例における移動検出装置の動作を表すフローチャートである。図15Bにおいて、図3と同様の処理については、同一の符号を付し、適宜説明を省略する。なお、図15Bにおいて、ステップS250は、図15Aの動き予測部150に対応している。つまり、動き予測部150は、動き予測ステップS250の処理を実行する。
動き予測部150は、領域分割部107で得られた領域分割の結果に基づいて、各領域に含まれる画素の移動軌跡から代表軌跡を算出し、その代表軌跡をもとに移動体の動きを予測する(ステップS250)。
さらに具体的には、領域θに属する画素の移動軌跡をxcmと表現した場合、動き予測部150は、まず、下記式26のように、クラスタ領域θごとに代表の移動軌跡
Figure 2011013281
を求める。なお、動き予測部150は、式26を用いて、代表の移動軌跡として、平均移動軌跡を算出しているが、その計算に対して画素の移動軌跡xcmごとに重み付け等を行って算出してもよいし、画像上でのクラスタの重心に対応する画素の移動軌跡を代表の移動軌跡として算出してもよい。
Figure 2011013281
ここで、Cは、領域θに属する画素数もしくは画素の移動軌跡の数である。
図16は、本変形例における移動体検出装置による動き予測を説明するための図である。つまり、図16は、式26に基づいてクラスタ領域θごとに代表の移動軌跡を求める一例を示す図である。図中の「×」は、それぞれ時刻tに対応する代表の移動軌跡
Figure 2011013281
の画素位置を示している。このような算出方法によれば、上述したように非線形空間上でのクラスタリングによる領域分割が、画素動きの類似度を考慮して行われるため、動き予測部150は、単純に近接した画素の移動軌跡の時間平均を求めるような方法と比較して、動きが類似した画素の移動軌跡のみを用いて代表の移動軌跡を算出できるため、より高精度に代表の移動軌跡を求めることができる。このように、動き予測部150は、クラスタ領域ごとに代表の移動軌跡を求めることによって、領域ごとの動きを正確かつ簡便に表現することができる。
次に、動き予測部150は、算出した代表の移動軌跡から、時刻Tより先の時刻における移動体の位置を予測する。そのために、動き予測部150は、代表の移動軌跡から加速度を算出し、T+1以降の移動体の位置を予測する。動き予測部150は、3枚以上の時系列画像が入力された場合は、次式27のように代表の移動軌跡
Figure 2011013281
ごとに加速度ベクトルsを算出する。
Figure 2011013281
ここで、u は動きベクトルであり、次式のように表すことができる。
Figure 2011013281
動き予測部150は、式27に示される加速度ベクトルsを用いて、図16において「×」で示されるように、移動体ごとに、時刻T+t’における移動体の位置pos(T+t’)を、以下の式29のように、予測する。
Figure 2011013281
最後に、出力部104は、このように動き予測部150が予測した移動体の位置を出力する。これにより、動き予測部150は、加速度を加味した動き予測が可能となる。移動体の動きが急激に早くなったり、急激に止まったりといった場合に、動き予測部150は、その加速度を反映して移動体の位置を予測することができる。なお、動き予測部150は、上記動きベクトルの代わりにアフィンパラメータを用いて動き予測をしてもかまわない。アフィンパラメータは、回転運動を含む動きの表現が可能であり、物体の位置をより正確に予測することができる。
図17は、別の動画像に対する移動予測の結果の一例を示す図である。つまり、図17は、人物が1人含まれる動画像において、クラスタ数が9である場合に、式26に基づいてクラスタ領域θごとに代表の移動軌跡を求める一例を示す図である。ただし、図17において、見やすさを考慮して、頭部に対応するクラスタ領域θと脚部に対応するクラスタ領域θに関する代表の移動軌跡のみを示している。また、背景は図示していない。図中の「×」は、それぞれ時刻tに対応する代表の移動軌跡
Figure 2011013281
の要素であり画素位置を示している。
以上のようにして、本実施の形態及びその変形例に係る移動体検出装置及び方法では、画素間の距離あるいは移動軌跡の類似度に基づいてクラスタリングを行うことによって、画像中を移動する物体の領域を時間的に追跡した結果として、関節物体の姿勢によらずに、画像中の移動体もしくは、移動体の部位の検出、移動体を含む画像の領域分割をすることができる。また、前処理として人物候補領域を設定する必要がないため、人物候補領域の検出ミスに起因する領域分割の失敗がない。以上のように、膨大なパラメータのフィッティングを必要とせずに、非線形空間でクラスタリングを行うことによって、形状が変化しながら移動する人物等を含む画像に対しても正しく領域分割し、これによって画像中の移動体の検出を行うことが可能となる。
また、上記実施の形態における移動体検出装置100は、画像入力部101及び動き解析部102を備えたが、本発明は、これらの構成要素を必須とするものではない。つまり、動画像を構成する複数のブロックのそれぞれにおける画像の移動軌跡が予め算出されている場合には、移動体検出装置100は、外部から、そのような移動軌跡を取得し、取得した移動軌跡に対して、図3のステップS203〜S207の処理を実行してもよい。
また、本発明は、移動体検出装置として実現されたが、領域分割部107の機能を持つものであれば、動画像において動きをもつオブジェクトの領域を抽出、あるいは、分割する画像処理装置として実現することができるのは言うまでもない。
本発明は、複数枚のピクチャにおける動きに基づいて、形状が変化しながら移動する人物等の移動体を含む画像を領域抽出することによって画像中の移動体を検出する移動体検出装置として、例えば、運動解析装置、監視装置、ビデオカメラやTV等のAV機器に内蔵させる移動体検出装置等として利用することが可能である。
100 移動体検出装置
101 画像入力部
102 動き解析部
103 移動体検出部
104 出力部
105 距離算出部
106 距離補間部
107 領域分割部
110 カメラ
120 ディスプレイ
150 動き予測部
1001 カメラ
1002 コンピュータ
1003 ディスプレイ
1004 I/F
1005 CPU
1006 ROM
1007 RAM
1008 HDD
1009 ビデオカード
本発明の一実施形態は、動画像中の移動体の全部又は一部の領域を分割することによって動画像中の移動体を検出する移動体検出方法であって、動画像に含まれる2枚以上のピクチャにわたる対応点である複数の移動軌跡から、TL枚(TL>=3)のピクチャにわたる移動軌跡である長時間移動軌跡をNL個(NL>=2)と、前記TL枚のピクチャに含まれるTS枚(TL>TS>=2)のピクチャにわたる移動軌跡である短時間移動軌跡をNS個(NS>NL)とを抽出し、他の移動軌跡を中継点として2個の移動軌跡の一方から他方にたどりつく経路の距離のうち最短の距離である測地距離を、NL個の長時間移動軌跡間NS個の短時間移動軌跡間とのそれぞれについて算出する距離算出ステップと、前記距離算出ステップで算出された、長時間移動軌跡間の測地距離及び短時間移動軌跡間の測地距離に基づいて、TL枚のピクチャにわたるNS個の移動軌跡間の測地距離を近似測地距離として算出する距離補間ステップと、前記距離補間ステップで算出された近似測地距離に基づいて、移動軌跡の集まりを1つの領域として分割することによって、領域分割をする領域分割ステップとを含む移動体検出方法としたものである。

Claims (17)

  1. 動画像中の移動体の全部又は一部の領域を分割することによって動画像中の移動体を検出する移動体検出方法であって、
    動画像に含まれる2枚以上のピクチャにわたる対応点である複数の移動軌跡から、TL枚(TL>=3)のピクチャにわたる移動軌跡である長時間移動軌跡をNL個(NL>=2)と、前記TL枚のピクチャに含まれるTS枚(TL>TS>=2)のピクチャにわたる移動軌跡である短時間移動軌跡をNS個(NS>NL)とを抽出し、NL個の長時間移動軌跡間の測地距離と、NS個の短時間移動軌跡間の測地距離とをそれぞれについて算出する距離算出ステップと、
    前記距離算出ステップで算出された、長時間移動軌跡間の測地距離及び短時間移動軌跡間の測地距離に基づいて、TL枚のピクチャにわたるNS個の移動軌跡間の測地距離を近似測地距離として算出する距離補間ステップと、
    前記距離補間ステップで算出された近似測地距離に基づいて、移動軌跡の集まりを1つの領域として分割することによって、領域分割をする領域分割ステップとを含む
    移動体検出方法。
  2. 前記距離補間ステップでは、前記短時間移動軌跡間の測地距離に基づいて、短時間移動軌跡の集まりである部分短時間移動軌跡を抽出し、抽出した部分短時間移動軌跡に基づいて、前記近似測地距離を算出する
    請求項1記載の移動体検出方法。
  3. 前記距離補間ステップでは、前記短時間移動軌跡間の測地距離に基づいて前記長時間移動軌跡間の測地距離の線形補間を行うことによって、前記近似測地距離を算出する
    請求項1記載の移動体検出方法。
  4. 前記距離補間ステップでは、短時間移動軌跡間の測地距離が小さいほど重みが大きくなるように重み付きの前記線形補間を行うことによって、前記近似測地距離を算出する
    請求項3記載の移動体検出方法。
  5. 前記距離算出ステップでは、
    (1)移動軌跡間の線形距離を算出し、(2)前記移動軌跡間の線形距離に対して、一部の線形距離を無限大化することで非線形化した距離を算出し、(3)前記非線形化後の距離に基づいて、他の移動軌跡を中継点として、2個の移動軌跡の一方から他方にたどりつく複数の経路の距離のうちの最短の距離を、前記測地距離として算出する
    請求項1記載の移動体検出方法。
  6. さらに、
    動画像に含まれる複数枚のピクチャを受け付ける画像入力ステップと、
    2枚のピクチャ間の対応点の検出を前記複数枚のピクチャについて行うことにより、2枚以上のピクチャにわたる対応点を示す複数の移動軌跡を算出する動き解析ステップとを含み、
    前記距離算出ステップでは、前記動き解析ステップで算出された複数の移動軌跡から、前記長時間移動軌跡と前記短時間移動軌跡とを抽出する
    請求項1記載の移動体検出方法。
  7. さらに、前記画像入力ステップで受け付けた動画像に、前記領域分割ステップで分割された領域ごとに異なる表示態様となるように画像処理を施し、画像処理後の動画像を出力する出力ステップを含む
    請求項6記載の移動体検出方法。
  8. 前記出力ステップでは、前記距離補間ステップで算出された近似測地距離と、前記距離算出ステップで抽出されたNL個の長時間移動軌跡及びNS個の短時間移動軌跡とに基づいて、仮想的な長時間移動軌跡を補間したNS個の近似長時間移動軌跡を算出し、算出した近似長時間移動軌跡を含む動画像を出力する
    請求項7記載の移動体検出方法。
  9. さらに、前記領域分割ステップで分割された領域に含まれる移動軌跡から、当該領域を代表する移動軌跡を算出し、算出した代表の移動軌跡に従って当該領域が移動すると予測することで、前記移動体の動きを予測する動き予測ステップを含む
    請求項1記載の移動体検出方法。
  10. 前記距離算出ステップでは、抽出される長時間移動軌跡の個数に応じて、前記TLを変化させて長時間移動軌跡を抽出する
    請求項1又は6記載の移動体検出方法。
  11. 前記距離算出ステップでは、抽出される長時間移動軌跡の個数があらかじめ定められた第1の上限値を越える場合に、前記TLを増加させて長時間移動軌跡を抽出する
    請求項10記載の移動体検出方法。
  12. 前記距離算出ステップでは、抽出される長時間移動軌跡の個数があらかじめ定められた第1の下限値を下回る場合に、前記TLを減少させて長時間移動軌跡を抽出する
    請求項10に記載の移動体検出方法。
  13. 前記距離算出ステップでは、抽出される短時間移動軌跡の個数に応じて、前記TSを変化させて短時間移動軌跡を抽出する
    請求項1又は6記載の移動体検出方法。
  14. 前記距離算出ステップでは、抽出された短時間移動軌跡の個数があらかじめ定められた第2の上限値を超える場合に、前記TSを増加させて短時間移動軌跡を抽出する
    請求項13記載の移動体検出方法。
  15. 前記距離算出ステップでは、抽出される短時間移動軌跡の個数があらかじめ定められた第2の下限値を下回る場合に、前記TSを減少させて短時間移動軌跡を抽出する
    請求項13記載の移動体検出方法。
  16. 動画像中の移動体の全部又は一部の領域を分割することによって動画像中の移動体を検出する移動体検出装置であって、
    動画像に含まれる2枚以上のピクチャにわたる対応点である複数の移動軌跡から、TL枚(TL>=3)のピクチャにわたる移動軌跡である長時間移動軌跡をNL個(NL>=2)と、前記TL枚のピクチャに含まれるTS枚(TL>TS>=2)のピクチャにわたる移動軌跡である短時間移動軌跡をNS個(NS>NL)とを抽出し、NL個の長時間移動軌跡間の測地距離と、NS個の短時間移動軌跡間の測地距離とをそれぞれについて算出する距離算出部と、
    前記距離算出部によって算出された、長時間移動軌跡間の測地距離及び短時間移動軌跡間の測地距離に基づいて、TL枚のピクチャにわたるNS個の移動軌跡間の測地距離を近似測地距離として算出する距離補間部と、
    前記距離補間部によって算出された近似測地距離に基づいて、移動軌跡の集まりを1つの領域として分割することによって、領域分割をする領域分割部とを備える
    移動体検出装置。
  17. 動画像中の移動体の全部又は一部の領域を分割することによって動画像中の移動体を検出するためのプログラムであって、
    請求項1記載の移動体検出方法に含まれる各ステップをコンピュータに実行させる
    プログラム。
JP2010530203A 2009-07-29 2010-05-18 移動体検出方法及び移動体検出装置 Expired - Fee Related JP4668360B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009176088 2009-07-29
JP2009176088 2009-07-29
PCT/JP2010/003323 WO2011013281A1 (ja) 2009-07-29 2010-05-18 移動体検出方法及び移動体検出装置

Publications (2)

Publication Number Publication Date
JP4668360B2 JP4668360B2 (ja) 2011-04-13
JPWO2011013281A1 true JPWO2011013281A1 (ja) 2013-01-07

Family

ID=43528956

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010530203A Expired - Fee Related JP4668360B2 (ja) 2009-07-29 2010-05-18 移動体検出方法及び移動体検出装置

Country Status (5)

Country Link
US (1) US8363902B2 (ja)
EP (1) EP2352128B1 (ja)
JP (1) JP4668360B2 (ja)
CN (1) CN102227749B (ja)
WO (1) WO2011013281A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012163940A (ja) * 2011-01-17 2012-08-30 Ricoh Co Ltd 撮像装置、撮像方法、及び撮像プログラム
JP5834259B2 (ja) * 2011-06-30 2015-12-16 パナソニックIpマネジメント株式会社 薬剤計数装置およびその方法
AU2011265430B2 (en) * 2011-12-21 2015-03-19 Canon Kabushiki Kaisha 3D reconstruction of partially unobserved trajectory
WO2013131819A1 (en) * 2012-03-05 2013-09-12 Thomson Licensing Filtering a displacement field between video frames
CN103324977B (zh) * 2012-03-21 2016-03-30 日电(中国)有限公司 一种目标数量检测方法和设备
CN103034992B (zh) * 2012-05-21 2015-07-29 中国农业大学 蜜蜂运动轨迹的无标识图像检测方法及系统
US20130322697A1 (en) * 2012-05-31 2013-12-05 Hexagon Technology Center Gmbh Speed Calculation of a Moving Object based on Image Data
US9336302B1 (en) 2012-07-20 2016-05-10 Zuci Realty Llc Insight and algorithmic clustering for automated synthesis
US9452530B2 (en) * 2014-09-12 2016-09-27 Toyota Jidosha Kabushiki Kaisha Robot motion replanning based on user motion
US11205103B2 (en) 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
US20220292693A1 (en) * 2019-08-20 2022-09-15 Sony Interactive Entertainment Inc. Image processing device, image processing method, and program
US10911677B1 (en) * 2019-09-09 2021-02-02 Apple Inc. Multi-camera video stabilization techniques
CN112577475A (zh) * 2021-01-14 2021-03-30 天津希格玛微电子技术有限公司 一种能够有效降低功耗的视频测距方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2825863B2 (ja) * 1989-08-14 1998-11-18 日本電信電話株式会社 移動物体検出装置
JP3321936B2 (ja) * 1993-11-05 2002-09-09 株式会社豊田中央研究所 移動物体検出装置
JP3780017B2 (ja) 1994-12-06 2006-05-31 オリンパス株式会社 時系列画像解析装置及びその解析方法
JP3612360B2 (ja) * 1995-04-10 2005-01-19 株式会社大宇エレクトロニクス 移動物体分割法を用いた動画像の動き推定方法
JPH1166319A (ja) * 1997-08-21 1999-03-09 Omron Corp 移動体検出方法及び装置並びに移動体認識方法及び装置並びに人間検出方法及び装置
US6643387B1 (en) * 1999-01-28 2003-11-04 Sarnoff Corporation Apparatus and method for context-based indexing and retrieval of image sequences
JP4226730B2 (ja) * 1999-01-28 2009-02-18 株式会社東芝 物体領域情報生成方法及び物体領域情報生成装置並びに映像情報処理方法及び情報処理装置
JP2000222584A (ja) * 1999-01-29 2000-08-11 Toshiba Corp 映像情報記述方法、映像検索方法及び映像検索装置
US6859554B2 (en) * 2001-04-04 2005-02-22 Mitsubishi Electric Research Laboratories, Inc. Method for segmenting multi-resolution video objects
US20030123704A1 (en) * 2001-05-30 2003-07-03 Eaton Corporation Motion-based image segmentor for occupant tracking
US7035431B2 (en) 2002-02-22 2006-04-25 Microsoft Corporation System and method for probabilistic exemplar-based pattern tracking
US8614741B2 (en) * 2003-03-31 2013-12-24 Alcatel Lucent Method and apparatus for intelligent and automatic sensor control using multimedia database system
JP4477439B2 (ja) 2004-07-12 2010-06-09 日立ソフトウエアエンジニアリング株式会社 画像分割処理システム
JP2007124408A (ja) * 2005-10-28 2007-05-17 Matsushita Electric Ind Co Ltd 動きベクトル検出装置および動きベクトル検出方法
WO2008073962A2 (en) 2006-12-12 2008-06-19 Rutgers, The State University Of New Jersey System and method for detecting and tracking features in images
US20100020661A1 (en) * 2007-02-13 2010-01-28 Pioneer Corporation Information recording apparatus and method, computer program, and recording medium
US20080279478A1 (en) 2007-05-09 2008-11-13 Mikhail Tsoupko-Sitnikov Image processing method and image processing apparatus
WO2009078056A1 (ja) * 2007-12-14 2009-06-25 Fujitsu Limited 移動物検知装置及び移動物検知プログラム
KR101510098B1 (ko) * 2007-12-21 2015-04-08 삼성전자주식회사 디지털 영상 처리 장치에서 영상의 배경흐림 효과 처리장치 및 방법
US8212210B2 (en) * 2008-02-04 2012-07-03 Flir Systems Ab IR camera and method for presenting IR information

Also Published As

Publication number Publication date
EP2352128A4 (en) 2013-07-24
JP4668360B2 (ja) 2011-04-13
CN102227749A (zh) 2011-10-26
CN102227749B (zh) 2014-07-09
EP2352128B1 (en) 2018-10-24
US20110091074A1 (en) 2011-04-21
US8363902B2 (en) 2013-01-29
EP2352128A1 (en) 2011-08-03
WO2011013281A1 (ja) 2011-02-03

Similar Documents

Publication Publication Date Title
JP4668360B2 (ja) 移動体検出方法及び移動体検出装置
JP4542207B1 (ja) 移動体検出方法および移動体検出装置
JP4782901B2 (ja) 移動体検出装置および移動体検出方法
JP4763863B1 (ja) 関節状領域検出装置およびその方法
US8300892B2 (en) Moving object detection apparatus and moving object detection method
JP4456181B1 (ja) 移動体検出方法及び移動体検出装置
JP5054206B2 (ja) 画像処理方法及び画像処理装置
JP5404918B2 (ja) 移動軌跡算出方法およびその装置、ならびに領域分割方法
US8929599B2 (en) Articulation region display apparatus, articulation region detecting apparatus, articulation region belongingness calculating apparatus, articulated object region belongingness calculating apparatus, and articulation region display method
CN110390685B (zh) 一种基于事件相机的特征点跟踪方法
JP2021077177A (ja) 動作認識装置、動作認識方法及び動作認識プログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4668360

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees