JP5054206B2 - 画像処理方法及び画像処理装置 - Google Patents

画像処理方法及び画像処理装置 Download PDF

Info

Publication number
JP5054206B2
JP5054206B2 JP2010550248A JP2010550248A JP5054206B2 JP 5054206 B2 JP5054206 B2 JP 5054206B2 JP 2010550248 A JP2010550248 A JP 2010550248A JP 2010550248 A JP2010550248 A JP 2010550248A JP 5054206 B2 JP5054206 B2 JP 5054206B2
Authority
JP
Japan
Prior art keywords
distance
image
motion
block
segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010550248A
Other languages
English (en)
Other versions
JP2011513868A (ja
Inventor
正宏 岩崎
タヤナンザン アラサナザン
チポラ ロベルト
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Publication of JP2011513868A publication Critical patent/JP2011513868A/ja
Application granted granted Critical
Publication of JP5054206B2 publication Critical patent/JP5054206B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置に関し、特に、複数枚の画像における1個以上の画素からなるブロックの動きに基づいて、形状が変化しながら移動する人物等の被写体を含む画像をセグメンテーションすることによって被写体を検出する装置に関する。
形状が変化しながら移動する人物等の被写体を検出したり、被写体を含む画像のセグメンテーションを行う技術の1つとして、画像から対象物の候補領域を抽出する手法と、抽出した対象物の候補領域に対しあらかじめ用意した対象物モデルを当てはめる手法とを組み合わせた方法がある。例えば、特許文献1では、対象物候補領域として複数の画像から人物等の対象物のシルエット画像を抽出し、前記対象物に関する知識から対象物の部位をあらかじめパラメータ化した人物等の対象物に関するモデルを用いて、抽出したシルエット画像に対してそのモデルを当てはめる方法が開示されている。これによって、形状が変化しながら移動する人物等の被写体に対してパラメータ化したモデルを当てはめることができるため、被写体の検出および部位のセグメンテーションが可能となる。
また、非特許文献1では、固定された1つの被写体を複数の視点から撮影した画像を入力として、各画像における画素値データとその他の画像の画素値データとの距離を計算し、その距離を入力として非線形次元圧縮を行うことによって、類似した視点から撮影した画像が2次元空間上で近距離となるように射影することを可能にする方法が開示されている。ここでは、従来のPCA(Principal Component Analysis)等の線形次元圧縮方法と比較して、より低次元に圧縮可能であり、さらに、非線形に分布するデータに対しても取り扱いが可能なことが示されている。
特開平8−214289号公報
Joshua Tenenbaum, Vin de Silva, John Langford, "A Global Geometric Framework for Nonlinear Dimensionality Reduction", Science, VOL290, pp.2319-2322,22 December, 2000
しかしながら、上記特許文献1の技術では、特に街頭等、人物等の被写体が行き交うシーンにおいて、安定に被写体を検出およびセグメンテーションすることができないという問題がある。上記特許文献1に代表される画像処理手法は、前述のように画像から対象物候補領域を抽出する必要がある。この時、適切に対象物候補領域を抽出できなければ、対象物をパラメータ化したモデルを正確に対象物候補領域に当てはめることが不可能になる。特に、混雑したシーンにおいては、対象物候補領域を適切に抽出することは困難である。さらに、対象物候補領域を適切に抽出できたとしても以下のような課題がある。特に人物等の多関節物体を対象物とした場合、対象物のさまざまな姿勢に起因する画像上での見えのバリエーションが非常に大きいため、対象物モデルのパラメータ化を行う際に膨大な数のパラメータが必要となる。このことは、計算量の増加だけでなく、モデルの当てはめミスを誘発する。そのため、安定に被写体を検出およびセグメンテーションすることが困難となる。
一方で、非特許文献1に代表される画像処理手法では、画素間の距離を入力として非線形処理を行うことにより、効率良く圧縮された低次元空間に画像データを射影することができる。これにより、ノイズに対する耐性が期待できる。しかしながら、非特許文献1の主な目的は、複数の画像を低次元空間に射影することで画像間の類似性を可視化することにあり、形状が変化する人物等の多関節物体におけるさまざまな姿勢変化に対応しながら、安定して被写体を検出およびセグメンテーションする方法は開示されていない。
そこで、本発明は、形状が変化しながら移動する人物等の被写体を含む画像を安定してセグメンテーションすることができる画像処理方法及び画像処理装置を提供することを目的とする。
この課題を解決するために本発明は、複数枚の画像における1個以上の画素からなるブロックの動きに基づいて、形状が変化する被写体を含む画像のセグメンテーションを行う画像処理方法であって、時間的に連続した複数枚の画像を受け付ける画像入力ステップと、時間的に異なる少なくとも2枚の画像を用いてブロックの動きを算出し、時間的に連続
した複数枚の画像に対して前記ブロックの動きからブロックの時間的移動軌跡を算出する動き解析ステップと、前記動き解析ステップで算出したブロックiの時間的移動軌跡と、i以外のブロックの時間的移動軌跡とを用いて、ブロック間の画像上での距離およびブロック間が成す角度の少なくともいずれか1つに基づいて、ブロックの動きの類似性を表す距離を算出する距離算出ステップと、前記距離算出ステップで算出した距離を、ユークリッド距離から測地間距離への変換を行うことによって、非線形空間へ射影し、射影した結果に対して、前記非線形空間内でセグメンテーションを行う非線形空間処理ステップとを含むことを特徴とする。
なお、本発明は、上記画像処理方法として実現できるだけでなく、上記各ステップを構成要素とする画像処理装置、上記各ステップをコンピュータに実行させるプログラム、そのプログラムを格納したCD−ROM等のコンピュータ読み取り可能な記録媒体等として実現することもできる。
上記の方法及び装置等により、形状が変化しながら移動する人物等の被写体を検出および部位をセグメンテーションすることができる。さらに、検出とセグメンテーションを行った結果を用いて、被写体の移動予測等を行うことも可能である。
本発明の実施の形態1における画像処理装置の基本構成を示す図 本発明の実施の形態1における画像処理装置の基本動作を示すフローチャート 本発明の実施の形態1における動き解析部の処理例を示す図 本発明の実施の形態1における非線形空間処理部の効果を示す概念図 本発明の実施の形態1における非線形空間処理部の効果の例を示す図 本発明の実施の形態1における非線形空間処理部の次元圧縮の一例を示す図 本発明の実施の形態1における非線形空間処理部の検出およびセグメンテーションの一例を示す図 本発明の実施の形態1の第1変形例における非線形空間処理部の検出およびセグメンテーションの一例を示す図 本発明の実施の形態1の第2変形例における画像処理装置の基本動作を示すフローチャート 本発明の実施の形態1の第2変形例における非線形空間処理部の検出およびセグメンテーションの一例を示す図 本発明の実施の形態1の第3変形例における画像処理装置の構成例を示す図 本発明の実施の形態1の第4変形例における画像処理装置の構成例を示す図 本発明の実施の形態2における画像処理装置の構成例を示す図 本発明の実施の形態2における画像処理装置の基本動作を示すフローチャート 本発明の実施の形態3における画像処理装置の構成を示す図 本発明の実施の形態3における画像処理装置の動作を示すフローチャート 本発明の実施の形態3における動き予測の一例を示す図
本発明の一実施形態は、複数枚の画像における1個以上の画素からなるブロックの動きに基づいて、形状が変化する被写体を含む画像のセグメンテーションを行う画像処理方法であって、時間的に連続した複数枚の画像を受け付ける画像入力ステップと、時間的に異なる少なくとも2枚の画像を用いてブロックの動きを算出し、時間的に連続した複数枚の画像に対して前記ブロックの動きからブロックの時間的移動軌跡を算出する動き解析ステップと、前記動き解析ステップで算出したブロックiの時間的移動軌跡と、i以外のブロックの時間的移動軌跡とを用いて、ブロックの動きの類似性を表す距離を算出する距離算出ステップと、前記距離算出ステップで算出した距離を非線形空間へ射影し、射影した結果に対して、前記非線形空間内でセグメンテーションを行う非線形空間処理ステップと、を含む構成としたものであり、複数枚の画像からブロックの動きに基づいて、形状が変化しながら移動する人物等の被写体を安定にセグメンテーションし、これによって画像中の被写体を確実に検出することが可能である。
本発明のより好ましい形態は、前記距離算出ステップで少なくとも2つ以上の距離尺度を用いて、それぞれの距離尺度に対して2以上の距離を算出し、それぞれの距離をそれぞれ異なる非線形空間へ射影し、射影した結果を統合してセグメンテーションをする構成としたものであり、複数の距離尺度および複数の非線形空間を用いることで、より精度の高い画像のセグメンテーションが可能となる。
本発明のより好ましい形態は、前記距離算出ステップでは、前記画像を構成する複数のブロックについて、2つのブロック間の動きの類似性を表す複数の距離を算出し、前記非線形空間処理ステップでは、前記複数の距離のそれぞれを非線形化し、非線形化した距離を次元圧縮することで前記非線形空間への射影を行い、前記空間に射影された複数の距離に対して類似性をもつ1個以上のセグメント領域を求めることで前記セグメンテーションを行う構成としたものであり、特に形状が変化しながら移動する人物等の被写体を安定に検出し、同時にセグメンテーションを行うことが可能である。
本発明のより好ましい形態は、前記非線形空間処理ステップでは、ユークリッド距離から測地間距離への変換を行うことによって、前記非線形化を行う構成としたものであり、特に形状が変化しながら移動する人物等の被写体を安定に検出し、同時にセグメンテーションを行うことが可能である。
本発明のより好ましい形態は、前記非線形空間処理ステップは、前記複数の非線形化した距離に対してeigen vectorを求めることによって、前記次元圧縮を行う構成としてものであり、画素の動きの推定誤差を許容することで、より安定に形状が変化しながら移動する人物等の被写体を安定に検出し、同時にセグメンテーションを行うことが可能である。
本発明のより好ましい形態は、前記非線形空間処理ステップにおいて、ブロックiとの距離が小さい順にN個を選択し、選択されなかった距離を無限大とすることで前記非線形化をした後に前記次元圧縮を行う構成としたものであり、選択された距離と選択されなかった距離とが非線形な関係となるため、人物のように関節で繋がった物体の動きを高効率、かつ、高精度に圧縮することが可能となる。
本発明のより好ましい形態は、前記非線形空間処理ステップにおいて、ブロックiとの距離に対して閾値を設定し、距離が閾値より大きい場合には、前記距離を無限大とすることで前記非線形化をした後に前記次元圧縮を行う構成としたものであり、選択された距離と選択されなかった距離とが非線形な関係となるため、人物のように関節で繋がった物体の動きを高効率、かつ、高精度に圧縮することが可能となる。
本発明のより好ましい形態は、前記非線形空間処理ステップにおいて、ブロックiとの距離に対して指数関数を含む非線形関数を掛けることで前記非線形化をした後に前記次元圧縮を行う構成としたものであり、選択された距離と選択されなかった距離とが非線形な関係となるため、人物のように関節で繋がった物体の動きを高効率、かつ、高精度に圧縮することが可能となる。
本発明のより好ましい形態は、前記動き解析ステップにおいて、ブロックの動きは、2次元動きベクトルかまたはアフィンパラメータである構成としたものであり、動きベクトルもしくはアフィンパラメータによりブロックの動きを解析することで、ブロックの時間的移動軌跡を算出することが可能になる。
本発明のより好ましい形態は、前記距離算出ステップにおいて、距離は、ブロックの動きの類似性に加えてブロック間の画像上での距離およびブロック間が成す角度の少なくともいずれか1つを含む構成としたものであり、人物のように関節を軸とした回転運動を伴いながら形状が変化する移動物体の動きを効率よく捉えることが可能になる。
本発明の一実施形態は、前記非線形空間処理ステップにおいて非線形空間内でセグメンテーションした結果を前記画像入力ステップで受け付けた画像上に表示する画像表示ステップをさらに含む構成としたものであり、セグメンテーションした部位を画像上に表示することによって、スポーツにおけるフォームの修正やリハビリテーションにおける歩行の矯正等に応用が可能である。
本発明の一実施形態は、前記非線形空間処理ステップにおいて非線形空間内でセグメンテーションした結果から、前記画像入力ステップで受け付けた画像に含まれる少なくとも2つ以上の異なる移動物体を検出する構成としたものであり、非線形空間内で検出することにより、安定して複数の移動物体を検出することが可能である。
本発明の一実施形態は、前記非線形空間処理ステップにおいて非線形空間内でセグメンテーションした結果から、前記セグメンテーションによって得られた各セグメントに含まれるブロックの時間的移動軌跡から代表軌跡を算出し、前記代表軌跡をもとに前記被写体の動きを予測する被写体動き予測ステップとをさらに含む構成としたものであり、複数のブロックの時間的移動軌跡を代表する軌跡を用いて被写体の動きを予測することにより、ノイズ耐性の高い動き予測が可能となる。
本発明の一実施形態は、前記非線形空間処理ステップにおいて非線形空間内でセグメンテーションした結果から、前記画像入力ステップで受け付けた画像上のセグメントを特定し、特定したセグメントごとに対応する前記結果を記録もしくは送信する記録・送信ステップとをさらに含む構成としたものであり、検出した被写体画像をセグメントに基づいてそれぞれ別々に保持することによって、各被写体画像の中から必要な部分の画像のみを選択して保存したり、外部に出力したりすることによって、図形要素として効率的な保存および出力が可能になる。そのため、携帯電話等、処理能力の限られた機器に保存および送信する場合に有効に作用する。
以下、本発明の実施の形態について、図面を用いて説明する。
(実施の形態1)
図1は、実施の形態1における画像処理装置の構成を示す図である。図1の画像処理装置は、複数枚の画像における1個以上の画素からなるブロックの動きに基づいて、形状が変化しながら移動する人物等の被写体を含む画像を安定してセグメンテーションし、これによって画像中の被写体を確実に検出する画像処理装置であり、画像入力部101、動き解析部102、距離算出部103、非線形空間処理部104を備える。
画像入力部101は、時間的に連続した複数枚の画像の入力を受け付ける処理部であり、例えば、ビデオカメラ、あるいは、ビデオカメラと接続された通信インターフェース等である。
動き解析部102は、画像入力部101で受け付けた画像から、時間的に異なる少なくとも2枚の画像を用いてブロックの動きを算出し、時間的に連続した複数枚の画像に対して、算出した前記ブロックの動きに基づいてブロックの移動を追跡することによって、画素の時間的移動軌跡を算出する処理部である。
距離算出部103は、移動する物体の形状変化を捉えるために、前記動き解析部102で算出したブロックiの時間的移動軌跡と、i以外のブロックの時間的移動軌跡とを用いて、ブロックの動きの類似性を含む距離を算出する処理部であり、例えば、N個のブロックの時間的移動軌跡を用いた場合は、算出される距離は、N×Nの距離マトリクスとなる。ここでは、ブロックの動きの類似性を評価する距離を計算することによって、ブロック間の距離が動きによって変化する被写体、特には、関節物体のように形状が変化しながら移動する人物等の物体の動きを距離マトリクスとして表現することが可能である。このように、本明細書における「距離」は、2次元空間における2点間の距離だけでなく、多次元のデータ間の算術的な距離を含み、1つの値、あるいは、複数の値の集合(距離マトリクス)である。
非線形空間処理部104は、前記距離算出部103で算出した距離マトリクスを非線形化した後に圧縮された空間(つまり、非線形空間)へ射影し、圧縮された非線形空間内で検出とセグメンテーションを行う処理部であり、特には、関節物体のように形状が変化しながら移動する物体の形状情報を非線形化と次元圧縮の効果により適切に低次元空間に圧縮することが出来るため、画像中の被写体の検出と画像のセグメンテーションを低計算量で安定に行うことが出来る。
なお、この画像処理装置を構成する各構成要素(画像入力部101、動き解析部102、距離算出部103、非線形空間処理部104)は、CPU、RAM、ROM、通信インターフェース、I/Oポート、ハードディスク、ディスプレイ等を備えるコンピュータ上で実行されるプログラム等のソフトウェアで実現されても良いし、電子回路等のハードウェアで実現されても良い。以下、他の実施の形態における画像処理装置についても同様である。
以下に、本発明の画像処理方法について、図2のフローチャートを用いて移動する被写体を検出、セグメンテーションする例について詳細に説明する。
まず、ステップS201にて、画像入力部101は、複数枚の入力画像を受け付ける。
次に、ステップS202にて、動き解析部102は、少なくとも2枚の入力画像からブロックの動きを算出する。なお、ここでは、ブロックの動きを算出する一例として、画素の動きを算出する。以下、本実施の形態では、ブロック単位の処理の一例として、画素単位の処理を説明する。複数の画素からなるブロック単位で処理をする場合には、画素に対応するデータをブロック分だけ合計したり、ブロック分の平均値を求めることで、ブロックに対応するデータ(代表値)を求め、得られた代表値を用いて画素単位の処理と同様に処理すればよい。
まず、画素の動きをオプティカルフロー計算により算出する例について説明する。オプティカルフロー計算による動きベクトルの算出は、非特許文献2もしくは非特許文献3を用いることができる。
P.Anandan,"A Computational Framework and an Algorithm for the Measurement of Visual Motion",International Journal of Computer Vision, Vol.2, pp.283−310,1989 Vladimir Kolmogorov and Ramin Zabih, "Computing Visual Correspondence with Occlusions via Graph Cuts", International Conference on Computer Vision,2001
例えば、ステップS201にてT枚の画像が入力されたと仮定すると、時刻tと時刻t+1に入力された画像を用いて、画素iの動きベクトル(ui t,vi t)を推定する。ここでは、必ずしも時間的に連続している必要はなく、例えば、時刻tと時刻t+nに入力された画像を用いて画素の動きを求めても良い。ただし、nは1以上の整数である。さらに、画素の動きとして、前記動きベクトルの代わりにアフィンパラメータを推定しても良い。この時、すべての画素について動き情報を求めても良い。また、より高速に処理を行いたい場合には、画像をグリッドに区切って一定間隔のグリッド上の画素についてのみ動き情報を求めても良いし、上述したように、画像をブロックに区切ってブロックごとに動き情報を求めても良い。さらに、非特許文献2を用いて動きベクトルを算出する場合は、その信頼度を計算することができるため信頼度の高い動き情報を持つ画素のみを用いても良い。また、非特許文献3を用いて動きベクトルを算出する場合は、オクルージョンを推定することができる。そのため、オクルードされていない画素の動き情報のみを用いても良い。
さらに、画素の動きを算出する手法として、前記したブロックの並進移動を仮定して動きベクトルを算出する方法の代わりに、ブロックのアフィン変形を仮定して動きベクトルを算出する方法を用いても良い。アフィン変形を仮定して動きベクトルを算出する方法は、非特許文献4を用いることが出来る。
Jianbo Shi and Carlo Tomosi "Good Features to Track", IEEE Conference on Computer Vision and Pattern Recognition,pp593−600,1994
上記手法は、時刻tと時刻t+1に入力された画像の画素i近傍の動きに相当するアフィンパラメータAi tを推定する。画素iについて、時刻tと時刻t+1における画像上での画素位置xi tとxi t+1は次の関係がある。
Figure 0005054206
上記手法は、特に回転運動をする物体に対して、並進移動を仮定して動きベクトル算出する手法を用いる場合よりも、高精度に画素iの動きを推定することができる。
次に、ステップS203にて、動き解析部102は、ステップS202で算出した動き情報を用いて、時間的に連続した複数枚の画像に対して前記画素の動きから画素iの時間的移動軌跡を算出する。図3に示すように、時刻tにおける入力画像301の画素i303からステップS202で算出した動き情報302を用いて、画素iの動きを追跡する。この時、画素iが通った時刻tにおける画像上での画素位置(xi t,yi t)を用いて、以下のように画素iの時間的移動軌跡を算出する。
Figure 0005054206
ここで、Tは時間的移動軌跡の算出に用いた画像の枚数である。
次に、ステップS204にて距離算出部103は、(式2)で算出した画素iの時間的移動軌跡を用いて画素の動きの類似性を含む距離マトリクスを算出する。画素iと画素jとの線形距離f(i,j)は以下のように算出できる。
Figure 0005054206
ここで、wは重み係数であり、設計者が設定するパラメータである。また、meanij、varijについては以下に示す。
Figure 0005054206
Figure 0005054206
ここで、
Figure 0005054206
上記のように、(式3)に示されるように、(式4)に示した画素間距離の時間平均値に加えて、(式5)に示した画素間距離の時間変動成分を前記線形距離f(i,j)の要素とする。特に(式5)に示した画素間距離の変動成分は、画素の動きの類似性を示すものであり、これによって、画素間距離の関係が変化しない剛体だけでなく、関節物体等の形状変化を捉えることができる。
次に、ステップS205では、非線形空間処理部104は、(式2)で算出した線形距離f(i,j)に対して以下のように非線形化処理を行う。
Figure 0005054206
ここでは、画素iに着目した時に画素iとの線形距離が小さい順にK個の画素jを選択し、選択された画素jとの距離は変更せず、選択されなかった画素jとの距離を無限大に変更する。ここでは、線形距離を小さい順に選択したが、次式のように閾値THを設定しても良い。
Figure 0005054206
さらに、次式のように指数関数を用いて線形距離の非線形化を行っても良い。
Figure 0005054206
ここで、σは設計者が与える。
次に、非線形化された距離g(i,j)を用いて、次式のように距離を更新する。
距離の非線形化に関しては、上記の関数に限定されるものではなく、画素iと画素jに関する距離に対して非線形変換を行うものであれば何でも良い。
次に、以下のように測地間距離を算出する。
Figure 0005054206
なお、min(x,y)は、値xと値yのうち小さい方を返す関数である。
ここで、(式7)から(式10)に示した非線形化処理について、図4(a)〜(c)の概念図を用いて説明する。ここでは、(式8)について説明するが、他の非線形化処理を行っても同様の効果が期待できる。まず、図4の左図(a)は2次元のデータ分布を示す。ここで、それぞれのデータ点は、(式3)に示した画素iの時間的移動軌跡に相当する。(式7)から(式10)の非線形化処理を行わない場合には、図4中央(b)に示したように、データ点iとデータ点jとの距離は、データ点iとデータ点kとの距離よりも小さくなる。しかしながら、図4右(c)に示すように、例えば(式8)の処理および(式10)の処理を行うことによって、データ点iとデータ点jとの距離は、ユークリッド距離ではなく、測地間距離と呼ばれるデータ点を矢印のように辿った距離となる。結果として、ユークリッド距離を用いる場合と異なり、データ点iとデータ点jとの距離は、データ点iとデータ点kとの距離よりも大きくなる。
次に、このような(式7)から(式10)に示した非線形化処理を行うことの有効性を図5(a)及び(b)の概念図を用いて説明する。ここでは、線形距離f(i,j)と非線形化した距離gnew(i,j)の違いを分かりやすく説明するため、(式6)に示すように時刻tにおける画素間距離を例とする。実際には、画素間距離に加えて、(式3)に示したように画素の動きの類似性として画素間距離の変動成分を用いることにより、関節物体等の形状だけではなく形状変化をも捉えることができる。図5(a)は、(式7)から(式10)の処理を行わない場合の例である。例えば、頭部の画素i402と手先部の画素j403との距離は、線形距離401に示す距離となる。一方、(式7)から(式10)のような非線形処理を行うことによって、図5(b)に示されるように、頭部の画素i402と手先部の画素j403との距離は、画素k404を通って画素jにたどり着くまでの矢印で示したような線形和としての距離となる。そのため、線形距離401では人物のような関節物体の関節が繋がった形状を表現できないのに対して、関節が繋がった形状を距離として表現することが可能となる。なお、測地間距離の計算方法は、(式10)に限定されるものではない。
次に、ステップS206では、非線形空間処理部104にて、ステップS205で算出した非線形化された距離マトリクスの次元圧縮を行う。次元圧縮は、Young−Householder変換を行った後、Eigen systemを求めることで実現できる。これは、多次元空間に分布するデータを低次元空間に効率良く射影するための方法であり、入力データのノイズ(ここでは、(式2)の画素iの時間的移動軌跡を算出する際に画素iの動き情報に誤差が含まれる場合に相当する)に対して頑健なデータの表現が可能となる。
つまり、非線形化された距離マトリクスを
Figure 0005054206
として、次のように(式11)に対して中心化行列Hを両側からかけるYoung−Householder変換を行う。これは、距離マトリクスが点間距離からなる距離行列であるのに対して、重心を原点とした距離マトリクスに変換するために行うものである。
Figure 0005054206
ただし、Hは中心化行列であり、
Figure 0005054206
である。Iは単位行列、Nは(式2)に示した画素iの時間的移動軌跡の数である。
また、
Figure 0005054206
である。
次に、次元圧縮を行うために、τ(G)に対するP個のeigen vector(固有ベクトル)epおよびそれに対応するeigen value(固有値)λpを算出する。
これにより、(式10)より、
Figure 0005054206
とすると、gi newを次元圧縮された空間上に射影した結果は、データzi pとして以下のように表すことができる。
Figure 0005054206
なお、ei pは、p番目のeigen vectorepのi番目の要素である。eigen vectorの数Pは、利用するシーンに応じて実験的に決定しても良いし、以下のようにeigen valueλpから寄与率apを算出し、それに基づいて決定しても良い。
Figure 0005054206
Pは利用するeigen vectorの数、すなわち圧縮された空間の次元数である。Nは全eigen vectorの数である。そこで、寄与率apが一定値以上となる時のPをeigen vectorの数とすれば良い。
以上のように(式2)から(式16)の処理により、(式2)に示した画素iの時間的移動軌跡を、eigen vectorepで張られる非線形に次元圧縮された空間上のデータzi pと対応付けることができる。
図6に人物の歩行画像を入力とした場合の画素iの時間的移動軌跡が非線形に次元圧縮された空間に射影された結果を示す。縦軸、横軸はeigen vectore1, e2である。2次元上に射影された点(zi 1,zi 2)は、gi newを射影したものである。ここで、非線形空間上のデータzi pと画像上での画素iの時間的移動軌跡xiとは一対一の対応関係にあるため、(zi 1,zi 2)は、画素iの時間的移動軌跡xiに対応していると捉えることができる。なお、ここでは結果を可視化するために非線形空間の次元数を2次元としたが、前述のように必ずしも2次元である必要は無いし、高い次元数の方がより高い精度でデータを射影することができる。
次に、ステップS207では、非線形空間処理部104は、ステップS206にて図6に示したような圧縮された非線形空間に射影されたデータに対して、クラスタリングを行うことで被写体の検出とセグメンテーションを行う。
まず、セグメント領域を次のように表現する。
Figure 0005054206
ここで、Mは、セグメント領域数であり利用するシーンに応じて経験的に決定する。
それぞれのセグメント領域θmは、パラメータ
Figure 0005054206
―zm
,Z mで表現する。ここで、

Figure 0005054206
―zmは、圧縮された非線形空間におけるセグメント領域θmに属するデータの座標値の平均値、Z mは、セグメント領域θmに属するデータの座標値に関する共分散行列である。
Figure 0005054206
―zmの初期値はランダムに決定しても良いし、圧縮された非線形空間中をグリッドで等間隔に分割する等して、その交点の座標値を初期値としても良い。
なお、
Figure 0005054206
―zm,Z mは、以下のように表すことができる。
Figure 0005054206
Figure 0005054206
ここで、Cmは圧縮された非線形空間上でセグメント領域θmに属するデータ数である。
以下、具体的な計算方法について説明する。まず、次式の距離関数を用いて、圧縮された非線形空間上のデータziが属するセグメント領域θmを求める。
Figure 0005054206
ここで、Ψm(zi)は、画素iの時間的移動軌跡に対応する非線形空間上のデータziとそれぞれのセグメント領域θmとの距離を示すものである。各データは、Ψm(zi)が最小値をとるセグメント領域θmに属することになる。なお、ψm(zi)はマハラノビス距離であり、
Figure 0005054206
である。また、ψm(zi)をΨm(zi)の代わりとして用いても構わない。
さらに、p(ωm)は、一定値としても構わないし、人物など決まった被写体のセグメンテーションを行う場合はあらかじめ、人物部位の形状や面積比等をもとに設定しておいても良い。ωmは、セグメント領域θmに対する重み係数である。
次に、(式21)の計算結果から、セグメント領域θmに属するデータziを用いて、以下のように領域θmのパラメータ
Figure 0005054206
―zm,Z mを更新する。
Figure 0005054206

Figure 0005054206
ここで、zcmは、セグメント領域θmに属する圧縮された非線形空間上のデータである。また、ω=1としても良いし、入力データの平均値からのずれ具合によって調整しても良い。このように、(式21)から(式24)の距離計算およびパラメータ更新を規定回数繰り返すことによって、非線形空間上の各データが属するセグメント領域θmを得ることができる。なお、上記に加えて、k-mean、競合学習など、他のクラスタリング方法を用いても構わない。図7(a)及び(b)に人物の歩行画像を入力とした場合にM=9として非線形空間上のデータをセグメンテーションした例を示す。圧縮された非線形空間上でのセグメント領域θ1からθ9について画像上での対応を見ると、θ1は人物の頭部、θ2は胴体上部、θ3は腕、θ4は胴体下部、θ57は大腿部、θ68は、下腿部に対応している。なお、θ9は主に背景の一部に対応する。
ここで、図7(b)の矢印で示すように、圧縮された非線形空間上のセグメント領域に対応するのは、1枚の画像上の領域だけではなく時間的に連続した複数枚の画像に渡って画素を追跡した結果である。すなわち、圧縮された非線形空間上でセグメンテーションを行うことによって、画像中を移動する物体の領域を時間的に追跡した結果として、画像中の被写体(被写体の部位)の検出、被写体を含む画像のセグメンテーションをすることができる。また、前処理として人物候補領域を設定する必要がないため、人物候補領域の検出ミスに起因するセグメンテーションの失敗がない。以上のように、膨大なパラメータのフィッティングを必要とせずに、非線形空間でクラスタリングを行うことによって安定に、形状が変化しながら移動する人物等を含む画像をセグメンテーションし、これによって画像中の被写体の検出を行うことが可能となる。
(実施の形態1の第1変形例)
次に、実施の形態1における非線形空間上でのセグメンテーションを、複数の被写体の検出に用いる例を実施の形態1の第1変形例として説明する。実施の形態1では、人物の歩行画像から人物の部位をセグメンテーションする方法について説明した。本画像処理装置は、図1に示したように、画像入力部101、動き解析部102、距離算出部103、非線形空間処理部104を備える。構成は実施の形態1と同様であるため説明を省略する。第1の変形例では、実施の形態1と同じ方法でパラメータを変更することで、複数の被写体の検出を行う方法を説明する。具体的には(式7)もしくは(式8)を用い、(式7)であればKの値を、(式8)であればTHの値を、部位のセグメンテーションを目的とする時よりも大きな値に設定する。
図8に、人物一人が歩行し自転車1台が走行している画像を入力とした場合に、圧縮された非線形空間に射影しM=2としてセグメンテーションを行った結果の一例を示す。圧縮された非線形空間上でのセグメント領域θ1とθ2の画像上での対応について説明する。セグメント領域θ1は画像上では自転車の動きに対応し、セグメント領域θ2は画像上では人物の歩行に対応している。以上のように、低次元に圧縮された空間上でセグメンテーションを行うことで、簡単かつ安定に自転車の動きと人物の動きとを分けて検出(つまり、セグメンテーション)することができる。
なお、ここでは(式2)に示されるような、動きのない画素についての画素の時間的移動軌跡は入力として用いていないため、移動している物体である歩行者と自転車の2つのみが非線形空間上に射影されている。もちろん、動きのない画素の時間的移動軌跡を入力として用いても構わない。ここで、実施の形態1と同様に圧縮された非線形空間上のセグメント領域に対応するのは、1枚の画像上の領域だけではなく時間的に連続した複数枚の画像に渡って画素を追跡した結果である。すなわち、非線形空間上でセグメンテーションを行うことによって、画像中を移動する物体の領域を時間的に追跡した結果としてそれぞれの物体を検出することができる。また、前処理として人物候補領域を設定する必要がないため、人物候補領域の検出ミスに起因するセグメンテーションの失敗がない。以上のように、パラメータを一部変更するだけで、安定に、複数の移動する被写体を検出し、同時にセグメンテーションを行うことができる。
(実施の形態1の第2変形例)
次に、実施の形態1における非線形空間上でのセグメンテーションを実施の形態1とは異なる方法で実現する方法について、実施の形態1の第2変形例として説明する。本画像処理装置は図1に示したように、画像入力部101、動き解析部102、距離算出部103、非線形空間処理部104を備える。構成は実施の形態1と同様であるため説明を省略する。この第2変形例では、非線形空間処理部104は、実施の形態1とは異なる手法で、非線形空間上でのセグメンテーションを行う。ここでは、非線形空間処理部104が、非特許文献5に開示されている方法に基づいて非線形空間上での処理を行う方法について述べる。
Arik Azran, Zoubin Ghahramani, "A New Approach to Data Driven Clustering",International Conference on Machine Learning, 2006
図9に実施の形態1の第2変形例による処理のフローチャートを示す。ステップS201からS206までは、実施の形態1と同様であるため説明を省略する。
ステップS801では、非線形空間処理部104は、(式7)から(式10)のいずれかの処理を行った非線形化された距離g(i,j)に対して以下のような正規化処理を行う。
Figure 0005054206
ここで、Nは(式2)に示した画素iの時間的移動軌跡の数である。ここで、Gは、データ間の類似度を表すことになる。次に、正規化されたGに対して以下のような計算を行う。
Figure 0005054206
この計算を行うことによって、Gijが小さい値の場合、すなわちデータ間の類似度が小さい場合には、より小さな値となり、Gijが大きい値の場合は、より大きな値となる。すなわち、より類似度の高いデータ間距離が支配的になる。これにより、以下の処理がより安定に行えるようになる。
tは、例えば、Ω1=Gt1 ,…Ωr=Gtr ,…ΩR=GtR(ただし、t1<tr<tR)のように、複数のマトリクスΩrを用意し、ステップS802からS803まで、それぞれのΩrについて別々に計算を行うことが望ましい。また、(式26)の計算を高速に行う方法が非特許文献4に記載されているので、それを用いても構わない。
次に、ステップS802では、非線形空間処理部104は、セグメンテーションを行うためのクラスタリングを実行するためにクラスタQMの初期値を設定する。ここで、クラスタ数はMである。ここで、クラスタ数Mは、Rを大きく設定するに従い小さな値になるように設定する。
まず、1つ目のクラスタの初期値を以下のように決定する。
Figure 0005054206
ここで、Ωiは、マトリクスΩ中のi番目の行ベクトルである。ここで、Ωiは(式15)と同様に、(式2)に示した画素iの時間的移動軌跡に対応するものである。次に、(式29)に示すように、2番目以降のクラスタQmの初期値は、N個のΩiについてそれぞれQ1からQm-1のクラスタの中から最小距離となるクラスタを選択し、その最小距離となったΩiの中で最大距離となるΩargmax_minを用いて、以下のようにして新しいクラスタの初期値とする。これをm=2からMまで繰り返す。
Figure 0005054206
この処理は、あるクラスタに属したデータの中で最大距離となるデータを新たなクラスタの初期値する処理であり、クラスタの初期値をより広範囲に分布させることができるため、複数のクラスタが一点に集中してデータ分布を適切にクラスタリングできない等の問題を防ぐことができる。
なお、Q1からQm-1のクラスタの中から最小距離を算出するためのクラスタQmとΩiとの距離は以下のようにKL情報量を用いて計算する。
Figure 0005054206
上記のようにして、クラスタQ1からQMの初期値を決定することができる。
次に、ステップS803では、非線形空間処理部104は、N個のΩiに対してそれぞれクラスタリングを行う。N個のΩiがクラスタQ1からQMのいずれに属するかを(式29)のようにKL情報量を用いて決定する。ここで、それぞれのΩiは、KL情報量が最小となるクラスタQmに属することになる。
次に、非線形空間処理部104は、N個のΩiに対してクラスタリングを行った結果を用いて、クラスタQmを次式のように更新する。
Figure 0005054206
ここで、Ωcmは、クラスタQmに属するΩiであり、CmはクラスタQmに属するΩiの数である。ステップS803のステップを規定回数繰り返すことで、ΩiがどのクラスタQmに属するかを判定することが可能になる。なお、Ωiと画像上での画素iの時間的移動軌跡xiとは、一対一の対応関係にある。すなわち、Ωiは(式2)の画素iの時間的移動軌跡に対応するため、Ωiの属するクラスタQmが決定されれば画素iの時間的移動軌跡xiがセグメンテーションされたことになる。
図10(a)〜(c)にて、r=t1、t2、t3(ただし、t1<t2<t3)に対して、Ωrを作成し、クラスタ数M=9、M=5、M=2として非線形空間上のデータΩiをそれぞれセグメンテーションした例について説明する。r=t3、M=2とした場合のセグメンテーション結果は、片側の腕領域を除く人物領域とそれ以外との領域にセグメントされる。また、r=t2、M=5とすると、頭部と胴体が1つの領域としてセグメントされ、脚部がそれぞれセグメントされる。さらに、r=t3、M=9とすると、図7(a)及び(b)と同様の検出およびセグメンテーション結果となる。このように、Ωrを複数用意することで粒度の異なるセグメンテーションが行えることが本変形例の利点である。
なお、片側の腕領域がセグメントされていないのは、画素の追跡中にオクルージョンが起こるため、前記腕領域に含まれる画素iの時間的移動軌跡(式2)を入力として利用していないためである。また、実施の形態1と同様に、それぞれのセグメント領域に対応するのは、1枚の画像上の領域だけではなく、時間的に連続した複数枚の画像に渡って画素を追跡した結果である。すなわち、非線形空間上でセグメンテーションを行うことによって、画像中を移動する物体の領域を時間的に追跡した結果として検出、セグメンテーションすることができる。また、前処理として人物候補領域を設定する必要がないため、人物候補領域の検出ミスに起因するセグメンテーションの失敗がない。
さらに、本変形例では、実施の形態1と異なり次元圧縮に起因する高速化の効果は少ないものの、図10(a)〜(c)に示したように粗いセグメンテーションと細かいセグメンテーションとを同じ手法を用いて行うことができるため、例えば実施の形態1と実施の形態1の第1変形例に示したように、人物検出とそれぞれ検出した人物の部位のセグメンテーションとが同時に行える利点がある。以上のようにして、形状が変化しながら移動する人物等の被写体を安定に検出および部位をセグメンテーションすることができる。
(実施の形態1の第3変形例)
次に、本発明の実施の形態1の第3変形例における画像処理装置について説明する。ここでは、実施の形態1において被写体を検出および部位をセグメンテーションした結果を画像として表示する機能を付加した例について説明する。このような第3変形例に係る画像処理装置は、図11に示すように、画像入力部101、動き解析部102、距離算出部103、非線形空間処理部104に画像表示部1001を付加することによってセグメントした領域を画像としてモニタ等に表示することが可能である。
画像表示部1001では、図7(b)に示すように、セグメント領域θmに対応する画像上でのセグメント領域を色分け等して、セグメントされた領域をそれぞれ区別できるようにしてモニタ等に表示する。もちろん、部位ごとに別個に表示しても良い。ここで、(式2)に示した画素iの時間的移動軌跡は、セグメント領域θmのいずれかに対応する。そのため、セグメント領域θmに属する画素iの時間的移動軌跡に基づいて画像上の画素を選択し、セグント領域番号mに基づいて色分け等を行えば容易にセグメント領域を画像上に表示することができる。
(実施の形態1の第4変形例)
次に、本発明の実施の形態1の第4変形例における画像処理装置について説明する。ここでは、実施の形態1において被写体を検出および部位をセグメンテーションした結果をそれぞれセグメント領域ごとに記録・送信する機能を付加した例について説明する。このような第4変形例に係る画像処理装置は、図12に示すように、画像入力部101、動き解析部102、距離算出部103、非線形空間処理部104にセグメント領域記録・送信部1101を付加することによって実現が可能である。
セグメント領域記録・送信部1101では、画像表示の場合と同様に、セグメンテーションした結果画像をセグメント領域番号mに応じてそれぞれ別々に記録・送信する。また、各セグメントに属する動き情報を以下のように平均化することで、動き情報を圧縮することも可能である。通常であれば画素ごとに動き情報を保持する必要があるが、以下の処理を行えば1つのセグメントに対して1つの動きを保持するだけで良い。例えば、動き情報として画素iの動きベクトル(ui t,vi t)を用いた場合には、以下のようにセグメントごとに平均化した動き情報を計算することができる。
Figure 0005054206
Figure 0005054206
ここで、Cmは、セグメント領域θmに属する画素数もしくは画素の時間的移動軌跡の数
である。ucm t,vcm tは、それぞれ、セグメント領域θmに属する画素の動きベクトルである。
なお、アフィン動きを用いて動き情報を圧縮する場合は、(式31)(式32)の代わりに、アフィン動きに基づいて移動した画素位置の平均値を計算すると良い。以上のようにして、画素の動き情報を圧縮しながらセグメント領域の記録、送信が可能である。
(実施の形態2)
次に、2つ以上の距離尺度を用いることで、検出とセグメンテーションをより高精度に実現する方法について、実施の形態2として説明する。この画像処理装置は、図13に示すように、画像入力部101、動き解析部102、距離算出部103a、非線形空間処理部104aから構成される。画像入力部101、動き解析部102についは実施の形態1と同じであるため説明は省略する。
距離算出部103a、非線形空間処理部104aは、それぞれ、基本的には実施の形態1の距離算出部103、非線形空間処理部104と同様の機能を有するが、より高精度に処理するために、追加のパラメータを用いている点が実施の形態1と異なる。以下、実施の形態1と異なる点を中心に説明する。
距離算出部103aは、画素間の画像上での距離およびその変動に関する距離尺度と、画素間が画像上で成す角度およびその変動に関する距離尺度とを用い、それぞれの距離尺度について距離マトリクスを算出する。
非線形空間処理部104aは、距離算出部103aで算出された2つの距離マトリクスをそれぞれ異なる非線形空間に射影した後、異なる2つの非線形空間を統合してクラスタリングを行う。
ここでは、図14に示した処理のフローチャートに沿って説明する。まず、ステップS201からS203までは実施の形態1と同じであるため、説明を省略する。
次に、ステップS204aにて、距離算出部103aは、(式2)で算出した画素iの時間的移動軌跡を用いて画素動きの類似性を含む距離マトリクスを算出する。ここでは、(式3)に示した距離f(i,j)に加えて、2つ目の距離尺度として、画素iと画素jが成す角度に基づいた距離f2(i,j)を用いる例について説明する。
Figure 0005054206
ここで、waは重み係数であり、設計者が設定するパラメータである。また、a_meanij、a_varijについては以下に示す。
Figure 0005054206

Figure 0005054206
ここで、
Figure 0005054206
上記のように、画素iと画素jが成す角度およびその変動成分を用いて画素の動きの類似性を表現することができる。これによって、剛体のみならず、関節物体等の特に回転運動を伴う形状変化を捉えることができる。
なお、f2(i,j)は、画素動きの類似性を評価できる距離値であれば何を用いても良く、例えば (式34)〜(式39)の代わりに(式37)を用いても良いし、(式2)のアフィンパラメタAi tを用いた(式38)を用いても良い。(式37)は、画素iと画素jの動きベクトルの角度差およびその変動成分を用いて画素の動きの類似性を表現することができる。これによって、回転を含む動きの変化を捉えることができる。(式38)は、画素iと画素jの近傍ブロックのアフィンパラメタの差およびその変動成分を用いて画素の動きの類似性を表現することができる。これによって、回転、並進移動、スケール変化を含む動きの変化を捉えることができる。
Figure 0005054206

Figure 0005054206
次に、ステップS205aでは、非線形空間処理部104aは、(式7)から(式10)の処理を用いて(式3)の距離f(i,j)に対応するgnew(i,j)を算出する。そして、それとは別途に、画素iと画素jが成す角度に基づいた距離f2(i,j)に対応するg2_new(i,j)を計算する。すなわち、別々に2つの非線形化された距離を算出する。ここでは、画素間の距離と画素間が成す角度の2つについて説明するが、他の画素動きの類似性を表現した距離を用いて3つ以上の距離を求めても構わない。
次に、ステップS206aでは、非線形空間処理部104aは、(式11)と同様に別途非線形化された距離g2_new(i,j)からG2を作成する。そして、G2に対して同様に(式12)から(式16)の処理を行い、(式16)と同様に、次元圧縮された空間上に射影しzi 2_p2を算出する。
次に、ステップS207aでは、非線形空間処理部104aは、(式16)で算出したzi pとzi 2_p2とを統合して、クラスタリングを行うことで被写体を検出し、同時にセグメンテーションを行う。具体的には、(式19)、(式20)を以下のように書き換えることで実現できる。
Figure 0005054206
Figure 0005054206
以下、ステップS207aにおける(式21)から(式24)までは同様であるため、説明を省略する。
以上のようにして、本実施の形態の画像処理装置によれば、画素間の画像上での距離およびその変動に関する距離尺度と、画素間が画像上で成す角度およびその変動に関する距離尺度とを用い、それぞれの距離尺度について距離マトリクスを算出し、それぞれの距離マトリクスをそれぞれ異なる非線形空間に射影した後、異なる2つの非線形空間を統合してクラスタリングを行うことで、より高精度に画像中を移動する物体の領域を時間的に追跡した結果として検出、セグメンテーションすることができる。さらに、画素間が画像上で成す角度とその変動を距離尺度として用いることによって、特に関節運動に起因する回転運動をより適切に捉えることができる。また、前処理として人物候補領域を設定する必要がないため、人物候補領域の検出ミスに起因するセグメンテーションの失敗がない。以上のようにして、より高精度に、形状が変化しながら移動する人物等の被写体を検出および部位をセグメンテーションすることができる。
(実施の形態3)
本実施の形態では、実施の形態1で説明した画像処理方法を用いて、被写体を検出およびセグメンテーションを行った結果から、被写体の動きを予測する機能を付加した画像処理装置について説明する。図15に示すように、画像入力部101、動き解析部102、距離算出部103、非線形空間処理部104に被写体動き予測部1201を付加することによって、被写体の動きを予測する機能を有する。
被写体動き予測部1201は、セグメンテーションした結果から、各セグメントに含まれる画素の時間的移動軌跡から代表軌跡を算出し、前記代表軌跡をもとに被写体の動きを予測する。図16に実施の形態3による処理のフローチャートを示す。ステップS201からS206までは、実施の形態1と同様であるため説明を省略する。
次に、ステップS1301では、被写体動き予測部1201は、ステップS207で行ったセグメンテーション結果を用いて、以下のようにクラスタの代表点およびその代表軌跡を求める。
ここで、図7(a)及び(b)や図8に示したセグメント領域θmに属する非線形空間上のデータzcmに対して、対応する画素の時間的移動軌跡をxcmと表現することとする。前述のように、非線形空間上のデータzi pと画像上での画素iの時間的移動軌跡xiとは、一対一の対応関係にあるため、クラスタ領域θmに属するデータzcmを選択すれば、対応する画素の時間的移動軌跡をxcmは自動的に決定される。そして、次式のように、クラスタ領域θmごとに代表の時間的移動軌跡を求める。ここでは、代表の時間的移動軌跡として、平均時間的移動軌跡を算出する例について説明するが、下記の計算に対して画素の時間的移動軌跡xcmごとに重み付け等を行っても良いし、画像上でのクラスタの重心に対応する画素の時間的移動軌跡を代表の時間的移動軌跡としても良い。
Figure 0005054206
図17に(式41)に基づいてクラスタ領域θmごとに代表の時間的移動軌跡を求める例を示す。ただし、見やすさを考慮して、頭部に対応するクラスタ領域θ1と脚部に対応するクラスタ領域θ8に関する代表の時間的移動軌跡のみを示している。図中の×は、それぞれ時刻tに対応する
Figure 0005054206
―xmの要素であり画素位置を示している。さらに、(式3)や(式33)に示したように、非線形空間上でのクラスタリングによるセグメンテーションは、画素動きの類似性を考慮して行われるため、単純に近接した画素の時間的軌跡の平均を求めるような方法と比較して、動きが類似した画素の時間的移動軌跡のみを用いて算出できるため、より高精度に代表の時間的移動軌跡を求めることができる。このように、クラスタ領域ごとに代表の時間的移動軌跡を求めることによって、部位ごとの動きを正確かつ簡便に表現することができる。
次に、ステップS1302では、被写体動き予測部1201にて、ステップS1301にて算出した代表の時間的移動軌跡から、時刻Tより先の時刻における被写体の位置を予測する。初めに、代表の時間的移動軌跡から加速度を算出し、T+1以降の被写体の位置を予測する例について説明する。3枚以上の時系列画像が入力された場合は、次式のように代表の時間的移動軌跡
Figure 0005054206
―xmごとに加速度ベクトルsmを得ることができる。
Figure 0005054206
ここで、um tは動きベクトルであり、次式のように表すことができる。
Figure 0005054206
(式42)の加速度ベクトルを用いて、図17にて破線の矢印および○で示したように、被写体の部位ごとに、時刻T+t'における被写体の部位位置posm(T+t')を以下のように予測することができる。ここでは、被写体の部位を例として挙げたが、図8で説明した自転車と歩行者のように被写体ごとの位置を予測することも可能である。
Figure 0005054206
これにより、加速度を加味した予測が可能である。動きが急激に早くなったり、急激に止まったりといった場合に、その加速度を反映して被写体の位置を予測することができる。また、動きベクトルの代わりにアフィンパラメータを用いても構わない。アフィンパラメータは、回転運動を含む動きの表現が可能であり、腕や足の回旋運動の表現に適している。
さらに、前述した動きベクトルと加速度の代わりに、代表の時間的移動軌跡xmに対して直接N次関数をフィッティングすることも可能である。T枚の時系列に並んだ画像を入力とした場合、
Figure 0005054206
―xmに含まれるT個の画像上での位置情報に対してN次の関数でフィティングすることができる。これにより、フィッティングした関数の値に沿うように、時刻(T+t')における画像上での位置posm(T+t')を推定することが可能である。具体的には、関数でフィッティングすることによって、より滑らかな動きを表現することが可能となるため、より高精度な予測が可能となる。もちろん、これらの画像上での位置予測は、時間的内挿にも利用可能である。
以上のように、本実施の形態によれば、動きが類似した画素の時間的移動軌跡を同一のクラスタとして算出できるため、高精度に代表の時間的移動軌跡を求めることができる。特に関節物体等に対して部位ごとの動きを表現することが可能であり、前処理として人物候補領域を設定することなく、高精度に被写体の部位位置を予測することが可能である。
以上、本発明に係る画像処理方法及び画像処理装置について、実施の形態及びその変形例に基づいて説明したが、本発明は、これらの実施の形態及び変形例に限定されるものではない。当業者が思いつく各種変形を、本発明の趣旨を逸脱しない範囲で各実施の形態に施して実現される形態も本発明に含まれる。
また、各実施の形態における特徴的な構成要素を任意に組み合わせて実現される形態も本発明に含まれる。
本発明は、複数枚の画像における1個以上の画素からなるブロックの動きに基づいて、形状が変化しながら移動する人物等の被写体を含む画像をセグメンテーションすることによって画像中の被写体を検出する画像処理装置として、例えば、運動解析装置、監視装置、ビデオカメラやTV等のAV機器に内蔵させる画像処理装置等として利用することが可能である。
101 画像入力部
102 動き解析部
103、103a 距離算出部
104、104a 非線形空間処理部
1001 画像表示部
1101 セグメント領域記録・送信部
1201 被写体動き予測部

Claims (14)

  1. 複数枚の画像における1個以上の画素からなるブロックの動きに基づいて、形状が変化する被写体を含む画像のセグメンテーションを行う画像処理方法であって、
    時間的に連続した複数枚の画像を受け付ける画像入力ステップと、
    時間的に異なる少なくとも2枚の画像を用いてブロックの動きを算出し、時間的に連続した複数枚の画像に対して前記ブロックの動きからブロックの時間的移動軌跡を算出する動き解析ステップと、
    前記動き解析ステップで算出したブロックiの時間的移動軌跡と、i以外のブロックの時間的移動軌跡とを用いて、ブロック間の画像上での距離およびブロック間が成す角度の少なくともいずれか1つに基づいて、ブロックの動きの類似性を表す距離を算出する距離算出ステップと、
    前記距離算出ステップで算出した距離を、ユークリッド距離から測地間距離への変換を行うことによって、非線形空間へ射影し、射影した結果に対して、前記非線形空間内でセグメンテーションを行う非線形空間処理ステップと、
    を含む画像処理方法。
  2. 請求項1に記載の方法において、
    前記距離算出ステップで、ブロック間の画像上での距離およびその変動に関する距離尺度と、ブロック間が画像上で成す角度およびその変動に関する距離尺度とを含む、少なくとも2つ以上の距離尺度を用いて、それぞれの距離尺度に対して2以上の距離を算出し、それぞれの距離をそれぞれ異なる非線形空間へ射影し、射影した結果を統合してセグメンテーションをすることを特徴とする画像処理方法。
  3. 請求項1に記載の方法において、
    前記距離算出ステップでは、前記画像を構成する複数のブロックについて、2つのブロック間の動きの類似性を表す複数の距離を算出し、
    前記非線形空間処理ステップでは、前記複数の距離のそれぞれを非線形化し、非線形化した距離を次元圧縮することで前記非線形空間への射影を行い、前記空間に射影された複数の距離に対して類似性をもつ1個以上のセグメント領域を求めることで前記セグメンテーションを行うことを特徴とする画像処理方法。
  4. 請求項3に記載の方法において、
    前記非線形空間処理ステップは、前記複数の非線形化した距離に対してeigen vectorを求めることによって、前記次元圧縮を行うことを特徴とする画像処理方法。
  5. 請求項3に記載の方法において、
    前記非線形空間処理ステップにおいて、ブロックiとの距離が小さい順にN個を選択し
    、選択されなかった距離を無限大とすることで前記非線形化をした後に前記次元圧縮を行うことを特徴とする画像処理方法。
  6. 請求項3に記載の方法において、
    前記非線形空間処理ステップにおいて、ブロックiとの距離に対して閾値を設定し、距離が閾値より大きい場合には、前記距離を無限大とすることで前記非線形化をした後に前記次元圧縮を行うことを特徴とする画像処理方法。
  7. 請求項3に記載の方法において、
    前記非線形空間処理ステップにおいて、ブロックiとの距離に対して指数関数を含む非線形関数を掛けることで前記非線形化をした後に前記次元圧縮を行うことを特徴とする画像処理方法。
  8. 請求項1に記載の方法において、
    前記動き解析ステップにおいて、ブロックの動きは、2次元動きベクトルかまたはアフィンパラメータであることを特徴とする画像処理方法。
  9. 請求項1に記載の方法において、
    前記非線形空間処理ステップにおいて非線形空間内でセグメンテーションした結果を前記画像入力ステップで受け付けた画像上に表示する画像表示ステップをさらに含む画像処理方法。
  10. 請求項1に記載の方法において、
    前記非線形空間処理ステップにおいて非線形空間内でセグメンテーションした結果から、前記画像入力ステップで受け付けた画像に含まれる少なくとも2つ以上の異なる移動物体を検出することを特徴とする画像処理方法。
  11. 請求項1に記載の方法において、
    前記非線形空間処理ステップにおいて非線形空間内でセグメンテーションした結果から、前記セグメンテーションによって得られた各セグメントに含まれるブロックの時間的移動軌跡から代表軌跡を算出し、前記代表軌跡をもとに前記被写体の動きを予測する被写体動き予測ステップとをさらに含むことを特徴とする画像処理方法。
  12. 請求項1に記載の方法において、
    前記非線形空間処理ステップにおいて非線形空間内でセグメンテーションした結果から、前記画像入力ステップで受け付けた画像上のセグメントを特定し、特定したセグメントごとに対応する前記結果を記録もしくは送信する記録・送信ステップとをさらに含むことを特徴とする画像処理方法。
  13. 複数枚の画像における1個以上の画素からなるブロックの動きに基づいて、形状が変化する被写体を含む画像のセグメンテーションを行う画像処理装置であって、
    時間的に連続した複数枚の画像を受け付ける画像入力部と、
    時間的に異なる少なくとも2枚の画像を用いてブロックの動きを算出し、時間的に連続した複数枚の画像に対して前記ブロックの動きからブロックの時間的移動軌跡を算出する動き解析部と、
    前記動き解析部で算出したブロックiの時間的移動軌跡と、i以外のブロックの時間的移動軌跡とを用いて、ブロック間の画像上での距離およびブロック間が成す角度の少なくともいずれか1つに基づいて、ブロックの動きの類似性を表す距離を算出する距離算出部と、
    前記距離算出部で算出した距離を、ユークリッド距離から測地間距離への変換を行うことによって、非線形空間へ射影し、射影した結果に対して、前記非線形空間内でセグメンテーションを行う非線形空間処理部と、
    を備える画像処理装置。
  14. 画像処理装置のためのプログラムであって、
    時間的に連続した複数枚の画像を受け付ける画像入力ステップと、
    時間的に異なる少なくとも2枚の画像を用いてブロックの動きを算出し、時間的に連続した複数枚の画像に対して前記ブロックの動きからブロックの時間的移動軌跡を算出する動き解析ステップと、
    前記動き解析ステップで算出したブロックiの時間的移動軌跡と、i以外のブロックの時間的移動軌跡とを用いて、ブロック間の画像上での距離およびブロック間が成す角度の少なくともいずれか1つに基づいて、ブロックの動きの類似性を表す距離を算出する距離算出ステップと、
    前記距離算出ステップで算出した距離を、ユークリッド距離から測地間距離への変換を行うことによって、非線形空間へ射影し、射影した結果に対して、前記非線形空間内でセグメンテーションを行う非線形空間処理ステップと
    をコンピュータに実行させるプログラム。
JP2010550248A 2008-03-14 2008-03-14 画像処理方法及び画像処理装置 Active JP5054206B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/GB2008/000918 WO2009112790A1 (en) 2008-03-14 2008-03-14 Image processing method and image processing apparatus

Publications (2)

Publication Number Publication Date
JP2011513868A JP2011513868A (ja) 2011-04-28
JP5054206B2 true JP5054206B2 (ja) 2012-10-24

Family

ID=40028900

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010550248A Active JP5054206B2 (ja) 2008-03-14 2008-03-14 画像処理方法及び画像処理装置

Country Status (6)

Country Link
US (1) US8437549B2 (ja)
EP (2) EP2418622B1 (ja)
JP (1) JP5054206B2 (ja)
CN (1) CN101960490B (ja)
AT (1) ATE538453T1 (ja)
WO (1) WO2009112790A1 (ja)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011080900A1 (ja) * 2009-12-28 2011-07-07 パナソニック株式会社 移動体検出装置および移動体検出方法
CN102378992B (zh) * 2009-12-28 2014-12-24 松下电器产业株式会社 关节状区域检测装置及其方法
JP5404918B2 (ja) 2010-03-15 2014-02-05 パナソニック株式会社 移動軌跡算出方法およびその装置、ならびに領域分割方法
CN102741884B (zh) * 2010-07-27 2016-06-08 松下知识产权经营株式会社 移动体检测装置及移动体检测方法
US8855361B2 (en) * 2010-12-30 2014-10-07 Pelco, Inc. Scene activity analysis using statistical and semantic features learnt from object trajectory data
JP2012151796A (ja) * 2011-01-21 2012-08-09 Sony Corp 画像処理装置と画像処理方法およびプログラム
WO2012127815A1 (ja) * 2011-03-22 2012-09-27 パナソニック株式会社 移動体検出装置および移動体検出方法
JP5919665B2 (ja) * 2011-07-19 2016-05-18 日本電気株式会社 情報処理装置、物体追跡方法および情報処理プログラム
MX343955B (es) * 2011-09-07 2016-11-30 Unilever Nv Un sistema de purifacion de agua.
KR101901958B1 (ko) * 2012-03-26 2018-11-08 한국전자통신연구원 휴리스틱 함수의 학습을 이용한 고속 경로를 탐색을 위한 장치 및 그 방법
US9070004B2 (en) 2012-05-03 2015-06-30 General Electric Company Automatic segmentation and characterization of cellular motion
US9336302B1 (en) 2012-07-20 2016-05-10 Zuci Realty Llc Insight and algorithmic clustering for automated synthesis
EP2790152B1 (en) * 2013-04-12 2015-12-02 Alcatel Lucent Method and device for automatic detection and tracking of one or multiple objects of interest in a video
CN103259962B (zh) * 2013-04-17 2016-02-17 深圳市捷顺科技实业股份有限公司 一种目标追踪方法和相关装置
US9213901B2 (en) * 2013-09-04 2015-12-15 Xerox Corporation Robust and computationally efficient video-based object tracking in regularized motion environments
US9070023B2 (en) 2013-09-23 2015-06-30 Toyota Motor Engineering & Manufacturing North America, Inc. System and method of alerting a driver that visual perception of pedestrian may be difficult
MA41117A (fr) 2014-12-05 2017-10-10 Myfiziq Ltd Imagerie d'un corps
JP6241447B2 (ja) * 2015-04-28 2017-12-06 マツダ株式会社 歩行者移動推定方法および推定装置
CN105025198B (zh) * 2015-07-22 2019-01-01 东方网力科技股份有限公司 一种基于时空因素的视频运动目标的分组方法
JP6493877B2 (ja) 2015-08-25 2019-04-03 富士フイルム株式会社 基準点評価装置、方法およびプログラム、並びに位置合せ装置、方法およびプログラム
US10264996B2 (en) * 2015-10-19 2019-04-23 Sayfe Kiaei Method and apparatus for wirelessly monitoring repetitive bodily movements
CN106095104A (zh) * 2016-06-20 2016-11-09 电子科技大学 基于目标模型信息的连续手势轨迹分割方法及系统
CN105931429B (zh) * 2016-07-18 2019-01-29 四川君逸数码科技股份有限公司 一种智慧金睛识别夜间接近报警方法和装置
CN106128022B (zh) * 2016-07-18 2018-12-11 四川君逸数码科技股份有限公司 一种智慧金睛识别暴力动作报警方法
US10419558B2 (en) * 2016-08-24 2019-09-17 The Directv Group, Inc. Methods and systems for provisioning a user profile on a media processor
US11205103B2 (en) 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
CN109344685B (zh) * 2018-08-03 2021-03-09 广东工业大学 一种智慧托盘及其智能定位追踪方法
CN109741242B (zh) * 2018-12-25 2023-11-14 努比亚技术有限公司 光绘处理方法、终端和计算机可读存储介质
CN110543539B (zh) * 2019-08-29 2022-09-16 河海大学 一种分布式的路网环境下移动对象轨迹相似性查询方法
CN113196290A (zh) * 2019-09-26 2021-07-30 松下电器(美国)知识产权公司 信息处理方法、程序以及信息处理装置
CN110751056B (zh) * 2019-09-27 2023-05-23 湖北工业大学 基于改进自顶向下法多人姿态检测的行人运动预测方法
CN111161312B (zh) * 2019-12-16 2022-03-22 重庆邮电大学 一种基于计算机视觉的物体轨迹追踪识别装置及系统
JP2021176347A (ja) * 2020-05-07 2021-11-11 コニカミノルタ株式会社 動作情報表示装置
CN113838120B (zh) * 2021-09-30 2024-01-30 重庆大学 一种基于数字图像相关的大转角运动位移测量方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5016173A (en) * 1989-04-13 1991-05-14 Vanguard Imaging Ltd. Apparatus and method for monitoring visually accessible surfaces of the body
JP3780017B2 (ja) 1994-12-06 2006-05-31 オリンパス株式会社 時系列画像解析装置及びその解析方法
JPH1166319A (ja) * 1997-08-21 1999-03-09 Omron Corp 移動体検出方法及び装置並びに移動体認識方法及び装置並びに人間検出方法及び装置
JP2000222584A (ja) * 1999-01-29 2000-08-11 Toshiba Corp 映像情報記述方法、映像検索方法及び映像検索装置
US6859554B2 (en) 2001-04-04 2005-02-22 Mitsubishi Electric Research Laboratories, Inc. Method for segmenting multi-resolution video objects
US20030123704A1 (en) * 2001-05-30 2003-07-03 Eaton Corporation Motion-based image segmentor for occupant tracking
KR100927143B1 (ko) * 2002-11-27 2009-11-18 삼성전자주식회사 움직임 검출장치 및 방법
US8614741B2 (en) * 2003-03-31 2013-12-24 Alcatel Lucent Method and apparatus for intelligent and automatic sensor control using multimedia database system
US7142602B2 (en) * 2003-05-21 2006-11-28 Mitsubishi Electric Research Laboratories, Inc. Method for segmenting 3D objects from compressed videos
JP4506409B2 (ja) * 2004-10-27 2010-07-21 株式会社デンソー 領域分割方法及び装置、画像認識処理装置、プログラム、記録媒体
US7647214B2 (en) * 2004-12-27 2010-01-12 Seoul National University Industry Foundation Method for simulating stable but non-dissipative water
JP2007199864A (ja) * 2006-01-24 2007-08-09 Matsushita Electric Ind Co Ltd 画像列生成方法および画像列生成装置
JP4148281B2 (ja) * 2006-06-19 2008-09-10 ソニー株式会社 モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム
DE102007013811A1 (de) * 2007-03-22 2008-09-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur zeitlichen Segmentierung eines Videos in Videobildfolgen und zur Auswahl von Keyframes für das Auffinden von Bildinhalten unter Einbeziehung einer Subshot-Detektion
JP4893471B2 (ja) * 2007-05-24 2012-03-07 カシオ計算機株式会社 画像処理装置及びプログラム
US8213681B2 (en) * 2009-01-09 2012-07-03 Panasonic Corporation Moving object detection method and moving object detection apparatus
US8891831B2 (en) * 2010-12-14 2014-11-18 The United States Of America, As Represented By The Secretary Of The Navy Method and apparatus for conservative motion estimation from multi-image sequences

Also Published As

Publication number Publication date
US20110013840A1 (en) 2011-01-20
CN101960490A (zh) 2011-01-26
EP2418622B1 (en) 2015-12-02
US8437549B2 (en) 2013-05-07
EP2250624B1 (en) 2011-12-21
JP2011513868A (ja) 2011-04-28
EP2418622A2 (en) 2012-02-15
CN101960490B (zh) 2013-07-17
WO2009112790A1 (en) 2009-09-17
EP2250624A1 (en) 2010-11-17
EP2418622A3 (en) 2012-05-09
ATE538453T1 (de) 2012-01-15

Similar Documents

Publication Publication Date Title
JP5054206B2 (ja) 画像処理方法及び画像処理装置
JP4456181B1 (ja) 移動体検出方法及び移動体検出装置
JP4782901B2 (ja) 移動体検出装置および移動体検出方法
JP4643766B1 (ja) 移動体検出装置及び移動体検出方法
JP4542207B1 (ja) 移動体検出方法および移動体検出装置
EP2548174B1 (en) Method and apparatus for trajectory estimation, and method for segmentation
JP4668360B2 (ja) 移動体検出方法及び移動体検出装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120703

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120726

R150 Certificate of patent or registration of utility model

Ref document number: 5054206

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150803

Year of fee payment: 3