JP2018180894A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2018180894A
JP2018180894A JP2017079026A JP2017079026A JP2018180894A JP 2018180894 A JP2018180894 A JP 2018180894A JP 2017079026 A JP2017079026 A JP 2017079026A JP 2017079026 A JP2017079026 A JP 2017079026A JP 2018180894 A JP2018180894 A JP 2018180894A
Authority
JP
Japan
Prior art keywords
posture
image
person
information processing
reference image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017079026A
Other languages
English (en)
Inventor
貴之 岩本
Takayuki Iwamoto
貴之 岩本
康生 片野
Yasuo Katano
康生 片野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017079026A priority Critical patent/JP2018180894A/ja
Publication of JP2018180894A publication Critical patent/JP2018180894A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】人物を撮影した複数の画像の中から、人物の姿勢の差異を効率よく観察できるような画像を選択可能にする情報処理装置、情報処理方法及びプログラムを提供する。【解決手段】姿勢推定部350は、人物を撮影した複数の参照画像と、特定の人物を撮影した基準画像とについて、人物の部位の位置関係の変化により変わる姿勢を推定する。部分類似度計算部360は、基準画像の中の人物の姿勢と、参照画像の中の人物の姿勢との間で、姿勢の部分的な差異を表す部分類似度を算出する。画像選択部370は、複数の参照画像の中から、部分類似度を基に参照画像を選択する。【選択図】図1

Description

本発明は、画像等のデータを処理する情報処理装置、情報処理方法及びプログラムに関する。
従来、例えば野球のピッチングフォームに関して、対象となる人物の現在のピッチングフォームの画像と過去のピッチングフォームの画像との違いを比較することにより、その人物の技能の上達を確認するようなことが行われている。このようなピッチングフォーム等の確認は、例えばピッチングを行っている際の人物の姿勢の変化を、過去と現在とで比較することにより行われる。
また例えば、特許文献1には、撮像画像に写っている人物等の被写体の姿勢を推定し、その推定された姿勢を、予め用意されたポーズに分類して、それら分類されたポーズに基づいて撮像画像の記録や検索を制御する技術が開示されている。
特開2011−211438号公報
ところで、前述のように対象となる人物のピッチングフォーム等の確認を行う場合、例えば人体の各部位のうち一部の部位のみに関して、過去と現在とでどのように姿勢が変化したかを確認したいことがある。この場合、その人物について過去に撮影した大量の画像の中から、その人物の人体全体としての姿勢は概ね同一であるが、一部の部位のみで姿勢が変化しているような画像を選び出す必要がある。一部の部位のみで姿勢が変化している画像を選択できれば、人物の姿勢の差異を効率よく観察できることになる。このような画像の選択処理に特許文献1の技術を適用することも考えられるが、特許文献1の技術では、一部の部位のみ姿勢が異なっているような場合の姿勢の差異を評価することができない。このため、特許文献1の技術を適用しても、人物の姿勢の差異を効率よく観察できる画像を選択することは困難である。
そこで、本発明は、人物を撮影した複数の画像の中から、人物の姿勢の差異を効率よく観察できるような画像を選択可能にすることを目的とする。
本発明は、人物を撮影した複数の参照画像と、対象となる人物を撮影した基準画像とについて、それぞれ前記人物の姿勢を検出する姿勢検出手段と、前記基準画像の中の前記対象となる人物の姿勢と、前記参照画像の中の人物の姿勢との間で、姿勢の部分的な差異を表す部分類似度を検出する類似度検出手段と、前記複数の参照画像の中から、前記部分類似度を基に参照画像を選択する画像選択手段と、を有することを特徴とする。
本発明によれば、人物を撮影した複数の画像の中から、人物の姿勢の差異を効率よく観察できるような画像を選択可能となる。
第1の実施形態の情報処理装置の構成例を示す図である。 入力された基準画像例を示す図である。 保存されている参照画像例を示す図である。 第1の実施形態における画像選択処理のフローチャートである。 第2の実施形態の情報処理装置の構成例を示す図である。 保存されている動画データのフレームを表す模式図である。 正規化後のフレームの説明図である。 第2の実施形態における画像選択処理のフローチャートである。 第3の実施形態における画像選択処理のフローチャートである。
以下、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。
<第1の実施形態>
図1は第1の実施形態の情報処理装置300の全体構成例を示す図である。
図1に示す情報処理装置300において、基準画像取得部310は、基準画像のデータを取得する。基準画像データは、例えば図示しない撮影装置や画像記録装置、ネットワーク等を介して取得された画像データであるとする。
本実施形態において、基準画像取得部310は、対象となる人物を撮影した画像を、基準画像として取得する。ここで、人物の人体は、胴体に対する可動部位として、頭部、左右の腕、左右の脚等を有して構成され、また、これら部位のうち例えば腕は更に前腕、上腕、手等の部位により構成され、例えば脚は更に大腿、下腿、足等の部位により構成されている。そして、可動部位等の全ての部位を含む人体の外観形態、つまり人体の姿勢は、各部位の動作により各部位間の相対的な位置や角度が変わることにより変化する。また本実施形態において、姿勢の変化には、人体の全体としての姿勢の変化だけでなく、一部の部位のみの相対的な位置や角度が変わっている場合の部分的な姿勢の変化も含まれる。
また、本実施形態では、図2に示すように、姿勢の変化を観察する際の対象となる人物111が例えば野球のピッチング動作をしている様子を撮影した画像110が、基準画像取得部310により取得された例を挙げて説明する。図2の場合、画像110内の人物画像121が、野球のピッチング動作をしている人物111の画像である。
情報処理装置300の参照画像保存部320には、様々な画像のデータが保存されており、本実施形態の場合、図2に人物画像121として写っている人物111が過去にピッチング動作をした際に撮影された複数の画像データが保存されているとする。なお、参照画像保存部320は、他の人物の画像が保存されていてもよい。図3は、図2の人物111が過去(例えば1週間前)にピッチング動作をした際に撮影されて参照画像保存部320に保存されている画像の一例として、画像210,220,230を挙げている。これら画像210,220,230には、人物111のピッチング動作の途中のそれぞれ異なった姿勢で撮影された人物画像211,221,231が写っているとする。また、図2の人物画像121の場合、人物111の姿勢は、例えば図3の画像230内に写っている人物画像231と概ね類似した姿勢であるとする。ただし、図2の人物画像121の脚のパーツ画像122と、図3の人物画像231の脚のパーツ画像232とでは、それぞれ曲がり具合が異なっている。つまり、図2の人物画像121ではパーツ画像122に示すように脚の膝が略々まっすぐに伸ばされているのに対し、図3の人物画像231ではパーツ画像232に示すように膝が曲がっているとする。本実施形態では、これら図2の画像110と図3の画像230が、人体の全体としての姿勢は概ね同一であるが、一部の部位のみで姿勢が変化しているような画像の一例であるとする。
本実施形態の情報処理装置300は、基準画像取得部310にて取得された図2の画像110を基準画像とし、参照画像保存部320に保存されている複数の画像210,220,230を参照画像とする。なお、参照画像保存部320に保存されている参照画像には、画像210,220,230以外の他の画像も含まれるが、本実施形態では説明を判り易くするために、これら画像210,220,230のみを参照画像の例として挙げる。そして、情報処理装置300は、参照画像保存部320内の複数の参照画像210,220,230の中から、基準画像110の人物画像121に対して全体としての姿勢は似ているが、部分的に姿勢が異なっている図3の画像230を選択する。すなわち、情報処理装置300は、人物111のピッチング動作を撮影した現在の画像を基準画像110とし、過去に撮影された参照画像210,220,230の中から、ピッチング技能の上達等を比較するのに適した画像230を選択可能となされている。
以下、このような画像選択処理を実現する本実施形態の情報処理装置300の詳細な構成と動作について説明する。
情報処理装置300の画像入力部330は、前述した基準画像取得部310が取得した基準画像110のデータと、参照画像保存部320に保存されている複数の参照画像210,220,230のデータとを、それぞれ入力画像として人物検出部340に送る。
人物検出部340は、画像入力部330より供給された各入力画像から、人物が存在する画像領域を特定することで、人物画像を検出する。人物検出部340では、例えば下記の参考文献1に開示されているような物体検出器を用いることにより人物画像を検出する。図2と図3の例の場合、基準画像110からは人物画像121が検出され、各参照画像210,220,230からはそれぞれ人物画像211,221,231が検出される。人物検出部340により検出された各人物画像のデータは、基準画像110及び各参照画像210,220,230のデータと共に姿勢推定部350に送られる。
参考文献1:P. Felzenszwalb, R. Girshick, D. McAllester, Cascade Object Detection with Deformable Part Models, IEEE Conference on Computer Vision and Pattern Recognition, 2010.
姿勢推定部350は、人物検出部340によりそれぞれ検出された人物画像を用い、各画像中に写っている人物の姿勢検出を行う。本実施形態の場合、姿勢検出は、以下に説明するような姿勢パラメータを算出して、その姿勢パラメータを基に人物の姿勢を推定する姿勢推定手法を用いることにより行われる。ここで、姿勢パラメータは、人体の部位間の角度である。人体の各部位間の角度は、画像面上における角度すなわち2次元平面における2D関節角と、3次元空間における3D関節角の何れでもよい。例えば、以下の参考文献2に開示されている方法によって、画像中の人体の各部位の画像座標における位置姿勢を推定し、各部位間の角度の算出が可能である。さらに、各部位の画像座標における姿勢から、各部位の例えば関節点の画像座標における位置を算出し、参考文献3に記載の方法により、画像中の人体の3次元関節角Θ={θi}を推定することができる。姿勢推定部350により推定された姿勢パラメータ(人体の関節角を表す情報)は、基準画像110及び各参照画像210,220,230のデータと共に部分類似度計算部360に送られる。
参考文献2:Varun Ramakrishna, Daniel Munoz, Martial Hebert, J.A. Bagnell, Yaser Sheikh, PoseMachines: Articulated Pose Estimation via Inference Machines, European Conference on Computer Vision (ECCV), 2014.
参考文献3:Chunyu Wang, Yizhou Wang, Zhouchen Lin, Alan L. Yuille, Wen Gao; Robust Estimation of 3D Human Poses from a Single Image, IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2014.
部分類似度計算部360は、基準画像110の人物画像121と各参照画像210,220,230の人物画像211,221,231との間の部分類似度を検出する類似度検出処理を行う。本実施形態の場合、部分類似度計算部360は、姿勢推定部350により算出された姿勢パラメータを用いて、部分類似度を算出する。ここで、例えば単純に2つの姿勢パラメータの差の値から類似性を判定すると、全体として姿勢が類似している一方で部分的に姿勢が異なる人物画像が、全体の姿勢が僅かずつ違う人物画像と同様に扱われてしまうことになる。このため、本実施形態の部分類似度計算部360では、以下に説明するように、姿勢パラメータ間における類似度のスパース性、つまり姿勢の非類似性を表す指標を算出する。
姿勢パラメータ間の類似度のスパース性(姿勢の非類似性)に関する指標は、例えば、以下のようにして算出される。基準画像110に写っている人物画像121における人体の姿勢パラメータをΘ(q)={θl (q)}とし、参照画像210,220,230に写っている人物画像211,221,231における各姿勢パラメータをΘ(r)={θl (r)}とする。ここで、θl (q)は、基準画像110に写る人物画像121における人体のl番目の姿勢パラメータであり、関節角の1自由度に対応する。同様に、θl (r)は、参照画像210,220,230に写っている人物画像211,221,231の人体のl番目の姿勢パラメータである。
そして、姿勢パラメータの部位ごとの差Θ(q)−Θ(r)=ΔΘ={Δθl}を、式(1)のように定義する。
ΔΘ={Δθl}={|θl (q)−θl (r)|} 式(1)
ここで、ΔΘの姿勢パラメータ要素ごとに予め定められた閾値をτlとし、τ={τl}を定義する。ΔΘの姿勢パラメータ要素のうちτlを超える要素の数を部分類似度として定義する。このようにして算出された部分類似度sは、式(2)により表すことができる。
s=#{l|Δθl−τl>0} 式(2)
また、姿勢パラメータ間の類似度のスパース性に関する指標は、以下のようにしても算出することができる。式(1)のΔΘのL2ノルムが1になるように正規化したものをPΔΘとする。すなわち式(3)によりPΔΘが求められ、部分類似度sは式(3)の定義に従って式(4)により算出される。
ΔΘ={pl}={Δθl/‖ΔΘ‖2} 式(3)
s=Σlllog2l 式(4)
このようにして算出された部分類似度sは、PΔΘの負のエントロピーを計算していることに相当する。PΔΘの分布が均一になる場合に部分類似度sは最小の値をとり、分布の偏りが大きいほど部分類似度sは大きな値をとる。すなわち、全ての部位において誤差が大きいような場合には、部分類似度sは小さな値をとり、一部の部位のみ誤差が大きいような場合には、部分類似度sの値は大きくなる。前述のようにして部分類似度計算部360にて算出された部分類似度sは、基準画像110及び各参照画像210,220,230のデータと共に画像選択部370に送られる。
画像選択部370は、各参照画像210,220,230の中から、部分類似度sが予め決めた規定値ψを超える参照画像(例えば図3の参照画像230)を選択し、その選択した参照画像(230)と基準画像110のデータを画像表示部380に出力する。ここで、画像選択部370が選択する画像の枚数は予め決められた所定の枚数m枚までとし、部分類似度sが規定値ψを超えている参照画像の枚数がm枚以上あった場合、部分類似度sの大きい順にm枚の参照画像を選択する。若しくは、画像選択部370は、部分類似度sが予め決められた規定値ψ1とψ2に対して、ψ1<s<ψ2となるような参照画像を選択する。また、ψ1<s<ψ2となるような参照画像がm枚以上ある場合、画像選択部370は、部分類似度sの値が(ψ1+ψ2)/2に近いものから順に選択してもよい。一方、該当する参照画像が無い場合、画像選択部370は、選択不可能であったことを示す通知情報を生成して後段の画像表示部380に出力してその旨の通知を表示させる。
画像表示部380は、不図示の表示装置の画面に、基準画像110と画像選択部370により選択された参照画像(例えば図3の参照画像230)とを例えば並べて表示させる。これにより、例えば、人物111が野球のピッチング動作をした際に、その人物111の現在のピッチングフォームの画像と過去のピッチングフォームの画像との間の違いを比較することによるピッチング技能の変化の確認作業の効率を高めることができる。図2の画像110と図3の画像230の例の場合、ユーザは、例えば、過去のピッチング動作時には曲がっていた膝を、伸ばした状態にしてピッチングするようなピッチングフォームの改善が実現できているか否かを確認可能となる。また、基準画像110と画像選択部370により選択された参照画像(例えば図3の参照画像230)とを例えば並べて表示させるときに、差異があると判断した部位を他の部位と区別して表示するようにしてもよい。その具体的な方法としては、例えば、差異のある部位を矩形の枠で囲って表示する、差異のある部位の名前を表示する等である。
図4は、本実施形態の情報処理装置300における画像選択処理の流れを示すフローチャートである。なお、図4のフローチャートでは、各処理ステップS401〜S407をそれぞれS401〜S407と略記する。図4のフローチャートの処理は、ハードウェア構成により行われてもよいし、本実施形態に係るプログラムをCPU(中央処理ユニット)が実行することにより実現されてもよい。また、図4のフローチャートの処理は、一部がソフトウェア構成で残りがハードウェア構成により実現されてもよい。これらのことは後述する他のフローチャートにおいても同様とする。例えば、図4のフローチャートの処理をCPUがプログラムにより実行する場合、S402からS407までの処理は、本実施形態に係る画像選択処理のプログラムをCPUが実行することにより実現される。なお、本実施形態に係るプログラムは、各種記録メディアやネットワークを介して供給され、RAMに展開されることによりCPUにより実行可能となされる。
図4のフローチャートの処理は、本実施形態の情報処理装置300において、例えばユーザにより画像選択処理の実行が指示されたことで開始する。
図4のS401において、画像入力部330は、基準画像取得部310により取得された基準画像110を入力画像として取り込む。
次のS402において、人物検出部340は、前述したように基準画像110の中から人物画像121の領域を検出し、その人物画像121の領域のバウンディングボックスを生成する。
次にS403において、姿勢推定部350は、S402において生成されたバウンディングボックス内に存在している人物画像121について前述したように3次元姿勢を推定し、その推定した姿勢を姿勢パラメータΘ(q)とする。
次のS404では、S401、S402、S403と同様にして、参照画像210,220,230を入力し、さらに各参照画像内の人物画像について3次元姿勢を推定して姿勢パラメータΘ(r)を算出する。以下、参照画像210,220,230の人物画像211,221,231についてそれぞれ求められた姿勢パラメータをΘ(210),Θ(220),Θ(230)とする。
次のS405において、部分類似度計算部360は、前述した姿勢パラメータΘ(q)と、姿勢パラメータをΘ(210),Θ(220),Θ(230)とを基に、スパース性を評価する指標としての部分類似度sを算出する。
次のS406において、画像選択部370は、S405で算出された部分類似度sが、予め定めた前述の規定値ψを用いた条件を満たす(規定値ψを超える)参照画像を選択する。
その後、S407において、画像表示部380は、S406で選択された参照画像を、基準画像と並べて図示しない表示装置の画面上に表示させる。
そして、図4のフローチャートの処理は、本実施形態の情報処理装置300において、例えばユーザにより画像選択処理の終了が指示されたことで終了する。
前述したように、第1の実施形態の情報処理装置300においては、基準画像内の人物の姿勢と参照画像の中の人物の姿勢とを比較する際に、例えば全ての関節角が少しずつ異なる状態と一部の関節角だけ大きく異なる状態とを区別可能である。したがって、本実施形態によれば、複数の参照画像の中から、基準画像の人物画像の全体としての姿勢は類似する一方で、一部の部位における姿勢のみ異なっている人物画像が写っている参照画像を選択できる。すなわち、本実施形態によれば、例えば家庭用ビデオカメラ等で撮影された動作映像を基に、同様の動作を行った過去の映像から、一部の姿勢のみ異なる動作画像を自動的に探索することができる。これにより、本実施形態によれば、ユーザは、基準画像に写っている人物の姿勢と、選択された参照画像に写っている人物の姿勢との部分的な差異を、効率よく観察することが可能となる。
なお、前述の実施形態では、野球のピッチングフォームを確認する例を挙げたが、本発明はこれに限定されず、様々なスポーツの上達度や、リハビリの進呈度合いなどを確認する際、部分的な姿勢の差異を確認するために好適な画像を選択可能である。このことは後述する他の実施形態においても同様である。
<第2の実施形態>
以下、第2の実施形態に情報処理装置について説明する。
第2の実施形態の情報処理装置は、予め、人物の特定の動作に類似した動作の姿勢パラメータ等の姿勢データを保存しておき、それら姿勢データを基に各部位の関節角に対する重みを算出するような動作学習処理を行う。そして、第2の実施形態の情報処理装置は、動作学習処理により得られた重みに基づいて部分類似度を算出する。図5は、第2の実施形態の情報処理装置500の構成例を示す図である。第2の実施形態の情報処理装置500において、前述した第1の実施形態の情報処理装置300と同様の構成についてはその説明を省略し、以下、第1の実施形態とは異なる部分について説明する。
第2の実施形態の情報処理装置500において、動作データ保存部510は、例えばハードディスクドライブやソリッドステートドライブ等の記録装置を有し、それらに学習の対象となる複数の動作に対応した複数の動画像のデータを保存している。本実施形態の場合、動作データ保存部510には、例えば、前述した図2の画像110で被写体となっている人物111が、過去に同様のピッチング練習を行った際の様子を撮影した動画データが保存されているとする。ここで、過去に行われたピッチング練習の動画データとして、動作データ保存部510には、例えば図6に示すように、n回分のピッチング練習時の動画M1〜Mnのデータが保存されているとする。なお、動作データ保存部510に保存されている各動画M1〜Mnに写っている被写体の人物は、前述した画像110の人物111とは別の人物であってもよい。図6に例示した動画M1,M2,・・・,Mnは、それぞれフレーム数がf1,f2,・・・,fnであるとする。また、以下の説明において、k番目のピッチング練習時の動画Mkのフレーム数はfkとする。
第2の実施形態の場合、姿勢推定部350は、動画M1〜Mnのそれぞれのフレームについて姿勢パラメータΘを算出する。例えば、k番目の動画Mkからは、各フレームの姿勢パラメータ系列{Θ(k1),Θ(k2),・・・,Θ(kfk)}が算出される。第2の実施形態の場合、姿勢推定部350にて算出された各フレームの姿勢パラメータ系列が、前述した基準画像と参照画像のデータと共にフレーム正規化部520に送られる。
フレーム正規化部520は、姿勢推定部350で算出された姿勢パラメータ系列をダイナミックタイムワーピング(Dynamic Time Warping)により、フレーム数fに正規化する。フレーム数fとしては、例えば動画M1のフレーム数f1を用いてもよい。このフレーム正規化の処理により、k番目の動画Mkについては、姿勢パラメータ系列{Θ(kj)}(j=1,2,・・・,f)が得られる。図7は、動画M1〜Mnより得られた各姿勢パラメータ系列をフレーム数fに正規化したデータを模式的に示している。図7では動画M1,M2,・・・,Mnの各姿勢パラメータ系列が{Θ(11),Θ(12),・・・,Θ(1f)},{Θ(21),Θ(22),・・・,Θ(2f)},・・・,{Θ(n1),Θ(n2),・・・,Θ(nf)}で示されている。このようにしてフレーム正規化部520で得られた各動画M1〜Mnの正規化された各姿勢パラメータ系列が、前述した基準画像と参照画像のデータと共に部分類似度計算部360に送られる。
動作学習部530は、動作データ保存部510に保存されている動画データを用いて、学習の対象となる人物の特定の動作における姿勢の変化に対する正常範囲を学習する。先ず、動作学習部530は、学習の対象となる動画の各フレームの画像データを人物検出部340に送って人物検出処理を行わせ、さらに、検出された人物画像を基に姿勢推定部350による姿勢の推定処理を行わせる。これにより、例えばk番目の動画Mkの場合、姿勢推定部350からは、その動画Mkの各フレームに対応した姿勢パラメータ系列{Θ(kj)}(j=1,2,・・・,f)が得られる。さらに、動作学習部530は、フレーム正規化部520によるフレーム数の正規化についても行わせる。そして、フレーム数が正規化された姿勢パラメータ系列は、姿勢データとして動作データ保存部510に保存される。
次に、動作学習部530は、動作データ保存部510に保存された、フレーム数が正規化された姿勢パラメータ系列より、各フレームにおける姿勢パラメータの平均(以下、平均姿勢とする。)と分散とを算出する。ここで、例えばj番目のフレームの平均姿勢μjは、以下の式(5)により求めることができる。
Figure 2018180894
また、j番目のフレームにおけるl番目の姿勢パラメータの分散σ2 jlは、以下の式(6)のように表される。本実施形態では、姿勢パラメータの分散が、各関節角の重みとして算出される。
Figure 2018180894
部分類似度計算部360は、動作学習部530により姿勢データから算出された姿勢パラメータの平均姿勢と分散を用いて、前述した基準画像110と各参照画像210,220,230との間の部分類似度を算出する。先ず、部分類似度計算部360は、基準画像110から算出された姿勢パラメータΘ(q)に最も近い姿勢平均μjとなるフレーム番号jを選ぶ。具体的には、部分類似度計算部360は、姿勢間の距離としてL2ノルムで表される距離を用い、姿勢パラメータΘ(q)との距離が最小となる平均姿勢μjとなるフレーム番号jを選ぶ。そして、部分類似度計算部360は、フレーム番号jに対応する分散σ2 jの要素(σ2 jl)を各関節角の重みとして用いて、式(7)により部分類似度sを算出する。なお、式(7)のαは定数である。
s=#{l|Δθl−ασjl>0} 式(7)
また、式(1)のΔΘの代わりに、下記の式(8)のように定義されたΔΘを用いて、式(3)、式(4)により部分類似度sを算出することもできる。
ΔΘ={Δθl}={|θl (q)−θl (r)|/σjl} 式(8)
以下、第2の実施形態における処理を図8(a)と図8(b)のフローチャートに沿って説明する。図8(a)は動画データを用いた学習により姿勢パラメータの平均姿勢と各関節角の分散を求める処理のフローチャートを示している。また、図8(b)は平均姿勢と各関節角の分散を用いた第2の実施形態における画像選択処理のフローチャートである。
図8(a)のS801において、動作学習部530は、前述したように、動作データ保存部510に保存されている動画の各フレームについて、人物検出部340による人物検出処理、姿勢推定部350による姿勢パラメータ系列の算出処理を行わせる。さらに、動作学習部530は、フレーム正規化部520により動画のフレーム数を正規化させる。そして、動作学習部530は、このフレーム数が正規化された姿勢パラメータ系列を、姿勢データとして動作データ保存部510に保存させる。
次に、S802において、動作学習部530は、前述したように、S801の処理により算出されて動作データ保存部510に保存された姿勢データを基に、各フレームにおける姿勢パラメータの平均姿勢と各関節角の分散とを算出する。
図8(b)のS803〜S806は、前述した図4のフローチャートのS401〜S404と同様の処理が行われるため、それらの説明は省略する。S806の後、情報処理装置500の処理はS807に進む。
S807において、部分類似度計算部360は、基準画像の中に写っている人物の姿勢が、前述の学習時に用いられた各フレームのうち、何番目のフレームの平均姿勢に近いかを算出する。ここで、基準画像内に写っている人物の姿勢が、例えばj番目のフレームの平均姿勢μjと最も近いとする。この場合、そのj番目のフレームの平均姿勢μjに対応した分散はσ2 jである。
次に、S808において、部分類似度計算部360は、前述した式(7)に定義された部分類似度s、若しくは式(8)のΔΘを用いて、前述の式(3)及び式(4)によって定義される部分類似度sを計算する。
次に、S809において、画像選択部370は、S808で算出された部分類似度sが、予め定められた規定値ψの条件を満たす(規定値ψを超える)ような参照画像を選択する。
その後、S810において、画像表示部380は、S809で選択された参照画像を、基準画像と並べて不図示の表示装置に表示させる。
第2の実施形態の情報処理装置500においては、予め人物の特定の動作に類似した動作から得られる姿勢データを基に、各部位の関節角に対する重みを算出し、その関節角の重みを用いて算出した部分類似度に基づいて参照画像の選択を行う。したがって、第2の実施形態によれば、人物を撮影した複数の画像の中から人物の姿勢の差異を効率よく観察できるような画像を、第1の実施形態の場合よりも更に高い精度で選択可能となる。
<第3の実施形態>
以下、第3の実施形態の情報処理装置について説明する。
前述した第1,第2の実施形態の場合、基準画像は静止画像であったが、第3の実施形態では、基準画像として動画が入力され、その基準画像の動画の比較対象となる動画を、参照画像として保存されている複数の動画の中から選択する。なお、第3の実施形態では、基準画像として入力される動画を基準動画、参照画像として保存されている動画を参照動画と呼ぶことにする。第3の実施形態における情報処理装置の構成は、前述した第2の実施形態の情報処理装置500と同じ構成であるため、前述した図5を流用して説明する。ただし、第3の実施形態において、動作データ保存部510と動作学習部530は必ずしも設けられていなくてもよい。以下、第3の実施形態において、第1の実施形態及び第2の実施形態とは異なる部分について説明する。また、第3の実施形態では、或る人物のリハビリ中の歩行動作の動画を用いた例を挙げる。
基準画像取得部310は、例えば或る人物のリハビリ中の歩行動作の動画を基準動画Mqとして取得したとする。また、参照画像保存部320には、その人物について過去に撮影されたn回分のリハビリ中の歩行動作の動画が参照動画Mr1〜Mrnとして保存されているとする。このため、画像入力部330には、基準動画Mqと参照動画Mr1〜Mrnが入力される。なお、参照画像保存部320に保存されている参照動画の被写体の人物は、基準動画内に写っている人物と同一人物でなくともよい。
フレーム正規化部520は、基準動画Mqのフレーム数に合わせて、参照画像保存部320の各参照動画Mr1〜Mrnのフレーム数をダイナミックタイムワーピングによって正規化する。なお、第3の実施形態の場合も第2の実施形態と同様に、フレーム正規化部520への入力は姿勢推定部350によって推定された姿勢パラメータ系列である。
部分類似度計算部360は、正規化されたそれぞれのフレームの画像について、基準のフレームと参照されるフレームの部分類似度sを計算する。基準のフレーム数がfであった場合、部分類似度計算部360は、fフレーム分の部分類似度Ψ={si}(i=1,2,・・・,f)を算出する。なお、各フレームの部分類似度siの定義は、第1の実施形態や第2の実施形態の場合と同様である。
画像選択部370は、部分類似度計算部360によって算出されたfフレーム分の部分類似度Ψに基づいて、基準動画Mqの比較対象となる動画を参照動画Mr1〜Mrnの中から選択する。第3の実施形態の場合、画像選択部370は、例えば式(9)に示す部分類似度ΨのLpノルムが、予め定められた規定値を超えることを、動画選択の際の基準としてもよい。
Figure 2018180894
ここで、Lpノルムとして、L1ノルムを用いた場合は、各フレームの部分類似度siの総和を求めていることになる。また、Lpノルムとして、L-infinityノルムを用いた場合は、各フレームの部分類似度siの中から類似度が最大となるフレームの値を代表値として選んでいることになる。また、画像選択部370は、各フレームの部分類似度siのうち、規定の基準を満たしているものの数をカウントし、その数が一定の範囲内にあるような動画を選択してもよい。
図9は、第3の実施形態の画像選択処理のフローチャートである。
図9のS901において画像入力部330には基準動画Mqが入力される。次のS902において、人物検出部340は、入力された基準動画の各フレームから人物画像の領域を検出する。次のS903において、姿勢推定部350は、S902で検出された人物画像の姿勢パラメータ系列を算出する。また、S904では、S901、S902、S903と同様にして、参照動画Mr1〜Mrnが入力され、さらに各参照動画内の人物画像の検出と姿勢パラメータ系列の算出が行われる。これらS902〜S904における各処理は前述した第1,第2の実施形態における処理と概ね同様であるため詳細な説明は省略する。
次に、S905において、フレーム正規化部520は、S904までの処理で得られた姿勢パラメータ系列を用いて、参照動画のフレーム数を基準動画のフレーム数に正規化する。
次に、S906において、部分類似度計算部360は、前述したように基準動画と参照動画の各フレームの部分類似度を計算する。なお、部分類似度を第2の実施形態のように学習した姿勢データに基づいて計算する場合には、予め図8のS801とS802の処理を実行しておくようにする。
次に、S907において、画像選択部370は、前述したように、全フレーム分の部分類似度(Ψ)に基づいて、参照動画の中から基準動画の比較対象となる動画を選択する。
その後、S908において、画像表示部380は、S907にて選択された動画を、基準動画と共に不図示の表示装置に表示させる。
第3の実施形態の情報処理装置500においては、基準画像と参照画像が共に動画である場合でも、人物を撮影した複数の動画の中から、人物の姿勢の差異を効率よく観察できるような動画を選択可能となる。
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
前述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
300,500:情報処理装置、310:基準画像取得部、320:参照画像保存部、340:人物検出部、350:姿勢推定部、360:部分類似度計算部、370:画像選択部、380:画像表示部、510:動作データ保存部、520:フレーム正規化部、530:動作学習部

Claims (18)

  1. 人物を撮影した複数の参照画像と、対象となる人物を撮影した基準画像とについて、それぞれ前記人物の姿勢を検出する姿勢検出手段と、
    前記基準画像の中の前記対象となる人物の姿勢と、前記参照画像の中の人物の姿勢との間で、姿勢の部分的な差異を表す部分類似度を検出する類似度検出手段と、
    前記複数の参照画像の中から、前記部分類似度を基に参照画像を選択する画像選択手段と、
    を有することを特徴とする情報処理装置。
  2. 前記画像選択手段は、前記複数の参照画像の中から、前記基準画像の中の前記人物の人体を構成する複数の部位のうち一部の部位による姿勢が異なった前記人物の画像を含んだ参照画像を、選択することを特徴とする請求項1に記載の情報処理装置。
  3. 前記基準画像と前記参照画像からそれぞれ前記人物の画像を検出する人物検出手段を有し、
    前記姿勢検出手段は、前記基準画像と前記参照画像からそれぞれ検出された前記人物の画像を用いて、前記人物の姿勢を検出することを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記複数の参照画像を保存する画像保存手段を有し、
    前記姿勢検出手段は、前記保存されている前記参照画像について前記人物の姿勢を検出することを特徴とする請求項1から3の何れか1項に記載の情報処理装置。
  5. 前記姿勢検出手段は、前記人物の人体を構成する部位間の角度を前記人物の姿勢を表す姿勢パラメータとして算出し、
    前記類似度検出手段は、前記姿勢パラメータを基に、前記部分類似度を算出することを特徴とする請求項1から4の何れか1項に記載の情報処理装置。
  6. 前記類似度検出手段は、前記人物の人体を構成する各部位における姿勢パラメータ間の類似度のスパース性に関する指標を算出し、前記スパース性の指標に基づいて前記部分類似度を算出することを特徴とする請求項5に記載の情報処理装置。
  7. 前記類似度検出手段は、予め決めた非類似性の閾値よりも、姿勢の非類似性が大きい前記姿勢パラメータの要素の数に基づいて、前記スパース性の指標を算出することを特徴とする請求項6に記載の情報処理装置。
  8. 前記類似度検出手段は、前記人物の人体を構成する部位ごとの姿勢パラメータの差を正規化した値のエントロピーを基に、前記スパース性の指標を算出することを特徴とする請求項6に記載の情報処理装置。
  9. 前記画像選択手段は、前記複数の参照画像の中で、前記部分類似度が規定値を超える人物の画像を含む参照画像を選択することを特徴とする請求項1から8の何れか1項に記載の情報処理装置。
  10. 前記画像選択手段は、前記複数の参照画像から、前記部分類似度が大きい順の人物画像を含む参照画像の順に前記選択を行うことを特徴とする請求項1から9の何れか1項に記載の情報処理装置。
  11. 前記画像選択手段は、前記複数の参照画像の中から、所定の枚数の参照画像を選択することを特徴とする請求項1から10の何れか1項に記載の情報処理装置。
  12. 学習により前記人物の特定の動作に関する前記姿勢のデータを算出し、前記算出した姿勢のデータに基づいて前記人物の人体を構成する部位間の角度の重みを算出する学習手段を有し、
    前記類似度検出手段は、前記重みに基づいて前記部分類似度を算出することを特徴とする請求項1から11の何れか1項に記載の情報処理装置。
  13. 前記学習手段は、
    前記人物の特定の動作に対応した動画の各フレームから検出された人物の姿勢を表すデータの平均と分散を、前記学習による前記姿勢のデータとして算出してデータ保存手段に保存させ、
    前記データ保存手段に保存した前記姿勢のデータを用いて前記重みを算出することを特徴とする請求項12に記載の情報処理装置。
  14. 前記基準画像と前記選択された参照画像とを表示する表示手段を有することを特徴とする請求項1から13の何れか1項に記載の情報処理装置。
  15. 前記表示手段は、前記基準画像と前記選択された参照画像とで、前記基準画像の中の前記人物の人体を構成する複数の部位のうち姿勢が異なる部位を他の部位と区別して表示することを特徴とする請求項14に記載の情報処理装置。
  16. 前記基準画像と前記参照画像は動画であり、
    前記姿勢検出手段は、人物を撮影した複数の参照動画と、対象となる人物を撮影した基準動画とについて、それぞれ前記人物の姿勢を検出し、
    前記基準動画の中の前記対象となる人物の姿勢と、前記参照動画の中の人物の姿勢との間で、姿勢の部分的な差異を表す部分類似度を算出し、
    前記選択手段は、前記複数の参照動画の中から、前記部分類似度を基に参照動画を選択することを特徴とする請求項1から15の何れか1項に記載の情報処理装置。
  17. 人物を撮影した複数の参照画像と、対象となる人物を撮影した基準画像とについて、それぞれ前記人物の姿勢を検出する姿勢検出工程と、
    前記基準画像の中の前記対象となる人物の姿勢と、前記参照画像の中の人物の姿勢との間で、姿勢の部分的な差異を表す部分類似度を検出する類似度検出工程と、
    前記複数の参照画像の中から、前記部分類似度を基に参照画像を選択する画像選択工程と、
    を有することを特徴とする情報処理装置の情報処理方法。
  18. コンピュータを、請求項1から16の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2017079026A 2017-04-12 2017-04-12 情報処理装置、情報処理方法及びプログラム Pending JP2018180894A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017079026A JP2018180894A (ja) 2017-04-12 2017-04-12 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017079026A JP2018180894A (ja) 2017-04-12 2017-04-12 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2018180894A true JP2018180894A (ja) 2018-11-15

Family

ID=64276743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017079026A Pending JP2018180894A (ja) 2017-04-12 2017-04-12 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2018180894A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113905174A (zh) * 2021-09-18 2022-01-07 咪咕文化科技有限公司 拍照姿势推荐方法、装置、设备以及计算机可读存储介质
WO2023145727A1 (ja) * 2022-01-28 2023-08-03 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、情報分析システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113905174A (zh) * 2021-09-18 2022-01-07 咪咕文化科技有限公司 拍照姿势推荐方法、装置、设备以及计算机可读存储介质
WO2023145727A1 (ja) * 2022-01-28 2023-08-03 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、情報分析システム

Similar Documents

Publication Publication Date Title
US9330470B2 (en) Method and system for modeling subjects from a depth map
JP4829141B2 (ja) 視線検出装置及びその方法
JP7057959B2 (ja) 動作解析装置
JP2019028843A (ja) 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法
JP6369811B2 (ja) 歩行解析システムおよび歩行解析プログラム
US20100208038A1 (en) Method and system for gesture recognition
JP6708260B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP5001930B2 (ja) 動作認識装置及び方法
JP2019096113A (ja) キーポイントデータに関する加工装置、方法及びプログラム
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
JPWO2018207365A1 (ja) 距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラム
JP2019191981A (ja) 行動認識装置、モデル構築装置及びプログラム
JP2019144830A (ja) 複数の認識エンジンを用いて人物の行動を認識するプログラム、装置及び方法
JP6020439B2 (ja) 画像処理装置、撮像装置、および画像処理プログラム
JP2022043264A (ja) 運動評価システム
JP2021086322A5 (ja)
JP2016081264A (ja) 画像処理方法、画像処理装置及びロボットシステム
JP2018180894A (ja) 情報処理装置、情報処理方法及びプログラム
JP6635848B2 (ja) 3次元動画データ生成装置、3次元動画データ生成プログラム、及びその方法
JP2020140283A (ja) 情報処理装置、情報処理方法、および、コンピュータプログラム
JP2019012497A (ja) 部位認識方法、装置、プログラム、及び撮像制御システム
JP2000268161A (ja) 実時間表情検出装置
WO2023162223A1 (ja) 学習プログラム、生成プログラム、学習方法および生成方法
JP2021077230A (ja) 動作認識装置、動作認識方法、動作認識プログラム及び動作認識システム
JP3811474B2 (ja) 顔部品位置検出方法及び顔部品位置検出装置