JP7310206B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP7310206B2
JP7310206B2 JP2019057921A JP2019057921A JP7310206B2 JP 7310206 B2 JP7310206 B2 JP 7310206B2 JP 2019057921 A JP2019057921 A JP 2019057921A JP 2019057921 A JP2019057921 A JP 2019057921A JP 7310206 B2 JP7310206 B2 JP 7310206B2
Authority
JP
Japan
Prior art keywords
feature point
detected
feature points
information
association
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019057921A
Other languages
English (en)
Other versions
JP2020160658A (ja
Inventor
大輔 中山
真貴 斉藤
雅登 柿阪
信弥 石井
寛之 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019057921A priority Critical patent/JP7310206B2/ja
Publication of JP2020160658A publication Critical patent/JP2020160658A/ja
Application granted granted Critical
Publication of JP7310206B2 publication Critical patent/JP7310206B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。
生体認証技術に関連して、動画顔認証技術が知られている(例えば、非特許文献1を参照)。画像中の複数の人物の姿勢を検出する技術も知られている(例えば、非特許文献2を参照)。複数の関節を有する対象物上の複数のマーカをセンシングするセンサを用いる対象物認識方法も知られている(例えば、特許文献1を参照)。
特開2019-8726号公報
鈴木武志,"動画顔認証を中心とした生体認証技術:現状と,安全・安心な社会の実現に向けて",情報管理2017年60巻8号,pp.564-573,2017年 Z. Cao et al.,"Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields", Cornell University, arXiv:1611.08050v2 [cs.CV], April 2017
非特許文献1の技術によれば、動画像中から人物の顔が検出され、顔の中から目、鼻、口端等の特徴点が検出され、顔特徴量とデータベースに登録された特徴量とを比較することで、本人か否かが判定される。非特許文献2の技術によれば、画像中の身体部位を各人物と関連付けることで、画像中の複数の人物それぞれの姿勢を検出することができる。
動画像に対して非特許文献2の技術を適用した場合、各時刻のフレーム毎に複数の人物の姿勢が検出される。しかしながら、連続する2枚のフレームのうち一方のフレームから検出された人物の姿勢が、他方のフレームから検出されたどの人物に対応するかを特定することは困難である。
なお、かかる問題は、動画像に映っている人物の姿勢を検出する場合に限らず、動画像に映っている様々な物体の特徴点を検出する場合において生ずるものである。
1つの側面において、本発明は、時系列の2枚の画像に写っている物体の特徴点同士を関連付けることを目的とする。
1つの案では、情報処理装置は、記憶部、計算部、及び関連付け処理部を含む。記憶部は、時系列の複数の画像それぞれから検出された物体の所定部位を表す特徴点の位置情報を含む特徴点情報を記憶する。
計算部は、複数の画像のうち第1画像から検出された第1物体の所定部位を表す特徴点の位置情報と、第2画像から検出された第2物体の所定部位を表す特徴点の位置情報とに基づいて、第1物体の特徴点と第2物体の特徴点との間の距離を計算する。そして、計算部は、第1物体の特徴点と第2物体の特徴点との間の距離に基づいて、第1物体と第2物体との間の関連度を計算する。
関連付け処理部は、第1物体と第2物体との間の関連度に基づいて、第1物体の特徴点情報と第2物体の特徴点情報とを関連付ける。
1つの側面によれば、時系列の2枚の画像に写っている物体の特徴点同士を関連付けることができる。
情報処理装置の機能的構成図である。 情報処理のフローチャートである。 映像に含まれる画像を示す図である。 人物の特徴点を示す図である。 特徴点情報を示す図である。 情報処理の具体例を示すフローチャートである。 関連付け処理のフローチャートである。 隠れ姿勢データ処理のフローチャートである。 情報処理装置のハードウェア構成図である。
以下、図面を参照しながら、実施形態を詳細に説明する。
図1は、実施形態の情報処理装置(コンピュータ)の機能的構成例を示している。図1の情報処理装置101は、記憶部111、計算部112、及び関連付け処理部113を含む。記憶部111は、時系列の複数の画像それぞれから検出された物体の所定部位を表す特徴点の位置情報を含む特徴点情報を記憶する。
図2は、図1の情報処理装置101が行う情報処理の例を示すフローチャートである。まず、計算部112は、第1画像から検出された第1物体の所定部位を表す特徴点の位置情報と、第2画像から検出された第2物体の所定部位を表す特徴点の位置情報とに基づいて、第1物体の特徴点と第2物体の特徴点との間の距離を計算する(ステップ201)。そして、計算部112は、第1物体の特徴点と第2物体の特徴点との間の距離に基づいて、第1物体と第2物体との間の関連度を計算する(ステップ202)。
次に、関連付け処理部113は、第1物体と第2物体との間の関連度に基づいて、第1物体の特徴点情報と第2物体の特徴点情報とを関連付ける(ステップ203)。
図1の情報処理装置101によれば、時系列の2枚の画像に写っている物体の特徴点同士を関連付けることができる。
例えば、時系列の複数の画像は、撮像装置によって撮影された映像であり、複数の時刻それぞれにおける画像を含む。各時刻の画像は、フレームと呼ばれることもある。撮像装置としては、例えば、CCD(Charged-Coupled Device)、CMOS(Complementary Metal-Oxide-Semiconductor)等の撮像素子を有するカメラが用いられる。各時刻の画像には、人物、動物、自動車、ロボット等の動く物体が写っていることがある。
情報処理装置101は、映像に映っている人物等の骨格を認識する画像処理において使用することができる。情報処理装置101は、オンプレミスのサーバであってもよく、クラウド上のサーバであってもよい。
図3は、撮像装置によって撮影された映像に含まれる画像の例を示している。図3(a)は、所定時刻のフレームの例を示しており、図3(b)は、所定時刻の次の時刻のフレームの例を示している。この映像には、病院に入院している患者等の被介護者301と、被介護者301を介護する介護者302とが映っている。
図3(a)及び図3(b)の各画像から、被介護者301及び介護者302それぞれの特徴点情報が生成される。生成される特徴点情報は、複数の身体部位それぞれを表す特徴点の位置を示す。被介護者301及び介護者302は、画像に写っている物体の一例であり、身体部位は、物体の所定部位の一例である。被介護者301及び介護者302の代わりに、工場、道路等で働く複数の作業者が映っている映像を、処理対象の映像として用いてもよい。
図4は、正面から見た人物の特徴点の例を示している。図4の人物は、特徴点401~特徴点425を含む。各特徴点は、以下のような身体部位を表す。
特徴点401 右目
特徴点402 左目
特徴点403 鼻
特徴点404 右耳
特徴点405 左耳
特徴点406 首
特徴点407 右肩
特徴点408 左肩
特徴点409 右肘
特徴点410 左肘
特徴点411 右手
特徴点412 左手
特徴点413 腰中央
特徴点414 右腰
特徴点415 左腰
特徴点416 右膝
特徴点417 左膝
特徴点418 右足首
特徴点419 左足首
特徴点420 右かかと
特徴点421 左かかと
特徴点422 右足親指
特徴点423 左足親指
特徴点424 右足小指
特徴点425 左足小指
例えば、情報処理装置101は、非特許文献2の技術を用いて、映像に含まれる各フレームの画像認識を行うことで、フレーム毎に複数の人物それぞれの特徴点を検出することができる。そして、情報処理装置101は、図4に示した、各人物の25個の特徴点の位置情報を含む特徴点情報を生成して、記憶部111に格納する。
図5は、特徴点情報の例を示している。図5(a)は、1人の人物の特徴点情報の例を示している。図5(a)の特徴点情報は、データラベル及び姿勢データを含む。データラベルは、特徴点情報の識別情報であり、その特徴点情報を有する人物を示している。姿勢データは、25個の特徴点のデータの集合である。
図5(b)は、図5(a)の姿勢データに含まれる1個の特徴点のデータの例を示している。図5(b)の特徴点のデータは、ID、位置情報、及び信頼度を含む。IDは、25個の身体部位のいずれかを示す識別情報であり、位置情報は、その身体部位を表す特徴点の位置を示す座標である。位置情報は、フレーム内における特徴点の2次元座標(x,y)であってもよく、3次元空間内における特徴点の3次元座標(x,y,z)であってもよい。
信頼度は、特徴点に対する画像認識の信頼度(認識確度)を表す。例えば、信頼度は、0.0~1.0の範囲の数値で表され、信頼度が大きいほど、より高い確度で特徴点が認識されたことを示す。
第2画像として、現在の処理対象フレーム(現在フレーム)を用い、第1画像として、現在フレームよりも1時刻前のフレーム(前フレーム)を用いた場合、前フレーム及び現在フレームそれぞれから複数の人物の特徴点情報が生成される。計算部112は、前フレームから検出された人物Aの25個の特徴点それぞれの位置情報と、現在フレームから検出された人物Bの25個の特徴点それぞれの位置情報とを用いて、人物Aの各特徴点と人物Bの各特徴点との間の距離を計算する。
人物Aと人物Bとが同一人物である場合、現在フレームにおける人物Bの特徴点が、前フレームにおける人物Aの同じ特徴点の位置から、大きく移動することは稀である。そこで、計算部112は、人物Aの各特徴点と人物Bの各特徴点との間の距離が小さいほど大きくなる数値を、人物Aと人物Bとの間の関連度S(A,B)として求める。
例えば、計算部112は、人物Aの25個の特徴点それぞれと人物Bの25個の特徴点それぞれとの間の距離と、人物Bの25個の特徴点それぞれの信頼度とを用いて、次式により、関連度S(A,B)を計算する。
Figure 0007310206000001
式(1)のD(A,B,i)は、人物Aのi番目(i=1~25)の特徴点P(A,i)と、人物Bのi番目の特徴点P(B,i)との間の距離を表す。P(A,i)とP(B,i)は、同じIDを有し、同じ身体部位を表している。位置情報が2次元座標である場合、D(A,B,i)は、2次元ユークリッド距離であり、位置情報が3次元座標である場合、D(A,B,i)は、3次元ユークリッド距離である。
TH1は、D(A,B,i)に対する閾値を表し、フレームのサイズに応じて設定される。フレームのサイズは、フレームの垂直方向の画素数であってもよく、フレームの水平方向の画素数であってもよく、フレームに含まれる総画素数であってもよい。例えば、D(A,B,i)が画素数を単位とする2次元ユークリッド距離であり、フレームの解像度がFHD(Full High Definition)である場合、TH1は、50~150(画素)の範囲の数値であってもよい。
MAX(V1,V2)は、V1とV2のうち大きい方の値を返す関数である。したがって、D(A,B,i)が小さいほど、MAX(0,TH1-D(A,B,i))は大きくなり、MAX(0,TH1-D(A,B,i))が大きいほど、S(A,B)も大きくなる。
C(B,i)は、特徴点P(B,i)の信頼度を表す。D(A,B,i)が同じ値であれば、C(B,i)が大きいほど、C(B,i)*MAX(0,TH1-D(A,B,i))は大きくなる。MAX(0,TH1-D(A,B,i))にC(B,i)を乗算することで、高い確度で認識された特徴点のS(A,B)に対する寄与を、低い確度で認識された特徴点の寄与よりも増加させることができる。したがって、C(B,i)を乗算しない場合よりも、S(A,B)の精度が向上する。
なお、P(B,1)~P(B,25)の信頼度が同程度である場合は、式(1)のC(B,i)を省略しても構わない。
α(i)は、各人物のi番目の特徴点に対する正の重み係数を表す。特徴点を区別する必要がない場合は、すべての特徴点に対してα(i)=1に設定される。特定の特徴点に対してα(i)=3に設定し、残りの特徴点に対してα(i)=1に設定することもできる。例えば、特定の特徴点としては、右肩、左肩、首、腰中央、右腰、左腰、右手、左手、右足首、及び左足首が用いられる。これにより、これらの特徴点のS(A,B)に対する寄与を、顔の部位及び足指の部位の寄与よりも増加させて、配分調整を行うことができる。
式(1)により、複数の特徴点からの寄与の総和をS(A,B)として求めることで、単一の特徴点からの寄与のみを用いた場合よりも、S(A,B)の精度が向上する。
前フレーム及び現在フレームそれぞれに複数の人物が写っている場合、計算部112は、式(1)を用いて、前フレームから検出された複数の人物それぞれと、現在フレームから検出された複数の人物それぞれとの間の関連度を計算する。そして、関連付け処理部113は、人物Aと人物Bとの間の関連度が、人物Aと現在フレームから検出された複数の人物それぞれとの間の関連度の中で最も大きい場合、人物Aの特徴点情報と人物Bの特徴点情報とを関連付ける。
このように、フレーム間で関連付けられていない骨格認識の姿勢データを、各特徴点の移動距離を基に評価することで、フレーム間で姿勢データを関連付けることができる。これにより、人物毎に整理された時系列の姿勢データを生成することが可能になる。
ところで、前フレームに写っているいずれかの人物が現在フレームに写っていない場合、現在フレームから検出された人物の総数が、前フレームから検出された人物の総数よりも減少することがある。
この場合、関連付け処理部113は、前フレーム及び現在フレームの両方から検出された人物の前フレームにおける特徴点情報と、現在フレームにおける特徴点情報とを関連付ける。そして、関連付け処理部113は、前フレームのみから検出された残りの人物の特徴点情報を、記憶部111に記録しておく。その後、現在フレームの次の時刻以降のフレームにおいて、残りの人物が検出された場合、関連付け処理部113は、記憶部111に記録されている特徴点情報と、次の時刻以降のフレームから検出された残りの人物の特徴点情報とを関連付ける。
これにより、映像から一時的に消滅した人物の姿勢データと、再び出現した同一人物の姿勢データとを関連付けることができ、複数のフレームにおける同一人物の姿勢データが互いに異なる人物の姿勢データとして記録されることを防止できる。
図6は、各フレームから生成された特徴点情報に対する情報処理の具体例を示すフローチャートである。関連付け処理部113は、記憶部111に記録されているフレーム毎の特徴点情報を、時刻順に処理対象として選択し、選択されたフレームの特徴点情報を現在フレームの特徴点情報として用いて、図6の情報処理を行う。
まず、関連付け処理部113は、現在フレームが最初のフレームであるか否かをチェックする(ステップ601)。現在フレームが最初のフレームである場合(ステップ601,YES)、関連付け処理部113は、現在フレームの特徴点情報に含まれる複数の人物それぞれの姿勢データに対して、互いに異なるデータラベルを付与する(ステップ602)。一方、現在フレームが2番目以降のフレームである場合(ステップ601,NO)、関連付け処理部113は、関連付け処理を行う(ステップ603)。
図7は、図6のステップ603における関連付け処理の例を示すフローチャートである。まず、関連付け処理部113は、前フレームの特徴点情報の中から、いずれかの人物の姿勢データを選択し(ステップ701)、現在フレームの特徴点情報の中から、いずれかの人物の姿勢データを選択する(ステップ702)。
次に、計算部112は、式(1)を用いて、前フレームの姿勢データと現在フレームの姿勢データとの間の関連度を計算する(ステップ703)。そして、関連付け処理部113は、現在フレームのすべての人物の姿勢データを選択したか否かをチェックする(ステップ704)。未選択の姿勢データが残っている場合(ステップ704,NO)、情報処理装置101は、ステップ702以降の処理を行う。
すべての人物の姿勢データを選択した場合(ステップ704,YES)、関連付け処理部113は、まだデータラベルが付与されていない、現在フレームの人物の姿勢データのうち、最大の関連度を有する姿勢データを選択する(ステップ705)。そして、関連付け処理部113は、選択された姿勢データに対して、前フレームの姿勢データと同じデータラベルを付与する。これにより、最大の関連度を有する前フレーム及び現在フレームの姿勢データ同士が関連付けられる。
ただし、既に現在フレームのすべての人物の姿勢データにデータラベルが付与されている場合、関連付け処理部113は、いずれの姿勢データに対してもデータラベルを付与することなく、ステップ706以降の処理を行う。
次に、関連付け処理部113は、前フレームのすべての人物の姿勢データを選択したか否かをチェックする(ステップ706)。未選択の姿勢データが残っている場合(ステップ706,NO)、情報処理装置101は、ステップ701以降の処理を行う。
すべての人物の姿勢データを選択した場合(ステップ706,YES)、関連付け処理部113は、現在フレームのすべての人物の姿勢データにデータラベルが付与されているか否かをチェックする(ステップ707)。
すべての人物の姿勢データにデータラベルが付与されている場合(ステップ707,YES)、関連付け処理部113は、現在フレームの姿勢データに関連付けられなかった前フレームの姿勢データを抽出する(ステップ708)。そして、関連付け処理部113は、抽出された姿勢データを、隠れ姿勢データとして記憶部111に記録する。
一方、データラベルが付与されていない現在フレームの姿勢データが存在する場合(ステップ707,NO)、関連付け処理部113は、隠れ姿勢データ処理を行う(ステップ709)。そして、関連付け処理部113は、ステップ708の処理を行う。
図8は、図7のステップ709における隠れ姿勢データ処理の例を示すフローチャートである。まず、関連付け処理部113は、記録されている隠れ姿勢データの中から、いずれかの隠れ姿勢データを選択し(ステップ801)、現在フレームの特徴点情報の中から、いずれかの人物の姿勢データを選択する(ステップ802)。
次に、計算部112は、式(1)を用いて、隠れ姿勢データと現在フレームの姿勢データとの間の関連度を計算する(ステップ803)。そして、関連付け処理部113は、現在フレームのすべての人物の姿勢データを選択したか否かをチェックする(ステップ804)。未選択の姿勢データが残っている場合(ステップ804,NO)、情報処理装置101は、ステップ802以降の処理を行う。
すべての人物の姿勢データを選択した場合(ステップ804,YES)、関連付け処理部113は、まだデータラベルが付与されていない、現在フレームの人物の姿勢データに対する関連度のうち、最大の関連度を選択する(ステップ805)。選択された関連度がTH2よりも大きい場合、関連付け処理部113は、その関連度を有する姿勢データに対して、隠れ姿勢データと同じデータラベルを付与する。これにより、隠れ姿勢データと現在フレームの姿勢データとが関連付けられる。TH2は、関連度に対する閾値を表し、フレームのサイズに応じて設定される。
なお、選択された関連度がTH2以下である場合、関連付け処理部113は、いずれの姿勢データに対してもデータラベルを付与することなく、ステップ806以降の処理を行う。
次に、関連付け処理部113は、記録されているすべての隠れ姿勢データを選択したか否かをチェックする(ステップ806)。未選択の隠れ姿勢データが残っている場合(ステップ806,NO)、情報処理装置101は、ステップ801以降の処理を行う。
すべての隠れ姿勢データを選択した場合(ステップ806,YES)、関連付け処理部113は、現在フレームのすべての人物の姿勢データにデータラベルが付与されているか否かをチェックする(ステップ807)。すべての人物の姿勢データにデータラベルが付与されている場合(ステップ807,YES)、情報処理装置101は、処理を終了する。
一方、データラベルが付与されていない現在フレームの姿勢データが存在する場合(ステップ807,NO)、関連付け処理部113は、データラベル発行処理を行う(ステップ808)。
データラベル発行処理において、現在フレームの姿勢データに対して発行済みのデータラベルの個数が所定数未満である場合、関連付け処理部113は、データラベルが付与されていない姿勢データに対して、新規のデータラベルを付与する。所定数は、1フレーム当たりのデータラベルの個数の上限値を表し、例えば、映像に含まれる各フレームから検出された人物の最大人数等に基づいて設定される。発行済みのデータラベルの個数が所定数に達している場合、関連付け処理部113は、エラー処理を行う。
図8の隠れ姿勢データ処理によれば、映像から一時的に消滅した人物の姿勢データと、再び出現した同一人物の姿勢データとを関連付けることができる。
図1の情報処理装置101の構成は一例に過ぎず、情報処理装置101の用途又は条件に応じて一部の構成要素を省略又は変更してもよい。例えば、情報処理装置101は、映像を撮影する撮像装置を含んでいてもよい。
図2及び図6~図8のフローチャートは一例に過ぎず、情報処理装置101の構成又は条件に応じて一部の処理を省略又は変更してもよい。例えば、図7の関連付け処理において、前フレームの姿勢データの数や現在フレームの姿勢データの数に応じて、ステップ701とステップ702の選択順序を交換して、関連度が最大の前フレームの姿勢データのデータラベルを付与してもよい。映像から一時的に消滅した人物の姿勢データと、再び出現した同一人物の姿勢データとを関連付ける必要がない場合は、ステップ707~709の処理を省略することができる。
図3の画像及び特徴点と図4の特徴点は一例に過ぎず、画像及び特徴点は、撮影対象の物体に応じて変化する。撮影対象の物体は人物に限られず、動物、自動車、ロボット等であってもよい。図5の特徴点情報は一例に過ぎず、別の形式の特徴点情報を用いてもよい。式(1)の関連度は一例に過ぎず、別の計算式を用いて関連度を計算してもよい。
図9は、図1の情報処理装置101のハードウェア構成例を示している。図9の情報処理装置は、CPU(Central Processing Unit)901、メモリ902、入力装置903、出力装置904、補助記憶装置905、媒体駆動装置906、及びネットワーク接続装置907を含む。これらの構成要素はバス908により互いに接続されている。
メモリ902は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリであり、情報処理に用いられるプログラム及びデータを格納する。メモリ902は、図1の記憶部111として用いることができる。
CPU901(プロセッサ)は、例えば、メモリ902を利用してプログラムを実行することにより、図1の計算部112及び関連付け処理部113として動作する。
入力装置903は、例えば、キーボード、ポインティングデバイス等であり、オペレータ又はユーザからの指示又は情報の入力に用いられる。出力装置904は、例えば、表示装置、プリンタ、スピーカ等であり、オペレータ又はユーザへの問い合わせ又は指示、及び処理結果の出力に用いられる。処理結果は、各フレームの人物毎にデータラベルが付与された特徴点情報であってもよい。
補助記憶装置905は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。補助記憶装置905は、ハードディスクドライブ又はフラッシュメモリであってもよい。情報処理装置は、補助記憶装置905にプログラム及びデータを格納しておき、それらをメモリ902にロードして使用することができる。補助記憶装置905は、図1の記憶部111として用いることができる。
媒体駆動装置906は、可搬型記録媒体909を駆動し、その記録内容にアクセスする。可搬型記録媒体909は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。可搬型記録媒体909は、CD-ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)メモリ等であってもよい。オペレータ又はユーザは、この可搬型記録媒体909にプログラム及びデータを格納しておき、それらをメモリ902にロードして使用することができる。
このように、情報処理に用いられるプログラム及びデータを格納するコンピュータ読み取り可能な記録媒体は、メモリ902、補助記憶装置905、又は可搬型記録媒体909のような、物理的な(非一時的な)記録媒体である。
ネットワーク接続装置907は、LAN(Local Area Network)、WAN(Wide Area Network)等の通信ネットワークに接続され、通信に伴うデータ変換を行う通信インタフェース回路である。情報処理装置は、プログラム及びデータを外部の装置からネットワーク接続装置907を介して受信し、それらをメモリ902にロードして使用することができる。
なお、情報処理装置が図9のすべての構成要素を含む必要はなく、用途又は条件に応じて一部の構成要素を省略することも可能である。例えば、オペレータ又はユーザとのインタフェースが不要な場合は、入力装置903及び出力装置904を省略してもよい。可搬型記録媒体909又は通信ネットワークを使用しない場合は、媒体駆動装置906又はネットワーク接続装置907を省略してもよい。
開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。
図1乃至図9を参照しながら説明した実施形態に関し、さらに以下の付記を開示する。
(付記1)
時系列の複数の画像それぞれから検出された物体の所定部位を表す特徴点の位置情報を含む特徴点情報を記憶する記憶部と、
前記複数の画像のうち第1画像から検出された第1物体の前記所定部位を表す特徴点の位置情報と、前記複数の画像のうち第2画像から検出された第2物体の前記所定部位を表す特徴点の位置情報とに基づいて、前記第1物体の特徴点と前記第2物体の特徴点との間の距離を計算し、前記第1物体の特徴点と前記第2物体の特徴点との間の距離に基づいて、前記第1物体と前記第2物体との間の関連度を計算する計算部と、
前記第1物体と前記第2物体との間の関連度に基づいて、前記第1物体の特徴点情報と前記第2物体の特徴点情報とを関連付ける関連付け処理部と、
を備えることを特徴とする情報処理装置。
(付記2)
前記検出された物体の特徴点情報は、前記検出された物体の前記所定部位を含む複数の部位それぞれを表す複数の特徴点の位置情報を含み、
前記計算部は、前記第1物体の複数の特徴点の位置情報と、前記第2物体の複数の特徴点の位置情報とに基づいて、前記第1物体の各特徴点と前記第2物体の各特徴点との間の距離を計算し、前記第1物体の複数の特徴点それぞれと前記第2物体の複数の特徴点それぞれとの間の距離に基づいて、前記第1物体と前記第2物体との間の関連度を計算することを特徴とする付記1記載の情報処理装置。
(付記3)
前記第2物体を含む複数の物体が前記第2画像から検出され、
前記計算部は、前記第1物体と前記複数の物体それぞれとの間の関連度を計算し、
前記関連付け処理部は、前記第1物体と前記第2物体との間の関連度が、前記第1物体と前記複数の物体それぞれとの間の関連度の中で最も大きい場合、前記第1物体の特徴点情報と前記第2物体の特徴点情報とを関連付けることを特徴とする付記2記載の情報処理装置。
(付記4)
前記検出された物体の複数の特徴点は、前記複数の画像それぞれに対する画像認識を行うことで検出され、
前記検出された物体の特徴点情報は、前記検出された物体の複数の特徴点それぞれの前記画像認識の信頼度をさらに含み、
前記計算部は、前記第1物体の各特徴点と前記複数の物体それぞれの各特徴点との間の距離と、前記複数の物体それぞれの各特徴点の信頼度とを用いて、前記第1物体と前記複数の物体それぞれとの間の関連度を計算することを特徴とする付記3記載の情報処理装置。
(付記5)
前記第1物体を含む複数の物体が前記第1画像から検出され、
前記関連付け処理部は、前記第1画像から検出された複数の物体のうち、特定の複数の物体それぞれの特徴点情報と、前記第2画像から検出された複数の物体のうち、特定の複数の物体それぞれの特徴点情報とを関連付け、前記第1画像から検出された複数の物体のうち、前記特定の複数の物体を除く残りの物体の特徴点情報と、前記複数の画像のうち第3画像から検出された第3物体の特徴点情報とを関連付けることを特徴とする付記3又は4記載の情報処理装置。
(付記6)
コンピュータによって実行される情報処理方法であって、
前記コンピュータが、
時系列の複数の画像のうち第1画像から検出された第1物体の特徴点情報に含まれる、前記第1物体の所定部位を表す特徴点の位置情報と、前記複数の画像のうち第2画像から検出された第2物体の特徴点情報に含まれる、前記第2物体の前記所定部位を表す特徴点の位置情報とに基づいて、前記第1物体の特徴点と前記第2物体の特徴点との間の距離を計算し、
前記第1物体の特徴点と前記第2物体の特徴点との間の距離に基づいて、前記第1物体と前記第2物体との間の関連度を計算し、
前記第1物体と前記第2物体との間の関連度に基づいて、前記第1物体の特徴点情報と前記第2物体の特徴点情報とを関連付ける、
ことを特徴とする情報処理方法。
(付記7)
前記第1物体の特徴点情報は、前記第1物体の前記所定部位を含む複数の部位それぞれを表す複数の特徴点の位置情報を含み、
前記第2物体の特徴点情報は、前記第2物体の前記複数の部位それぞれを表す複数の特徴点の位置情報を含み、
前記コンピュータは、前記第1物体の複数の特徴点の位置情報と、前記第2物体の複数の特徴点の位置情報とに基づいて、前記第1物体の各特徴点と前記第2物体の各特徴点との間の距離を計算し、前記第1物体の複数の特徴点それぞれと前記第2物体の複数の特徴点それぞれとの間の距離に基づいて、前記第1物体と前記第2物体との間の関連度を計算することを特徴とする付記6記載の情報処理方法。
(付記8)
前記第2物体を含む複数の物体が前記第2画像から検出され、
前記コンピュータは、前記第1物体と前記複数の物体それぞれとの間の関連度を計算し、前記第1物体と前記第2物体との間の関連度が、前記第1物体と前記複数の物体それぞれとの間の関連度の中で最も大きい場合、前記第1物体の特徴点情報と前記第2物体の特徴点情報とを関連付けることを特徴とする付記7記載の情報処理方法。
(付記9)
前記複数の物体各々の複数の特徴点は、前記第2画像に対する画像認識を行うことで検出され、
前記複数の物体各々の特徴点情報は、前記複数の物体各々の複数の特徴点それぞれの前記画像認識の信頼度をさらに含み、
前記コンピュータは、前記第1物体の各特徴点と前記複数の物体それぞれの各特徴点との間の距離と、前記複数の物体それぞれの各特徴点の信頼度とを用いて、前記第1物体と前記複数の物体それぞれとの間の関連度を計算することを特徴とする付記8記載の情報処理方法。
(付記10)
前記第1物体を含む複数の物体が前記第1画像から検出され、
前記コンピュータは、前記第1画像から検出された複数の物体のうち、特定の複数の物体それぞれの特徴点情報と、前記第2画像から検出された複数の物体のうち、特定の複数の物体それぞれの特徴点情報とを関連付け、前記第1画像から検出された複数の物体のうち、前記特定の複数の物体を除く残りの物体の特徴点情報と、前記複数の画像のうち第3画像から検出された第3物体の特徴点情報とを関連付けることを特徴とする付記8又は9記載の情報処理方法。
(付記11)
時系列の複数の画像のうち第1画像から検出された第1物体の特徴点情報に含まれる、前記第1物体の所定部位を表す特徴点の位置情報と、前記複数の画像のうち第2画像から検出された第2物体の特徴点情報に含まれる、前記第2物体の前記所定部位を表す特徴点の位置情報とに基づいて、前記第1物体の特徴点と前記第2物体の特徴点との間の距離を計算し、
前記第1物体の特徴点と前記第2物体の特徴点との間の距離に基づいて、前記第1物体と前記第2物体との間の関連度を計算し、
前記第1物体と前記第2物体との間の関連度に基づいて、前記第1物体の特徴点情報と前記第2物体の特徴点情報とを関連付ける、
処理をコンピュータに実行させるためのプログラム。
(付記12)
前記第1物体の特徴点情報は、前記第1物体の前記所定部位を含む複数の部位それぞれを表す複数の特徴点の位置情報を含み、
前記第2物体の特徴点情報は、前記第2物体の前記複数の部位それぞれを表す複数の特徴点の位置情報を含み、
前記コンピュータは、前記第1物体の複数の特徴点の位置情報と、前記第2物体の複数の特徴点の位置情報とに基づいて、前記第1物体の各特徴点と前記第2物体の各特徴点との間の距離を計算し、前記第1物体の複数の特徴点それぞれと前記第2物体の複数の特徴点それぞれとの間の距離に基づいて、前記第1物体と前記第2物体との間の関連度を計算することを特徴とする付記11記載のプログラム。
(付記13)
前記第2物体を含む複数の物体が前記第2画像から検出され、
前記コンピュータは、前記第1物体と前記複数の物体それぞれとの間の関連度を計算し、前記第1物体と前記第2物体との間の関連度が、前記第1物体と前記複数の物体それぞれとの間の関連度の中で最も大きい場合、前記第1物体の特徴点情報と前記第2物体の特徴点情報とを関連付けることを特徴とする付記12記載のプログラム。
(付記14)
前記複数の物体各々の複数の特徴点は、前記第2画像に対する画像認識を行うことで検出され、
前記複数の物体各々の特徴点情報は、前記複数の物体各々の複数の特徴点それぞれの前記画像認識の信頼度をさらに含み、
前記コンピュータは、前記第1物体の各特徴点と前記複数の物体それぞれの各特徴点との間の距離と、前記複数の物体それぞれの各特徴点の信頼度とを用いて、前記第1物体と前記複数の物体それぞれとの間の関連度を計算することを特徴とする付記13記載のプログラム。
(付記15)
前記第1物体を含む複数の物体が前記第1画像から検出され、
前記コンピュータは、前記第1画像から検出された複数の物体のうち、特定の複数の物体それぞれの特徴点情報と、前記第2画像から検出された複数の物体のうち、特定の複数の物体それぞれの特徴点情報とを関連付け、前記第1画像から検出された複数の物体のうち、前記特定の複数の物体を除く残りの物体の特徴点情報と、前記複数の画像のうち第3画像から検出された第3物体の特徴点情報とを関連付けることを特徴とする付記13又は14記載のプログラム。
101 情報処理装置
111 記憶部
112 計算部
113 関連付け処理部
301 被介護者
302 介護者
401~425 特徴点
901 CPU
902 メモリ
903 入力装置
904 出力装置
905 補助記憶装置
906 媒体駆動装置
907 ネットワーク接続装置
908 バス
909 可搬型記録媒体

Claims (7)

  1. 時系列の複数の画像それぞれから検出された物体の所定部位を表す特徴点の位置情報を含む特徴点情報を記憶する記憶部と、
    前記複数の画像のうち第1画像から検出された第1物体の前記所定部位を表す特徴点の位置情報と、前記複数の画像のうち第2画像から検出された第2物体の前記所定部位を表す特徴点の位置情報とに基づいて、前記第1物体の特徴点と前記第2物体の特徴点との間の距離を計算し、前記第1物体の特徴点と前記第2物体の特徴点との間の距離に基づいて、前記第1物体と前記第2物体との間の関連度を計算する計算部と、
    前記第1物体と前記第2物体との間の関連度に基づいて、前記第1物体の特徴点情報と前記第2物体の特徴点情報とを関連付ける関連付け処理部と、
    を備えることを特徴とする情報処理装置。
  2. 前記検出された物体の特徴点情報は、前記検出された物体の前記所定部位を含む複数の部位それぞれを表す複数の特徴点の位置情報を含み、
    前記計算部は、前記第1物体の複数の特徴点の位置情報と、前記第2物体の複数の特徴点の位置情報とに基づいて、前記第1物体の各特徴点と前記第2物体の各特徴点との間の距離を計算し、前記第1物体の複数の特徴点それぞれと前記第2物体の複数の特徴点それぞれとの間の距離に基づいて、前記第1物体と前記第2物体との間の関連度を計算することを特徴とする請求項1記載の情報処理装置。
  3. 前記第2物体を含む複数の物体が前記第2画像から検出され、
    前記計算部は、前記第1物体と前記複数の物体それぞれとの間の関連度を計算し、
    前記関連付け処理部は、前記第1物体と前記第2物体との間の関連度が、前記第1物体と前記複数の物体それぞれとの間の関連度の中で最も大きい場合、前記第1物体の特徴点情報と前記第2物体の特徴点情報とを関連付けることを特徴とする請求項2記載の情報処理装置。
  4. 前記検出された物体の複数の特徴点は、前記複数の画像それぞれに対する画像認識を行うことで検出され、
    前記検出された物体の特徴点情報は、前記検出された物体の複数の特徴点それぞれの前記画像認識の信頼度をさらに含み、
    前記計算部は、前記第1物体の各特徴点と前記複数の物体それぞれの各特徴点との間の距離と、前記複数の物体それぞれの各特徴点の信頼度とを用いて、前記第1物体と前記複数の物体それぞれとの間の関連度を計算することを特徴とする請求項3記載の情報処理装置。
  5. 前記第1物体を含む複数の物体が前記第1画像から検出され、
    前記関連付け処理部は、前記第1画像から検出された複数の物体のうち、特定の複数の物体それぞれの特徴点情報と、前記第2画像から検出された複数の物体のうち、特定の複数の物体それぞれの特徴点情報とを関連付け、前記第1画像から検出された複数の物体のうち、前記特定の複数の物体を除く残りの物体の特徴点情報と、前記複数の画像のうち第3画像から検出された第3物体の特徴点情報とを関連付けることを特徴とする請求項3又は4記載の情報処理装置。
  6. コンピュータによって実行される情報処理方法であって、
    前記コンピュータが、
    時系列の複数の画像のうち第1画像から検出された第1物体の特徴点情報に含まれる、前記第1物体の所定部位を表す特徴点の位置情報と、前記複数の画像のうち第2画像から検出された第2物体の特徴点情報に含まれる、前記第2物体の前記所定部位を表す特徴点の位置情報とに基づいて、前記第1物体の特徴点と前記第2物体の特徴点との間の距離を計算し、
    前記第1物体の特徴点と前記第2物体の特徴点との間の距離に基づいて、前記第1物体と前記第2物体との間の関連度を計算し、
    前記第1物体と前記第2物体との間の関連度に基づいて、前記第1物体の特徴点情報と前記第2物体の特徴点情報とを関連付ける、
    ことを特徴とする情報処理方法。
  7. 時系列の複数の画像のうち第1画像から検出された第1物体の特徴点情報に含まれる、前記第1物体の所定部位を表す特徴点の位置情報と、前記複数の画像のうち第2画像から検出された第2物体の特徴点情報に含まれる、前記第2物体の前記所定部位を表す特徴点の位置情報とに基づいて、前記第1物体の特徴点と前記第2物体の特徴点との間の距離を計算し、
    前記第1物体の特徴点と前記第2物体の特徴点との間の距離に基づいて、前記第1物体と前記第2物体との間の関連度を計算し、
    前記第1物体と前記第2物体との間の関連度に基づいて、前記第1物体の特徴点情報と前記第2物体の特徴点情報とを関連付ける、
    処理をコンピュータに実行させるためのプログラム。
JP2019057921A 2019-03-26 2019-03-26 情報処理装置、情報処理方法、及びプログラム Active JP7310206B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019057921A JP7310206B2 (ja) 2019-03-26 2019-03-26 情報処理装置、情報処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019057921A JP7310206B2 (ja) 2019-03-26 2019-03-26 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020160658A JP2020160658A (ja) 2020-10-01
JP7310206B2 true JP7310206B2 (ja) 2023-07-19

Family

ID=72643402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019057921A Active JP7310206B2 (ja) 2019-03-26 2019-03-26 情報処理装置、情報処理方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP7310206B2 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016015043A (ja) 2014-07-02 2016-01-28 トヨタ自動車株式会社 対象物認識装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016015043A (ja) 2014-07-02 2016-01-28 トヨタ自動車株式会社 対象物認識装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
中島 雅貴、小篠 祐子、斎藤 英雄,時系列情報を考慮した人体骨格追跡と評価,電子情報通信学会技術研究報告,第117巻、第392号,日本,一般社団法人電子情報通信学会,2018年01月11日,第267-270頁

Also Published As

Publication number Publication date
JP2020160658A (ja) 2020-10-01

Similar Documents

Publication Publication Date Title
Shreve et al. Macro-and micro-expression spotting in long videos using spatio-temporal strain
JP4950787B2 (ja) 画像処理装置及びその方法
US20150320343A1 (en) Motion information processing apparatus and method
Joshi et al. Relative body parts movement for automatic depression analysis
WO2018163555A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
US20230360435A1 (en) Facial authentication device, facial authentication method, and program recording medium
US20210216821A1 (en) Training data generating method, estimating device, and recording medium
JP2014182480A (ja) 人物認識装置、及び方法
JPH0546743A (ja) 個人識別装置
JP2015095164A (ja) ジェスチャ認識装置およびジェスチャ認識装置の制御方法
KR102338486B1 (ko) 3d 골격 정보를 이용한 사용자 동작 인식 방법 및 시스템
WO2021186655A1 (ja) 転倒リスク評価システム
Fieraru et al. Learning complex 3D human self-contact
Jabnoun et al. Object recognition for blind people based on features extraction
Kumar et al. Early estimation model for 3D-discrete indian sign language recognition using graph matching
Omelina et al. Interaction detection with depth sensing and body tracking cameras in physical rehabilitation
JP2012128638A (ja) 画像処理装置、位置合わせ方法及びプログラム
JP7310206B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20230046705A1 (en) Storage medium, determination device, and determination method
Teng et al. Facial expressions recognition based on convolutional neural networks for mobile virtual reality
CN110826495A (zh) 基于面部朝向的身体左右肢体一致性跟踪判别方法及系统
Raja et al. Design and implementation of facial recognition system for visually impaired using image processing
Chernenko et al. Physical Activity Set Selection for Emotional State Harmonization Based on Facial Micro-Expression Analysis
TW201824020A (zh) 人體動作的分析系統
Dutta et al. Patient Assistance System Based on Hand Gesture Recognition

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210826

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230619

R150 Certificate of patent or registration of utility model

Ref document number: 7310206

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150