JP2018057596A - 関節位置推定装置および関節位置推定プログラム - Google Patents

関節位置推定装置および関節位置推定プログラム Download PDF

Info

Publication number
JP2018057596A
JP2018057596A JP2016197377A JP2016197377A JP2018057596A JP 2018057596 A JP2018057596 A JP 2018057596A JP 2016197377 A JP2016197377 A JP 2016197377A JP 2016197377 A JP2016197377 A JP 2016197377A JP 2018057596 A JP2018057596 A JP 2018057596A
Authority
JP
Japan
Prior art keywords
joint position
human candidate
candidate region
position estimation
joint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016197377A
Other languages
English (en)
Inventor
宏 大和
Hiroshi Yamato
宏 大和
義満 青木
Yoshimitsu Aoki
義満 青木
隆司 呉
Ryuji Go
隆司 呉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2016197377A priority Critical patent/JP2018057596A/ja
Publication of JP2018057596A publication Critical patent/JP2018057596A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】関節位置の推定時間を短縮することが可能な関節位置推定装置を提供する。【解決手段】関節位置推定装置は、動画像取得部と、動画像に基づいて、画像内で人を含む人候補領域を検出する人候補領域検出部と、人候補領域検出部により検出された人候補領域に基づいて前記人の関節位置を推定する関節位置推定部と、関節位置推定部により推定された関節位置と、人候補領域検出部により検出された人候補領域とに基づいて、画像内における人候補領域の占有率が最適であるか否かについて判定する人候補領域判定部と、人候補領域判定部により人候補領域の占有率が最適でないと判定された場合、人候補領域のサイズを変更する人候補領域サイズ変更部と、人候補領域サイズ変更部により人候補領域のサイズが変更された場合、サイズが変更された後の人候補領域に対して、人の関節位置を再び推定する再帰関節位置推定部と、を備える。【選択図】図1

Description

本発明は、関節位置推定装置および関節位置推定プログラムに関する。
従来、取得した画像から人の行動を認識する技術が知られている。人の行動を認識する対象としては、例えば、高齢者介護見守りの現場において、高齢者の生活状況や自己を認識する仕組みを考慮すると、高齢者やその介助者が挙げられる。具体的には、人の行動を認識する対象としては、例えば、高齢者の場合、就寝、起床、離床、座る、しゃがむ、歩行、食事、トイレ、外出、ものを取る、等のような日常生活における基本的な行動や、転倒、転落等の事故時に起こる行動が挙げられる。
これらの行動のうち、多くの行動は人の姿勢の変化を捉えることで認識することが可能である。例えば、就寝の行動としては、人がベッドに歩いて近づき、一旦座ってから横たわることが考えられる。この際においては、立位、座位、臥位の順に人の姿勢が変動する。このような行動を認識するためには、正確な姿勢を認識することが重要である。
行動を認識する技術の一例としては、取得した画像から人の関節位置を推定する技術が考えられる。当該技術においては、推定した関節位置の関係から人の姿勢を推定し、推定した人の姿勢及び位置の変化から人の行動を認識する。
例えば、非特許文献1には、ニュートラルネットワークを用いたディープラーニングによる機械学習を行うことにより人の姿勢を推定する技術が開示されている。具体的に非特許文献1に記載の技術では、以下のようにして人の姿勢を推定する。
まず、人の領域が含まれる画像を取得して、当該画像から人の関節位置を推定する。人の関節位置を推定すると、推定した各関節位置の周辺を元の画像から再取得し、再取得後の画像を用いて再度、関節位置を推定する。そして、さらに詳細に関節位置の推定を繰り返し行っていく。このような推定を関節位置毎に行うことにより、関節位置の推定が位置ずれしても、その位置ずれを吸収し、高精度な関節位置の推定を行うことが可能となる。
Alexander Toshev and Christian Szegedy, "DeepPose:Human Pose Estimation via Deep Neural Netwworks",in CVPR,2014. Graves, Alan, Abdel-rahman Mohamed, and Geoffrey Hinton. "Speech recognition with deep recurrent neural networks." Acoustics, Speech and Signal Processing (ICASSP), 2013 IEEE International Conference on. IEEE, 2013. Hochreiter, Sepp, and Jurgen Schmidhuber. "Long short-term memory." Neural computation 9.8 (1997): 1735-1780.
しかしながら、非特許文献1に記載の技術では、関節位置毎に当該関節位置の周辺を元の画像から再取得し、再取得後の画像を用いて再度、関節位置を推定する処理を繰り返し行う必要があるため、関節位置の推定時間が増大してしまうという問題があった。
本発明の目的は、関節位置の推定時間を短縮することが可能な関節位置推定装置および関節位置推定プログラムを提供することである。
本発明に係る関節位置推定装置は、
動画像を取得する動画像取得部と、
前記動画像取得部により取得された前記動画像に基づく画像内で人を含む人候補領域を検出する人候補領域検出部と、
前記人候補領域検出部により検出された前記人候補領域に基づいて前記人の関節位置を推定する関節位置推定部と、
前記関節位置推定部により推定された関節位置と、前記人候補領域検出部により検出された前記人候補領域とに基づいて、前記画像内における前記人候補領域の占有率が最適であるか否かについて判定する人候補領域判定部と、
前記人候補領域判定部により前記人候補領域の占有率が最適でないと判定された場合、前記人候補領域のサイズを変更する人候補領域サイズ変更部と、
前記人候補領域サイズ変更部により前記人候補領域のサイズが変更された場合、サイズが変更された後の前記人候補領域に対して、前記人の前記関節位置を再び推定する再帰関節位置推定部と、
を備える。
本発明に係る関節位置推定プログラムは、
関節位置推定装置の関節位置推定プログラムにおいて、
コンピューターに、
動画像を取得する動画像取得処理と、
取得した前記動画像に基づく画像内で人を含む人候補領域を検出する人候補領域検出処理と、
検出した前記人候補領域に基づいて前記人の関節位置を推定する関節位置推定処理と、
推定した関節位置と、検出した前記人候補領域とに基づいて、前記画像内における前記人候補領域の占有率が最適であるか否かについて判定する人候補領域判定処理と、
前記人候補領域の占有率が最適でないと判定した場合、前記人候補領域のサイズを変更する人候補領域サイズ変更処理と、
前記人候補領域のサイズが変更された場合、サイズが変更された後の前記人候補領域に対して、前記人の前記関節位置を再び推定する再帰関節位置推定処理と、
を実行させる関節位置推定プログラム。
本発明によれば、関節位置の推定時間を短縮することができる。
関節位置推定装置が含まれる行動認識システムを示す図である。 画像内における人候補領域を示す図である。 人候補領域のサイズ変更を説明するための図である。 行動認識システムにおける関節位置推定制御の動作例の一例を示すフローチャートである。 画像内において外接矩形が形成されたときを示す図である。 外接矩形の変形例を示す図である。 外接矩形の変形例を示す図である。
以下、本実施の形態を図面に基づいて詳細に説明する。図1は、関節位置推定装置120が含まれる行動認識システム100を示す図である。
図1に示すように、行動認識システム100は、入力された画像データから人の関節位置を推定することで人の行動を認識するシステムであり、撮像部110と、関節位置推定装置120と、行動認識部130とを備えている。
撮像部110は、例えば一般的なカメラや広角カメラであり、行動認識システム100が設けられる部屋内における動画像を撮像する。撮像部110は、行動認識システム100が設けられる部屋内の適宜な位置に設置される。なお、撮像部110は、設置位置の規定は特にないが、行動認識システム100により人の行動の学習を行うときと、実際に人の行動を認識するときとで、見え方が同じになるように設置される。
関節位置推定装置120は、入力された画像データを学習することにより、人の関節位置を推定する装置であり、動画像取得部121と、人候補領域検出部122と、関節位置推定部123と、人候補領域判定部124と、人候補領域サイズ変更部125と、再帰関節位置推定部126とを有している。
動画像取得部121は、撮像部110から動画像を取得する部分であり、取得した動画像の情報を人候補領域検出部122に出力する。動画像取得部121が取得する動画像のうち、1フレーム分に相当する画像は、例えば図2に示す画像121Aのような画像である。なお、本実施の形態では、動画像取得部121と撮像部110が別体であるが、動画像取得部121が撮像部110の機能を有していても良い。
図1および図2に示すように、人候補領域検出部122は、動画像取得部121から取得した動画像情報を画像処理して、画像処理後の画像内において人を含む人候補領域122A(図2参照)を検出する。人候補領域検出部122は、検出した人候補領域の情報を関節位置推定部123に出力する。
人候補領域122Aの検出方法としては、例えば、前後のフレーム間の差分を抽出するフレーム間差分や、予め用意しておいた、撮像部110による撮像領域の背景画像との差を抽出する背景差分等を用いることができる。また、人候補領域122Aの検出方法としては、予め正解人領域を学習させた辞書を作成し、その辞書を基に人候補領域を見つける機械学習を用いても良い。機械学習としては、例えばランダムフォレスト(Random Forest)又はSVM(サポートベクターマシン)を用いた人検出や、ディープラーニング(Deep Learning)を用いた一般物体認識(例えば、Faster R-CNN)等が挙げられる。人候補領域検出部122は、動画像取得部121により取得された動画像から、例えば画像121Aにおける差分画像を検出し、当該差分画像から人候補領域122Aを検出する(図2参照)。図2に示す人候補領域122A内の人は手前側を向いている。
関節位置推定部123は、取得した人候補領域内の人の関節位置を推定する部分である。具体的には、関節位置推定部123は、予め人の関節位置の学習を行い、その学習結果、つまり、各関節位置0〜n−1の特徴量を特徴量列123Bとして記憶部123A等に記憶する。なお、nは自然数であり、推定する関節位置の数に応じて変動する。本実施の形態では、推定する関節位置の数が14個であるので、nは14となる。また、nは、実施の形態に応じて適宜変更しても良い。
関節位置推定部123は、記憶部123Aに記憶された特徴量列123Bと、取得した人候補領域の情報とに基づいて人の関節位置を推定し、関節位置の情報を人候補領域判定部124に出力する。
具体的には、図2に示すように、関節位置推定部123は、人候補領域検出部122により検出された人候補領域122Aから、複数の関節位置を推定する。図2に示す例では、関節位置推定部123は、関節位置0(右足首)、関節位置1(右膝)、関節位置2(右腰)、関節位置3(左腰)、関節位置4(左膝)、関節位置5(左足首)、関節位置6(右手首)、関節位置7(右肘)、関節位置8(右肩)、関節位置9(左肩)、関節位置10(左肘)、関節位置11(左手首)、関節位置12(首)、関節位置13(頭頂部)を推定する。
関節位置推定部123による学習としては、ニュートラルネットワーク(Neutral Network)を用いた、人工知能技術の総称であるディープラーニング(Deep Learning)が用いられる。
ところで、関節位置推定部123により人の関節位置の学習をするときにおいて差分画像を切り出した際、前後のフレームで人以外の物体を抽出した場合、差分画像が人に相当する部分よりも大幅に大きくなる。また、その場で人が静止していたりする場合、前後のフレームでの差分が少なくなるので、差分画像が小さくなる。このように差分画像の大きさに差が出る可能性があるため、差分画像の大きさの変動に応じて、関節位置推定部123による学習を行うことが望ましいが、全ての状況を把握した上で学習することは困難である。また、人を検出する際には、学習時に与えた正解人矩形と同じ縦横比、サイズとなるように検出するが、人ぎりぎりのサイズで学習する場合、人が正解人矩形からはみ出てしまい、また、人に対して大きめのサイズで学習する場合、人に対して正解人矩形が大きくなってしまう。
そこで、本実施の形態では、図2に二点鎖線で示す矩形枠123Cにより、関節位置推定部123による学習を行う。この矩形枠123Cのサイズとなった場合、関節位置推定部123は最も関節位置の推定精度が高くなるようにして学習を行う。
矩形枠123Cは、例えばユーザーが手入力することにより決定されるが、学習する際の人の姿勢によりアスペクト比(横の長さ:縦の長さ)が異なるようにして決定される。例えば、人の姿勢が立位の場合、アスペクト比が1:0.6となるように矩形枠123Cが決定され、人の姿勢が座位の場合、アスペクト比が1:0.8となるように矩形枠123Cが決定される。
図1および図2に示すように、人候補領域判定部124は、関節位置推定部123により推定された関節位置と、人候補領域検出部122により検出された人候補領域122Aの情報とに基づいて、画像121A内における人候補領域122Aの占有率が最適であるか否かを判定する。
画像121A内における人候補領域122Aの占有率は、例えば画像121Aの大きさと、各関節位置間の距離との比である。具体的には、画像121A内における人候補領域122Aの占有率は、画像121Aの水平方向の長さWと、各関節位置間の距離の水平成分との比、および、画像121Aの垂直方向の長さHと、各関節位置間の距離の垂直成分との比である。
各関節位置間の距離は、例えば、頭頂部に相当する関節位置13から、末端関節位置までの距離である。末端関節位置は、例えば、左右の何れか一方の手首(関節位置6または関節位置11)、左右の何れか一方の足首(関節位置0または関節位置5)、左右の手首の中点(関節位置6と関節位置11との間の中点)、および、左右の足首の中点(関節位置0と関節位置5との間の中点)の少なくとも1つである。
例えば、末端関節位置が右手首に相当する関節位置6である場合、人候補領域判定部124は、関節位置13と関節位置6との距離における水平成分D1および垂直成分D2のそれぞれを算出する。
なお、人候補領域判定部124は、関節位置6以外の末端関節位置と、関節位置13との距離における水平成分および垂直成分のそれぞれについても算出しても良い。つまり、人候補領域判定部124は、末端関節位置と関節位置13との距離における水平成分および垂直成分のそれぞれを1つ以上算出しても良い。
人候補領域判定部124は、水平成分D1および垂直成分D2を算出したら、水平方向の占有率O1であるD1/W、および、垂直方向の占有率O2であるD2/Hを算出する。人候補領域判定部124は、算出した占有率O1,O2と、閾値を比較することにより人候補領域122Aの占有率O1,O2が最適であるか否かを判定する。
閾値は、関節位置を学習したときの人候補領域のサイズにより適宜な値に設定して良い。また、閾値は、占有率O1,O2のそれぞれにおいて設定される。
人候補領域判定部124は、人候補領域122Aのサイズの占有率O1,O2が最適な場合、その判定結果を行動認識部130に出力する一方、人候補領域122Aのサイズの占有率O1,O2が最適でない場合、その判定結果を人候補領域サイズ変更部125に出力する。
また、人候補領域判定部124は、関節位置推定部123により推定された複数の関節位置のうち、画像121A上において隠れていない関節位置を優先して選択して関節位置間距離を算出する。関節位置間距離を算出するにあたっては、遮蔽されることにより画像121A上に写っていない状態となっている関節位置については、正確に関節位置間距離を算出できず、関節位置の推定精度が低下してしまうためである。関節位置が隠れているか否かの判定は、例えば各関節位置間を結んだ位置間の重なりの程度によって行うことができる。
人候補領域サイズ変更部125は、人候補領域判定部124による判定結果に基づいて、人候補領域122Aのサイズを変更するか否かを決定する。人候補領域サイズ変更部125は、人候補領域122Aのサイズを変更する場合、人候補領域判定部124により判定された後の関節位置に基づいて人候補領域122Aのサイズを変更する。その際、人候補領域サイズ変更部125は、水平方向および垂直方向において別々にサイズの変更を行う。
具体的には、人候補領域サイズ変更部125は、人候補領域判定部124により人候補領域のサイズが小さいと判定された場合、人候補領域のサイズが所定サイズになるように大きくする。人候補領域サイズ変更部125は、人候補領域判定部124により人候補領域のサイズが大きいと判定された場合、人候補領域のサイズが所定サイズになるように小さくする。
所定サイズは関節位置推定部123における学習結果に応じて予め決められたサイズである。また、所定サイズは、水平方向および垂直方向の比率により立位・座位を判定し、姿勢に応じて学習時の縦横比となるようなサイズと共通比率になるようなサイズであっても良い。
人候補領域サイズ変更部125は、人候補領域のサイズを変更した場合、その変更結果を再帰関節位置推定部126に出力する。
人候補領域サイズ変更部125によるサイズ変更の一例について説明する。例えば、図3Aに示すように、人候補領域検出部122により検出された人候補領域122Aに基づいて、関節位置推定部123により各関節位置(黒のドット)が推定される。図3Aでは、占有率O1,O2がともに閾値より大きく、人候補領域のサイズが大きいと判定される例を示している。
この場合において、人候補領域判定部124は、人候補領域122Aのサイズが大きいと判定する。そのため、人候補領域サイズ変更部125は、所定サイズである変更後の人候補領域122Bになるように人候補領域122Aのサイズを小さくする。関節位置推定部123により推定される関節位置は、人候補領域検出部122により検出された人候補領域122Aを基準に推定されるため、人候補領域122Aが当該領域に含まれる人に対して最適なサイズでない場合、関節位置の推定を正確に行うことができない。
しかし、本実施の形態では、人候補領域サイズ変更部125により推定された関節位置にとって最適なサイズになるように人候補領域が変更されるので、後述する再帰関節位置推定部126による推定処理により、関節位置を正確に推定することができる。
再帰関節位置推定部126は、人候補領域サイズ変更部125により人候補領域のサイズの変更結果を取得し、変更された人候補領域に含まれる人に対して再び関節位置の推定を行う。そして、再帰関節位置推定部126は、関節位置の推定結果を人候補領域判定部124に出力する。関節位置の推定方法は、関節位置推定部123における関節位置の推定方法と同様である。
人候補領域判定部124は、再帰関節位置推定部126により再び推定された関節位置に基づいて、再び水平方向の占有率O1と、垂直方向の占有率O2とを算出する。そして、人候補領域判定部124は、再び算出した占有率O1,O2と、所定の閾値を比較することにより人候補領域122Aの占有率O1,O2が最適であるか否かを判定する。そして、人候補領域判定部124により、人候補領域122Aの占有率O1,O2が最適でないと判定された場合、再び人候補領域サイズ変更部125により、人候補領域122Aのサイズが変更される。人候補領域122Aのサイズが変更されると、再帰関節位置推定部126により、サイズが変更された人候補領域122Aから再び関節位置が推定される。
つまり、再帰関節位置推定部126は、人候補領域判定部124により人候補領域の占有率O1,O2が最適と判定されるまで、人候補領域サイズ変更部125によりサイズが変更された人候補領域における人の関節位置の推定を繰り返し行う。言い換えると、関節位置推定装置120は、人候補領域122Aの占有率O1,O2が最適となるまで、人候補領域判定部124、人候補領域サイズ変更部125および再帰関節位置推定部126による一連の処理を繰り返す。
例えば、図3Bにおいて、人候補領域122Bのサイズを小さくし過ぎてしまった場合、再び人候補領域サイズ変更部125により人候補領域122Bのサイズが大きくなるように変更され、再帰関節位置推定部126による関節位置推定が行われるような処理が、人候補領域が最適となるまで繰り返される。
行動認識部130は、関節位置推定装置120により学習された結果を時系列で記憶部130Aに記憶しており、記憶部130Aに記憶されたデータに基づいて人の行動を認識する。記憶部130Aには、人の特徴量が時系列で記憶された特徴量列130Bが記憶されている。特徴量列130Bには、人の行動の特徴量がm枚のフレームのそれぞれに記憶されている。なお、mは、自然数であり、フレームの数に応じて変動する。
特徴量は、学習、認識対象のフレームを起点として過去10フレーム分の特徴量がまとめて与えられるような固定長の値か、過去の情報から切れ目なく全フレーム分の値が与えられても良い。また、特徴量は、同じ行動が連続したフレームは常に同じ行動をしているとして、学習・認識対象のフレームの行動を起点とした所定の行動数N分のフレームの値が与えられても良い。
特徴量を用いてどのように行動を認識するかについては、例えば、機械学習手法の一種である、リカレントニュートラルネットワーク(Recurrent Neutral Network、非特許文献2参照)にロングショートタームメモリー(Long-Short Term Memory、非特許文献3参照)を組み合わせて用いることで人の行動を認識する。
従来、ディープラーニングによる機械学習を行うことにより人の姿勢を推定する技術としては例えば、非特許文献1に記載の技術が知られている。非特許文献1に記載の技術では、以下のようにして人の姿勢を推定する。
まず、人の領域が含まれた画像を取得して、当該画像から人の関節位置を推定する。人の関節位置を推定すると、推定した各関節位置の周辺を元の画像から再取得し、再取得後の画像を用いて再度、関節位置を推定する。そして、さらに詳細に関節位置の推定を繰り返し行っていく。このような推定を関節位置毎に行うことにより、関節位置の推定が位置ずれしても、その位置ずれを吸収し、高精度な関節位置の推定を行うことが可能となる。
しかしながら、非特許文献1に記載の技術では、関節位置毎に詳細に位置推定を行うので、処理時間がかかり過ぎてしまうおそれがあった。例えば、14個の関節位置を推定した場合、14個の関節位置のそれぞれにおいて詳細な推定を行うことから、リアルタイムで行動を認識する場合のアルゴリズムとして好ましくない。
それに対して、本実施の形態では、人候補領域が最適でないと判断した場合、人候補領域サイズ変更部125により、推定した関節位置に応じて人候補領域のサイズを変更し、変更した人候補領域にて再び関節位置を推定する。この推定においては、関節位置毎に詳細な推定を行わず、比較的精度の粗い推定を行う。そして、人候補領域のサイズを変更し、再び関節位置を推定する場合でも精度の粗い推定しか行わない。すなわち、本実施の形態では、精度の粗い推定、つまり、汎用的な関節位置の推定しか行わないので、1フレームにつき各関節位置において詳細な推定を行う従来の構成と比較して、関節位置の推定時間を大幅に短縮することができる。
また、推定した関節位置に応じて人候補領域のサイズを最適なサイズになるように変更するので、汎用的な関節位置の推定のみであっても、比較的精度の高い推定を実現することができる。
以上のように構成された行動認識システム100における関節位置推定制御の動作の一例について説明する。図4は、行動認識システム100における関節位置推定制御の動作例の一例を示すフローチャートである。図4における処理は、行動認識システム100における行動認識をする際において適宜実行される。また、図4における処理は、関節位置の学習が既に行われた後の処理を示している。
図4に示すように、まず、動画像取得部121は、動画像を取得する(ステップS101)。次に、人候補領域検出部122は、動画像における差分画像から人候補領域を検出する(ステップS102)。
次に、関節位置推定部123は、ステップS102により検出された人候補領域から関節位置を推定する(ステップS103)。次に、人候補領域判定部124は、関節位置の推定結果と、関節位置が推定された人候補領域とに基づいて人候補領域が最適であるか否かについて判定する(ステップS104)。
判定の結果、人候補領域が最適でないと判定された場合(ステップS104、NO)、人候補領域サイズ変更部125は、人候補領域のサイズを変更する(ステップS105)。次に、再帰関節位置推定部126は、変更した人候補領域から再び関節位置を推定する(ステップS106)。その後、処理はステップS104の処理に戻る。
ステップS104の判定に戻って、人候補領域が最適であると判定された場合(ステップS104、YES)、行動認識部130は、動画像に含まれる人の行動を認識する(ステップS107)。その後、本制御は終了する。
以上のように構成された本実施の形態によれば、関節位置の推定において、精度の粗い推定しか行わないので、1フレームに付き各関節位置において詳細な推定を行う構成と比較して、大幅に処理時間を短縮することができる。
また、推定した関節位置に応じて人候補領域のサイズを最適なサイズになるように変更するので、汎用的な関節位置の推定のみで、比較的精度の高い関節位置の推定を実現することができる。
また、再帰関節位置推定部126により、人候補領域の占有率が最適となるまで、繰り返し関節位置を推定するので、関節位置の推定の精度を高めることができる。
また、人候補領域サイズ変更部125により、人候補領域を最適なサイズに変更するので、関節位置の推定の精度を高めることができる。
また、関節位置の推定における処理時間を短縮することができるので、リアルタイムで人の行動を認識するためのアルゴリズムに本実施の形態に係る関節位置推定を適用することができ、ひいては精度の高い行動認識の実施を行うことができる。
なお、上記実施の形態では、各関節位置間の距離を、頭頂部に相当する関節位置13から、末端関節位置までの距離としていたが、本発明はこれに限定されない。例えば、各関節位置間の距離を、部位として関連性がある関節位置間の距離としても良い。
具体的には、左右における一方側の下肢(右足首0と右腰2との距離、又は、左足首5と左腰3との距離)、大腿(右膝1と右腰2との距離、又は、左膝4と左腰3との距離)、下腿(右足首0と右膝1との距離、又は、左足首5と左膝4との距離)、上肢(右手首6と右肩8との距離、又は、左手首11と左肩9との距離)、前腕(右手首6と右肘7との距離、又は、左手首11と左肘10との距離)、および、上腕(右肘7と右肩8との距離、又は、左肘10と左肩9との距離)の少なくとも1つを、関連性がある関節位置間の距離とすることができる(図2参照)。
また、各関節位置間の距離を、左右対称となる関節位置間の距離としても良い。具体的には、左右の手首の間の距離、左右の手首の間の距離、左右の肘の間の距離、左右の肩の間の距離、左右の足首の間の距離、左右の膝の間の距離、および、左右の腰の間の距離の少なくとも1つを、左右対称となる関節位置間の距離とすることができる。
また、上記実施の形態では、画像内における人候補領域の占有率を画像の水平方向の長さと、各関節位置間の距離の水平成分との比、および、画像の垂直方向の長さと、各関節位置間の距離の垂直成分との比としていたが、本発明はこれに限定されない。例えば、画像内における人候補領域の占有率を、人候補領域内における人に対応する部分の外接矩形と、画像の面積との比としても良い。
具体的に、図5に示すように、外接矩形122Cは、推定された間接位置における最も上に位置する上関節位置C1と、最も右に位置する右関節位置C2と、最も下に位置する下関節位置C3と、最も左に位置する左関節位置C4とを通る矩形である。外接矩形122Cは、人の姿勢に関わらず、検出された上関節位置C1、右関節位置C2、下関節位置C3および左関節位置C4に基づいた矩形となる。例えば、図5の例では、頭頂部が上関節位置C1に該当し、左手首が右関節位置C2に該当し、左足首が下関節位置C3に該当し、右手首が左関節位置C4に該当する。
また、図6の例では、頭頂部が上関節位置C1に該当し、左手首が右関節位置C2に該当し、左足首が下関節位置C3に該当し、右足首が左関節位置C4に該当する。また、図7の例では、右手首が上関節位置C1に該当し、頭頂部が右関節位置C2に該当し、左手首が下関節位置C3に該当し、右足首が左関節位置C4に該当する。
なお、図5〜7に示す外接矩形122Cは、各関節位置C1,C2,C3,C4を通っていたが、各関節位置C1,C2,C3,C4よりも外側に位置するようにしても良い。また、外接矩形122Cは、予め決められた関節位置(例えば頭頂部、左右の手首の何れか、左右の足首の何れか等)に基づいた矩形であっても良い。
また、外接矩形122Cを決定する際、推定された関節位置に対して、人の姿勢認識を行い、認識した姿勢により外接矩形122Cに用いる関節位置を指定しても良い。人の姿勢認識としては、例えば、予め決められた姿勢モデルと各関節位置との距離が最小となるものをその姿勢とする方法、姿勢を特徴量として学習し、当該学習結果を用いて姿勢認識する方法、単純な関節位置の関係性を用いて姿勢認識する方法などが挙げられる。
外接矩形122Cを用いた人候補領域の判定は、例えば、画像121Aの面積S1と、外接矩形122Cの面積S2との比であるS2/S1を人候補領域の占有率として行うことができる。また、画像121Aのアスペクト比AS1と、外接矩形122Cのアスペクト比AS2との比であるAS2/AS1を人候補領域の占有率として行っても良い。また、AS2/AS1を、外接矩形122Cの面積S2および画像121Aの面積S1を考慮して、正規化した結果である(AS2/AS1)×(S2/S1)を占有率としても良い。
また、外接矩形122Cを用いた人候補領域の判定は、上記実施の形態と同様に算出した占有率と閾値とを比較することにより行う。このように人候補領域の占有率を算出することによっても、関節位置推定を行うことができる。
また、人候補領域の占有率は、推定された関節位置の尤度としても良い。尤度の推定は、最尤推定など、一般的な推定方法により行えば良い。例えば、入力される画像のサイズおよびアスペクト比に基づいて推定される関節位置の矩形の尤度を推定し、当該尤度に対して閾値の比較を行う。これによっても、関節位置推定を行うことができる。
また、人候補領域の占有率は、予め記憶された人形状モデルと、関節位置とに基づいて算出した人らしさ度としても良い。人形状モデルは、入力画像のサイズおよび位置に関連付けられており、各関節位置との距離の差のそれぞれの総和又は平均値により人らしさ度が算出される。
また、上記実施の形態では、人候補領域サイズ変更部125が、人候補領域判定部124により判定された後の関節位置に基づいて人候補領域のサイズを変更していたが、本発明はこれに限定されない。例えば、人候補領域サイズ変更部125は、過去の画像から得られたサイズに基づいて、人候補領域のサイズを変更するようにしても良い。
その他、上記実施の形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
120 関節位置推定装置
121 動画像取得部
122 人候補領域検出部
123 関節位置推定部
124 人候補領域判定部
125 人候補領域サイズ変更部
126 再帰関節位置推定部

Claims (18)

  1. 動画像を取得する動画像取得部と、
    前記動画像取得部により取得された前記動画像に基づく画像内で人を含む人候補領域を検出する人候補領域検出部と、
    前記人候補領域検出部により検出された前記人候補領域に基づいて前記人の関節位置を推定する関節位置推定部と、
    前記関節位置推定部により推定された関節位置と、前記人候補領域検出部により検出された前記人候補領域とに基づいて、前記画像内における前記人候補領域の占有率が最適であるか否かについて判定する人候補領域判定部と、
    前記人候補領域判定部により前記人候補領域の占有率が最適でないと判定された場合、前記人候補領域のサイズを変更する人候補領域サイズ変更部と、
    前記人候補領域サイズ変更部により前記人候補領域のサイズが変更された場合、サイズが変更された後の前記人候補領域に対して、前記人の前記関節位置を再び推定する再帰関節位置推定部と、
    を備える関節位置推定装置。
  2. 前記人候補領域判定部は、前記再帰関節位置推定部により推定された前記関節位置と、前記人候補領域サイズ変更部により変更された前記人候補領域とに基づいて、前記画像内における前記人候補領域の占有率が最適であるか否かを判定する、
    請求項1に記載の関節位置推定装置。
  3. 前記再帰関節位置推定部は、前記人候補領域判定部により前記人候補領域の占有率が最適と判定されるまで、前記人候補領域サイズ変更部によりサイズが変更された人候補領域における前記人の前記関節位置の推定を繰り返し行う、
    請求項2に記載の関節位置推定装置。
  4. 前記人候補領域サイズ変更部は、前記人候補領域判定部により前記人候補領域の画像サイズが小さいために前記人候補領域の占有率が最適でないと判定された場合、前記人候補領域の画像サイズを所定画像サイズになるように大きくする一方、前記人候補領域判定部により前記人候補領域の画像サイズが大きいために前記人候補領域の占有率が最適でないと判定された場合、前記人候補領域の画像サイズを所定画像サイズになるように小さくする、
    請求項1〜3の何れか1項に記載の関節位置推定装置。
  5. 前記人候補領域サイズ変更部は、前記人候補領域判定部により判定された後の前記関節位置に基づいて前記人候補領域のサイズを変更する、
    請求項4に記載の関節位置推定装置。
  6. 前記人候補領域サイズ変更部は、過去の前記画像から得られたサイズに基づいて、前記人候補領域のサイズを変更する、
    請求項1〜5の何れか1項に記載の関節位置推定装置。
  7. 前記関節位置推定部は、複数の前記関節位置を推定し、
    前記人候補領域の占有率は、前記画像の大きさと、複数の関節位置間の距離との比である、
    請求項1〜6の何れか1項に記載の関節位置推定装置。
  8. 前記関節位置推定部は、前記複数の関節位置間の距離における水平成分および垂直成分のそれぞれを1つ以上算出し、
    前記人候補領域の占有率は、前記画像の水平方向の長さと、前記関節位置推定部により推定された前記複数の関節位置間の距離の水平成分との比、および、前記画像の垂直方向の長さと、前記複数の関節位置間の距離の垂直成分との比である、
    請求項7に記載の関節位置推定装置。
  9. 前記複数の関節位置間の距離は、前記関節位置推定部により推定された前記関節位置に対し、部位としての関連性がある関節位置間の距離であり、
    前記関連性がある関節位置間の距離は、左右における一方側の下肢、大腿、下腿、上肢、前腕および上腕の少なくとも1つである、
    請求項7または請求項8に記載の関節位置推定装置。
  10. 前記複数の関節位置間の距離は、前記関節位置推定部により推定された前記関節位置に対し、左右対象となる関節位置間の距離であり、
    前記左右対称となる関節位置間は、左右の手首の間、左右の肘の間、左右の肩の間、左右の足首の間、左右の膝の間および左右の腰の間の少なくとも1つである、
    請求項7または請求項8に記載の関節位置推定装置。
  11. 前記複数の関節位置間の距離は、前記関節位置推定部により推定された前記関節位置に対し、頭頂部から末端関節位置までの距離であり、
    前記末端関節位置は、左右の手首、左右の足首、左右の手首の中点、および左右の足首の中点の少なくとも1つである、
    請求項7または請求項8に記載の関節位置推定装置。
  12. 前記関節位置推定部は、推定した複数の前記関節位置のうち、前記画像上において隠れていない前記関節位置を、隠れている前記関節位置よりも優先して選択して前記複数の関節位置間の距離を算出する、
    請求項7〜11の何れか1項に記載の関節位置推定装置。
  13. 前記関節位置推定部は、複数の前記関節位置を推定し、
    前記人候補領域判定部は、複数の前記関節位置に基づいて前記人に対応する外接矩形を形成し、
    前記人候補領域の占有率は、前記画像の面積と、前記外接矩形の面積との比である、
    請求項1〜6の何れか1項に記載の関節位置推定装置。
  14. 前記関節位置推定部は、複数の前記関節位置を推定し、
    前記人候補領域判定部は、複数の前記関節位置に基づいて前記人に対応する外接矩形を形成し、
    前記人候補領域の占有率は、前記画像のアスペクト比を基準に、前記外接矩形のアスペクト比を正規化した結果である、
    請求項1〜6の何れか1項に記載の関節位置推定装置。
  15. 前記人候補領域判定部は、前記人候補領域の占有率と閾値とを比較することにより、前記人候補領域の占有率が最適であるか否かを判定する、
    請求項1〜14の何れか1項に記載の関節位置推定装置。
  16. 前記人候補領域判定部は、前記関節位置の尤度を算出し、算出した前記尤度に基づいて前記人候補領域の占有率が最適であるか否かについて判定する、
    請求項1〜6の何れか1項に記載の関節位置推定装置。
  17. 前記人候補領域判定部は、予め記憶した人形状モデルと、前記関節位置とに基づいて、前記人候補領域の占有率が最適であるか否かについて判定する、
    請求項1〜6の何れか1項に記載の関節位置推定装置。
  18. 関節位置推定装置の関節位置推定プログラムにおいて、
    コンピューターに、
    動画像を取得する動画像取得処理と、
    取得した前記動画像に基づく画像内で人を含む人候補領域を検出する人候補領域検出処理と、
    検出した前記人候補領域に基づいて前記人の関節位置を推定する関節位置推定処理と、
    推定した関節位置と、検出した前記人候補領域とに基づいて、前記画像内における前記人候補領域の占有率が最適であるか否かについて判定する人候補領域判定処理と、
    前記人候補領域の占有率が最適でないと判定した場合、前記人候補領域のサイズを変更する人候補領域サイズ変更処理と、
    前記人候補領域のサイズが変更された場合、サイズが変更された後の前記人候補領域に対して、前記人の前記関節位置を再び推定する再帰関節位置推定処理と、
    を実行させる関節位置推定プログラム。
JP2016197377A 2016-10-05 2016-10-05 関節位置推定装置および関節位置推定プログラム Pending JP2018057596A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016197377A JP2018057596A (ja) 2016-10-05 2016-10-05 関節位置推定装置および関節位置推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016197377A JP2018057596A (ja) 2016-10-05 2016-10-05 関節位置推定装置および関節位置推定プログラム

Publications (1)

Publication Number Publication Date
JP2018057596A true JP2018057596A (ja) 2018-04-12

Family

ID=61909049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016197377A Pending JP2018057596A (ja) 2016-10-05 2016-10-05 関節位置推定装置および関節位置推定プログラム

Country Status (1)

Country Link
JP (1) JP2018057596A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019204464A (ja) * 2018-05-27 2019-11-28 株式会社アジラ 行動推定装置
EP3657513A1 (en) * 2018-11-22 2020-05-27 Konica Minolta, Inc. Image processing program and image processer
JP2020102817A (ja) * 2018-12-25 2020-07-02 凸版印刷株式会社 監視対象識別装置、監視対象識別システム、および、監視対象識別方法
JP2021089615A (ja) * 2019-12-05 2021-06-10 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理方法、プログラム
JP2021144631A (ja) * 2020-03-13 2021-09-24 エヌ・ティ・ティ・ビズリンク株式会社 動物行動推定システム、動物行動推定支援装置、動物行動推定方法及びプログラム
WO2021192085A1 (en) * 2020-03-25 2021-09-30 Nec Corporation Pose identifying apparatus, pose identifying method, and non-transitory computer readable medium storing program
JPWO2021192908A1 (ja) * 2020-03-25 2021-09-30
CN113646803A (zh) * 2019-04-01 2021-11-12 欧姆龙株式会社 人检测装置以及人检测方法
WO2023062762A1 (ja) 2021-10-13 2023-04-20 富士通株式会社 推定プログラム、推定方法および情報処理装置
WO2023189551A1 (ja) * 2022-03-31 2023-10-05 ソニーグループ株式会社 情報処理システム、情報処理方法、及び、プログラム

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019230199A1 (ja) * 2018-05-27 2019-12-05 株式会社アジラ 行動推定装置
JP2019204464A (ja) * 2018-05-27 2019-11-28 株式会社アジラ 行動推定装置
US11048924B1 (en) 2018-05-27 2021-06-29 Asilla, Inc. Action-estimating device
US20210279452A1 (en) * 2018-05-27 2021-09-09 Asilla, Inc. Action-estimating device
US11170522B2 (en) 2018-11-22 2021-11-09 Konica Minolta, Inc. Storage medium storing image processing program, and image processor
EP3657513A1 (en) * 2018-11-22 2020-05-27 Konica Minolta, Inc. Image processing program and image processer
CN111212220A (zh) * 2018-11-22 2020-05-29 柯尼卡美能达株式会社 保存有图像处理程序的记录介质以及图像处理装置
CN111212220B9 (zh) * 2018-11-22 2022-04-12 柯尼卡美能达株式会社 保存有图像处理程序的记录介质以及图像处理装置
CN111212220B (zh) * 2018-11-22 2022-03-15 柯尼卡美能达株式会社 保存有图像处理程序的记录介质以及图像处理装置
JP2020102817A (ja) * 2018-12-25 2020-07-02 凸版印刷株式会社 監視対象識別装置、監視対象識別システム、および、監視対象識別方法
CN113646803A (zh) * 2019-04-01 2021-11-12 欧姆龙株式会社 人检测装置以及人检测方法
JP2021089615A (ja) * 2019-12-05 2021-06-10 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理方法、プログラム
JP2021144631A (ja) * 2020-03-13 2021-09-24 エヌ・ティ・ティ・ビズリンク株式会社 動物行動推定システム、動物行動推定支援装置、動物行動推定方法及びプログラム
WO2021192908A1 (ja) * 2020-03-25 2021-09-30 Necソリューションイノベータ株式会社 追跡方法
JPWO2021192908A1 (ja) * 2020-03-25 2021-09-30
WO2021192085A1 (en) * 2020-03-25 2021-09-30 Nec Corporation Pose identifying apparatus, pose identifying method, and non-transitory computer readable medium storing program
JP2023512318A (ja) * 2020-03-25 2023-03-24 日本電気株式会社 姿勢特定装置、姿勢特定方法、及びプログラム
JP7343237B2 (ja) 2020-03-25 2023-09-12 Necソリューションイノベータ株式会社 追跡方法
WO2023062762A1 (ja) 2021-10-13 2023-04-20 富士通株式会社 推定プログラム、推定方法および情報処理装置
WO2023189551A1 (ja) * 2022-03-31 2023-10-05 ソニーグループ株式会社 情報処理システム、情報処理方法、及び、プログラム

Similar Documents

Publication Publication Date Title
JP2018057596A (ja) 関節位置推定装置および関節位置推定プログラム
CN110348335B (zh) 行为识别的方法、装置、终端设备及存储介质
WO2018163555A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
CN114724241A (zh) 基于骨骼点距离的动作识别方法、装置、设备及存储介质
CN110688929B (zh) 一种人体骨架关节点定位方法及装置
US11298050B2 (en) Posture estimation device, behavior estimation device, storage medium storing posture estimation program, and posture estimation method
US11423699B2 (en) Action recognition method and apparatus and electronic equipment
CN109117753B (zh) 部位识别方法、装置、终端及存储介质
EP2924543B1 (en) Action based activity determination system and method
JP4951498B2 (ja) 顔画像認識装置、顔画像認識方法、顔画像認識プログラムおよびそのプログラムを記録した記録媒体
CN109274883B (zh) 姿态矫正方法、装置、终端及存储介质
JP2018147431A (ja) 画像認識装置及び画像認識方法
WO2021217848A1 (zh) 人体摔倒检测方法、装置、计算机设备和存储介质
JPWO2018173108A1 (ja) 関節位置推定装置、関節位置推定方法及び関節位置推定プログラム
JP2018206321A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
CN105373810B (zh) 一种用于建立动作识别模型的方法及系统
CN113255522B (zh) 基于时间一致性的个性化运动姿态估计与分析方法及系统
KR102436906B1 (ko) 대상자의 보행 패턴을 식별하는 방법 및 이를 수행하는 전자 장치
US20220207921A1 (en) Motion recognition method, storage medium, and information processing device
JP2021086322A (ja) 画像処理装置、画像処理方法及びプログラム
JP2019003565A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
CN115661930A (zh) 动作评分方法、装置、动作评分设备及存储介质
Badhe et al. Artificial neural network based indian sign language recognition using hand crafted features
WO2019171780A1 (ja) 個人識別装置および特徴収集装置
JP2005351814A (ja) 検出装置および検出方法

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190708