JP6892155B2 - 人体部位推定装置、人体部位推定方法、及びプログラム - Google Patents

人体部位推定装置、人体部位推定方法、及びプログラム Download PDF

Info

Publication number
JP6892155B2
JP6892155B2 JP2019566469A JP2019566469A JP6892155B2 JP 6892155 B2 JP6892155 B2 JP 6892155B2 JP 2019566469 A JP2019566469 A JP 2019566469A JP 2019566469 A JP2019566469 A JP 2019566469A JP 6892155 B2 JP6892155 B2 JP 6892155B2
Authority
JP
Japan
Prior art keywords
human body
body part
feature
image
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019566469A
Other languages
English (en)
Other versions
JPWO2019142787A1 (ja
Inventor
竜太郎 谷村
竜太郎 谷村
博之 渡部
博之 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solutions Innovators Ltd
Original Assignee
NEC Solutions Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solutions Innovators Ltd filed Critical NEC Solutions Innovators Ltd
Publication of JPWO2019142787A1 publication Critical patent/JPWO2019142787A1/ja
Application granted granted Critical
Publication of JP6892155B2 publication Critical patent/JP6892155B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、人体部位を推定する人体部位推定装置、人体部位推定方法に関し、更には、これらを実現するためのプログラムに関する。
機器をジェスチャにより操作するジェスチャ操作において、深度センサにより撮像された深度画像から、特定したい人体部位の識別と形状とジェスチャ操作とを推定するには、特定したい人体部位のうち、特徴的な部位(以降、特徴部位と呼ぶ)を用いることが有効である。例えば、深度センサにより撮像された人体部位の深度画像(以降、人体部位画像)における、特徴部位に対応する画像(以降、特徴部位画像と呼ぶ)の輪郭形状を特徴量として、特定したい人体部位の識別と形状とジェスチャ操作とを推定することが有効である。
また、深度センサにより撮像された深度画像から、特定したい人体部位の識別と形状とジェスチャ操作を推定するには、特定したい人体部位の形状、又は人体部位の動きを用いることも有効である。例えば、手を特定したい人体部位とし、手の特徴部位を指とした場合、手と指の形状、又は手と指の動きを特徴量とし、これらの特徴量を用いて、手と指の形状を推定することが有効である。特許文献1には、手の動きと、手の形状と、指の動きとを特徴量として、これらの特徴量と、ジェスチャ操作ごとに設定された条件とを照合して、ジェスチャ操作の種類を判定するジェスチャ判定装置が開示されている。
特許第6121534号公報
しかしながら、上述した特徴量を用いて、特定したい人体部位の識別と形状とを推定する方法では、人体部位が回転又は変形などすると、人体部位画像の特徴量が大きく変化するため、特定したい人体部位の形状を推定する精度が低下する。その理由は、上述した方法では、特徴量として人体部位画像の輪郭形状を用いるため、人体部位の姿勢又は人体部位を撮像する方向により、人体部位画像の輪郭形状を正確に推定できないからである。
また、特定したい人体部位の識別と形状とを推定する精度が低下すると、推定した人体部位の識別と形状とを用いて推定するジェスチャ操作についても、ジェスチャ操作を推定する精度が低下する。
本発明の目的の一例は、上記問題を解消し、人体部位の識別と形状とを推定する精度を向上させる人体部位推定装置、人体部位推定方法、及びプログラムを提供することにある。
上記目的を達成するため、本発明の一側面における人体部位推定装置は、
深度を有する人体部位画像のうち、特徴部位画像の深度分布に基づいて、前記特徴部位画像の応答値が前記特徴部位画像以外の前記人体部位画像の応答値より大きくなるように特徴分布画像を生成する、特徴分布生成部と、
前記特徴分布画像に基づいて、前記特徴分布画像の人体部位に対応する人体部位特徴画像における基準方向を算出する、基準方向算出部と、
前記基準方向を基準とし、前記人体部位特徴画像を分割する分割領域を設定する、分割領域設定部と、
前記分割領域ごとに特徴量を算出する、特徴量算出部と、
前記分割領域ごとに算出した前記特徴量を、前記分割領域ごとに算出した前記特徴量に基づいて、予め学習により生成された識別器に適用して、前記人体部位の識別と形状とを推定する、推定部と、
を有することを特徴とする。
また、上記目的を達成するため、本発明の一側面における人体部位推定方法は、
(a)深度を有する人体部位画像のうち、特徴部位画像の深度分布に基づいて、前記特徴部位画像の応答値が前記特徴部位画像以外の前記人体部位画像の応答値より大きくなるように特徴分布画像を生成する、ステップと、
(b)前記特徴分布画像に基づいて、前記特徴分布画像の人体部位に対応する人体部位特徴画像における基準方向を算出する、ステップと、
(c)前記基準方向を基準とし、前記人体部位特徴画像を分割する分割領域を設定する、ステップと、
(d)前記分割領域ごとに特徴量を算出する、ステップと、
(e)前記分割領域ごとに算出した前記特徴量を、前記分割領域ごとに算出した前記特徴量に基づいて、予め学習により生成された識別器に適用して、前記人体部位の識別と形状とを推定する、ステップと、
を有することを特徴とする。
更に、上記目的を達成するため、本発明の一側面におけるプログラムは
コンピュータに、
(a)深度を有する人体部位画像のうち、特徴部位画像の深度分布に基づいて、前記特徴部位画像の応答値が前記特徴部位画像以外の前記人体部位画像の応答値より大きくなるように特徴分布画像を生成する、ステップと、
(b)前記特徴分布画像に基づいて、前記特徴分布画像の人体部位に対応する人体部位特徴画像の基準方向を算出する、ステップと、
(c)前記基準方向を基準とし、前記人体部位画像を分割する分割領域を設定する、ステップと、
(d)前記分割領域ごとに特徴量を算出する、ステップと、
(e)前記分割領域ごとに算出した前記特徴量を、前記分割領域ごとに算出した前記特徴量に基づいて、予め学習により生成された識別器に適用して、前記人体部位の識別と形状とを推定する、ステップと、
を実行させることを特徴とする。
以上の本発明によれば、人体部位の識別と形状とを推定する精度を向上させることができる。
図1は、人体部位推定装置の一例を示す図である。 図2は、人体部位推定装置を有するシステムの一例を示す図である。 図3は、人体を撮像した深度画像の一例を示す図である。 図4は、特徴分布画像の例を示す図である。 図5は、基準方向の算出について説明するための図である。 図6は、基準方向と分割領域との関係を説明するための図である。 図7は、特徴分布画像に基準方向と分割領域とを適用した例を示す図である。 図8は、特徴量ベクトルの一例を示す図である。 図9は、人体部位推定装置において人体部位の識別と形状とを推定する動作の一例を示す図である。 図10は、人体部位推定装置において人体部位を用いた操作を推定する動作の一例を示す図である。 図11は、本発明の実施の形態における人体部位推定装置を実現するコンピュータの一例を示す図である。
(実施の形態)
以下、本発明の実施の形態における人体部位推定装置、人体部位推定方法、及び人体部位推定プログラムについて、図1から図11を参照しながら説明する。
[装置構成]
最初に、本実施の形態における人体部位推定装置の構成について説明する。図1は、人体部位推定装置の一例を示す図である。図1に示すように、人体部位推定装置1は、特徴分布生成部2と、基準方向算出部3と、分割領域設定部4と、特徴量算出部5と、推定部6とを有する。
特徴分布生成部2は、深度を有する人体部位画像のうち、特徴部位画像の深度分布に基づいて、特徴部位画像の応答値が特徴部位画像以外の人体部位画像の応答値より大きくなるように特徴分布画像を生成する。基準方向算出部3は、特徴分布画像に基づいて、特徴分布画像の人体部位に対応する人体部位特徴画像における人体部位画像の基準方向を算出する。分割領域設定部4は、基準方向を基準とし、人体部位特徴画像を分割する分割領域を設定する。特徴量算出部5は、分割領域ごとに特徴量を算出する。推定部6は、分割領域ごとに算出した特徴量を、分割領域ごとに算出した特徴量に基づいて、予め学習により生成された識別器に適用して、人体部位の識別と形状とを推定する。
このように、本実施の形態では、人体部位特徴画像の形状に応じて変化する基準方向に分割領域を設定し、分割領域ごとに算出した特徴量を、予め生成した人体部位の識別と形状とを推定する識別器に適用して、人体部位の識別と形状とを推定する。そうすることで、人体部位の姿勢又は人体部位を撮像する方向により、人体部位が回転又は変形しても、人体部位画像の輪郭形状を特徴量として人体部位の識別と形状とを推定した場合より、人体部位の形状を推定する精度を向上させることができる。
また、人体部位の形状を推定する方法として、骨格推定モデルを利用した方法がある。ところが、骨格推定モデルを利用した方法は、人体部位の形状を推定する際、一般に推定処理負荷が高負荷となることが知られている。しかし、本実施の形態では、上述したように、基準方向に設定された分割領域ごとに算出した特徴量を、予め学習により生成した識別器に適用して、人体部位の識別と形状とを推定しているため、骨格推定モデルを利用した方法より、推定処理負荷を低減させることができる。
[システム構成]
続いて、図2を用いて、人体部位推定装置1及び人体部位推定装置1を有するシステムについて具体的に説明する。図2は、人体部位推定装置を有するシステムの一例を示す図である。人体部位推定システム20は、人体部位推定装置1と、深度センサ21と、識別器22とを有する。人体部位推定装置1は、更に部位候補検出部23を有している。また、推定部6は、部位推定部24と、形状推定部25と、操作推定部26とを有する。
深度センサ21(深度センサ21を有する機器)は、深度センサ21から対象物までの深度を計測し、深度情報又は深度画像を生成し、人体部位推定装置1に出力する。なお、深度センサ21は、例えば、TOF(Time of Flight)センサなどを用いてもよい。識別器22は、本実施の形態では、学習により生成された学習モデルで、後述する部位候補識別器27と、部位識別器28と、形状識別器29と、操作識別器30とを有する。
識別器27から30において用いられる学習方式としては、例えば、ニューラルネットワーク、線形判別分析法(Linear Discriminant Analysis:LDA)、サポートベクトルマシン(Support Vector Machine:SVM)、ブースティング、ランダムフォレスト(Random Forests:RFs)などがあげられる。なお、ブースティングとしては、例えば、AdaBoost(Adaptive Boosting)、又はReal AdaBoostなどがあげられる。
部位候補検出部23は、深度センサ21から深度画像を取得し、取得した深度画像の深度分布に基づいて、特定した人体部位画像の候補を検出する。また、部位候補検出部23は、人体部位画像のうち特徴部位の候補となる特徴部位画像を検出する。ただし、部位候補検出部23では、確実に特定したい人体部位画像及び特徴部位画像を検出する必要はなく、大まかに人体部位画像及び特徴部位画像を検出すればよい。その理由は、後述する特徴分布生成部2と、基準方向算出部3と、分割領域設定部4と、特徴量算出部5と、推定部6とを用いて、人体部位を精度よく検出するため、部位候補検出部23では高い検出精度を必要としないためである。従って、高い検出精度を必要としないため、人体部位推定装置1における推定処理負荷を低減することができる。
具体的に説明する。図3は、人体を撮像した深度画像の一例を示す図である。図3に示す深度画像41には、人体に対応する人体画像42が撮像されている。また、人体画像42には、腕に対応する腕画像43と、掌に対応する掌画像44と、指に対応する指画像45とが撮像されている。
部位候補検出部23は、本実施の形態では、深度画像41を取得し、深度画像41を部位候補識別器27に適用して、候補となる人体部位に対応する掌画像44と指画像45とを検出する。部位候補識別器27は、例えば、予め取得した複数の深度情報を有する掌画像と指画像と非掌画像と非指画像とをサンプルデータとし、それらサンプルデータにおける特徴量を評価し、上述した学習方式により生成された学習モデルである。
また、部位候補識別器27では、深度画像の局所領域を捉える特徴量、又は局所領域間の関連性や共起性を捉える特徴量などを用いる。具体的には、局所領域を捉える特徴量は、深度画像の輝度に着目した特徴量、又は深度画像のエッジに着目した特徴量を用いる。深度画像の輝度に着目した特徴量は、例えば、Haar-like特徴量、又はピクセル差分特徴量(数1を参照)などがあげられる。
Figure 0006892155
F(p):ピクセル差分特徴量
off1, off2:深度画像の座標系の位置pからの距離
D(p):深度画像の座標系の位置pの深度
深度画像のエッジに着目した特徴量は、例えば、EOH(Edge Orientation Histogram)特徴量、又はHOG(Histograms of Oriented Gradients)特徴量、又はEHOG(Extend HOG)特徴量、又はEdgelet特徴量などがあげられる。
また、局所領域間の関連性や共起性を捉える特徴量は、例えば、Joint Haar-like特徴量、又はスパース特徴量、又はShapelet特徴量、又はJoint HOG特徴量などがあげられる。更に、上述した特徴量の他に、SIFT(Scale-Invariant Feature Transform)、又はSURF(Speeded Up Robust Features)、又はFAST(Features from Accelerated Segment Test)などがあげられる。
特徴分布生成部2は、部位候補検出部23により検出された人体部位画像を取得し、取得した人体部位画像のうち、予め設定された特徴部位に対応する特徴部位画像に含まれる深度分布に基づいて、特定したい人体部位画像における特徴分布画像を生成する。すなわち、特徴分布画像は、特徴部位画像に関連する特徴量(応答値)が特徴部位画像以外の人体部位画像の特徴量(応答値)より大きくなるように、生成された応答値分布である。
具体的に説明する。図4は、特徴分布画像の例を示す図である。図4に示す画像51は、すべての指をひらいたときの特徴分布画像である。図4に示す画像52は、親指以外の指をつけたときの特徴分布画像である。図4に示す画像53は、人差し指と中指をひらき、親指と薬指と小指とをとじたときの特徴分布画像である。図4に示す画像54は、親指と人差し指とを軽くひらき、中指と薬指と小指とをとじたときの特徴分布画像である。また、画像51から54において、白色の部分は応答値が最大値であることを示し、黒色の部分は応答値が最小値であることを示している。また、白色と黒色との間の中間色は、白色に近づくほど応答値が高く、黒色に近づくほど応答値が低いことを示している。
また、図4に示す特徴分布画像51から54は、深度画像から検出した掌画像の深度を基準に、検出した指画像の深度に基づいて生成される。言い換えれば、特徴分布画像51から54は、指画像56の応答値が掌画像55の応答値より大きくなるように、生成された応答値分布である。
基準方向算出部3は、特徴分布生成部2により作成された特徴分布画像を取得し、取得した特徴分布画像に基づいて、後述する特徴座標を算出する。続いて、基準方向算出部3は、後述する中心座標と特徴座標とを用いて、特定したい人体部位画像における基準方向を算出する。すなわち、基準方向算出部3は、特徴分布画像の人体部位(例えば、手)に対応する人体部位特徴画像(例えば、手(掌と指とから形成される)に対応する人体部位特徴画像)における基準方向を算出する。
具体的に説明する。図5は、基準方向の算出について説明するための図である。図5に示す特徴分布画像61、62、63、64は、図4に示した特徴分布画像51、52、53、54に対応している。また、特徴分布画像61、62、63、64は、例えば、原点座標(0,0)から座標(63,63)までの64×64個の座標(ピクセル)を有するものとする。
まず、特徴座標の算出について説明する。基準方向算出部3は、特徴座標を、例えば、数2に基づいて算出する。すなわち、特徴座標は、応答値を重み付け係数として算出される。
Figure 0006892155
xd:特徴座標系のx座標
yd:特徴座標系のy座標
Resp(x,y):特徴分布画像の座標ごとの応答値
Σ(Resp(x,y)):特徴分布画像の応答値の合計
次に、基準方向の算出について説明する。基準方向算出部3は、特徴座標(xd,yd)を算出した後、特徴分布画像の掌画像55(掌に対応する人体部位特徴画像)の中心座標65(xc,yc)から算出した特徴座標(xd,yd)へ向かう方向を算出し、この方向を基準方向66とする。すなわち、基準方向算出部3は、中心座標65から指画像56(指に対応する人体部位特徴画像)方向に向かう基準方向を算出する。中心座標65は、掌画像55の大きさから算出した中心位置、又は掌画像55の重心位置などである。
このように、基準方向算出部3を用いて基準方向66を算出することで、図5の特徴分布画像61から64に示すように、手の形状に応じて基準方向66の方向を変化させることができる。すなわち、人体部位が回転又は変形などしても、手の形状が同じであれば、基準方向66の方向は手の形状に対して同じ方向に向くようにできる。
分割領域設定部4は、基準方向算出部3により算出された基準方向を取得し、取得した基準方向を基準として、人体部位特徴画像を分割するための分割領域を設定する。分割領域について具体的に説明する。図6は、基準方向と分割領域との関係を説明するための図である。図6では、基準方向66と分割領域(1)から(16)とが関係付けられている。
分割領域(1)から(16)は、中心座標65を中心点とした円形67を、半径方向に二分割し、更に角度方向を八分割して形成される領域である。ただし、分割領域は、図6に示すような形状に限定されるものではない。また、図6において基準方向66は、分割領域(1)(9)と分割領域(8)(16)との境界に設定される。
図7は、特徴分布画像に基準方向と分割領域とを適用した例を示す図である。図7に示す特徴分布画像71、72、73、74は、図5に示した特徴分布画像61、62、63、64に対応し、図5に示した基準方向66に図6に示した分割領域(1)から(16)を適用した図である。このように、分割領域設定部4を用いて、基準方向66を基準に分割領域(1)から(16)を設定することで、図7の特徴分布画像71から74に示したように、手の形状に応じて分割領域の位置を変化させることができる。すなわち、人体部位が回転又は変形などしても、手の形状が同じであれば、分割領域の位置は手の形状に対して同じ位置にできる。
特徴量算出部5は、分割領域設定部4で設定した分割領域ごとに特徴量を算出する。分割領域ごとに算出する特徴量について具体的に説明する。特徴量は、例えば、分割領域の応答値の合計値、平均値、分散値のいずれか一つ(一次元)、又は分割領域の合計値、平均値、分散値のうちの二つの組み合わせ(二次元)、又は分割領域の合計値、平均値、分散値すべて(三次元)などを用いることが考えられる。更に、特徴量は、分割領域に含まれる応答値のヒストグラム(任意の分割に対応する次元)を用いてもよい。
続いて、特徴量算出部5は、算出した特徴量を用いて、特徴量ベクトルを生成する。特徴量ベクトルの生成について具体的に説明する。図8は、特徴量ベクトルの一例を示す図である。図8に示すヒスとグラムと特徴量ベクトルとは、分割領域を図6に示した分割領域(1)から(16)とし、特徴量を応答値の合計値と平均値とし、一つの座標(ピクセル)の応答値の範囲を0.0から1.0とした場合のものである。また、図8に示す特徴量ベクトルは、分割領域(1)から(16)の順に、応答値の合計値と平均値とが記述されている。すなわち、図8に示す特徴量ベクトルには、分割領域(1)に対応する応答値の合計値10と平均値5と、分割領域(2)に対応する応答値の合計値8と平均値4と、分割領域(3)に対応する応答値の合計値10と平均値5と、分割領域(4)に対応する応答値の合計値8と平均値4.5と、分割領域(5)に対応する応答値の合計値11と平均値5.5と……分割領域(16)に対応する応答値の合計値10と平均値5とが記述されている。
推定部6は、部位推定部24、形状推定部25、操作推定部26を有する。部位推定部24は、特徴量算出部5から特徴量ベクトルを取得し、取得した特徴量ベクトルに基づいて、特定した人体部位を推定する。また、形状推定部25は、特徴量算出部5又は部位推定部24から特徴量ベクトルを取得し、取得した特徴量ベクトルに基づいて、人体部位のうち特徴部位を推定する。
部位推定部24について具体的に説明する。部位推定部24は、本実施の形態では、特徴量算出部5から取得した特徴量ベクトルを、部位識別器28に適用して、特定したい人体部位を推定する。部位推定部24は、例えば、手であるか否かを推定する。部位識別器28は、予め取得した複数の手画像(人体部位特徴画像)から得られた特徴量ベクトルをサンプルデータとし、それらサンプルデータを評価し、上述した学習方式により生成された学習モデルである。例えば、推定したい人体部位が手である場合、部位識別器28は、手を推定するための学習モデルである。
形状推定部25について具体的に説明する。形状推定部25は、本実施の形態では、特徴量算出部5から取得した特徴量ベクトルを、形状識別器29に適用して、特定したい人体部位の形状を推定する。形状推定部25は、例えば、人体部位を用いる操作(例えば、ジェスチャ操作)で用いられる人体部位の形状を推定する。形状識別器29は、例えば、予め取得した複数の手画像(人体部位特徴画像)から得られた特徴量ベクトルをサンプルデータとし、それらサンプルデータを評価し、上述した学習方式により生成された学習モデルである。例えば、ジェスチャ操作で用いられる人体部位の形状を推定したい場合、形状識別器29は、ジェスチャ操作で用いられる人体部位の形状を推定するための学習モデルである。
操作推定部26は、複数の推定された人体部位の形状の状態遷移を操作特徴量とし、操作特徴量を、操作特徴量に基づいて、予め学習により生成された操作識別器30に適用して、人体部位を用いたジェスチャ操作を推定する。
操作推定部26について具体的に説明する。操作推定部26は、本実施の形態では、形状推定部25から、複数の推定された人体部位の形状の状態を示す情報を取得する。特定したいジェスチャ操作がピンチイン操作である場合、次のような(A)(B)(C)状態を示す情報を取得する。
(A)親指の指先と人差し指の指先とが開かれ、中指と薬指と小指とが閉じられた状態
(B)親指の指先と人差し指の指先とが付くまでの一つ以上の状態
(C)親指の指先と人差し指の指先とが付いた状態
また、特定したいジェスチャ操作がピンチアウト操作である場合、次のような(D)(E)(F)状態を示す情報を取得する。
(D)親指の指先と人差し指の指先とが付けられ、中指と薬指と小指とが閉じられた状態
(E)親指の指先と人差し指の指先とが所定位置まで開くまでの一つ以上の状態
(F)親指の指先と人差し指の指先とが所定位置まで開かれた状態
続いて、操作推定部26は、推定された人体部位の形状の状態の遷移を操作特徴量とし、操作識別器30に適用して、人体部位を用いたジェスチャ操作を推定する。操作特徴量は、ピンチイン操作である場合、状態(A)→(B)→(C)の状態遷移とし、ピンチアウト操作である場合、状態(D)→(E)→(F)の状態遷移とする。
操作識別器30は、例えば、予め取得した複数のジェスチャ操作における状態遷移をサンプルデータとし、それらサンプルデータを評価し、上述した学習方式により生成されたジェスチャ操作を推定するための学習モデルである。
[変形例]
上述した基準方向は、手の摂動などによって方向が変化するため、基準方向算出部3は、中心座標を基準に、基準方向を、所定角度の回転又は所定距離の移動をさせる、基準方向と別の摂動用基準方向を設ける。更に、分割領域設定部4は、摂動用基準方向に対しても分割領域を設定する。なお、所定角度又は所定距離は、予め設定してもよいし、実際の摂動を計測し、その摂動に応じて設定してもよい。また、特徴量算出部5は、摂動用基準方向を用いる場合、基準方向及び摂動用基準方向の特徴量ベクトルの記述をする。その場合、特徴量ベクトルの次元は二倍となり、基準方向だけのときより二倍記述が増える。
このようにすることで、摂動の影響により人体部位が動いたために、基準方向を用いて正確に人体部位の識別と形状との推定ができない場合でも、摂動用基準方向を用いることで、人体部位の識別と形状との推定する精度を向上させることができる。更に、ジェスチャ操作を推定する精度を向上させることができる。なお、摂動用基準方向は複数用意してもよい。
[装置動作]
本実施の形態における人体部位推定方法は、図1及び図2に示した本実施の形態における人体部位推定装置1を動作させることによって実施される。このため、本実施の形態における人体部位推定方法の説明は、以下の人体部位推定装置の動作説明に代える。また、本発明の実施の形態における人体部位推定装置の動作について図9、図10を用いて説明する。図9は、人体部位推定装置において人体部位の識別と形状とを推定する動作の一例を示す図である。図10は、人体部位推定装置において人体部位を用いた操作を推定する動作の一例を示す図である。なお、以下の説明においては、適宜図1から図8を参酌しながら説明をする。
まず、人体部位推定装置1において人体部位の識別と形状とを推定する動作について説明する。人体部位推定装置1は、図9に示すように、深度を有する人体部位画像のうち、特徴部位画像の深度分布に基づいて、特徴部位画像の応答値が特徴画像以外の人体部位画像の応答値より大きくなるように特徴分布画像を生成する(ステップA1)。続いて、人体部位推定装置1は、特徴分布画像に基づいて、人体部位特徴画像の基準方向を算出する(ステップA2)。続いて、人体部位推定装置1は、基準方向を基準とし、人体部位特徴画像を分割する分割領域を設定する(ステップA3)。続いて、人体部位推定装置1は、分割領域ごとに特徴量を算出する(ステップA4)。続いて、人体部位推定装置1は、分割領域ごとに算出した特徴量を、識別器22に適用して、人体部位の識別と形状とを推定する(ステップA5)。
具体的に説明する。ステップA1において、人体部位推定装置1の特徴分布生成部2は、部位候補検出部23により検出された、予め設定された特徴部位に対応する特徴部位画像(指画像45)を取得する。続いて、特徴分布生成部2は、特徴部位画像に含まれる深度分布に基づいて、特定したい人体部位画像における特徴分布画像を生成する。すなわち、特徴分布画像は、検出した指画像45の深度分布に基づいて生成される。言い換えれば、特徴分布画像は、指画像56の特徴量(応答値)が掌画像55の特徴量(応答値)より大きくなるように、生成された応答値分布である。
ステップA2において、人体部位推定装置1の基準方向算出部3は、特徴分布生成部2から特徴分布画像を取得し、上述した数2に基づいて、特徴座標を算出する。続いて、基準方向算出部3は、中心座標と特徴座標とを用いて、特定したい人体部位画像における基準方向を算出する。
ステップA3において、人体部位推定装置1の分割領域設定部4は、基準方向算出部3により算出された基準方向を取得し、取得した基準方向を基準として、人体部位特徴画像を分割するための分割領域を設定する。
ステップA4において、人体部位推定装置1の特徴量算出部5は、分割領域ごとに特徴量を算出する。続いて、特徴量算出部5は、算出した特徴量を用いて、特徴量ベクトルを生成する。
ステップA5において、人体部位推定装置1の部位推定部24は、特徴量算出部5から取得した特徴量ベクトルを、部位識別器28に適用して、特定したい人体部位を推定する。人体部位推定装置1の形状推定部25は、特徴量算出部5から取得した特徴量ベクトルを、形状識別器29に適用して、特定したい人体部位の形状を推定する。
続いて、人体部位推定装置1において人体部位を用いた操作を推定する動作について説明する。人体部位推定装置1は、図10に示すように、複数の推定された人体部位の形状を取得する(ステップA6)。続いて、人体部位推定装置1は、複数の推定された人体部位の状態遷移を操作特徴量とする(ステップA7)。続いて、人体部位推定装置1は、操作特徴量を、操作特徴量に基づいて、予め学習により生成された識別器22に適用して、人体部位を用いた操作を推定する(ステップA8)。
具体的に説明する。ステップA6において、人体部位推定装置1の操作推定部26は、形状推定部25から、複数の推定された人体部位の形状を取得する。人体部位推定装置1の操作推定部26は、例えば、ジェスチャ操作にかかる時間を設定し、設定した時間において順番に撮像された深度画像に基づいて、形状推定部25により推定された人体部位の形状を取得する。
ステップA7において、人体部位推定装置1の操作推定部26は、推定された人体部位の形状の状態遷移を操作特徴量とする。人体部位推定装置1の操作推定部26は、例えば、ピンチイン操作である場合、上述した状態(A)→(B)→(C)の状態遷移を操作特徴量とする。また、人体部位推定装置1の操作推定部26は、ピンチアウト操作である場合、上述した状態(D)→(E)→(F)の状態遷移を操作特徴量とする。
ステップA8において、人体部位推定装置1の操作推定部26は、操作特徴量を、操作識別器30に適用して、人体部位を用いた操作を推定する。操作識別器30は、例えば、予め取得した複数のジェスチャ操作における状態遷移をサンプルデータとし、それらサンプルデータを評価して、上述した学習方式により生成された学習モデルである。
[本実施の形態の効果]
以上のように本実施の形態によれば、人体部位特徴画像の形状に応じて変化する基準方向に分割領域を設定し、分割領域ごとに算出した特徴量を、予め生成した人体部位の識別と形状とを推定する識別器に適用して、人体部位の識別と形状とを推定する。そうすることで、人体部位の姿勢又は人体部位を撮像する方向により、人体部位が回転又は変形しても、手の形状が同じであれば、基準方向は手の形状に対して同じ方向に向くようにできるため、人体部位の形状を推定する精度を向上させることができる。
また、本実施の形態では、基準方向に設定された分割領域ごとに算出した特徴量を、予め学習により生成した識別器に適用して、人体部位の識別と形状とを推定しているため、骨格推定モデルを利用した方法より、推定処理負荷を低減させることができる。
更に、特定したい人体部位の識別と形状とを推定する精度が向上するため、推定した人体部位の識別と形状とを用いて推定するジェスチャ操作についても、ジェスチャ操作を推定する精度が向上する。
[プログラム]
本発明の実施の形態における人体部位推定プログラムは、コンピュータに、図9、図10に示すステップを実行させるプログラムであればよい。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における人体部位推定装置1と人体部位推定方法とを実現することができる。この場合、コンピュータのプロセッサは、少なくとも特徴分布生成部2、基準方向算出部3、分割領域設定部4、特徴量算出部5、推定部6として機能し、処理を行なう。
また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されてもよい。この場合は、例えば、各コンピュータが、それぞれ、少なくとも特徴分布生成部2、基準方向算出部3、分割領域設定部4、特徴量算出部5、推定部6のいずれかとして機能してもよい。
[物理構成]
ここで、実施の形態におけるプログラムを実行することによって、人体部位推定装置1を実現するコンピュータについて図11を用いて説明する。図11は、本発明の実施の形態における人体部位推定装置1を実現するコンピュータの一例を示すブロック図である。
図11に示すように、コンピュータ110は、CPU(Central Processing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。なお、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)などを有していてもよい。
CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)などの揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであってもよい。
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリなどの半導体記憶装置があげられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)などの汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)などの磁気記録媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記録媒体があげられる。
なお、本実施の形態における人体部位推定装置1は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、人体部位推定装置1は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
[付記]
以上の実施の形態に関し、更に以下の付記を開示する。なお、上述した実施の形態の一部又は全部は、以下に記載する(付記1)から(付記6)によって表現することができるが、以下の記載に限定されるものではない。
(付記1)
深度を有する人体部位画像のうち、特徴部位画像の深度分布に基づいて、前記特徴部位画像の応答値が前記特徴部位画像以外の前記人体部位画像の応答値より大きくなるように特徴分布画像を生成する、特徴分布生成部と、
前記特徴分布画像に基づいて、前記特徴分布画像の人体部位に対応する人体部位特徴画像における基準方向を算出する、基準方向算出部と、
前記基準方向を基準とし、前記人体部位特徴画像を分割する分割領域を設定する、分割領域設定部と、
前記分割領域ごとに特徴量を算出する、特徴量算出部と、
前記分割領域ごとに算出した前記特徴量を、前記分割領域ごとに算出した前記特徴量に基づいて、予め学習により生成された識別器に適用して、前記人体部位の識別と形状とを推定する、推定部と、
を有することを特徴とする人体部位推定装置。
(付記2)
付記1に記載の人体部位推定装置であって、
前記推定部は、複数の推定された前記人体部位の形状の状態遷移を操作特徴量とし、前記操作特徴量を、前記操作特徴量に基づいて、予め学習により生成された前記識別器に適用して、前記人体部位を用いた操作を推定する
ことを特徴とする人体部位推定装置。
(付記3)
(a)深度を有する人体部位画像のうち、特徴部位画像の深度分布に基づいて、前記特徴部位画像の応答値が前記特徴部位画像以外の前記人体部位画像の応答値より大きくなるように特徴分布画像を生成する、ステップと、
(b)前記特徴分布画像に基づいて、前記特徴分布画像の人体部位に対応する人体部位特徴画像における基準方向を算出する、ステップと、
(c)前記基準方向を基準とし、前記人体部位特徴画像を分割する分割領域を設定する、ステップと、
(d)前記分割領域ごとに特徴量を算出する、ステップと、
(e)前記分割領域ごとに算出した前記特徴量を、前記分割領域ごとに算出した前記特徴量に基づいて、予め学習により生成された識別器に適用して、前記人体部位の識別と形状とを推定する、ステップと、
を有することを特徴とする人体部位推定方法。
(付記4)
付記3に記載の人体部位推定方法であって、
(f)複数の推定された前記人体部位の形状の状態遷移を操作特徴量とし、前記操作特徴量を、前記操作特徴量に基づいて、予め学習により生成された前記識別器に適用して、前記人体部位を用いた操作を推定する、ステップと、
を有することを特徴とする人体部位推定方法。
(付記5)
コンピュータに、
(a)深度を有する人体部位画像のうち、特徴部位画像の深度分布に基づいて、前記特徴部位画像の応答値が前記特徴部位画像以外の前記人体部位画像の応答値より大きくなるように特徴分布画像を生成する、ステップと、
(b)前記特徴分布画像に基づいて、前記特徴分布画像の人体部位に対応する人体部位特徴画像の基準方向を算出する、ステップと、
(c)前記基準方向を基準とし、前記人体部位画像を分割する分割領域を設定する、ステップと、
(d)前記分割領域ごとに特徴量を算出する、ステップと、
(e)前記分割領域ごとに算出した前記特徴量を、前記分割領域ごとに算出した前記特徴量に基づいて、予め学習により生成された識別器に適用して、前記人体部位の識別と形状とを推定する、ステップと、
を実行させるプログラム。
(付記6)
付記5に記載のプログラムであって、
前記プログラムが、前記コンピュータに、
(f)複数の推定された前記人体部位の形状の状態遷移を操作特徴量とし、前記操作特徴量を、前記操作特徴量に基づいて、予め学習により生成された前記識別器に適用して、前記人体部位を用いた操作を推定する、ステップを実行させプログラム。
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2018年1月16日に出願された日本出願特願2018−004591を基礎とする優先権を主張し、その開示の全てをここに取り込む。
以上のように本発明によれば、人体部位の識別と形状とを推定する精度を向上させることができる。本発明は、人体部位推定が必要な分野において有用である。
1 人体部位推定装置
2 特徴分布生成部
3 基準方向算出部
4 分割領域設定部
5 特徴量算出部
6 推定部
20 人体部位推定システム
21 深度センサ
22 識別器
23 部位候補検出部
24 部位推定部
25 形状推定部
26 操作推定部
27 部位候補識別器
28 部位識別器
29 形状識別器
30 操作識別器
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス

Claims (6)

  1. 深度を有する人体部位画像のうち、特徴部位画像の深度分布に基づいて、前記特徴部位画像の応答値が前記特徴部位画像以外の前記人体部位画像の応答値より大きくなるように特徴分布画像を生成する、特徴分布生成部と、
    前記特徴分布画像に基づいて、前記特徴分布画像の人体部位に対応する人体部位特徴画像における基準方向を算出する、基準方向算出部と、
    前記基準方向を基準とし、前記人体部位特徴画像を分割する分割領域を設定する、分割領域設定部と、
    前記分割領域ごとに特徴量を算出する、特徴量算出部と、
    前記分割領域ごとに算出した前記特徴量を、前記分割領域ごとに算出した前記特徴量に基づいて、予め学習により生成された識別器に適用して、前記人体部位の識別と形状とを推定する、推定部と、
    を有することを特徴とする人体部位推定装置。
  2. 請求項1に記載の人体部位推定装置であって、
    前記推定部は、複数の推定された前記人体部位の形状の状態遷移を操作特徴量とし、前記操作特徴量を、前記操作特徴量に基づいて、予め学習により生成された前記識別器に適用して、前記人体部位を用いた操作を推定する
    ことを特徴とする人体部位推定装置。
  3. (a)深度を有する人体部位画像のうち、特徴部位画像の深度分布に基づいて、前記特徴部位画像の応答値が前記特徴画像以外の前記人体部位画像の応答値より大きくなるように特徴分布画像を生成する、ステップと、
    (b)前記特徴分布画像に基づいて、前記特徴分布画像の人体部位に対応する人体部位特徴画像における基準方向を算出する、ステップと、
    (c)前記基準方向を基準とし、前記人体部位特徴画像を分割する分割領域を設定する、ステップと、
    (d)前記分割領域ごとに特徴量を算出する、ステップと、
    (e)前記分割領域ごとに算出した前記特徴量を、前記分割領域ごとに算出した前記特徴量に基づいて、予め学習により生成された識別器に適用して、前記人体部位の識別と形状とを推定する、ステップと、
    を有することを特徴とする人体部位推定方法。
  4. 請求項3に記載の人体部位推定方法であって、
    (f)複数の推定された前記人体部位の形状の状態遷移を操作特徴量とし、前記操作特徴量を、前記操作特徴量に基づいて、予め学習により生成された前記識別器に適用して、前記人体部位を用いた操作を推定する、ステップと、
    を有することを特徴とする人体部位推定方法。
  5. コンピュータに、
    (a)深度を有する人体部位画像のうち、特徴部位画像の深度分布に基づいて、前記特徴部位画像の応答値が前記特徴画像以外の前記人体部位画像の応答値より大きくなるように特徴分布画像を生成する、ステップと、
    (b)前記特徴分布画像に基づいて、前記特徴分布画像の人体部位に対応する人体部位特徴画像の基準方向を算出する、ステップと、
    (c)前記基準方向を基準とし、前記人体部位画像を分割する分割領域を設定する、ステップと、
    (d)前記分割領域ごとに特徴量を算出する、ステップと、
    (e)前記分割領域ごとに算出した前記特徴量を、前記分割領域ごとに算出した前記特徴量に基づいて、予め学習により生成された識別器に適用して、前記人体部位の識別と形状とを推定する、ステップと、
    を実行させるプログラム。
  6. 請求項5に記載のプログラムであって、
    記コンピュータに、
    (f)複数の推定された前記人体部位の形状の状態遷移を操作特徴量とし、前記操作特徴量を、前記操作特徴量に基づいて、予め学習により生成された前記識別器に適用して、前記人体部位を用いた操作を推定する、ステップを実行させる命令を更に含む、
    プログラム。
JP2019566469A 2018-01-16 2019-01-15 人体部位推定装置、人体部位推定方法、及びプログラム Active JP6892155B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018004591 2018-01-16
JP2018004591 2018-01-16
PCT/JP2019/000937 WO2019142787A1 (ja) 2018-01-16 2019-01-15 人体部位推定装置、人体部位推定方法、及びコンピュータ読み取り可能な記録媒体

Publications (2)

Publication Number Publication Date
JPWO2019142787A1 JPWO2019142787A1 (ja) 2021-01-07
JP6892155B2 true JP6892155B2 (ja) 2021-06-23

Family

ID=67301719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019566469A Active JP6892155B2 (ja) 2018-01-16 2019-01-15 人体部位推定装置、人体部位推定方法、及びプログラム

Country Status (2)

Country Link
JP (1) JP6892155B2 (ja)
WO (1) WO2019142787A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111611997B (zh) * 2020-04-30 2023-04-18 青岛联合创智科技有限公司 一种基于人体动作迁移的卡通定制形象运动视频生成方法
WO2022138584A1 (ja) * 2020-12-21 2022-06-30 株式会社リヴァンプ 情報処理装置、情報処理方法及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4692159B2 (ja) * 2004-08-31 2011-06-01 パナソニック電工株式会社 ジェスチャースイッチ
JP2010267004A (ja) * 2009-05-13 2010-11-25 Nippon Telegr & Teleph Corp <Ntt> 物体認識装置、物体認識方法及びプログラム
JP6487642B2 (ja) * 2014-07-01 2019-03-20 国立大学法人 筑波大学 手指形状の検出方法、そのプログラム、そのプログラムの記憶媒体、及び、手指の形状を検出するシステム。
JP2017068437A (ja) * 2015-09-29 2017-04-06 富士通株式会社 物体検出装置、物体検出方法、及び物体検出プログラム

Also Published As

Publication number Publication date
WO2019142787A1 (ja) 2019-07-25
JPWO2019142787A1 (ja) 2021-01-07

Similar Documents

Publication Publication Date Title
US10572072B2 (en) Depth-based touch detection
CN107710111B (zh) 确定用于接近敏感相互作用的俯仰角
US8542928B2 (en) Information processing apparatus and control method therefor
JP5297530B2 (ja) 画像処理装置、及びインターフェース装置
US9443325B2 (en) Image processing apparatus, image processing method, and computer program
US11017210B2 (en) Image processing apparatus and method
CN110413190B (zh) 为触摸屏交互确定俯仰和偏航
KR20200111617A (ko) 제스처 인식 방법, 장치, 전자 기기 및 저장 매체
KR101612605B1 (ko) 얼굴 특징점 추출 방법 및 이를 수행하는 장치
JP6393230B2 (ja) オブジェクト検出方法及び画像検索システム
JP6432162B2 (ja) 画像照合方法、画像照合装置、モデルテンプレート生成方法、モデルテンプレート生成装置、およびプログラム
CN108573471B (zh) 图像处理装置、图像处理方法以及记录介质
JP6071002B2 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
JP6892155B2 (ja) 人体部位推定装置、人体部位推定方法、及びプログラム
JP5704909B2 (ja) 注目領域検出方法、注目領域検出装置、及びプログラム
JP2021144359A (ja) 学習装置、推定装置、学習方法、及びプログラム
Fang et al. Feature covariance matrix-based dynamic hand gesture recognition
JP7254262B2 (ja) 作業推定装置、作業推定方法、及び、作業推定プログラム
Badi et al. RETRACTED ARTICLE: Feature extraction and ML techniques for static gesture recognition
JP2021034016A (ja) 電子装置、該電子装置で指紋映像を処理する方法、及び記録媒体
JP7120690B2 (ja) 関節位置推定装置、関節位置推定方法およびプログラム
WO2022181252A1 (ja) 関節点検出装置、学習モデル生成装置、関節点検出方法、学習モデル生成方法、及びコンピュータ読み取り可能な記録媒体
JP7362453B2 (ja) モデル作成装置及びモデル作成方法
Zeng et al. Face alignment refinement
WO2022181251A1 (ja) 関節点検出装置、関節点検出方法、及びコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200709

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210520

R150 Certificate of patent or registration of utility model

Ref document number: 6892155

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150