JP2019045967A - 姿勢推定装置、方法、及びプログラム - Google Patents

姿勢推定装置、方法、及びプログラム Download PDF

Info

Publication number
JP2019045967A
JP2019045967A JP2017165764A JP2017165764A JP2019045967A JP 2019045967 A JP2019045967 A JP 2019045967A JP 2017165764 A JP2017165764 A JP 2017165764A JP 2017165764 A JP2017165764 A JP 2017165764A JP 2019045967 A JP2019045967 A JP 2019045967A
Authority
JP
Japan
Prior art keywords
posture
frame
value
angle
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017165764A
Other languages
English (en)
Inventor
智栄 二俣
Tomoe Futamata
智栄 二俣
中村 公治
Kimiharu Nakamura
公治 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017165764A priority Critical patent/JP2019045967A/ja
Publication of JP2019045967A publication Critical patent/JP2019045967A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】一連の動きの中での所定の瞬間における姿勢を推定する。【解決手段】抽出部14が、所定の時間間隔のフレーム毎に、一連の動作における被写体の各部位の位置が検出された複数のフレームから、一連の動作の中で、予め定めた評価対象の姿勢の前に表れる姿勢を示すフレームと、評価対象の姿勢の後に表れる姿勢を示すフレームとを抽出し、推定部16が、抽出されたフレームの各々における被写体の各部位の位置及び角度の少なくとも一方で表される姿勢に基づいて、評価対象の姿勢を推定する。【選択図】図1

Description

開示の技術は、姿勢推定装置、姿勢推定方法、及び姿勢推定プログラムに関する。
従来、赤外線センサ等を利用して非接触でセンシングした物体の3次元位置情報と、人体の関節などの各部位を連結して表した人体モデルとを用いて、被写体の動きや姿勢を認識するシステムが存在する。例えば、このようなシステムは、ゴルフのスウィング時のフォームを評価する場合などに利用される。
また、動画像のフレームレート変換処理において、動画像を構成する時間軸方向に前後する2枚のフレームの間に内挿するための補間フレームを生成する画像処理装置が提案されている。この装置は、補間フレームの生成に、当該2枚のフレームに基づいて検出される動きベクトルが利用される。
特開2007−288681号公報
赤外線センサ等を利用して、非接触で被写体の動きや姿勢を推定する従来のシステムでは、赤外線センサ等によるセンシングのフレームレートが低いため、3次元位置情報をセンシングする時間間隔が長くなってしまう。そのため、一連の動きの中で評価したい瞬間の姿勢を捉えることができない場合がある。例えば、ゴルフのスウィングにおいて、インパクトの瞬間の姿勢は、スウィングフォームを評価する上で重要であるが、特にスウィングスピードが速くなるインパクトの瞬間の姿勢を捉えることは困難である。この場合、インパクトの瞬間に最も近いタイミングでセンシングされた3次元位置情報に基づいて認識された姿勢を、インパクト時の姿勢とみなして評価することが考えられるが、これでは適切にフォームの評価が行えない場合がある。
また、動画像のフレームレートを変換する従来技術を適用して、センシングのフレームレートの低さを補間することも考えられる。しかし、従来技術においてフレーム間に挿入される補間フレームが、一連の動きの中で評価したい姿勢となる瞬間に対応しているわけではないため、フレームレートを変換する従来技術を適用しても、評価対象の姿勢を適切に評価できない場合がある。
一つの側面として、一連の動きの中での所定の瞬間における姿勢を推定することを目的とする。
一つの態様として、開示の技術は、所定の時間間隔のフレーム毎に、一連の動作における被写体の各部位の位置が検出された複数のフレームから、所定のフレームを抽出する抽出部を備える。所定のフレームは、前記一連の動作の中で、予め定めた評価対象の姿勢の前に表れる姿勢を示すフレームと、前記評価対象の姿勢の後に表れる姿勢を示すフレームとである。また、開示の技術は、前記抽出部により抽出されたフレームの各々における前記被写体の各部位の位置及び角度の少なくとも一方で表される姿勢に基づいて、前記評価対象の姿勢を推定する推定部を備える。
開示の技術は、一つの側面として、一連の動きの中での所定の瞬間における姿勢を推定することができる、という効果を有する。
本実施形態に係る姿勢推定装置の機能ブロック図である。 認識部の認識結果の一例を示す図である。 抽出部及び推定部の処理を説明するための図である。 推定部の処理を説明するための図である。 補間部の処理を説明するための図である。 補間部の処理を説明するための図である。 補間部の処理を説明するための図である。 本実施形態に係る姿勢推定装置として機能するコンピュータの概略構成を示すブロック図である。 本実施形態における姿勢推定処理の一例を示すフローチャートである。 補間処理の一例を示すフローチャートである。
以下、図面を参照して開示の技術に係る実施形態の一例を詳細に説明する。以下の実施形態では、ゴルフのスウィングにおけるインパクトの瞬間の姿勢を推定する場合について説明する。なお、ゴルフのスウィングは、開示の技術における一連の動作の一例であり、インパクトの瞬間の姿勢は、開示の技術における評価対象の姿勢の一例である。
図1に示すように、本実施形態に係る姿勢推定装置10には、3次元(3D)センサカメラ22と、表示部24とが接続される。3Dセンサカメラ22は、例えば、赤外線カメラやステレオカメラ等で実現することができる。3Dセンサカメラ22は、所定のフレームレート(例えば、30fps)で撮影範囲を撮影し、フレーム毎に、撮影範囲の各位置の3次元位置情報を計測し、姿勢推定装置10へ出力する。表示部24は、液晶ディスプレイ等で実現することができ、姿勢推定装置10による姿勢の推定結果が表示される。
また、姿勢推定装置10は、機能的には、認識部12と、抽出部14と、推定部16と、補間部18とを含む。
認識部12は、3Dセンサカメラ22から、ゴルフスウィングを行う被写体を撮影することにより得られた、複数のフレームの3次元位置情報を取得する。また、認識部12は、予め用意された人体モデルと、各フレームの3次元位置情報とに基づいて、各フレームで撮影されている被写体の各部位の3次元位置を認識する。人体モデルは、例えば、右肩、右手首、右肘、首、左肩、・・・などの各部位の位置、及び各部位の隣接関係により人体を表した3次元のモデルである。3次元位置情報と人体モデルとを用いた被写体の各部位の認識方法は、従来既知の手法を用いることができるため、ここでは詳細な説明を省略する。
図2に、認識部12による認識結果の一例を示す。図2の例では、各フレームに、各部位のX、Y、及びZの各座標値を対応付けている。なお、本実施形態では、各フレームは、連番のフレームナンバー(以下、「フレームNo.」又は単に「No.」と表記する)で識別する。また、各部位は、連番の部位番号で識別するものとし、以下では、部位番号A番の部位を「A番部位」という。
抽出部14は、認識部12の認識結果に基づいて、複数のフレームから、一連の動作の中で、予め定めた評価対象の姿勢の前に表れる姿勢を示すフレームと、評価対象の姿勢の後に表れる姿勢を示すフレームとを抽出する。より具体的には、抽出部14は、評価対象の姿勢における被写体の特定の部位の位置及び角度の少なくとも一方についての値が、一連の動作の動作方向に対してマイナスとなるフレームを、評価対象の姿勢の前に表れる姿勢を示すフレームとして抽出する。また、抽出部14は、一連の動作の動作方向に対してプラスとなるフレームを、評価対象の姿勢の後に表れる姿勢を示すフレームとして抽出する。
本実施形態では、評価対象である、ゴルフのスウィングにおけるインパクトの瞬間の姿勢を、スウィング方向に対して前方の腕の角度が鉛直方向となる姿勢と定義する。スウィング方向に対して前方の腕とは、右利きの人であれば左腕であり、左利きの人であれば右腕である。以下では、説明を簡単にするため、スウィング方向に対して前方の腕を左腕とする場合を例に説明する。
上記のインパクトの瞬間の姿勢の定義を踏まえ、より具体的に説明すると、抽出部14は、認識部12の認識結果に基づいて、各フレームにおける左腕の角度を算出する。例えば、抽出部14は、左肩の位置と左手首の位置とを結ぶ直線と、鉛直方向とのなす角を、左腕の角度として算出する。また、鉛直方向を0°とし、スウィング方向手前側(トップの姿勢側)をマイナスの角度、スウィング方向前方側(フィニッシュの姿勢側)をプラスの角度とする。
そして、抽出部14は、左腕の角度がマイナスからプラスへ切り替わる直前のフレームを、評価対象の姿勢の前に表れる姿勢を示すフレーム(以下、「前フレーム」という)として抽出する。また、抽出部14は、左腕の角度がマイナスからプラスへ切り替わった直後のフレームを、評価対象の姿勢の後に表れる姿勢を示すフレーム(以下、「後フレーム」という)として抽出する。
なお、抽出部14は、左腕の角度がマイナスからプラスへ切り替わる直前又は直後のフレームに限らず、所定数前、又は所定数後のフレームを、前フレーム又は後フレームとして抽出してもよい。
例えば、図3に示すように、No.100のフレームでの左腕の角度が−6°、No.101のフレームでの左腕の角度が+4°のが場合、抽出部14は、No.100のフレームを前フレーム、No.101のフレームを後フレームとして抽出する。
推定部16は、抽出部14により抽出されたフレームの各々における被写体の姿勢に基づいて、評価対象の姿勢がとられたタイミング、及び評価対象の姿勢を推定する。具体的には、推定部16は、特定の部位の位置及び角度の少なくとも一方について、評価対象の姿勢として予め定めた値と前フレームにおける値との差と、評価対象の姿勢として予め定めた値と後フレームにおける値との差との比率を算出する。そして、推定部16は、前フレームと後フレームとの時間間隔が、算出した比率で分配されるタイミングを、評価対象の姿勢がとられたタイミングとして推定する。
より具体的には、図3に示すように、左腕の角度について、インパクト時の角度として定義された角度「0°(鉛直方向)」と、前フレームの角度「−6°」との差は6°である。同様に、「0°」と、後フレームの角度「+4°」との差は4°である。したがって、推定部16は、前フレームとインパクト時との左腕の角度差:インパクト時と後フレームとの左腕の角度差は、3:2と算出する。推定部16は、インパクトの瞬間のフレームとして仮想したフレーム(以下、「インパクトフレーム」という)のフレームナンバーををXとおき、以下のようにXを求める。
(X−前フレームのNo.):(後フレームのNo.−X)=算出した比率
図3の例では、
(X−100):(101−X)=3:2
であるため、X=100.6と算出できる。本実施形態では、フレームNo.として連番を用いている。そのため、算出したフレームNo.と、フレーム間の時間間隔と、動作(スウィング)開始時のフレームNo.とに基づいて、No.Xのフレームのタイミング、すなわち、インパクトの瞬間のタイミング(時間情報)を算出することができる。
推定部16は、認識部12の認識結果に基づいて、前フレーム及び後フレームの各々について、評価のポイントとなる各姿勢を示す値を算出する。例えば、図4に示すように、評価のポイントとなる姿勢としては、左膝の角度、前傾角度、背骨の傾き、頭の動き等を定めておくことができる。
例えば、推定部16は、左腿の位置と左膝の位置とを結ぶ直線と、左膝の位置と左足首の位置とを結ぶ直線とのなす角を、左膝の角度として算出することができる。また、例えば、推定部16は、首と腰とを結ぶ直線と鉛直方向との前後方向のなす角度を前傾角度、横方向のなす角度を背骨の傾きとして算出することができる。また、例えば、推定部16は、前フレーム及び後フレームの各々と、それぞれのフレームの1つ前のフレームとにおける頭の位置の差を、頭の動きとして算出することができる。評価のポイントとなる姿勢や、各姿勢の算出方法は上記の例に限定されない。
推定部16は、図4に示すように、前フレームについて算出した各姿勢を示す値と、後フレームについて算出した各姿勢を示す値との差分を、上記のように算出した比率に応じて分配する。そして、推定部16は、前フレームについて算出した各姿勢を示す値、又は後フレームについて算出した各姿勢を示す値と、分配した値とに基づいて、インパクトフレームにおける評価のポイントとなる各姿勢を示す値を算出する。
例えば、図4に示すように、左膝の角度について、No.100のフレームでの値「+15°」と、No.101のフレームでの値「+17.5°」との差分は2.5°である。これを、上記の比率3:2で分配すると、+1.5°:+1.0°となる。したがって、No.100.6のインパクトフレームでの左膝の角度は、+15°+1.5°、又は17.5°−1.0°で、16.5°と算出される。
上記のように、インパクトフレームにおける評価のポイントとなる各姿勢を示す値を算出することが、評価対象の姿勢を推定することに相当する。
補間部18は、抽出部14が各フレームにおける左腕の角度を算出する際、及び推定部16がインパクトフレームにおける評価のポイントとなる各姿勢を示す値を算出する際に必要な部位の認識結果(3次元位置情報)の欠落を補間する。3Dセンサカメラ22での撮影の際に被写体の一部が障害物で隠れてしまう場合や、人体モデルを用いて各部位の3次元位置情報を認識する際の認識エラーなどにより、認識結果に欠落が生じる場合がある。以下では、認識結果が欠落しているデータを「欠落データ」という。
具体的には、補間部18は、欠落データのある部位と所定距離以内で隣接する他の部位の値が存在する場合、隣接する部位の値と、欠落データがあるフレームの直前及び直後のフレームにおける該当部位の値とに基づいて、欠落データを補間する。所定距離は、例えば、同じ傾きで動くことが想定されるほど近い部位同士であることを判定可能な値を予め定めておく。
例えば、図5に示すように、No.174のフレームにおける7番部位が欠落データであったとする。また、7番部位と6番部位とが隣接しているものとする。この場合、補間部18は、X座標、Y座標、Z座標の各々について、6番部位についてのNo.173、174、及び175の値から近似直線を算出する。そして、補間部18は、算出した近似直線と平行で、かつNo.173及び175のフレームの各々での7番部位の値との距離が最も近い直線上の、No.174に対応する値で、欠落データを補間する。
また、補間部18は、欠落データのあるフレームと、時系列順に直前又は直後のフレームにおける対応する部位の値に基づいて、欠落データを補間する。この補間方法は、欠落データのある部位と所定距離以内で隣接する他の部位が存在しない場合など、上記の隣接部位の値による補間が適用できない場合などにも適用することができる。
例えば、図6に示すように、No.211のフレームにおける4番部位が欠落データであったとする。この場合、補間部18は、X座標、Y座標、Z座標の各々について、4番部位について、No.211の前後の所定フレーム(図6の例では、No.209、210、212、213)の値から近似曲線を算出する。そして、補間部18は、算出した近似曲線上の、No.211に対応する値で、欠落データを補間する。
また、補間部18は、欠落データのある部位が存在するフレームについて、対応する部位の値が得られているフレームにおける、対応する部位の値に基づいて、欠落データを補間する。例えば、複数フレームにわたって連続して欠落データが生じている場合などには、上記のように、隣接する部位や他のフレームにおいて得られている値の近似直線や近似曲線により補間しても、精度良く補間できない場合がある。そのため、簡略化した方法で欠落データを補間するものである。
例えば、図7に示すように、No.214及び215のフレームにおける4番部位が連続して欠落データであったとする。この場合、補間部18は、No.214のフレームについては、4番部位の値が存在するフレームNo.が最も近いフレーム(図7の例ではNo.213)の値で欠落データを補間する。同様に、補間部18は、No.215のフレームについては、4番部位の値が存在するフレームNo.が最も近いフレーム(図7の例ではNo.216)の値で欠落データを補間する。
姿勢推定装置10は、例えば図8に示すコンピュータ40で実現することができる。コンピュータ40は、Central Processing Unit(CPU)41と、一時記憶領域としてのメモリ42と、不揮発性の記憶部43とを備える。また、コンピュータ40は、3Dセンサカメラ22及び表示部24等の入出力装置が接続される入出力Interface(I/F)44を備える。また、コンピュータ40は、記憶媒体49に対するデータの読み込み及び書き込みを制御するRead/Write(R/W)部45と、インターネット等のネットワークに接続される通信I/F46とを備える。CPU41、メモリ42、記憶部43、入出力I/F44、R/W部45、及び通信I/F46は、バス47を介して互いに接続される。
記憶部43は、Hard Disk Drive(HDD)、Solid State Drive(SSD)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部43には、コンピュータ40を、姿勢推定装置10として機能させるための姿勢推定プログラム50が記憶される。姿勢推定プログラム50は、認識プロセス52と、抽出プロセス54と、推定プロセス56と、補間プロセス58とを有する。
CPU41は、姿勢推定プログラム50を記憶部43から読み出してメモリ42に展開し、姿勢推定プログラム50が有するプロセスを順次実行する。CPU41は、認識プロセス52を実行することで、図1に示す認識部12として動作する。また、CPU41は、抽出プロセス54を実行することで、図1に示す抽出部14として動作する。また、CPU41は、推定プロセス56を実行することで、図1に示す推定部16として動作する。また、CPU41は、補間プロセス58を実行することで、図1に示す補間部18として動作する。これにより、姿勢推定プログラム50を実行したコンピュータ40が、姿勢推定装置10として機能することになる。なお、プログラムを実行するCPU41はハードウェアである。
なお、姿勢推定プログラム50により実現される機能は、例えば半導体集積回路、より詳しくはApplication Specific Integrated Circuit(ASIC)等で実現することも可能である。
次に、本実施形態に係る姿勢推定装置10の作用について説明する。3Dセンサカメラ22が、一連の動作としてゴルフスウィングを行った被写体を撮影し、フレーム毎に、撮影範囲の各位置の3次元位置情報を計測する。そして、3Dセンサカメラ22から出力された複数のフレームの3次元位置情報が、姿勢推定装置10に入力されると、姿勢推定装置10が、図9に示す姿勢推定処理を実行する。なお、姿勢推定処理は、開示の技術における姿勢推定方法の一例である。
ステップS12で、認識部12が、姿勢推定装置10に入力された複数のフレームの3次元位置情報を取得する。そして、認識部12が、予め用意された人体モデルと、各フレームの3次元位置情報とに基づいて、各フレームで撮影されている被写体の各部位の3次元位置を認識し、例えば、図2に示すような認識結果を取得する。
次に、ステップS14で、抽出部14が、全てのフレームについて、左腕の角度を算出するために必要な部位(例えば、左肩及び左手首)の値が存在するか否かを判定する。すなわち、抽出部14は、左腕の角度を算出するために必要な部位が欠落データとなっているフレームが存在するか否かを判定する。全てのフレームについて、左腕の角度を算出するために必要な部位の値が存在する場合には、処理はステップS16へ移行する。一方、左腕の角度を算出するために必要な部位が欠落データとなっているフレームが存在する場合には、処理はステップS40へ移行し、後述する補間処理が実行された後、ステップS16へ移行する。
ステップS16では、抽出部14が、左腕の角度が鉛直方向(0°)となっているフレーム、すなわち、インパクトの瞬間を捉えたフレームが存在するか否かを判定する。左腕の角度が鉛直方向(0°)となっているフレームが存在する場合には、処理はステップS24へ移行し、存在しない場合には、処理はステップS18へ移行する。
ステップS18では、抽出部14が、左腕の角度がマイナスからプラスへ切り替わる直前のフレームを前フレームとして抽出し、左腕の角度がマイナスからプラスへ切り替わった直後のフレームを後フレームとして抽出する。
次に、ステップS20で、推定部16が、左腕の角度について、前フレームにおける値と鉛直方向(0°)との差と、後フレームにおける値と鉛直方向との差との比率を算出する。そして、推定部16は、前フレームと後フレームとの時間間隔が、算出した比率で分配されるタイミングを、インパクトの姿勢がとられたタイミングとして推定する。
次に、ステップS22で、推定部16が、前フレーム及び後フレームの各々において、インパクト時の評価のポイントとなる各姿勢を示す値を算出するために必要な各部位の値が存在するか否かを判定する。必要な部位の値が存在する場合には、処理はステップS26へ移行する。必要な部位の値が存在しない場合には、処理はステップS40へ移行し、後述する補間処理が実行された後、ステップS26へ移行する。
一方、ステップS24では、推定部16が、上記ステップS16で、左腕の角度が鉛直方向となっていると判定されたフレームについて、インパクト時の評価のポイントとなる各姿勢を示す値を算出するために必要な各部位の値が存在するか否かを判定する。必要な部位の値が存在する場合には、処理はステップS26へ移行する。必要な部位の値が存在しない場合には、処理はステップS40へ移行し、後述する補間処理が実行された後、ステップS26へ移行する。
ステップS26では、推定部16が、上記ステップS12での認識部12による認識結果に基づいて、前フレーム及び後フレームの各々について、評価のポイントとなる各姿勢を示す値を算出する。そして、推定部16は、前フレームについて算出した各姿勢を示す値と、後フレームについて算出した各姿勢を示す値との差分を、上記ステップS20で算出した比率に応じて分配する。さらに、推定部16は、前フレームについて算出した各姿勢を示す値、又は後フレームについて算出した各姿勢を示す値と、分配した値とに基づいて、インパクトフレームにおける評価のポイントとなる各姿勢を示す値を算出する。これにより、インパクト時の姿勢が推定される。
次に、ステップS28で、推定部16が、上記ステップS26における推定結果を出力する。推定結果は、例えば、推定されたインパクトのタイミング、及びインパクト時の姿勢を示す情報を含めることができる。インパクトのタイミングは、前フレーム及び後フレームのフレームナンバーから算出した仮想のフレームのNo.であってもよいし、このフレームナンバーから算出した時間情報でもよい。また、インパクト時の姿勢を示す情報としては、上記ステップS26で算出された、評価のポイントとなる各姿勢を示す値でもよいし、これらを人体モデルとして画像化したもの、又はこれらの組み合わせであってもよい。出力された推定結果は、表示部24に表示される。推定結果が出力されると、姿勢推定処理は終了する。
ここで、図10を参照して、補間処理について説明する。
ステップS42で、補間部18が、欠落データのある部位と所定距離以内で隣接する他の部位の値が存在するか否かを判定する。肯定判定の場合、処理はステップS44へ移行し、補間部18が、所定距離以内で隣接する部位の値と、欠落データがあるフレームの直前及び直後のフレームにおける該当部位の値とに基づいて、欠落データを補間する。
一方、上記ステップS42が否定判定の場合には、処理はステップS46へ移行し、補間部18が、欠落データのあるフレームと、時系列順に直前又は直後のフレームに、対応する部位の値が存在するか否かを判定する。肯定判定の場合、処理はステップS48へ移行し、補間部18が、欠落データのあるフレームと、時系列順に直前又は直後のフレームに、対応する部位の値で欠落データを補間する。
一方、上記ステップS46が否定判定の場合には、処理はステップS50へ移行し、補間部18が、欠落データのある部位が存在するフレームについて、対応する部位の値が得られているフレームにおける、対応する部位の値に基づいて、欠落データを補間する。そして、補間処理は終了し、姿勢推定処理へリターンする。
以上説明したように、本実施形態に係る姿勢推定装置10は、一連の動きを3Dセンサカメラで撮影した複数のフレームから、評価対象の姿勢の前後の姿勢を示すフレームを抽出する。そして、姿勢推定装置10は、抽出したフレームの各々における姿勢に基づいて、評価対象の姿勢となる瞬間のタイミング及びその姿勢を推定する。これにより、一連の動きの中での所定の瞬間における姿勢を推定することができる。
また、本実施形態に係る姿勢推定装置10は、姿勢の推定に必要な部位の値が欠落している場合には、その部位に隣接する部位の値や、直前又は直後のフレームにおける対応する部位の値を用いて、欠落した値を補間する。これにより、3Dセンサカメラによる撮影時に被写体の一部が障害物で隠れてしまった場合や、人体の各部位を認識した際の認識エラー等があったとしても、評価対象の姿勢となる瞬間のタイミング及びその姿勢を推定することができる。
なお、上記実施形態では、右利きの人のスウィングを前提として説明したが、左利きの人のスウィングを評価する場合、右腕の角度が鉛直方向となる姿勢をインパクト時の姿勢とすればよい。
また、上記実施形態では、評価対象の姿勢が、ゴルフのスウィングにおけるインパクト時の姿勢である場合について説明したが、これに限定されない。例えば、野球のバッティングフォーム、体操の技、ダンスの振り付け等にも適用可能である。例えば、野球のバッティングであれば、バットがボールにミートした瞬間の姿勢を評価対象の姿勢としたり、体操の技であれば、着地や踏切の瞬間の姿勢を評価対象の姿勢としたりすることができる。
また、上記実施形態では、姿勢推定プログラム50が記憶部43に予め記憶(インストール)されている態様を説明したが、これに限定されない。開示の技術に係るプログラムは、CD−ROM、DVD−ROM、USBメモリ等の記憶媒体に記憶された形態で提供することも可能である。
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
所定の時間間隔のフレーム毎に、一連の動作における被写体の各部位の位置が検出された複数のフレームから、前記一連の動作の中で、予め定めた評価対象の姿勢の前に表れる姿勢を示すフレームと、前記評価対象の姿勢の後に表れる姿勢を示すフレームとを抽出する抽出部と、
前記抽出部により抽出されたフレームの各々における前記被写体の各部位の位置及び角度の少なくとも一方で表される姿勢に基づいて、前記評価対象の姿勢を推定する推定部と、
を含む姿勢推定装置。
(付記2)
前記抽出部は、前記評価対象の姿勢における前記被写体の特定の部位の位置及び角度の少なくとも一方についての値が、前記一連の動作の動作方向に対してマイナスとなるフレームを、前記評価対象の姿勢の前に表れる姿勢を示すフレームとして抽出し、前記一連の動作の動作方向に対してプラスとなるフレームを、前記評価対象の姿勢の後に表れる姿勢を示すフレームとして抽出し、
前記推定部は、前記特定の部位の位置及び角度の少なくとも一方について、前記評価対象の姿勢として予め定めた値と前記マイナスとなるフレームにおける値との差と、前記評価対象の姿勢として予め定めた値と前記プラスとなるフレームにおける値との差との比率と、フレーム間の前記所定の時間間隔とに基づいて、前記評価対象の姿勢がとられたタイミングを推定する
付記1に記載の姿勢推定装置。
(付記3)
前記推定部は、前記比率と、前記マイナスとなるフレーム又は前記プラスとなるフレームにおける前記被写体の各部位の位置及び角度の少なくとも一方についての値とに基づいて、前記評価対象の姿勢における各部位の位置及び角度の少なくとも一方についての値を推定する付記2に記載の姿勢推定装置。
(付記4)
位置の値が欠落している部位が存在するフレームについて、前記位置の値が欠落している部位と所定距離以内で隣接する他の部位の位置の値に基づいて、欠落している値を補間する補間部をさらに含む付記1〜付記3のいずれか1項に記載の姿勢推定装置。
(付記5)
位置の値が欠落している部位が存在するフレームについて、時系列順に前後する他のフレームにおける対応する部位の位置の値に基づいて、欠落している値を補間する補間部をさらに含む付記1〜付記3のいずれか1項に記載の姿勢推定装置。
(付記6)
位置の値が欠落している部位が存在するフレームについて、対応する部位の位置の値が得られているフレームにおける前記対応する部位の位置の値に基づいて、欠落している値を補間補間部をさらに含む付記1〜付記3のいずれか1項に記載の姿勢推定装置。
(付記7)
前記補間部は、前記抽出部によりフレームを抽出する際、及び前記推定部により前記評価対象の姿勢を推定する際に必要となる部位のうち、値が欠落している部位について補間する付記4〜付記6のいずれか1項に記載の姿勢推定装置。
(付記8)
前記一連の動作がゴルフのスウィングの場合、
前記抽出部は、スウィング方向に対して前方の腕と鉛直方向とがなす角度が、鉛直方向を基準にマイナスとなるフレームと、プラスとなるフレームとを抽出し、
前記推定部は、前記抽出部により抽出されたフレームの各々における前記被写体の各部位の位置及び角度に基づいて、前記スウィング方向に対して前方の腕の角度が鉛直方向となるインパクトの瞬間の姿勢を、前記評価対象の姿勢として推定する
付記1〜付記6のいずれか1項に記載の姿勢推定装置。
(付記9)
所定の時間間隔のフレーム毎に、一連の動作における被写体の各部位の位置が検出された複数のフレームから、前記一連の動作の中で、予め定めた評価対象の姿勢の前に表れる姿勢を示すフレームと、前記評価対象の姿勢の後に表れる姿勢を示すフレームとを抽出し、
抽出したフレームの各々における前記被写体の各部位の位置及び角度の少なくとも一方で表される姿勢に基づいて、前記評価対象の姿勢を推定する
ことを含む処理をコンピュータが実行する姿勢推定方法。
(付記10)
前記評価対象の姿勢における前記被写体の特定の部位の位置及び角度の少なくとも一方についての値が、前記一連の動作の動作方向に対してマイナスとなるフレームを、前記評価対象の姿勢の前に表れる姿勢を示すフレームとして抽出し、前記一連の動作の動作方向に対してプラスとなるフレームを、前記評価対象の姿勢の後に表れる姿勢を示すフレームとして抽出し、
前記特定の部位の位置及び角度の少なくとも一方について、前記評価対象の姿勢として予め定めた値と前記マイナスとなるフレームにおける値との差と、前記評価対象の姿勢として予め定めた値と前記プラスとなるフレームにおける値との差との比率と、フレーム間の前記所定の時間間隔とに基づいて、前記評価対象の姿勢がとられたタイミングを推定する
付記9に記載の姿勢推定方法。
(付記11)
前記比率と、前記マイナスとなるフレーム又は前記プラスとなるフレームにおける前記被写体の各部位の位置及び角度の少なくとも一方についての値とに基づいて、前記評価対象の姿勢における各部位の位置及び角度の少なくとも一方についての値を推定する付記10に記載の姿勢推定方法。
(付記12)
位置の値が欠落している部位が存在するフレームについて、前記位置の値が欠落している部位と所定距離以内で隣接する他の部位の位置の値に基づいて、欠落している値を補間することをさらに含む処理を前記コンピュータが実行する付記9〜付記11のいずれか1項に記載の姿勢推定方法。
(付記13)
位置の値が欠落している部位が存在するフレームについて、時系列順に前後する他のフレームにおける対応する部位の位置の値に基づいて、欠落している値を補間することをさらに含む処理を前記コンピュータが実行する付記9〜付記11のいずれか1項に記載の姿勢推定方法。
(付記14)
位置の値が欠落している部位が存在するフレームについて、対応する部位の位置の値が得られているフレームにおける前記対応する部位の位置の値に基づいて、欠落している値を補間することをさらに含む処理を前記コンピュータが実行する付記9〜付記11のいずれか1項に記載の姿勢推定方法。
(付記15)
フレームを抽出する際、及び前記評価対象の姿勢を推定する際に必要となる部位のうち、値が欠落している部位について補間する付記12〜付記14のいずれか1項に記載の姿勢推定方法。
(付記16)
前記一連の動作がゴルフのスウィングの場合、
スウィング方向に対して前方の腕と鉛直方向とがなす角度が、鉛直方向を基準にマイナスとなるフレームと、プラスとなるフレームとを抽出し、
抽出したフレームの各々における前記被写体の各部位の位置及び角度に基づいて、前記スウィング方向に対して前方の腕の角度が鉛直方向となるインパクトの瞬間の姿勢を、前記評価対象の姿勢として推定する
付記9〜付記14のいずれか1項に記載の姿勢推定方法。
(付記17)
所定の時間間隔のフレーム毎に、一連の動作における被写体の各部位の位置が検出された複数のフレームから、前記一連の動作の中で、予め定めた評価対象の姿勢の前に表れる姿勢を示すフレームと、前記評価対象の姿勢の後に表れる姿勢を示すフレームとを抽出し、
抽出したフレームの各々における前記被写体の各部位の位置及び角度の少なくとも一方で表される姿勢に基づいて、前記評価対象の姿勢を推定する
ことを含む処理をコンピュータに実行させるための姿勢推定プログラム。
(付記18)
前記評価対象の姿勢における前記被写体の特定の部位の位置及び角度の少なくとも一方についての値が、前記一連の動作の動作方向に対してマイナスとなるフレームを、前記評価対象の姿勢の前に表れる姿勢を示すフレームとして抽出し、前記一連の動作の動作方向に対してプラスとなるフレームを、前記評価対象の姿勢の後に表れる姿勢を示すフレームとして抽出し、
前記特定の部位の位置及び角度の少なくとも一方について、前記評価対象の姿勢として予め定めた値と前記マイナスとなるフレームにおける値との差と、前記評価対象の姿勢として予め定めた値と前記プラスとなるフレームにおける値との差との比率と、フレーム間の前記所定の時間間隔とに基づいて、前記評価対象の姿勢がとられたタイミングを推定する
付記17に記載の姿勢推定プログラム。
(付記19)
前記比率と、前記マイナスとなるフレーム又は前記プラスとなるフレームにおける前記被写体の各部位の位置及び角度の少なくとも一方についての値とに基づいて、前記評価対象の姿勢における各部位の位置及び角度の少なくとも一方についての値を推定する付記18に記載の姿勢推定プログラム。
(付記20)
位置の値が欠落している部位が存在するフレームについて、前記位置の値が欠落している部位と所定距離以内で隣接する他の部位の位置の値に基づいて、欠落している値を補間することをさらに含む処理を前記コンピュータに実行させるための付記17〜付記19のいずれか1項に記載の姿勢推定プログラム。
10 姿勢推定装置
12 認識部
14 抽出部
16 推定部
18 補間部
22 3Dセンサカメラ
24 表示部
40 コンピュータ
41 CPU
42 メモリ
43 記憶部
49 記憶媒体
50 姿勢推定プログラム

Claims (10)

  1. 所定の時間間隔のフレーム毎に、一連の動作における被写体の各部位の位置が検出された複数のフレームから、前記一連の動作の中で、予め定めた評価対象の姿勢の前に表れる姿勢を示すフレームと、前記評価対象の姿勢の後に表れる姿勢を示すフレームとを抽出する抽出部と、
    前記抽出部により抽出されたフレームの各々における前記被写体の各部位の位置及び角度の少なくとも一方で表される姿勢に基づいて、前記評価対象の姿勢を推定する推定部と、
    を含む姿勢推定装置。
  2. 前記抽出部は、前記評価対象の姿勢における前記被写体の特定の部位の位置及び角度の少なくとも一方についての値が、前記一連の動作の動作方向に対してマイナスとなるフレームを、前記評価対象の姿勢の前に表れる姿勢を示すフレームとして抽出し、前記一連の動作の動作方向に対してプラスとなるフレームを、前記評価対象の姿勢の後に表れる姿勢を示すフレームとして抽出し、
    前記推定部は、前記特定の部位の位置及び角度の少なくとも一方について、前記評価対象の姿勢として予め定めた値と前記マイナスとなるフレームにおける値との差と、前記評価対象の姿勢として予め定めた値と前記プラスとなるフレームにおける値との差との比率と、フレーム間の前記所定の時間間隔とに基づいて、前記評価対象の姿勢がとられたタイミングを推定する
    請求項1に記載の姿勢推定装置。
  3. 前記推定部は、前記比率と、前記マイナスとなるフレーム又は前記プラスとなるフレームにおける前記被写体の各部位の位置及び角度の少なくとも一方についての値とに基づいて、前記評価対象の姿勢における各部位の位置及び角度の少なくとも一方についての値を推定する請求項2に記載の姿勢推定装置。
  4. 位置の値が欠落している部位が存在するフレームについて、前記位置の値が欠落している部位と所定距離以内で隣接する他の部位の位置の値に基づいて、欠落している値を補間する補間部をさらに含む請求項1〜請求項3のいずれか1項に記載の姿勢推定装置。
  5. 位置の値が欠落している部位が存在するフレームについて、時系列順に前後する他のフレームにおける対応する部位の位置の値に基づいて、欠落している値を補間する補間部をさらに含む請求項1〜請求項3のいずれか1項に記載の姿勢推定装置。
  6. 位置の値が欠落している部位が存在するフレームについて、対応する部位の位置の値が得られているフレームにおける前記対応する部位の位置の値に基づいて、欠落している値を補間する補間部をさらに含む請求項1〜請求項3のいずれか1項に記載の姿勢推定装置。
  7. 前記補間部は、前記抽出部によりフレームを抽出する際、及び前記推定部により前記評価対象の姿勢を推定する際に必要となる部位のうち、値が欠落している部位について補間する請求項4〜請求項6のいずれか1項に記載の姿勢推定装置。
  8. 前記一連の動作がゴルフのスウィングの場合、
    前記抽出部は、スウィング方向に対して前方の腕と鉛直方向とがなす角度が、鉛直方向を基準にマイナスとなるフレームと、プラスとなるフレームとを抽出し、
    前記推定部は、前記抽出部により抽出されたフレームの各々における前記被写体の各部位の位置及び角度に基づいて、前記スウィング方向に対して前方の腕の角度が鉛直方向となるインパクトの瞬間の姿勢を、前記評価対象の姿勢として推定する
    請求項1〜請求項6のいずれか1項に記載の姿勢推定装置。
  9. 所定の時間間隔のフレーム毎に、一連の動作における被写体の各部位の位置が検出された複数のフレームから、前記一連の動作の中で、予め定めた評価対象の姿勢の前に表れる姿勢を示すフレームと、前記評価対象の姿勢の後に表れる姿勢を示すフレームとを抽出し、
    抽出したフレームの各々における前記被写体の各部位の位置及び角度の少なくとも一方で表される姿勢に基づいて、前記評価対象の姿勢を推定する
    ことを含む処理をコンピュータが実行する姿勢推定方法。
  10. 所定の時間間隔のフレーム毎に、一連の動作における被写体の各部位の位置が検出された複数のフレームから、前記一連の動作の中で、予め定めた評価対象の姿勢の前に表れる姿勢を示すフレームと、前記評価対象の姿勢の後に表れる姿勢を示すフレームとを抽出し、
    抽出したフレームの各々における前記被写体の各部位の位置及び角度の少なくとも一方で表される姿勢に基づいて、前記評価対象の姿勢を推定する
    ことを含む処理をコンピュータに実行させるための姿勢推定プログラム。
JP2017165764A 2017-08-30 2017-08-30 姿勢推定装置、方法、及びプログラム Pending JP2019045967A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017165764A JP2019045967A (ja) 2017-08-30 2017-08-30 姿勢推定装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017165764A JP2019045967A (ja) 2017-08-30 2017-08-30 姿勢推定装置、方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2019045967A true JP2019045967A (ja) 2019-03-22

Family

ID=65816520

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017165764A Pending JP2019045967A (ja) 2017-08-30 2017-08-30 姿勢推定装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2019045967A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112819852A (zh) * 2019-11-15 2021-05-18 微软技术许可有限责任公司 对基于姿态的运动进行评估
JP2021124748A (ja) * 2020-01-31 2021-08-30 Kddi株式会社 映像変換方法、装置およびプログラム
WO2021192143A1 (ja) * 2020-03-26 2021-09-30 ソニーグループ株式会社 情報処理方法、情報処理装置および情報処理システム
WO2023058241A1 (ja) * 2021-10-08 2023-04-13 富士通株式会社 追従プログラム、追従方法および情報処理装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112819852A (zh) * 2019-11-15 2021-05-18 微软技术许可有限责任公司 对基于姿态的运动进行评估
JP2021124748A (ja) * 2020-01-31 2021-08-30 Kddi株式会社 映像変換方法、装置およびプログラム
JP7231573B2 (ja) 2020-01-31 2023-03-01 Kddi株式会社 映像変換方法、装置およびプログラム
WO2021192143A1 (ja) * 2020-03-26 2021-09-30 ソニーグループ株式会社 情報処理方法、情報処理装置および情報処理システム
WO2023058241A1 (ja) * 2021-10-08 2023-04-13 富士通株式会社 追従プログラム、追従方法および情報処理装置

Similar Documents

Publication Publication Date Title
US8879787B2 (en) Information processing device and information processing method
JP2019045967A (ja) 姿勢推定装置、方法、及びプログラム
KR101738569B1 (ko) 제스쳐 인식 방법 및 시스템
JP2020005192A (ja) 情報処理装置、情報処理方法、及びプログラム
KR101616926B1 (ko) 영상 처리 장치 및 방법
JP7367764B2 (ja) 骨格認識方法、骨格認識プログラムおよび情報処理装置
JP6834590B2 (ja) 3次元データ取得装置及び方法
JP6943294B2 (ja) 技認識プログラム、技認識方法および技認識システム
JP7066122B2 (ja) 姿勢推定装置、姿勢推定方法、およびプログラム
US20210286983A1 (en) Estimation method, and computer-readable recording medium recording estimation program
US11845006B2 (en) Skeleton model updating apparatus, skeleton model updating method, and program
KR102622981B1 (ko) 딥러닝 기술을 이용한 모션 추적 시스템
US11222428B2 (en) Determining golf swing characteristics
CN114722913A (zh) 姿态检测方法、装置、电子设备及计算机可读存储介质
JP7318814B2 (ja) データ生成方法、データ生成プログラムおよび情報処理装置
JP2016081121A (ja) 情報処理装置、情報処理方法及びプログラム
CN113762129A (zh) 实时2d人体姿势估计系统中的姿势稳定系统和方法
JP3400961B2 (ja) 人物像の姿勢推定装置および人物像の姿勢推定プログラムを記録した記録媒体
WO2024135013A1 (ja) 行動解析方法、行動解析プログラム、および行動解析システム
US20230126755A1 (en) Information processing apparatus, information processing method, and imaging system
JP7533765B2 (ja) 骨格認識方法、骨格認識プログラムおよび体操採点支援システム
WO2024161613A1 (ja) データ拡張方法、データ拡張プログラムおよび情報処理装置
US20240144500A1 (en) Data conversion device, moving image conversion system, data conversion method, and recording medium
WO2022149190A1 (ja) 骨格推定装置、骨格推定方法および体操採点支援システム
JPWO2022149190A5 (ja)