JP2017107503A - 情報処理装置、情報処理方法、プログラムおよびシステム - Google Patents

情報処理装置、情報処理方法、プログラムおよびシステム Download PDF

Info

Publication number
JP2017107503A
JP2017107503A JP2015242616A JP2015242616A JP2017107503A JP 2017107503 A JP2017107503 A JP 2017107503A JP 2015242616 A JP2015242616 A JP 2015242616A JP 2015242616 A JP2015242616 A JP 2015242616A JP 2017107503 A JP2017107503 A JP 2017107503A
Authority
JP
Japan
Prior art keywords
information
skeleton
correction
unit
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015242616A
Other languages
English (en)
Inventor
基継 室井
Mototsugu Muroi
基継 室井
前田 大輔
Daisuke Maeda
大輔 前田
英成 佐藤
Hidenari Sato
英成 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015242616A priority Critical patent/JP2017107503A/ja
Priority to KR1020160125564A priority patent/KR101886511B1/ko
Publication of JP2017107503A publication Critical patent/JP2017107503A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】運動する被験者の骨格情報のうち注目部位に対応する位置を精度良く求めることが可能な情報処理装置、情報処理方法、プログラムおよびシステムを提供する。【解決手段】本発明に係る情報処理装置は、取得部と補正部とを備える。取得部は、運動する被験者の各部の関節を推定した結果を示す骨格情報を取得する。補正部は、取得部により取得された骨格情報と、基準姿勢のときの被験者の各部の関節を推定した結果を示す基準骨格情報とを用いて、骨格情報のうち注目部位に対応する位置を示す第1の位置情報を補正する。【選択図】図11

Description

本発明は、情報処理装置、情報処理方法、プログラムおよびシステムに関する。
近年、例えば高齢者の転倒防止、介護予防、健康寿命の延伸などを目的とした体幹強化による介護予防トレーニングにおいて、可視化された動作情報を被験者へ提示するトレーニングサポートシステムが開発されている。このような介護予防トレーニングでは、特に腰、肩、膝などの動きが重要となる場合が多い。
可視化された動作情報を被験者へ提示する技術として、例えば特許文献1には、ゲームユーザによる動作を模倣するように調整可能なユーザのモデル(骨格情報)を生成することを目的として、シーンをキャプチャして得られた深度画像から抽出したオブジェクトに基づいてモデルの特徴を決定し、ユーザによる動作に応答してモデルを調整することで、モデルをトラッキングする技術が開示されている。
介護トレーニングをはじめ、腰、肩、膝等の動きが重要である運動を行う被験者に自己の動作情報を提示する場合には、運動のポイントとなる腰、肩、膝等の動きを精度良く提示することが必要となる。しかしながら、従来技術では、骨格情報のうち注目すべき部位(注目部位)に対応する位置を精度良く求めることができない場合があるという問題がある。
本発明は、上記に鑑みてなされたものであって、運動する被験者の骨格情報のうち注目部位に対応する位置を精度良く求めることが可能な情報処理装置、情報処理方法、プログラムおよびシステムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、運動する被験者の各部の関節を推定した結果を示す骨格情報を取得する取得部と、前記取得部により取得された前記骨格情報と、基準姿勢のときの前記被験者の各部の関節を推定した結果を示す基準骨格情報とを用いて、前記骨格情報のうち注目部位に対応する位置を示す第1の位置情報を補正する補正部と、を備える情報処理装置である。
本発明によれば、運動する被験者の骨格情報のうち注目部位に対応する位置を精度良く求めることができるという有利な効果を奏する。
図1は、システムの概略構成の一例を示す図である。 図2は、運動器具を利用した運動を説明するための図である。 図3は、運動器具の概略構成の一例を示す図である。 図4は、運動器具の駆動部の正面図である。 図5は、運動器具の駆動部の側面図である。 図6は、情報処理システムのハードウェア構成の一例を示す図である。 図7は、情報処理装置のハードウェア構成の一例を示す図である。 図8は、モード選択画面の一例を示す図である。 図9は、トレーニングアイテム選択画面の一例を示す図である。 図10は、モーション画像の一例を示す図である。 図11は、情報処理装置が有する機能の一例を示す図である。 図12は、情報処理装置の動作例を示すフローチャートである。 図13は、補正処理の具体的内容を示すフローチャートである。 図14は、第2の実施形態の情報処理装置が有する機能の一例を示す図である。 図15は、教師情報の一例を示す図である。 図16は、第2の実施形態の情報処理装置が有する詳細な機能の一例を示す図である。 図17は、第2の実施形態の情報処理装置の動作例を示すフローチャートである。 図18は、第3の実施形態の情報処理装置が有する機能の一例を示す図である。
以下、添付図面を参照しながら、本発明に係る情報処理装置、情報処理方法、プログラムおよびシステムの実施形態を詳細に説明する。
(第1の実施形態)
図1は、本実施形態のシステム1の概略構成の一例を示す図である。図1に示すように、システム1は、被験者が利用(使用)する運動器具10と、情報処理システム20とを備え、これらはアーム部30を介して機械的に接続されている。
本実施形態の運動器具10は、介護予防や運動能力向上に効果がある運動(トレーニング)を被験者に行わせるためのマシンである。被験者は運動器具10を利用して、図2の(A)に示すような、足を回転させずに交互に前後へ移動させる「すり足運動」、または、図2の(B)に示すような、足を回転させながら交互に前後へ移動させる「足こぎ運動」を行うことができる。
図3は、運動器具10の概略構成の一例を示す図である。図3に示すように、運動器具10は、手摺部301と、被験者の右足および左足と1対1に対応する2つの負荷ユニット302と、モーター303と、モーター303の駆動を制御するための駆動制御コントローラー304とを備える。
図4は、運動器具10の駆動に関する部分(駆動部)の正面図である。モーター303の駆動力は、モーター歯車310、歯付きベルト311、歯車312、シャフト313、歯車314を介して、左右一対の歯付きベルト315に伝達される。左右の負荷ユニット302の各々はクランク316と同軸で連結され、クランク先端には回転フリーのペダル317が連結している。
図5の(A)は、図4の左側の側面図である。モーター303の駆動により、歯付きベルト315に連結するコロ320がガイド321上を往復運動する。図5の(A)では負荷ユニット302等の図示を省略している。図5の(B)は、図4の右側の側面図である。コロ320(図5の(B)では不図示)には回転フリーのクランク316が連結しており、クランク316の先端には回転フリーのペダル317が連結している。図5の(C)は、図4の左側の側面図であり、負荷ユニット302を図示した図である。クランク316(図5の(C)では不図示)の同軸上には負荷ユニット302が設けられ、クランク316の回転負荷を調節可能な構成となっている。本実施形態の運動器具10の構成は、特開平9−154989号公報に開示されたスプリント・トレーニング・マシンと同様の構成である。なお、運動器具10の構成は、以上の構成に限られるものではない。要するに、運動器具10を利用する運動の種類は「足こぎ運動」に限られるものではなく、様々な運動を採用することができる。
次に、情報処理システム20の構成について説明する。図6は、情報処理システム20のハードウェア構成の一例を示す図である。図6に示すように、情報処理システム20は、センサ40と、リモコン50と、情報処理装置60と、出力装置70とを備える。説明の便宜上、ここでは、本実施形態に関するハードウェア要素を主に例示して説明するが、情報処理システム20が有するハードウェア要素は図6の例に限られるものではない。
センサ40は、運動器具10を利用して運動する被験者を検出するための検出領域(予め定められている)を所定のフレームレートで撮像するカメラ(RGBカメラ)41と、検出領域の被写体の深度情報を検出する深度センサ42を備える。深度センサ42は、例えば、検出領域の深度画像を撮像することにより、深度センサ42から検出領域の被写体までの深度(距離)を検出し得る。なお、被写体には、検出領域内の被験者や運動器具10等が含まれる。センサ40は、例えばKinect(登録商標) v2で構成される。この例では、センサ40は、撮像画像および深度情報を所定のフレームレートで連続的に出力する。
リモコン50は、各種の操作を受け付ける操作デバイスであり、この例では赤外線リモコンが採用されている。リモコン50は、受け付けた操作に応じた操作信号(赤外線の点灯/消灯で表現される)を情報処理装置60へ出力する。
情報処理装置60は、センサ40やリモコン50から入力される情報に基づいて各種の情報処理を行う装置であり、例えばPC(Personal Computer)で構成される。図7は、情報処理装置60のハードウェア構成の一例を示す図である。説明の便宜上、図7の例では、最低限のハードウェア要素を主に例示しているが、情報処理装置60が有するハードウェア要素は、これらに限られるものではない。また、この例では、情報処理装置60には、後述の見本動画が入力される。
図7に示すように、情報処理装置60は、CPU61と、ROM62と、RAM63と、I/F64とを備える。CPU61は、情報処理装置60の動作を統括的に制御する。
ROM62は、プログラム等の各種のデータを記憶する不揮発性のメモリである。RAM63は、CPU61が実行する各種の処理の作業領域(ワークエリア)として機能する揮発性のメモリである。I/F64は、他の外部機器(例えばセンサ40等)と通信(接続)するためのインタフェースである。
出力装置70としては、運動器具10を利用して運動する被験者と対面するように配置される表示装置71と、スピーカー72とを含む。表示装置71は、例えば液晶型ディスプレイ装置で構成される。
本実施形態では、情報処理装置60には、運動器具10を利用して運動する被験者の運動状態(トレーニング状態)を可視化/分析した映像を出力するためのアプリケーション(以下、「トレーニングアプリケーション」と称する場合がある)がインストールされている。このアプリケーションが起動すると、情報処理装置60は、カメラ41からの撮像画像と、深度センサ42からの深度情報の取得を開始し、撮像画像と深度情報とから、該撮像画像に映り込んだ被験者の身体の各部の関節を推定して骨格情報(スケルトンデータ)を得る。この骨格情報を得る方法は、公知の様々な技術を利用することができる(例えばKinect v2に対応するアプリケーションを用いる形態などが考えられる)。そして、図8に示すように、撮像画像と骨格情報とを重ね合わせた画像の上に、各種のモードを選択するためのボタン画像を表示した画面(モード選択画面)を表示装置71に出力(表示)する。以下の説明では、撮像画像と骨格情報とを重ね合わせた画像は、被験者の各部の動きを特定するための「モーション画像」と称する場合がある。図8の例では、選択されたボタン画像を見易くするために半透明の黒を全面に被せ、選択されたボタン画像の背景色の透過率は、選択されていないボタン画像の背景色の透過率に比べて低くなるように設定される構成である。
本実施形態では、各種のモードとして、トレーニングモード、見本動画モードの2つのモードがある。トレーニングモードは、トレーニングアイテムを表示して画面を見ながらトレーニングを行うモードである。見本動画モードは、見本となるトレーナーの動画(見本動画)を再生するモードである。
また、本実施形態では、トレーニングアプリケーションの起動中に、リモコン50の「メニュー」ボタンの押下を受け付けた場合、図9に示すような、トレーニングアイテムを選択するための画面(トレーニングアイテム選択画面)を表示装置71に出力する。この例では、トレーニングアイテムの項目として、「スケルトン」、「基準線」、「腰高ターゲット」、「腰の水平回転」、「左右バランス」、「重心ポジション」、「腰の軌跡」、「アバター」、「膝ガイド」、「足上げタイミング」の10項目が用意されており、何れか1つ以上の項目を任意に選択することができる。図9の例では、10種類の項目ごとに、該項目の選択/非選択を切り替えるためのON/OFFボタンが表示され、「ON」が押下されると該項目が選択され、「OFF」が押下されると該項目が非選択となる。トレーニングモードでは、選択された項目に対応するトレーニングアイテムが表示されることになる。また、図9の例では、選択したトレーニングアイテムの詳細な内容(各種のパラメータ設定値)を可変に設定するための詳細設定ボタン80も表示されている。
説明の便宜上、本実施形態では、トレーニングアイテムの項目として「スケルトン」が選択されていることを前提として説明する。この例では、「スケルトン」に対応するトレーニングアイテムは上記骨格情報であり、トレーニングモード中は、図10に示すようなモーション画像が表示装置71に表示される。
図10の例では、関節を表す関節マーカーの種類として、Head201、SpineShoulder202、ShoulderLeft203、ShoulderRight204、ElbowLeft205、ElbowRight206、SpineMid207、SpineBase208、HipLeft209、HipRight210、KneeLeft211、KneeRight212、AnkleLeft213、AnkleRight214が存在する。なお、関節マーカーの数および種類は、パラメータ設定値の設定に応じて任意に変更可能である。
また、図10の例では、隣接する関節マーカー同士を結ぶ直線を示す体軸補助線の種類として、Head201とSpineShoulder202を結んだ直線221、SpineShoulder202とShoulderLeft203を結んだ直線222、SpineShoulder202とShoulderRight204を結んだ直線223、ShoulderLeft203とElbowLeft205を結んだ直線224、ShoulderRight204とElbowRight206を結んだ直線225、SpineShoulder202とSpineMid207を結んだ直線226、SpineMid207とSpineBase208を結んだ直線227、HipLeft209とHipRight210を結んだ直線228、HipLeft209とKneeLeft211を結んだ直線229、HipRight210とKneeRight212を結んだ直線230、KneeLeft211とAnkleLeft213を結んだ直線231、KneeRight212とAnkleRight214を結んだ直線232が存在する。
次に、図11を用いて、本実施形態の情報処理装置60が有する機能を説明する。図11は、本実施形態の情報処理装置60が有する機能の一例を示す図である。以下においては、トレーニングアイテムの項目として「スケルトン」が選択されているトレーニングモード時に関する情報処理装置60の機能を中心に説明する。図11に示すように、情報処理装置60は、受付部101と、画面切替制御部102と、取得部103と、補正部104と、基準骨格情報記憶部105と、基準骨格情報生成部106と、出力制御部107とを有する。説明の便宜上、図11の例では、本実施形態に関する機能を主に例示しているが、情報処理装置60が有する機能はこれらに限られるものではない。
受付部101は、各種の操作を受け付ける。例えば受付部101は、リモコン50からの操作信号を受け付ける機能を有している。画面切替制御部102は、受付部101で受け付けた操作などに応じて、表示装置71に表示する画面を切り替える制御を行う。
取得部103は、運動器具10を利用して運動する被験者の各部の関節を推定した結果を示す骨格情報(スケルトンデータ)を取得する。本実施形態では、取得部103は、被験者を検出するための検出領域を撮像する撮像部(この例ではカメラ41)により生成された撮像画像と、検出領域の被写体の深度情報を検出する深度センサ42により検出された深度情報とから、該撮像画像に映り込んだ被験者の各部の関節を推定した結果を示す骨格情報を取得する。より具体的には、取得部103は、センサ40から撮像画像と深度情報を受け取るたびに、その受け取った撮像画像と深度情報とから骨格情報を生成し、その生成した骨格情報を取得する。このようにして、取得部103は連続して骨格情報を取得する。なお、例えば撮像画像と深度情報とから骨格情報を生成する機能が取得部103とは別に設けられ、取得部103は、該機能から骨格情報を受け取る形態であってもよい。
補正部104は、取得部103により取得された骨格情報と、基準姿勢のときの被験者の各部の関節を推定した結果を示す基準骨格情報とを用いて、該骨格情報のうち注目部位に対応する位置を示す第1の位置情報を補正する。補正の具体的な内容については後述する。ここで、本実施形態の運動器具10を利用した「すり足運動」、または、「足こぎ運動」においては、図10に示すSpineShoulder202、ShoulderLeft203、ShoulderRight204、SpineMid207、SpineBase208、HipLeft209、HipRight210などの動きが重要であり、特に、HipLeft209、HipRight210を含む「腰」の動きが重要である。そのため、トレーニングアイテムの項目として「スケルトン」が選択されているトレーニングモードにおいては、注目すべき部位となる腰の位置の推定精度が高い骨格情報を含むモーション画像を、被験者に提示することが望まれる。
以下では、注目部位として、HipLeft209、HipRight210が予め設定されている場合を例に挙げて説明するが、これに限らず、注目部位は任意に変更可能である。情報処理装置60は、例えばユーザの操作などに応じて、注目部位を可変に設定する機能を有する形態であってもよい。
基準骨格情報記憶部105は基準骨格情報を記憶する。基準骨格情報生成部106は基準骨格情報を生成する。この例では、基準骨格情報生成部106は、トレーニングモードが選択されると、トレーニングモードを開始する前に、被験者に対して、基準姿勢(例えば直立不動の姿勢(正面を向いて立っているときの姿勢))をとることを促す情報を出力(例えば該情報を表示装置71に表示、もしくは、該情報をスピーカー72から出力)する。そして、この情報の出力後、取得部103により連続して取得される骨格情報の変化量が閾値以下になった場合の骨格情報を、基準骨格情報として生成することができる。
説明の便宜上、ここでは、トレーニングモードを開始する前に、予め基準骨格情報が生成されている(基準骨格情報記憶部105に記憶されている)ことを前提とするが、これに限らず、例えば基準骨格情報が予め生成されない形態であってもよい。この形態においては、例えば補正部104は、後述の補正時に、基準骨格情報が基準骨格情報記憶部105に記憶されているか否かを確認し、基準骨格情報が基準骨格情報記憶部105に記憶されていない場合は、基準骨格情報生成部106に対して基準骨格情報の生成を依頼し、この依頼を受けた基準骨格情報生成部106が上記のようにして基準骨格情報を生成することもできる。
次に、補正部104による補正の具体的な内容を説明する。補正部104は、補正後の第1の位置情報と、補正前の第1の位置情報(現在の第1の位置情報)と、基準骨格情報のうち注目部位に対応する位置を示す第2の位置情報との関係を表す補正関数に対して、取得部103により取得された骨格情報のうち注目部位に対応する位置を示す情報を補正前の第1の位置情報として入力するとともに、第2の位置情報を入力して、補正後の第1の位置情報を算出する。より具体的には、補正部104は、補正前の第1の位置情報と第2の位置情報との差分に対して、補正関数の係数を表す補正パラメータを乗算して得られる値と、第2の位置情報とを加算した値を、補正後の第1の位置情報として算出する。上述したように、この例では、注目部位として、HipLeft209、HipRight210が予め設定されているので、補正部104は、取得部103により取得された骨格情報のうちHipLeft209に対応する位置を示す情報(第1の位置情報に相当)およびHipRight210に対応する位置を示す情報(第1の位置情報に相当)の各々を補正する。なお、上記補正パラメータ(補正関数を表す数式等のデータ)は、ROM62やHDD等の記憶装置に保存される。
本実施形態では、補正後の第1の位置情報をS’、補正前の第1の位置情報をS、第2の位置情報をSbase、補正パラメータをαとすると、上記補正関数は、以下の式1のように表すことができる。
Figure 2017107503
なお、本実施形態では、補正関数は1次関数で表されているが、これに限らず、例えば補正関数は、以下の式2のように2次関数で表される形態であってもよい。
Figure 2017107503
上記式2においては、係数α、βが補正パラメータに相当する。
さらに、例えば補正関数は、以下の式3のようにn次関数で表される形態であってもよい。
Figure 2017107503
上記式3においては、係数αが補正パラメータに相当する。
補正部104は、取得部103により骨格情報が取得されるたびに、以上に説明したようにして、その取得された骨格情報のうち注目部位に対応する位置を示す第1の位置情報を補正する。
出力制御部107は、補正部104により注目部位に対応する位置が補正された後の骨格情報を、被験者を検出するための検出領域を撮像して得られる撮像画像(該骨格情報の元となる撮像画像)上に重ね合わせたモーション画像を表示装置71から出力させる制御を行う。この例では、出力制御部107は、補正部104による補正が行われるたびに、補正後の骨格情報を含むモーション画像を表示装置71に表示する制御を行う。
図12は、本実施形態の情報処理装置60の動作例を示すフローチャートである。図12に示すように、取得部103は骨格情報を取得する(ステップS1)。次に、補正部104は、ステップS1で取得された骨格情報と、基準骨格情報記憶部105に予め記憶されている基準骨格情報とに基づいて、ステップS1で取得された骨格情報のうち注目部位に対応する位置を示す第1の位置情報を補正する処理を行う(ステップS2)。
図13は、図12に示すステップS2の補正処理の具体的な内容を示すフローチャートである。図13に示すように、補正部104は、上述の式1で表される補正関数に対して、図12に示すステップS1で取得された骨格情報のうち注目部位に対応する位置を示す情報を補正前の第1の位置情報として入力する(ステップS11)。上述したように、この例では、注目部位として、HipLeft209、HipRight210が予め設定されているので、ここでは補正部104は、図12に示すステップS1で取得された骨格情報のうちHipLeft209に対応する位置を示す情報を補正前の第1の位置情報Sとして入力することを想定する。
次に、補正部104は、上述の式1で表される補正関数に対して、基準骨格情報のうち注目部位に対応する位置を示す第2の位置情報Sbaseを入力する(ステップS12)。ここでは、補正部104は、基準骨格情報のうちHipLeft209に対応する位置を示す第2の位置情報Sbaseを入力することを想定する。これにより、補正部104は、補正後の第1の位置情報S’(骨格情報のうち補正後のHipLeft209に対応する位置を示す情報)を算出することができる(ステップS13)。
次に、補正部104は、予め設定された全ての注目部位の補正が完了したか否かを確認する(ステップS14)。ステップS14の結果が肯定の場合(ステップS14:Yes)、処理は終了する。ステップS14の結果が否定の場合(ステップS14:No)、補正部104は、未補正の注目部位を選択し(ステップS15)、その選択した注目部位について、上述のステップS11以降の処理を繰り返す。この例では、補正部104は、未補正の注目部位としてHipRight210を選択し、上述のステップS11以降の処理を行うという具合である。以上が補正処理の具体的な内容である。
図12に戻って説明を続ける。ステップS2の後、出力制御部107は、ステップS2の補正処理により注目部位に対応する位置が補正された後の骨格情報を、該骨格情報の元となる撮像画像上に重ね合わせたモーション画像を表示装置71に表示する制御を行う(ステップS3)。
以上に説明したように、本実施形態の情報処理装置60は、運動器具10を利用して運動する被験者の各部の関節を推定した結果を示す骨格情報と、基準姿勢のときの被験者の各部の関節を推定した結果を示す基準骨格情報とを用いて、該骨格情報のうち注目部位に対応する位置を示す第1の位置情報を補正する。これにより、運動器具10を利用して運動する被験者の骨格情報のうち注目部位に対応する位置を精度良く求めることができる。
(第2の実施形態)
次に、第2の実施形態について説明する。上述の第1の実施形態と共通する部分については適宜に説明を省略する。図14は、本実施形態の情報処理装置60が有する機能の一例を示す図である。図14に示すように、情報処理装置60は、教師情報記憶部110と、算出部111とをさらに備える。
教師情報記憶部110は、教師情報を記憶する。ここでは、教師情報は、複数の時間ごとに、該時間における第1の位置情報と正解情報との組を対応付けた情報である。正解情報は、カメラ41および深度センサ42とは異なる他のセンサを用いたモーションキャプチャ(光学式、機械式、磁気式等の何れであってもよく、公知の様々な技術を利用可能)により被験者の各部の関節を推定した結果を示す第2の骨格情報のうち注目部位に対応する位置を示す情報である。この例では、教師情報記憶部110は、予め設定された1以上の注目部位と1対1に対応する1以上の教師情報を記憶する。図15は、任意の注目部位jに対応する教師情報の一例を示す図である。図15に示す教師情報は、複数(図15の例ではn+1個)の時間(時点)ごとに、基準骨格情報のうち注目部位jに対応する位置を示す第2の位置情報と、該時間における骨格情報のうち注目部位jに対応する位置を示す第1の位置情報と、該時間における第2の骨格情報のうち注目部位jに対応する位置を示す正解情報とを対応付けた情報である。
ここでは、教師情報は、カメラ41、深度センサ42、他のセンサなどを利用して事前に作成されている。より具体的には、図16に示すように、本実施形態の情報処理装置60は、教師情報を生成する教師情報生成部112と、上述の第2の骨格情報を取得する第2の取得部113とをさらに有する。
教師情報生成部112は、教師情報を生成する場合、取得部103に対して骨格情報を連続的に取得することを要求するとともに、第2の取得部113に対して第2の骨格情報を連続的に取得することを要求する。この例では、取得部103による骨格情報の取得タイミングと、第2の取得部113による第2の骨格情報の取得タイミングとは同期しているものとする。また、この例では、教師情報を生成する前の段階において、予め基準骨格情報は生成済みであることを前提とする。
教師情報生成部112は、一定期間の間、取得部103により骨格情報が取得され、かつ、第2の取得部113により第2の骨格情報が取得されるたびに、その取得時間(取得時刻)と、基準骨格情報のうち注目部位に対応する位置を示す第2の位置情報と、取得部103により取得された骨格情報のうち該注目部位に対応する位置を示す第1の位置情報と、第2の取得部113により取得された第2の骨格情報のうち該注目部位に対応する位置を示す正解情報とを対応付けていくことで、1以上の注目部位ごとの教師情報を生成することができる。教師情報生成部112により生成された教師情報は教師情報記憶部110に記憶される。
図14および図16に示す算出部111は、教師情報記憶部110に記憶された教師情報を用いて上述の補正パラメータを算出する。この例では、算出部111は、補正後の第1の位置情報と正解情報との差分が閾値以内になるように補正パラメータを算出する。
図17は、補正パラメータを算出する場合の情報処理装置60の動作例を示すフローチャートである。図17に示すように、まず算出部111は、補正パラメータを初期化する(ステップS21)。次に、算出部111は、補正部104に対して、教師情報を用いた補正処理を依頼する(ステップS22)。この依頼を受けた補正部104は、教師情報に含まれる複数の時間ごとに、対応する第2の位置情報と、対応する第1の位置情報とを上述の補正関数に入力して、第1の位置情報を補正する。そして、その結果を算出部111へ渡す。次に、算出部111は、補正後の第1の位置情報と、正解情報との誤差を算出する(ステップS23)。この例では、算出部111は、教師情報に含まれる複数の時間ごとに、補正後の第1の位置情報と、正解情報との差分を求め、求めた差分の二乗の総和dを上記誤差として求める。この総和dは、以下の式4で表すことができる。ここでは、任意の時間t+kに対応する補正後の第1の位置情報はSk’と表記し、正解情報はSk’’と表記する。
Figure 2017107503
次に、算出部111は、ステップS23で算出した誤差(総和d)が閾値以内であるか否かを確認する(ステップS24)。ステップS24の結果が肯定の場合(ステップS24:Yes)、処理は終了する。ステップS24の結果が否定の場合(ステップS24:No)、算出部111は、学習アルゴリズムに基づいて補正パラメータを更新し(ステップS25)、ステップS22以降の処理を繰り返す。なお、学習アルゴリズムとしては、ガウス・ニュートン法や遺伝的アルゴリズム(GA)など任意の学習アルゴリズムを用いることができる。以上のようにして、算出部111は、補正後の第1の位置情報と、正解情報との差分が閾値以内になるように補正パラメータを算出する。算出部111により算出された補正パラメータは、ROM62やHDD等の記憶装置に保存される。
(第3の実施形態)
次に、第3の実施形態について説明する。上述の第1の実施形態と共通する部分については適宜に説明を省略する。図18は、本実施形態の情報処理装置60が有する機能の一例を示す図である。図18に示すように、情報処理装置60は、補正後骨格情報記憶部120と、フィルタ部121とをさらに備える。補正後骨格情報記憶部120は、補正部104により注目部位に対応する位置が補正された後の骨格情報を示す補正後骨格情報を記憶する。この例では、上述した補正部104の補正により補正後骨格情報が得られるたびに、その得られた補正後骨格情報は補正後骨格情報記憶部120に入力される。
フィルタ部121は、補正後骨格情報記憶部120に記憶された所定数の補正後骨格情報に基づいて、補正後骨格情報のフィルタリング処理(補正後骨格情報に含まれる誤差情報を除去する処理)を行う。上記所定数は任意であり、フィルタリング処理は、平均、中央値、ガウシアンフィルタなどの任意の平滑化フィルタを用いて実施することができる。そして、出力制御部107は、フィルタリング処理が施された後の補正後骨格情報を含むモーション画像を表示装置71に表示する制御を行う。
以上、本発明の実施形態を説明したが、上述の実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。本発明は、上述の実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上述の実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
上述の実施形態では、特に腰の動きが重要である運動を実施する被験者に対して自己の動作情報を提示するため、運動のポイントとなる腰に対応する骨格情報の位置の精度を高める処理を行った。同様に、肩や膝の動きが重要である運動を実施する被験者に対して自己の動作情報を提示する場合には、運動のポイントとなる肩や膝に対応する骨格情報の位置の精度を高める処理を行ってもよい。このような腰、肩、膝は、その動きを生じさせる股関節付近、肩関節付近、膝関節付近の動きが、身体を大きく動かしたとしても比較的小さいことや、外観からの特徴的な部分が少ないこともあり、対応する骨格情報の位置を精度良く求め、動きに追従することは難しい場合が多い。そのため、特に、そのような身体の部位を注目部位とする場合に、上述の実施形態を用いることにより、従来技術では精度の良くない注目部位の骨格情報の位置の精度を高めることができる。勿論、従来技術でも比較的精度良く位置を求めることができる他の身体の部位(例えば手など)を注目部位とする場合にも、さらに精度を高めるために上述の実施形態を適用してもよい。
また、以上においては、被験者が、運動器具10を利用した運動(ここでは、一例として「すり足運動」または「足こぎ運動」)を行う場合を想定しているが、これに限らず、被験者が行う運動の種類は任意である。例えば、ウォーキングの動作を伴う運動を行う被験者に対して自己の動作情報を提示してもよい。ウォーキングの運動は胸を張った姿勢で行うことが推奨されるため、ウォーキングの運動中に猫背になっているか胸を脹れているかが分かるような動作情報を被験者に提示できるとよい。その場合、背骨の中心(上述の実施形態のSpineMid207)付近の位置を精度良く求める必要があり、上述の実施形態を適用することができる。また、例えば運動器具10を利用しない運動でも、上述の実施形態は適用可能である。
また、上述した実施形態の情報処理システム20(情報処理装置60)で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよいし、インターネット等のネットワーク経由で提供または配布するように構成してもよい。また、各種プログラムを、ROM等に予め組み込んで提供するように構成してもよい。
1 システム
10 運動器具
20 情報処理システム
30 アーム部
40 センサ
41 カメラ
42 深度センサ
50 リモコン
60 情報処理装置
70 出力装置
71 表示装置
72 スピーカー
101 受付部
102 画面切替制御部
103 取得部
104 補正部
105 基準骨格情報記憶部
106 基準骨格情報生成部
107 出力制御部
110 教師情報記憶部
111 算出部
112 教師情報生成部
113 第2の取得部
120 補正後骨格情報記憶部
121 フィルタ部
特許第5739872号公報

Claims (13)

  1. 運動する被験者の各部の関節を推定した結果を示す骨格情報を取得する取得部と、
    前記取得部により取得された前記骨格情報と、基準姿勢のときの前記被験者の各部の関節を推定した結果を示す基準骨格情報とを用いて、前記骨格情報のうち注目部位に対応する位置を示す第1の位置情報を補正する補正部と、を備える、
    情報処理装置。
  2. 前記補正部は、補正後の前記第1の位置情報と、補正前の前記第1の位置情報と、前記基準骨格情報のうち前記注目部位に対応する位置を示す第2の位置情報との関係を表す補正関数に対して、前記取得部により取得された前記骨格情報のうち前記注目部位に対応する位置を示す情報を補正前の前記第1の位置情報として入力するとともに、前記第2の位置情報を入力して、補正後の前記第1の位置情報を算出する、
    請求項1に記載の情報処理装置。
  3. 前記補正部は、補正前の前記第1の位置情報と前記第2の位置情報との差分に対して、前記補正関数の係数を表す補正パラメータを乗算して得られる値と、前記第2の位置情報とを加算した値を、補正後の前記第1の位置情報として算出する、
    請求項2に記載の情報処理装置。
  4. 複数の時間ごとに、該時間における前記第1の位置情報と正解情報との組を対応付けた教師情報を用いて前記補正パラメータを算出する算出部をさらに備える、
    請求項3に記載の情報処理装置。
  5. 前記算出部は、補正後の前記第1の位置情報と前記正解情報との差分が閾値以内になるように前記補正パラメータを算出する、
    請求項4に記載の情報処理装置。
  6. 前記骨格情報は、前記被験者を検出するための検出領域を撮像する撮像部により生成された撮像画像と、前記検出領域の被写体の深度情報を検出する深度センサにより検出された前記深度情報とから、前記撮像画像に映り込んだ前記被験者の各部の関節を推定した結果を示す情報であり、
    前記正解情報は、前記撮像部および前記深度センサとは異なる他のセンサを用いたモーションキャプチャにより前記被験者の各部の関節を推定した結果を示す第2の骨格情報のうち前記注目部位に対応する位置を示す情報である、
    請求項4または5に記載の情報処理装置。
  7. 前記複数の時間ごとに、該時間に対応する前記骨格情報のうち前記注目部位に対応する位置を示す前記第1の位置情報と、該時間に対応する前記第2の骨格情報のうち前記注目部位に対応する位置を示す前記正解情報とを対応付けて前記教師情報を生成する生成部をさらに備える、
    請求項6に記載の情報処理装置。
  8. 前記補正部により前記注目部位に対応する位置が補正された後の前記骨格情報を示す補正後骨格情報を記憶する補正後骨格情報記憶部と、
    前記補正後骨格情報記憶部に記憶された所定数の前記補正後骨格情報に基づいて、前記補正後骨格情報のフィルタリング処理を行うフィルタ部と、をさらに備える、
    請求項1乃至7のうちの何れか1項に記載の情報処理装置。
  9. 前記補正部により前記注目部位に対応する位置が補正された後の前記骨格情報を、前記被験者を検出するための検出領域を撮像して得られる撮像画像上に重ね合わせたモーション画像を表示装置から出力させる制御を行う出力制御部をさらに備える、
    請求項1乃至8のうちの何れか1項に記載の情報処理装置。
  10. 前記注目部位は腰である、
    請求項1乃至9のうちの何れか1項に記載の情報処理装置。
  11. 運動する被験者の各部の関節を推定した結果を示す骨格情報を取得する取得ステップと、
    前記骨格情報と、基準姿勢のときの前記被験者の各部の関節を推定した結果を示す基準骨格情報とに基づいて、前記骨格情報のうち注目部位に対応する位置を示す第1の位置情報を補正する補正ステップと、を含む、
    情報処理方法。
  12. コンピュータに、
    運動する被験者の各部の関節を推定した結果を示す骨格情報を取得する取得ステップと、
    前記骨格情報と、基準姿勢のときの前記被験者の各部の関節を推定した結果を示す基準骨格情報とに基づいて、前記骨格情報のうち注目部位に対応する位置を示す第1の位置情報を補正する補正ステップと、を実行させるためのプログラム。
  13. 情報処理装置と、表示装置とを備えるシステムであって、
    運動する被験者の各部の関節を推定した結果を示す骨格情報を取得する取得部と、
    前記骨格情報と、基準姿勢のときの前記被験者の各部の関節を推定した結果を示す基準骨格情報とに基づいて、前記骨格情報のうち注目部位に対応する位置を示す第1の位置情報を補正する補正部と、
    前記補正部により前記注目部位に対応する位置が補正された後の前記骨格情報を、前記被験者を検出するための検出領域を撮像して得られる撮像画像上に重ね合わせたモーション画像を前記表示装置から出力させる制御を行う出力制御部と、を備える、
    システム。
JP2015242616A 2015-09-30 2015-12-11 情報処理装置、情報処理方法、プログラムおよびシステム Pending JP2017107503A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015242616A JP2017107503A (ja) 2015-12-11 2015-12-11 情報処理装置、情報処理方法、プログラムおよびシステム
KR1020160125564A KR101886511B1 (ko) 2015-09-30 2016-09-29 정보 처리 장치 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015242616A JP2017107503A (ja) 2015-12-11 2015-12-11 情報処理装置、情報処理方法、プログラムおよびシステム

Publications (1)

Publication Number Publication Date
JP2017107503A true JP2017107503A (ja) 2017-06-15

Family

ID=59059951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015242616A Pending JP2017107503A (ja) 2015-09-30 2015-12-11 情報処理装置、情報処理方法、プログラムおよびシステム

Country Status (1)

Country Link
JP (1) JP2017107503A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019005466A (ja) * 2017-06-28 2019-01-17 Necソリューションイノベータ株式会社 身体特性分析装置、身体特性分析方法、及びプログラム
JP2019045211A (ja) * 2017-08-30 2019-03-22 キヤノン株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
WO2020031741A1 (ja) * 2018-08-10 2020-02-13 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム
JP2020086511A (ja) * 2018-11-15 2020-06-04 株式会社ドワンゴ データ補正装置およびプログラム
CN112424849A (zh) * 2019-01-02 2021-02-26 松下电器(美国)知识产权公司 信息处理装置、信息处理方法及程序
WO2021054347A1 (ja) * 2019-09-20 2021-03-25 国立大学法人筑波大学 動き学習装置、制御装置及びプログラム
JP7396258B2 (ja) 2020-12-03 2023-12-12 トヨタ自動車株式会社 制御装置、歩行訓練システム、制御方法及び制御プログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08314527A (ja) * 1995-05-22 1996-11-29 Ricoh Elemex Corp ロボットの動作教示システム
JPH10149445A (ja) * 1996-11-19 1998-06-02 Image Joho Kagaku Kenkyusho 身体動作解析可視化装置
JP2002008043A (ja) * 2000-06-16 2002-01-11 Matsushita Electric Ind Co Ltd 動作解析装置及び動作解析方法
JP2004264060A (ja) * 2003-02-14 2004-09-24 Akebono Brake Ind Co Ltd 姿勢の検出装置における誤差補正方法及びそれを利用した動作計測装置
JP2015011404A (ja) * 2013-06-26 2015-01-19 シャープ株式会社 動作認識処理装置
JP2015505089A (ja) * 2011-12-16 2015-02-16 ウニヴェルシテート ツ リューベック 姿勢を推定する方法及び装置
JP2015104397A (ja) * 2013-11-28 2015-06-08 国立大学法人 筑波大学 歩行訓練装置及び歩行訓練システム
JP2015109937A (ja) * 2013-01-23 2015-06-18 株式会社東芝 動作情報処理装置
JP2015167008A (ja) * 2013-07-30 2015-09-24 キヤノン株式会社 姿勢推定装置、姿勢推定方法およびプログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08314527A (ja) * 1995-05-22 1996-11-29 Ricoh Elemex Corp ロボットの動作教示システム
JPH10149445A (ja) * 1996-11-19 1998-06-02 Image Joho Kagaku Kenkyusho 身体動作解析可視化装置
JP2002008043A (ja) * 2000-06-16 2002-01-11 Matsushita Electric Ind Co Ltd 動作解析装置及び動作解析方法
JP2004264060A (ja) * 2003-02-14 2004-09-24 Akebono Brake Ind Co Ltd 姿勢の検出装置における誤差補正方法及びそれを利用した動作計測装置
JP2015505089A (ja) * 2011-12-16 2015-02-16 ウニヴェルシテート ツ リューベック 姿勢を推定する方法及び装置
JP2015109937A (ja) * 2013-01-23 2015-06-18 株式会社東芝 動作情報処理装置
US20150324637A1 (en) * 2013-01-23 2015-11-12 Kabushiki Kaisha Toshiba Motion information processing apparatus
JP2015011404A (ja) * 2013-06-26 2015-01-19 シャープ株式会社 動作認識処理装置
JP2015167008A (ja) * 2013-07-30 2015-09-24 キヤノン株式会社 姿勢推定装置、姿勢推定方法およびプログラム
JP2015104397A (ja) * 2013-11-28 2015-06-08 国立大学法人 筑波大学 歩行訓練装置及び歩行訓練システム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019005466A (ja) * 2017-06-28 2019-01-17 Necソリューションイノベータ株式会社 身体特性分析装置、身体特性分析方法、及びプログラム
JP2019045211A (ja) * 2017-08-30 2019-03-22 キヤノン株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
WO2020031741A1 (ja) * 2018-08-10 2020-02-13 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム
JP2020086511A (ja) * 2018-11-15 2020-06-04 株式会社ドワンゴ データ補正装置およびプログラム
CN112424849A (zh) * 2019-01-02 2021-02-26 松下电器(美国)知识产权公司 信息处理装置、信息处理方法及程序
CN112424849B (zh) * 2019-01-02 2023-08-04 松下电器(美国)知识产权公司 信息处理装置、信息处理方法及记录介质
WO2021054347A1 (ja) * 2019-09-20 2021-03-25 国立大学法人筑波大学 動き学習装置、制御装置及びプログラム
JP7378120B2 (ja) 2019-09-20 2023-11-13 国立大学法人 筑波大学 動き学習装置、制御装置及びプログラム
JP7396258B2 (ja) 2020-12-03 2023-12-12 トヨタ自動車株式会社 制御装置、歩行訓練システム、制御方法及び制御プログラム

Similar Documents

Publication Publication Date Title
JP2017107503A (ja) 情報処理装置、情報処理方法、プログラムおよびシステム
CN111263953B (zh) 动作状态评估系统及其装置、服务器、方法以及存储介质
US11633659B2 (en) Systems and methods for assessing balance and form during body movement
EP3986266A1 (en) Wearable joint tracking device with muscle activity and methods thereof
KR101886511B1 (ko) 정보 처리 장치 및 시스템
US20200008712A1 (en) Walking support system, walking support method, and walking support program
JP6668660B2 (ja) 情報処理装置およびシステム
JP6369811B2 (ja) 歩行解析システムおよび歩行解析プログラム
CN109219426B (zh) 康复训练辅助控制装置以及计算机能够读取的记录介质
US10646138B2 (en) Systems and methods for assessing ergonomics utilizing visual sensing
TW201909058A (zh) 活動支援方法、程式及活動支援系統
JP6633875B2 (ja) エクササイズメニュー提供システムおよびエクササイズメニュー提供方法
Barandas et al. A real time biofeedback system using visual user interface for physical rehabilitation
Capecci et al. A tool for home-based rehabilitation allowing for clinical evaluation in a visual markerless scenario
Guo et al. Exercise-specific feature extraction approach for assessing physical rehabilitation
JP7060549B2 (ja) コーチングアプリケーションの構築装置、方法およびプログラム
JP2019024579A (ja) リハビリテーション支援システム、リハビリテーション支援方法及びプログラム
Hirasawa et al. Promotion system for home-based squat training using openpose
JP2021077218A (ja) 情報処理装置、情報処理方法、および情報処理プログラム
JP2005230068A (ja) 運動支援方法と、その装置
Adolf et al. Automatic Telerehabilitation System in a Home Environment Using Computer Vision.
TWI533238B (zh) 動作偵測與判斷裝置及方法
JP2021191356A (ja) 矯正内容学習装置、動作矯正装置およびプログラム
US20220406206A1 (en) Recording medium recorded with cardiopulmonary resuscitation training program, cardiopulmonary resuscitation training method, apparatus, and system
JP2015100529A (ja) 歩容のバランス評価装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200108

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200602