JP2005198818A - 身体動作の学習支援システム及び学習支援方法 - Google Patents
身体動作の学習支援システム及び学習支援方法 Download PDFInfo
- Publication number
- JP2005198818A JP2005198818A JP2004007969A JP2004007969A JP2005198818A JP 2005198818 A JP2005198818 A JP 2005198818A JP 2004007969 A JP2004007969 A JP 2004007969A JP 2004007969 A JP2004007969 A JP 2004007969A JP 2005198818 A JP2005198818 A JP 2005198818A
- Authority
- JP
- Japan
- Prior art keywords
- learner
- target
- feature point
- learning
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】 効率的に動作学習を行うことができる学習支援システム及び学習支援方法を提供すること。
【解決手段】 学習者の2次元画像を取得する画像入力手段(1、2)と、取得された2次元画像において、学習者の特徴点を決定する特徴点抽出手段(32)と、第1の特徴点の3次元座標を算出する3次元座標算出手段(33)と、目標の特徴点を含む目標動作データを記録する記録手段(34)と、学習者の身体寸法に応じて目標動作データを変更する身体寸法調節手段(35)と、学習者の特徴点の3次元座標データ及び変更後の目標動作データを使用して目標動作及び学習者の動作を重畳した合成画像を生成する画像生成手段(36)と、合成画像を表示する表示手段(4)とを備えた学習支援システムにおいて、合成画像上で、対応する学習者の特徴点及び目標特徴点の位置ずれに応じて、学習者の特徴点を表す図形を変化させる。
【選択図】 図1
【解決手段】 学習者の2次元画像を取得する画像入力手段(1、2)と、取得された2次元画像において、学習者の特徴点を決定する特徴点抽出手段(32)と、第1の特徴点の3次元座標を算出する3次元座標算出手段(33)と、目標の特徴点を含む目標動作データを記録する記録手段(34)と、学習者の身体寸法に応じて目標動作データを変更する身体寸法調節手段(35)と、学習者の特徴点の3次元座標データ及び変更後の目標動作データを使用して目標動作及び学習者の動作を重畳した合成画像を生成する画像生成手段(36)と、合成画像を表示する表示手段(4)とを備えた学習支援システムにおいて、合成画像上で、対応する学習者の特徴点及び目標特徴点の位置ずれに応じて、学習者の特徴点を表す図形を変化させる。
【選択図】 図1
Description
本発明は、運動、舞踊などにおける身体の動作を学習するための学習支援システム及び学習支援方法に関し、特に、手本となる身体動作画像と学習者の身体動作画像とを重ねて表示する身体動作の学習支援システム及び学習支援方法に関する。
一般に、運動、舞踊などにおける身体動作の学習段階は、複数の段階に分類される。その内、初心者が所定の身体動作を習得するために行う学習段階では、模倣と反復が主となる。学習者が身体動作を反復練習によって獲得する過程において、学習者の意識の中に身体動作のパターンが形成されていく。このとき、学習者が獲得した動作パターンが誤りであった場合、即ち、目標の動作と異なったパターンを獲得してしまった場合、学習者はこれを修正しようと試みる。しかし、一旦形成されたパターンを修正するのは容易ではない。従って、学習の初期段階において、いかにして正確な動作パターンを学ぶかが身体動作の学習において最も重要である。
身体動作の学習の初期において視覚情報を与えると、効果的に学習できることが知られている。例えば、視覚情報を使用した身体動作の学習方法として、ビデオカメラなどを用いて学習者の身体動作を撮影し、学習者が動作を終えた後に自己の動作を確認する学習方法が行われている。
また、一般に身体動作の反復学習においては、動作後に情報を与えるよりも、動作中に情報を与える方が、より高い学習効果が得られる。これは、学習中にリアルタイムで自己の動作を修正できるからである。このために、下記特許文献1〜3に示すように、学習者の動作を検出し、手本となる熟練者などの画像及び検出した学習者の画像を、動作中に呈示する種々の方法が開示されている。
特開平7−124281号公報
特表平10−501156号公報
特開2001−84375号公報
しかし、上記の特許文献1〜3のような、従来の学習者の身体情報の呈示方法では、検出した学習者の動作を基準として、これに近い手本の画像を同時に表示するので、動作中の学習者は、各瞬間における学習者の身体動作が結果として望ましいか否かをリアルタイムに観察することはできるが、目標とする動作に学習者が自己の動作を合わせようと試みるという、より望ましい学習方法を学習者に行わせることができない。
また、上記の特許文献1〜3に開示されている学習方法では、学習者の習熟度に応じた視覚情報を学習者に呈示することもできない。
また、上記の特許文献1では、学習者に呈示される画像は、学習者自身から見た画像であり、学習者が自己の身体全体の動作を観察することができず、全身の身体動作の学習には効率的ではない。
また、上記の特許文献2では、学習者の身体形状を、学習者の身体に取り付けた機械的機構で検出するので、学習者が自由な動作を行うことができず、却ってフォームを崩す原因になり得る。また、学習者に呈示される画像は、学習者自身に対面する画像であり、左右が逆に表示されるので、学習者に違和感を与える問題があり、特に動きの速い動作の学習において問題となる。
本発明の目的は、上記の課題を解決すべく、所定の身体動作に関する初心者である学習者が、一人で効率的に学習を行い、比較的短期間で所定のレベルまで自己の身体動作を向上させることができるように、学習者の動作に負担とならずに、学習者に目標画像を呈示することができる身体動作の学習支援システム及び学習支援方法を提供することにある。
本発明の目的は、以下の手段によって達成される。
本発明に係る身体動作の学習支援システム(1)は、学習者の身体形状を表す学習者特徴点の3次元座標データを生成する3次元データ生成手段と、学習目標とする、複数の目標特徴点を含む時系列の目標動作データを記録する記録手段と、前記目標特徴点及び前記学習者特徴点の位置関係を調節する身体寸法調節手段と、前記学習者特徴点及び前記目標特徴点を含む、目標動作及び学習者の画像を重畳した合成画像を生成する画像生成手段と、前記合成画像を表示する表示手段とを備え、前記学習者の動作中に前記合成画像がリアルタイムに前記表示手段に表示され、前記合成画像が、所定の視点位置から前記学習者を見る視線方向で生成される画像であり、前記合成画像において、前記学習者特徴点の位置と前記学習者特徴点に対応する前記目標特徴点の位置との違いに応じて、前記学習者特徴点を表す図形を変化させることを特徴としている。
また、本発明に係る身体動作の学習支援システム(2)は、上記の身体動作の学習支援システム(1)において、前記視点位置が、前記学習者の背後に位置することを特徴としている。
また、本発明に係る身体動作の学習支援システム(3)は、上記の身体動作の学習支援システム(1)又は(2)において、前記身体寸法調節手段が、前記目標特徴点の中の所定の2つの目標特徴点間の距離と前記2つの目標特徴点に対応する前記学習者特徴点間の距離とに応じて、前記目標動作データを変更し、且つ前記画像生成手段が、前記学習者特徴点の3次元座標データと変更された前記目標動作データとを使用して、前記合成画像を生成する、又は、前記身体寸法調節手段が、前記目標特徴点の中の所定の2つの目標特徴点間の距離と前記2つの目標特徴点に対応する前記学習者特徴点間の距離とに応じて、前記学習者特徴点の3次元座標データを変更し、且つ前記画像生成手段が、前記目標動作データと変更された前記学習者特徴点の3次元座標データとを使用して、前記合成画像を生成する、又は、前記身体寸法調節手段が、前記目標特徴点の中の所定の2つの目標特徴点間の距離と前記2つの目標特徴点に対応する前記学習者特徴点間の距離とに応じて、前記目標動作データと前記学習者特徴点の3次元座標データとを変更し、且つ前記画像生成手段が、変更された前記学習者特徴点の3次元座標データと変更された前記目標動作データとを使用して、前記合成画像を生成することを特徴としている。
また、本発明に係る身体動作の学習支援システム(4)は、上記の身体動作の学習支援システム(1)〜(3)の何れかにおいて、前記3次元データ生成手段が、学習者の2次元画像を取得する、相互に異なる位置に配置された複数の画像入力手段と、前記画像入力手段によって取得された複数の前記2次元画像において、前記学習者特徴点を抽出する特徴点抽出手段と、抽出された前記学習者特徴点の3次元座標データを算出する3次元座標算出手段とを備えていることを特徴としている。
また、本発明に係る身体動作の学習支援システム(5)は、上記の身体動作の学習支援システム(1)〜(4)の何れかにおいて、第1の段階において、複数の前記学習者特徴点の一部を含む前記合成画像を生成し、その後の第2の段階において、前記学習者特徴点の全てを含む前記合成画像を生成することを特徴としている。
また、本発明に係る身体動作の学習支援システム(6)は、上記の身体動作の学習支援システム(1)〜(5)の何れかにおいて、前記学習者特徴点を表わす前記図形が、前記学習者特徴点が、対応する前記目標特徴点を基準として、前記視点位置から遠ざかる方向にずれている場合に、前記視点位置に近づく方向にずれている場合よりも、小さく表示されることを特徴としている。
また、本発明に係る身体動作の学習支援システム(7)は、上記の身体動作の学習支援システム(1)〜(6)の何れかにおいて、前記学習者特徴点を表わす前記図形が、前記学習者特徴点が、対応する前記目標特徴点を基準として、前記視点位置から遠ざかる方向にずれている場合に、前記視点位置に近づく方向にずれている場合と異なる色で表示されることを特徴としている。
また、本発明に係る身体動作の学習支援システム(8)は、上記の身体動作の学習支援システム(1)〜(7)の何れかにおいて、前記表示手段が、半透過型の頭部装着型表示装置であることを特徴としている。
また、本発明に係る身体動作の学習支援方法(1)は、学習者の身体形状を表す学習者特徴点の3次元座標データを生成する第1ステップと、記録手段から、学習目標とする、目標特徴点を含む時系列の目標動作データを読み出し、前記学習者の身体の所定部分の寸法に応じて、前記目標特徴点及び前記学習者特徴点の位置関係を調節する第2ステップと、前記学習者特徴点及び前記目標特徴点を含む、目標動作及び学習者の画像を重畳した合成画像を生成する第3ステップと、前記合成画像を表示する第4ステップとを含み、前記学習者の動作中に前記合成画像がリアルタイムに表示され、前記合成画像が、所定の視点位置から前記学習者を見る視線方向で生成される画像であり、前記合成画像において、前記学習者特徴点の位置と前記学習者特徴点に対応する前記目標特徴点の位置との違いに応じて、前記学習者特徴点を表す図形を変化させることを特徴としている。
本発明によれば、身体動作の支障となる身体的制限を学習者にほとんど与えることなく、学習者の動作と無関係に所定の速度で変化する目標の身体情報と、学習者の身体情報とを、同時に、リアルタイムに、且つ背後から見た全体像として学習者に呈示することができる。従って、学習者は、目標動作に自己の動作を合わせようと試みる学習を容易に行うことができ、同時に自己の動作を背後から客観的に見ながら学習することが可能となる。
また、本発明によれば、動作中の学習者の身体情報を、身体の各部における運動の連鎖を考慮して段階的に呈示することができる。従って、初心者に対して、学習の向上段階に応じた適切な量の動作情報を呈示することができ、情報量が多過ぎて動作のバランスを崩すことがなく、効率的に学習することができる。
また、本発明によれば、目標の身体情報と、対応する学習者の身体情報との差異の程度を、学習者の空間認識と整合させて呈示することができる。従って、学習者は、自己の動作と目標動作とのずれを、容易に認識することができ、自己の動作を目標動作に合わせる学習を効率的に行うことができる。
また、本発明によれば、表示手段として半透過型の頭部装着型表示装置を使用することによって、学習者に対して、目標動作及び学習者の動作の合成画像と、周囲の映像とを、同時に呈示することができる。従って、学習者は、目標動作及び学習者の動作の合成画像を見ている状態から焦点位置をわずかにずらすだけで、床面の位置など周囲の状況を確認できるので、周囲が見えないことによる不安を抱くことなく、安心して学習を行うことができる。
以下、本発明に係る実施の形態を、添付した図面に基づいて説明する。図1は、本発明の実施の形態に係る身体動作の学習支援システムの概略構成を示すブロック図である。本学習支援システムは、複数の画像入力手段1、2と、画像入力手段1、2からの出力信号から3次元情報を取得し、それを基に所定の2次元画像を生成する画像処理手段3と、頭部装着型の表示手段4とを備えている。画像処理手段3は、フレームバッファ31、特徴点抽出手段32、3次元座標算出手段33、記録手段34、身体寸法調節手段35、画像生成手段36、操作手段37、及びこれらを制御する制御手段(図示せず)を備えている。
図1において、画像入力手段1、2は、異なる位置に配置されて、対象物の3次元形状データを生成するために使用される2次元画像を、光学的に取り込み、その2次元画像を所定の信号として出力する手段である。例えば、取得した2次元画像をビデオ信号に変換して出力するビデオ撮像装置であり、その検知波長範囲は可視光範囲に限らず、赤外線範囲であってもよい。
画像処理手段3は、画像入力手段1、2の各々から入力される2系統のアナログ信号を、所定のタイミングでサンプリングして、2つのフレーム画像のディジタルデータとしてフレームバッファ31に記録する。特徴点抽出手段32は、フレームバッファ31からの2つのフレーム画像データを読み出して、フレーム画像毎に、対象物の形状を表す代表点である特徴点を抽出する。例えば、人体の場合には、関節を特徴点とすることができる。抽出されたフレーム画像毎の特徴点は、3次元座標算出手段33に入力され、2つのフレーム画像中の対応する特徴点を決定し、それらの特徴点の3次元座標を計算する。画像入力手段1、2によって取得される画像が、学習目標とする熟練者の画像であった場合、3次元座標データは、フレーム画像順、即ち時系列に記録手段34に記録される。
一方、画像入力手段1、2によって取得された画像が、学習者の画像であった場合、3次元座標データは、画像生成手段36に出力される。画像生成手段36では、入力された学習者の特徴点の3次元座標データと、記録手段34から読み出され、学習者の身体寸法に合わせて身体寸法調節手段35によって修正された目標動作の3次元座標データとを使用して、所定の視点位置から見た、目標動作と学習者の動作との合成画像を生成する。生成された合成画像データは、出力用ビデオバッファ(図示せず)に一時的に記録された後、表示手段4に応じたビデオ信号形式で出力されて、表示手段4に表示される。ここで、出力用ビデオバッファへの合成画像データの書き込みタイミングは、フレームバッファ31への画像データの書き込みタイミングと同じであるが、出力用ビデオバッファからの合成画像データの読み出しタイミングは表示手段4に応じて決まる。
2つのフレーム画像データからの特徴点の抽出は、フレームバッファ31に、画像入力手段1、2からの、次の新たな画像データが上書きされる前に行われる。例えば、特徴点の抽出、3次元座標の算出、合成画像の生成などの処理は、ビデオ表示の垂直ブランキング期間の間に行われる。これによって、目標動作と学習者自身の動作中の画像とを、リアルタイムに学習者に呈示することができる。学習者は、動作の反復練習を行いながら、頭部装着型の表示手段4に表示される合成画像を見て、目標動作の画像に自己の動作の画像が一致するように、自己の動作を修正する。これによって、学習者はより効率的に目標の動作を習得することができる。
また、表示手段4として、外光の一部を透過させて内部に取り込んだ光と、ディスプレイからの光とを、同時に人の目に入力することができる半透過型の頭部装着型表示装置を使用すれば、目標動作及び学習者の動作の合成画像と、周囲の風景とを、同時に学習者に呈示することができる。これによって、学習者は、目標動作及び学習者の動作の合成画像を見ている状態から焦点位置をわずかにずらすだけで、床面の位置など周囲の状況を確認できるので、周囲が見えないことによる不安を抱くことなく、安心して反復学習を行うことができる。
図2は、一例として、本学習支援システムをゴルフスイングの学習に適用する状態を示す概略構成図である。図2において、学習者5は、ゴルフクラブ6を持って、画像入力手段1、2の前で、素振り練習をする。学習者5の身体の特徴点を検出するために、複数のマーカー7が、所定の位置、例えば関節の位置に、直接的に又は着衣の上から間接的に取り付けられている。マーカーは、画像入力手段1、2に応じたものを使用する。例えば、カラー撮像用ビデオカメラを使用する場合には、身体の取り付け部位に応じた表面色を持つ、直径約4cmの球状物を使用する。また、赤外線カメラを使用する場合には、表面で赤外線を反射する物を使用する。図2において、図1と同じ構成要素には同じ符号を付しており、説明を省略する。
図3、4は、本学習支援システムの処理を示すフローチャートである。図3は、目標動作データを取得する場合における本学習支援システムの処理を示しており、図4は、学習時における本学習支援システムの処理を示している。以下、図3、4に従って、本学習支援システムの処理をさらに具体的に説明する。
まず、本学習支援システムの目標動作データの取得に関して説明する。予め、目標動作に関する熟練者(例えば、プロゴルフファーやレッスンプロなど)の身体の所定の位置に、図5に示したように複数のマーカー7を取り付け、その状態で、熟練者がゴルフクラブ6の素振りを行う。図5は熟練者を背後から見た概略図であり、マーカー7の取り付け位置の一例として、左右の肩、肘、腰、膝、踝及び手首と、第7頚椎及び第10胸椎との合計14箇所にマーカー7が取り付けられた状態を示している。また、詳細は後述するが、学習者及び熟練者の画像の大きさを調節するための基準として、熟練者の身体の所定の特徴点間の距離L0(例えば、膝と踝に対応する特徴点間の距離)を測定し、身体寸法の情報として記録する。特徴点間の距離L0は、例えば、物差しなどの測定手段を使用して直接測定しても、本学習支援システムを使用して得られる特長点の座標データから算出してもよい。
ステップS1において、操作手段37が、データ取り込み速度f0、データ取り込み時間t0、画像入力手段1、2の位置、撮像方向などの入力を受け付けて、記録手段34に記録する。例えば、データ取り込み速度f0として、120Hzのフレーム速度(120フレーム/秒)が設定される。画像入力手段1、2の位置、撮像方向は、本学習支援システムが設置された空間に対して所定の3次元座標軸を仮定し、それを基準として決定される。例えば、後述するように、学習時に、学習者5の背後から見た画像を効率的に生成するために、熟練者の背後に原点を設定し、熟練者の背後から前面に向かう方向をX軸の正の方向とする。
ステップS2において、フレーム毎に処理を行うために、制御手段によって、繰り返しカウンタk1が1に設定され、記録手段34に記録される。
ステップS3において、フレームバッファ31が、画像入力手段1、2から入力される各々のアナログ信号を、設定したデータ取り込み速度f0に対応するサンプリング周波数でサンプリングして、各々の画像入力手段1、2に対応するフレーム画像データ(ディジタルデータ)を記録する。1画素のサンプリング周波数は、ステップS1で指定されたフレーム速度f0、及び画像入力手段1、2の撮像条件(走査線数、水平ラインの画素数など)によって決定される。
ステップS4において、特徴点抽出手段32が、ステップS3で記録された2つのフレーム画像データの各々に関して、特徴点の抽出、即ちマーカー7の位置の検出を行う。特徴点の抽出は、周知の画像処理技術を使用して行うことができるので、ここでは省略する。
ステップS5において、3次元座標算出手段33が、ステップS3で記録された2つの各々のフレーム画像上の特徴点の内、対応する特徴点を決定し、各々の特徴点の3次元座標を計算する。ここで、上記したように、本学習支援システムが設置された空間に対して設定された3次元座標軸を基準として、画像入力手段1、2の位置、撮像方向の情報を使用して、各々の特徴点i(i=1〜14)の3次元座標(x0i,y0i,z0i)を計算する。ここで、1つの対象物に関する、視差のある2枚の2次元画像から、対象物の3次元形状を計算する方法は周知であり、ここでは説明を省略する。
ステップS6において、記録手段34が、ステップS5で求めた特徴点iの3次元座標(x0i,y0i,z0i)(i=1〜14)を、対応する時間情報を付して記録する。例えば、一定のフレーム速度を仮定する場合、フレーム画像毎に付した通し番号“k1”と3次元座標とを対応させ、(k1,x0i(k1),y0i(k1),z0i(k1))(i=1〜14)を記録する。
ステップS7において、目標動作の最後のフレームデータについて処理を終了したか否かを判断するために、制御手段が、目標動作の最大フレーム数nmaxとカウンタk1との大小を比較する。ここで、nmax=f0×t0である。k1がnmaxよりも小さければ、ステップS8に移行して記録手段34に記録したカウンタk1に1を加算し、ステップS3に戻り、k1がnmax以上になるまで、ステップS3〜S6の処理が繰り返えされる。
以上によって、身体寸法の情報L0を持つ熟練者の動作データである目標動作データが、時系列の3次元座標データ(n,x0i(n),y0i(n),z0i(n))(i=1〜14、n=1〜nmax)として、記録手段34に記録される。
次に、本学習支援システムで、取得した目標動作データを使用して、動作の学習を支援する場合に関して説明する。上記した目標動作データの取り込みの場合と同様に、予め、学習者5の身体の所定の位置に複数のマーカー7を取り付け、その状態で、学習者5が素振り練習を行う。以下の説明においては、マーカー7が、学習者5の左右の肩、肘、腰及び膝の合計8箇所に取り付けられた場合を説明する。
ステップS11において、操作手段37が、データ取り込み速度fg、画像入力手段1、2の位置、撮像方向などの入力を受け付け、記録手段34に記録する。データ取り込み速度fgと、使用する目標動作データを取り込んだ速度f0との関係によって、表示手段4にリアルタイムに表示させる画像の表示速度が決定される。後述するように、目標動作データを、先頭のフレームから順に使用して、合成画像の各フレームを生成するので、学習者のデータ取り込み速度fgをfg<f0に設定すれば、目標動作データを取り込んだ速度よりも遅い速度で、合成画像が表示される。例えば、f0=120[Hz]に対して、fg=60[Hz]に設定すれば、目標動作データを取り込んだ時の速さの1/2倍の速さでフレームが変化するスロー再生表示となる。
画像入力手段1、2の位置、撮像方向は、上記の目標動作データ取り込みにおいて設定した3次元座標軸と同じ座標軸を基準として指定する。ここでは、熟練者の背後に原点を設定し、熟練者の背後から前面に向かう方向をX軸の正の方向として計算された目標データ(3次元座標データ)が、記録手段34に記録されていると想定し、同様に学習者5の背後に原点を設定し、学習者5の背後から前面に向かう方向をX軸の正の方向とする。
ステップS12において、学習者5の身体の所定の特徴点間の距離Lgが測定され、身体寸法調節パラメータとして、操作部37を介して記録手段34に記録される。ここで、所定の特徴点は、記録されている目標動作を行った熟練者の身体寸法L0を測定した特徴点に対応する。また、特徴点間の距離Lgは、目標動作データの取得時と同様に、例えば、物差しなどの測定手段を使用して直接測定しても、本学習支援システムを使用して得られる特長点の座標データから算出してもよい。
ステップS13において、身体寸法調節手段35が、身体寸法調節パラメータLgを使用して、記録手段34に記録されている目標動作の全ての3次元座標データを修正する。即ち、目標動作データの取得時に測定した熟練者の身体寸法L0と、対応する学習者5の身体寸法Lgとが同じ値になるように、比率(Lg/L0)を用いて、目標動作データの任意の2つの特徴点間の距離を修正して、新たに3次元座標データ(n,x0i’(n),y0i’(n),z0i’(n))(i=1〜14、n=1〜nmax)を生成する。このように、目標動作の全フレームデータについて修正することによって、後述するように、表示手段4に重ねて表示される学習者5の画像と目標画像とをほぼ同じ大きさにすることができる。
ステップS14において、目標動作データのフレーム毎に処理を行うために、制御手段が、繰り返し処理のカウンタk2を1に設定し、記録手段34に記録する。
ステップS15において、フレームバッファ31が、上記したステップS3と同様に学習者5の2次元画像を取り込み、ステップS16において、特徴点抽出手段32が、上記したステップS4と同様に学習者5の特徴点j(j=1〜8)を抽出し、ステップS17において、3次元座標算出手段33が、上記したステップS5と同様に学習者5の特徴点jの3次元座標(xgj,ygj,zgj)(j=1〜8)を算出する。
ステップS18において、制御手段が、カウンタk2における学習者5の特徴点j(j=1〜8)の位置と、この特徴点jに対応する、目標動作データのフレーム番号k2のフレーム画像から求めた特徴点iの位置との差分を計算する。即ち、学習者5の特徴点jの3次元座標(xgj,ygj,zgj)と、この特徴点jに対応する目標の特徴点iの3次元座標データ(k2,x0i’(k2),y0i’(k2),z0i’(k2))とのX軸方向の差分Δxj=xgj−x0i’(k2) を計算する。X軸方向の差分Δxjは、学習者5の特徴点jが、対応する目標動作の特徴点iから、学習者5から見て前後何れの方向に、どの程度ずれているかを表す。
ステップS19において、制御手段が、学習者5の特徴点jを、X軸方向の差分Δxjに応じて分類する。例えば、Δxj>5[cm]、5[cm]≧Δxj≧−5[cm]、Δxj<−5[cm]の3段階に分類し、それぞれに対応してパラメータαを1、0、−1に設定する。即ち、各々の特徴点j(j=1〜8)について、データ(xgj,ygj,zgj,αj)(ここで、αj=1、0、又は−1)が決定する。
ステップS20において、画像生成手段36が、身体寸法を調節した後の目標動作の特徴点iのデータ(k2,x0i’(k2),y0i’(k2),z0i’(k2))と、ステップS19で求められた学習者5の特徴点jのデータ(xgj,ygj,zgj,αj)とを使用して、図6に示すような1フレームのCG画像(以下、スティックピクチャーと記す)を生成する。図6では、ゴルフクラブにもマーカー7を取り付けて取得した目標動作データを使用する場合を示しており、ゴルフクラブの特徴点がc1、c2として表示している。
図6に示したスティックピクチャーは、視点位置が学習者5の背後にあるとして、学習者5の特徴点jを表す円gj(j=1〜8)と、各々の特徴点jを人体の骨格に沿って接続する線分と、目標の特徴点iを表す円di(i=1〜14)と、各々の特徴点iを人体の骨格に沿って接続する線分とを重畳して表示したCG画像である。即ち、図6は、概念的には図7に示す目標のスティックピクチャーと、図8に示す学習者5のスティックピクチャーとを合成した画像である。ここで、図6中の目標のスティックピクチャーは、図7のスティックピクチャーと同じであるが、図6中の学習者5のスティックピクチャーは、図8のスティックピクチャーを基に、特徴点jに付与したパラメータαjに応じて、特徴点jを表す円gjの大きさが変化している。即ち、ステップS19で決定されたαjに応じて、特徴点jを表す円gjの大きさを、小(Δxj>5)、中(5≧Δxj≧−5)、大(Δxj<−5)と変化させてCG画像を生成する。これは、特徴点jが、特徴点iに対して、学習者5から遠ざかる方向にずれていれば小さく表示され、学習者5に近づく方向にずれていれば大きく表示されるという、人間の空間認識と整合する表示である。従って、学習者5は、目標の特徴点iから、対応する自己の特徴点jがどれだけずれているかを直感的に把握することが非常に容易となる。
ステップS21において、制御手段が、目標動作の最後のフレームデータについて処理を終了したか否かを判断するために、目標動作の最大フレーム数nmaxとカウンタk2との大小を比較する。k2がnmaxよりも小さければ、ステップS22に移行して、記録手段34のカウンタk2に1を加算し、ステップS15に戻り、k2がnmax以上になるまで、ステップS15〜S20が繰り返される。
以上によって、学習者5の動作と無関係に所定の速度で表示される目標のスティックピクチャーと、学習者5のスティックピクチャーとを、同時に学習者5に呈示することができるので、学習者5は、目標動作に自己の動作を合わせようと試みる学習を行うことが可能となる。
上記では、目標の特徴点iを表す円diに、学習者5の特徴点jを表す円gjを全て同時に重ねて表示する場合を説明したが、初心者にとって呈示する情報量が多すぎると、かえってバランスを崩し、学習効率が十分に上がらない場合が多い。これに対しては、身体の各部における運動の連鎖を考慮し、学習者5に対して情報を段階的に呈示することが有効である。例えば、ゴルフスイングなどの全身をひねる動作の場合には、足元から段階的に学習者5の特徴点jを表す円gjを呈示する。図8に示したスティックピクチャーにおいて、最初の段階では、下半身の腰、膝に取り付けた4つのマーカー7(特徴点)を表す円g5〜g8と、これらを結ぶ線分とを、目標のスティックピクチャーに重ねた画像を生成して、学習者5に呈示する。これによって、学習者5は、先ず下半身の動作を習得することができる。その後、次の段階の学習として、上半身の特徴点を表す円g1〜g4を更に加えて呈示する。これによって、上半身の動作の学習、及び全身のバランスを崩さない動作の学習を効率的に行うことができる。
特特点の情報を呈示する段階は、2段階に限定されず、更に細分化してもよい。例えば、膝、腰、肩、肘の順で特徴点の情報を順に追加(4段階)して表示してもよい。また、下半身から上半身に向けての段階的な呈示に限定されず、学習対象とする動作に依存して、例えば上半身から下半身に向かって呈示することや、その他の順序で呈示してもよい。
上記において、学習者の特徴点を表す図形(円)の大きさを変化させて表示する場合を説明したが、これに限定されない。例えば、学習者の特徴点jを、基準となる目標の特徴点iからのずれに応じて、異なる色の図形で表示してもよく、また、特徴点jを表す図形の大きさの変化に加えて、異なる色を付して表示してもよい。また、特徴点の左右、上下のずれを認識し易くするために、対応する学習者の特徴点jと目標の特徴点iとを、骨格に沿った線分の色と異なる色の線分で結んで表示してもよい。これらによって、学習者は、自己の動作と目標動作とのずれを、より容易に把握することができる。
また、学習者の特徴点の表示属性(形状、色など)を変化させる基準は、X軸方向の差分Δxjに限定されず、目標と学習者との対応する特徴点間の距離Δj(ここで、Δj 2=(xgj−x0i’(k2))2+(xgj−y0i’(k2))2+(xgj−z0i’(k2))2)を使用してもよい。
また、学習時の基準となる3次元座標軸は、目標動作データの取り込み時に設定した座標軸と異なる座標軸を使用してもよく、その場合には、両者の座標軸を一致させるように、3次元座標データを変換すればよい。
また、学習者の画像及び目標画像の大きさを調節するために、熟練者の身体寸法L0と、対応する学習者の身体寸法Lgとが同じ値になるように、目標動作データの特徴点間の距離を修正する場合を説明したが、これに限定ざれない。熟練者の身体寸法L0と、対応する学習者の身体寸法Lgとが同じ値になるように、学習者の特徴点の座標データを修正しても、目標動作データ及び学習者の特徴点の座標データの両方を修正してもよい。
また、人体へのマーカー7の取り付け位置は、図5に示した位置に限定されない。また、別の形状のマーカーを使用してもよい。
また、マーカーを使用せずに人体の特徴点の位置変化を検出する手段を使用してもよい。例えば、各々の特徴点に対応する人体の所定の位置に加速度センサを取り付け、動作による加速度センサの出力信号から得られる加速度データを時間積分することによって、各特徴点の基準時刻の位置からの軌跡を時系列の座標データとして求めることができる。その場合、この時系列の座標データを使用してスティックピクチャを作成すればよい。
また、図1においては、2つの画像入力手段1、2を示しているが、特徴点の3次元座標を算出する上で、同じ時刻における視点位置が異なる2次元画像が少なくとも2つあればよく、3つ以上の画像入力手段を備えてもよい。また、目標動作の取り込み時と、リアルタイム学習時とで、異なる数の画像入力手段を使用してもよく、例えば、測定精度を向上するために、目標動作の取り込み時に画像入力手段の数を多くすることや、リアルタイム処理を効率的に行うために、学習時に画像入力手段の数を少なくしてもよい。
また、画像入力手段が、アナログのビデオ信号を出力する場合を説明したが、各々の画像入力手段が、フレームバッファを備え、ディジタルデータを出力してもよい。この場合、画像処理手段は、フレームバッファを備えていなくてもよい。
また、目標動作データを取り込む場合、リアルタイムで処理する必要はないので、まず、熟練者の1連の動作をフレーム画像データとして取り込み、その後に、各フレーム画像上の特徴点の抽出、及び3次元座標データの算出を行ってもよい。
また、頭部装着型の表示手段を使用する場合を説明したが、これに限定されない。例えば、ゴルフスイングの学習時に、ゴルフボールを載置すると想定される床の近傍に、液晶表示装置などの表示手段を設置してもよい。
また、上記した特徴点の抽出、3次元座標の算出、合成画像の生成などの処理は、CPUを備えたコンピュータによるソフトウェアによって行ってもよい。
また、本発明に係る身体動作の学習支援システム及び学習支援方法は、ゴルフスイングの学習への適用に限定されず、テニスラケットのスイング、野球のバッティング、舞踊など種々の動作の学習に適用することができる。
以下に、実施例として、本学習支援システムをゴルフスイングの学習に適用して学習効率を評価した結果を示し、本発明の特徴とするところをより一層明確にする。
ゴルフの経験がない21〜23歳の男性6人を学習者として、次の3種類の学習方法で、各々2人の学習者にゴルフの素振りを学習させ、その結果を比較、検証した。
第1の学習方法:学習者が、学習者の前に設置した鏡を見て、自己の動作をチェックしながらゴルフスイングの学習をする。
第2の学習方法:本学習支援システムを使用して、学習者は、頭部装着型表示手段に呈示された熟練者の動作と学習者の動作とを表すスティックピクチャーを見ながら、ゴルフスイングの学習をする。
第3の学習方法:第2の学習方法において、10回の素振り練習を1セットとして、1セット目には、熟練者の動作の画像に、学習者の膝を表す円とそれらを結ぶ線分のみを重ねたスティックピクチャーを表示する。2セット目には、熟練者の動作の画像に、学習者の膝及び腰を表す円とそれらを結ぶ線分を重ねたスティックピクチャーを表示する。3セット目には、熟練者の動作の画像に、膝、腰、肩を表す円とそれらを結ぶ線分を重ねたスティックピクチャーを表示する。
実験の手順は次の通りである。まず、学習を行う前に、5回のゴルフクラブの素振り動作を計測した。次に、各々の学習方法で、10回の素振りを練習し、その後、学習の効果を調べるために、5回の素振り動作を計測し、これを3セット実行した。いずれの学習方法のグループの学習者も、素振り動作の計測時には、情報がない状態、即ち鏡を見ない、または頭部装着型表示手段を用いない状態で素振りを行った。また、本学習支援システムを使用した第2、第3の学習方法では、スティックピクチャーを、目標動作の時間軸を12倍に引き伸ばして、ゆっくりとした動きで呈示した。
図9〜14は実験結果を示すグラフであり、学習方法毎の被験者1名のグラフである。ゴルフスイングにおいては、肩、腰、膝の上下方向の動きが水平方向の動きに比べて小さく、学習の前後に大きな変化が見られないので、図9〜14には水平方向の動作を評価した結果を示す。ここで、学習者に対して図15に示す位置に座標軸を想定した。尚、図9、10において、開始時刻から短時間のグラフが欠落しているのは、本実験において光学式位置計測装置を使用したので、マーカーが身体部位によって隠されて、カメラ映像から消失してしまったためである。
図9は、第1の学習方法で学習を行う前後の右肩のY座標の時系列変化を示すグラフであり、(a)が学習前、(b)が3セットの学習後の結果である。図10は、第1の学習方法で学習を行う前後の右膝のY座標の時系列変化を示すグラフであり、(a)が学習前、(b)が3セット学習後の結果である。図9、10から、第1の学習方法では、3セットの学習終了後も試行毎に動作がばらついており、安定していないことがわかる。また、第2、第3の学習方法で使用した目標データの曲線からも大きくずれている。鏡を用いた反復練習では、目標となる姿勢は、学習者の意識に残っている、以前に見た熟練者の動作イメージであり、目標動作との誤差を視認できないために、30回の素振りではイメージする動作を十分に学習できなかったと考えられる。
図11は、第2の学習方法で学習を行う前後の右肩のY座標の時系列変化を示すグラフであり、(a)が学習前、(b)が1セット学習後の結果、(C)が3セット学習後の結果である。図12は、第2の学習方法で学習を行う前後の右膝のY座標の時系列変化を示すグラフであり、(a)が学習前、(b)が1セット学習後の結果、(C)が3セット学習後の結果である。図11から、右肩は反復練習を行うことで試行毎のばらつきが少なくなり、目標動作に近づいていることがわかる。図9〜12から、試行のばらつき及び目標データの曲線との一致の程度から、第2の学習方法が第1の学習方法よりも効率的であることが分かる。しかし、図12の(c)を見ると、第2の学習方法の学習後でも、右膝の動作ではスイング開始から約1秒以後は目標動作に近づいていないことが分かる。この原因は、第2の学習方法で呈示している目標動作では、スイング開始の約1秒後からダウンスウィングが始まっていたため、被験者の意識が動きの大きい肩に主として集中し、膝の位置を修正する学習が十分にできなかったからだと考えられる。
図13は、第3の学習方法で学習を行う前後の右肩のY座標の時系列変化を示すグラフであり、(a)、(b)、(c)はそれぞれ学習前、1セットの学習後、3セットの学習後の結果を表す。図14は、第3の学習方法で学習を行う前後の右膝のY座標の時系列変化を示すグラフであり、(a)、(b)、(c)はそれぞれ学習前、1セットの学習後、3セットの学習後の結果を表す。第3の学習方法では1セットおきに膝、腰、肩の順に、対応する図形を追加して呈示したことによって、(a)〜(c)の順で、段階的に動作のばらつきが小さくなっている様子が分かる。図13の(b)を見ると、1セット目の学習では肩の位置情報が呈示されなかったにもかかわらず、1セット学習後の測定結果では、肩の動作のばらつきが小さくなっている。また、図14を見ると、膝を表す図形は最初から呈示しているため、1セット目終了後から目標動作に近づき((b)参照)、腰、肩の動作の学習を行った3セット終了後も、膝動作に大きな乱れがない((c)参照)ことが分かる。身体各部の拘束条件から、膝の運動が限定されることで肩の運動が限定され、学習者は容易に再現性のある動きにすることができたと考えられる。
また、第3の学習方法では、肩を表す図形を呈示して素振りを行ったのはたかだか10回である(図14の(c)参照)が、肩を表す図形を呈示して30回素振りを行った第2の学習方法の結果(図11の(b)参照)と比べて、肩の動作の再現性が非常に高いことがわかる。第2の学習方法では膝の動作が十分には学習されていないのに対して、第3の学習方法では膝から順に学習をしていくため、膝と肩の両方を学習できている。これらの結果から、リアルタイムで視覚情報を学習者に呈示して動作の学習を支援する場合、注目すべきポイントを段階的に学習者に呈示することが、効率よく動作を学習する上でより有効であることが分かる。
1、2 画像入力手段
3 画像処理手段
4 表示手段
31 フレームバッファ
32 特徴点抽出手段
33 3次元座標算出手段
34 記録手段
35 身体寸法調節手段
36 画像生成手段
37 操作手段
3 画像処理手段
4 表示手段
31 フレームバッファ
32 特徴点抽出手段
33 3次元座標算出手段
34 記録手段
35 身体寸法調節手段
36 画像生成手段
37 操作手段
Claims (9)
- 学習者の身体形状を表す学習者特徴点の3次元座標データを生成する3次元データ生成手段と、
学習目標とする、複数の目標特徴点を含む時系列の目標動作データを記録する記録手段と、
前記目標特徴点及び前記学習者特徴点の位置関係を調節する身体寸法調節手段と、
前記学習者特徴点及び前記目標特徴点を含む、目標動作及び学習者の画像を重畳した合成画像を生成する画像生成手段と、
前記合成画像を表示する表示手段とを備え、
前記学習者の動作中に前記合成画像がリアルタイムに前記表示手段に表示され、
前記合成画像が、所定の視点位置から前記学習者を見る視線方向で生成される画像であり、
前記合成画像において、前記学習者特徴点の位置と前記学習者特徴点に対応する前記目標特徴点の位置との違いに応じて、前記学習者特徴点を表す図形を変化させることを特徴とする身体動作の学習支援システム。 - 前記視点位置が、前記学習者の背後に位置することを特徴とする請求項1に記載の身体動作の学習支援システム。
- 前記身体寸法調節手段が、前記目標特徴点の中の所定の2つの目標特徴点間の距離と前記2つの目標特徴点に対応する前記学習者特徴点間の距離とに応じて、前記目標動作データを変更し、且つ前記画像生成手段が、前記学習者特徴点の3次元座標データと変更された前記目標動作データとを使用して、前記合成画像を生成する、又は、
前記身体寸法調節手段が、前記目標特徴点の中の所定の2つの目標特徴点間の距離と前記2つの目標特徴点に対応する前記学習者特徴点間の距離とに応じて、前記学習者特徴点の3次元座標データを変更し、且つ前記画像生成手段が、前記目標動作データと変更された前記学習者特徴点の3次元座標データとを使用して、前記合成画像を生成する、又は、
前記身体寸法調節手段が、前記目標特徴点の中の所定の2つの目標特徴点間の距離と前記2つの目標特徴点に対応する前記学習者特徴点間の距離とに応じて、前記目標動作データと前記学習者特徴点の3次元座標データとを変更し、且つ前記画像生成手段が、変更された前記学習者特徴点の3次元座標データと変更された前記目標動作データとを使用して、前記合成画像を生成することを特徴とする請求項1又は2に記載の身体動作の学習支援システム。 - 前記3次元データ生成手段が、
学習者の2次元画像を取得する、相互に異なる位置に配置された複数の画像入力手段と、
前記画像入力手段によって取得された複数の前記2次元画像において、前記学習者特徴点を抽出する特徴点抽出手段と、
抽出された前記学習者特徴点の3次元座標データを算出する3次元座標算出手段とを備えていることを特徴とする請求項1〜3の何れかの項に記載の身体動作の学習支援システム。 - 第1の段階において、複数の前記学習者特徴点の一部を含む前記合成画像を生成し、
その後の第2の段階において、前記学習者特徴点の全てを含む前記合成画像を生成することを特徴とする請求項1〜4の何れかの項に記載の身体動作の学習支援システム。 - 前記学習者特徴点を表わす前記図形が、前記学習者特徴点が、対応する前記目標特徴点を基準として、前記視点位置から遠ざかる方向にずれている場合に、前記視点位置に近づく方向にずれている場合よりも、小さく表示されることを特徴とする請求項1〜5の何れかの項に記載の身体動作の学習支援システム。
- 前記学習者特徴点を表わす前記図形が、前記学習者特徴点が、対応する前記目標特徴点を基準として、前記視点位置から遠ざかる方向にずれている場合に、前記視点位置に近づく方向にずれている場合と異なる色で表示されることを特徴とする請求項1〜6の何れかの項に記載の身体動作の学習支援システム。
- 前記表示手段が、半透過型の頭部装着型表示装置であることを特徴とする請求項1〜7の何れかの項に記載の身体動作の学習支援システム。
- 学習者の身体形状を表す学習者特徴点の3次元座標データを生成する第1ステップと、
記録手段から、学習目標とする、目標特徴点を含む時系列の目標動作データを読み出し、前記学習者の身体の所定部分の寸法に応じて、前記目標特徴点及び前記学習者特徴点の位置関係を調節する第2ステップと、
前記学習者特徴点及び前記目標特徴点を含む、目標動作及び学習者の画像を重畳した合成画像を生成する第3ステップと、
前記合成画像を表示する第4ステップとを含み、
前記学習者の動作中に前記合成画像がリアルタイムに表示され、
前記合成画像が、所定の視点位置から前記学習者を見る視線方向で生成される画像であり、
前記合成画像において、前記学習者特徴点の位置と前記学習者特徴点に対応する前記目標特徴点の位置との違いに応じて、前記学習者特徴点を表す図形を変化させることを特徴とする身体動作の学習支援方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004007969A JP2005198818A (ja) | 2004-01-15 | 2004-01-15 | 身体動作の学習支援システム及び学習支援方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004007969A JP2005198818A (ja) | 2004-01-15 | 2004-01-15 | 身体動作の学習支援システム及び学習支援方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005198818A true JP2005198818A (ja) | 2005-07-28 |
Family
ID=34821463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004007969A Pending JP2005198818A (ja) | 2004-01-15 | 2004-01-15 | 身体動作の学習支援システム及び学習支援方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005198818A (ja) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009279041A (ja) * | 2008-05-19 | 2009-12-03 | Sanyo Electric Co Ltd | 投写型映像表示装置 |
JP2011000210A (ja) * | 2009-06-17 | 2011-01-06 | Sri Sports Ltd | ゴルフスイングの分析方法 |
JP2011503685A (ja) * | 2007-10-26 | 2011-01-27 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | レンダリングされた像の表示設定を選択するための方法及びシステム |
JP2011152333A (ja) * | 2010-01-28 | 2011-08-11 | Nagasakiken Koritsu Daigaku Hojin | 身体技能習得支援装置および身体技能習得支援方法 |
JP2014502527A (ja) * | 2010-12-13 | 2014-02-03 | ナイキ インターナショナル リミテッド | エネルギー消費を推定するための、運動活動を行っているユーザのデータ処理の方法 |
JP2014127133A (ja) * | 2012-12-27 | 2014-07-07 | Kawasaki Heavy Ind Ltd | 姿勢体感システム及び姿勢評価システム |
US8882613B2 (en) | 2007-09-14 | 2014-11-11 | Kitris Ag | System for capturing tennis match data |
KR20140145569A (ko) * | 2012-03-21 | 2014-12-23 | 가시오게산키 가부시키가이샤 | 화상 처리 장치, 화상 처리 방법 및 기록 매체 |
JP2015039238A (ja) * | 2014-11-10 | 2015-02-26 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
US9223936B2 (en) | 2010-11-24 | 2015-12-29 | Nike, Inc. | Fatigue indices and uses thereof |
JP2016004564A (ja) * | 2014-06-19 | 2016-01-12 | 大日本印刷株式会社 | 拡張現実を利用した試着支援システム |
US9283429B2 (en) | 2010-11-05 | 2016-03-15 | Nike, Inc. | Method and system for automated personal training |
US9358426B2 (en) | 2010-11-05 | 2016-06-07 | Nike, Inc. | Method and system for automated personal training |
US9457256B2 (en) | 2010-11-05 | 2016-10-04 | Nike, Inc. | Method and system for automated personal training that includes training programs |
JP2017077403A (ja) * | 2015-10-21 | 2017-04-27 | 国立大学法人 筑波大学 | 評価情報提供システムおよび評価情報提供方法 |
US9811639B2 (en) | 2011-11-07 | 2017-11-07 | Nike, Inc. | User interface and fitness meters for remote joint workout session |
US9852271B2 (en) | 2010-12-13 | 2017-12-26 | Nike, Inc. | Processing data of a user performing an athletic activity to estimate energy expenditure |
US9977874B2 (en) | 2011-11-07 | 2018-05-22 | Nike, Inc. | User interface for remote joint workout session |
US10188930B2 (en) | 2012-06-04 | 2019-01-29 | Nike, Inc. | Combinatory score having a fitness sub-score and an athleticism sub-score |
CN109919404A (zh) * | 2017-12-12 | 2019-06-21 | 富士施乐株式会社 | 信息处理装置 |
US10420982B2 (en) | 2010-12-13 | 2019-09-24 | Nike, Inc. | Fitness training system with energy expenditure calculation that uses a form factor |
JP6899105B1 (ja) * | 2020-10-13 | 2021-07-07 | 株式会社PocketRD | 動作表示装置、動作表示方法及び動作表示プログラム |
-
2004
- 2004-01-15 JP JP2004007969A patent/JP2005198818A/ja active Pending
Cited By (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8882613B2 (en) | 2007-09-14 | 2014-11-11 | Kitris Ag | System for capturing tennis match data |
JP2011503685A (ja) * | 2007-10-26 | 2011-01-27 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | レンダリングされた像の表示設定を選択するための方法及びシステム |
JP2009279041A (ja) * | 2008-05-19 | 2009-12-03 | Sanyo Electric Co Ltd | 投写型映像表示装置 |
JP2011000210A (ja) * | 2009-06-17 | 2011-01-06 | Sri Sports Ltd | ゴルフスイングの分析方法 |
US8523696B2 (en) | 2009-06-17 | 2013-09-03 | Sri Sports Limited | Golf swing analysis method using attachable acceleration sensors |
JP2011152333A (ja) * | 2010-01-28 | 2011-08-11 | Nagasakiken Koritsu Daigaku Hojin | 身体技能習得支援装置および身体技能習得支援方法 |
US11915814B2 (en) | 2010-11-05 | 2024-02-27 | Nike, Inc. | Method and system for automated personal training |
US10583328B2 (en) | 2010-11-05 | 2020-03-10 | Nike, Inc. | Method and system for automated personal training |
US11710549B2 (en) | 2010-11-05 | 2023-07-25 | Nike, Inc. | User interface for remote joint workout session |
US11094410B2 (en) | 2010-11-05 | 2021-08-17 | Nike, Inc. | Method and system for automated personal training |
US9919186B2 (en) | 2010-11-05 | 2018-03-20 | Nike, Inc. | Method and system for automated personal training |
US9457256B2 (en) | 2010-11-05 | 2016-10-04 | Nike, Inc. | Method and system for automated personal training that includes training programs |
US9283429B2 (en) | 2010-11-05 | 2016-03-15 | Nike, Inc. | Method and system for automated personal training |
US9358426B2 (en) | 2010-11-05 | 2016-06-07 | Nike, Inc. | Method and system for automated personal training |
US9223936B2 (en) | 2010-11-24 | 2015-12-29 | Nike, Inc. | Fatigue indices and uses thereof |
JP2014502527A (ja) * | 2010-12-13 | 2014-02-03 | ナイキ インターナショナル リミテッド | エネルギー消費を推定するための、運動活動を行っているユーザのデータ処理の方法 |
US10420982B2 (en) | 2010-12-13 | 2019-09-24 | Nike, Inc. | Fitness training system with energy expenditure calculation that uses a form factor |
US9852271B2 (en) | 2010-12-13 | 2017-12-26 | Nike, Inc. | Processing data of a user performing an athletic activity to estimate energy expenditure |
US10825561B2 (en) | 2011-11-07 | 2020-11-03 | Nike, Inc. | User interface for remote joint workout session |
US9977874B2 (en) | 2011-11-07 | 2018-05-22 | Nike, Inc. | User interface for remote joint workout session |
US9811639B2 (en) | 2011-11-07 | 2017-11-07 | Nike, Inc. | User interface and fitness meters for remote joint workout session |
US9466110B2 (en) | 2012-03-21 | 2016-10-11 | Casio Computer Co., Ltd. | Image processing device that analyzes motion of object |
KR20140145569A (ko) * | 2012-03-21 | 2014-12-23 | 가시오게산키 가부시키가이샤 | 화상 처리 장치, 화상 처리 방법 및 기록 매체 |
KR101642854B1 (ko) * | 2012-03-21 | 2016-07-26 | 가시오게산키 가부시키가이샤 | 화상 처리 장치, 화상 처리 방법 및 기록 매체 |
US10188930B2 (en) | 2012-06-04 | 2019-01-29 | Nike, Inc. | Combinatory score having a fitness sub-score and an athleticism sub-score |
JP2014127133A (ja) * | 2012-12-27 | 2014-07-07 | Kawasaki Heavy Ind Ltd | 姿勢体感システム及び姿勢評価システム |
JP2016004564A (ja) * | 2014-06-19 | 2016-01-12 | 大日本印刷株式会社 | 拡張現実を利用した試着支援システム |
JP2015039238A (ja) * | 2014-11-10 | 2015-02-26 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2017077403A (ja) * | 2015-10-21 | 2017-04-27 | 国立大学法人 筑波大学 | 評価情報提供システムおよび評価情報提供方法 |
US10460451B2 (en) | 2015-10-21 | 2019-10-29 | University Of Tsukuba | Evaluation information provision system and evaluation information provision method |
WO2017069115A1 (ja) * | 2015-10-21 | 2017-04-27 | 国立大学法人 筑波大学 | 評価情報提供システムおよび評価情報提供方法 |
US11295459B2 (en) * | 2017-12-12 | 2022-04-05 | Fujifilm Business Innovation Corp. | Information processing apparatus |
CN109919404A (zh) * | 2017-12-12 | 2019-06-21 | 富士施乐株式会社 | 信息处理装置 |
JP6899105B1 (ja) * | 2020-10-13 | 2021-07-07 | 株式会社PocketRD | 動作表示装置、動作表示方法及び動作表示プログラム |
JP2022064038A (ja) * | 2020-10-13 | 2022-04-25 | 株式会社PocketRD | 動作表示装置、動作表示方法及び動作表示プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005198818A (ja) | 身体動作の学習支援システム及び学習支援方法 | |
US8282481B2 (en) | System and method for cyber training of martial art on network | |
US4891748A (en) | System and method for teaching physical skills | |
JP5575652B2 (ja) | レンダリングされた像の表示設定を選択するための方法及びシステム | |
JP7116696B2 (ja) | 学習支援システム及びプログラム | |
WO2012039467A1 (ja) | 運動支援システム | |
US20130171596A1 (en) | Augmented reality neurological evaluation method | |
KR101036429B1 (ko) | 가상현실 무도 수련장치 및 방법, 그 기록 매체 | |
KR101979750B1 (ko) | 댄스 트레이닝 콘텐츠 저작 시스템 | |
US20070098250A1 (en) | Man-machine interface based on 3-D positions of the human body | |
JP5624625B2 (ja) | 運動支援システム | |
CN109589563B (zh) | 一种基于3d体感摄像头的舞蹈姿态教辅方法及系统 | |
JP7263474B2 (ja) | 人の視覚挙動を検査する機器及びそのような装置を用いて眼鏡レンズの少なくとも1個の光学設計パラメータを決定する方法 | |
KR102231202B1 (ko) | 어라운드 뷰를 통한 골프스윙분석기 | |
JP5521265B2 (ja) | スウィング表示方法およびスウィング表示システム | |
KR20100033205A (ko) | 골프연습 보조 시스템 및 그 방법 | |
Jan et al. | Augmented Tai-Chi chuan practice tool with pose evaluation | |
KR20110037010A (ko) | 입체 영상을 이용한 골프 티칭 시스템 | |
WO2008073563A1 (en) | Method and system for gaze estimation | |
KR101875425B1 (ko) | 증강현실을 이용한 골프 학습 시스템 | |
KR20180069013A (ko) | 사람의 시각적 거동 매개변수를 결정하기 위한 방법, 및 관련된 테스팅 디바이스 | |
CN106327484A (zh) | 一种用于牙医操作姿势评估的方法 | |
JP2021099666A (ja) | 学習モデルの生成方法 | |
KR102534463B1 (ko) | Ai기반의 인체 관절 및 골프 클럽 추출을 이용한 골프 레슨 시스템 | |
JP7248353B1 (ja) | ヒッティング解析システム及びヒッティング解析方法 |