JP2006320424A - Action teaching apparatus and method - Google Patents
Action teaching apparatus and method Download PDFInfo
- Publication number
- JP2006320424A JP2006320424A JP2005144626A JP2005144626A JP2006320424A JP 2006320424 A JP2006320424 A JP 2006320424A JP 2005144626 A JP2005144626 A JP 2005144626A JP 2005144626 A JP2005144626 A JP 2005144626A JP 2006320424 A JP2006320424 A JP 2006320424A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- user
- motion
- robot
- presented
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
本発明は、例えばリハビリテーションのための運動や、電子機器の操作、スポーツ、などにおいて、利用者に模範的な身体の動作を教示する動作教示装置とその方法に関するものである。 The present invention relates to a motion teaching apparatus and method for teaching an exemplary body motion to a user in, for example, exercise for rehabilitation, operation of an electronic device, sports, and the like.
医療技術の発達によって平均寿命が伸びた一方で子供の数が年々減少していることから、社会の高齢化が急速に進んでいる。そのため、高齢者を支援する仕組みや環境の整備が急務になっている。 With the development of medical technology, the average life expectancy has increased while the number of children has been decreasing year by year, and so society is aging rapidly. For this reason, there is an urgent need to develop a mechanism and environment that supports the elderly.
非特許文献1には、カメラで撮影した利用者の映像をコンピュータに取り込んで画像処理を行うことにより利用者のジェスチャを推定し、この推定したジェスチャに応じてゲーム機を操作する技術が記載されている。これにより、指先が不自由であったり、電子機器の操作に不慣れであるためゲーム機のコントローラを思うように操作できない高齢者であっても、負担を感じることなくゲームを楽しむことが可能になる。 Non-Patent Document 1 describes a technique for estimating a user's gesture by capturing a user's video captured by a camera into a computer and performing image processing, and operating a game machine according to the estimated gesture. ing. This makes it possible to enjoy the game without feeling a burden even for an elderly person who is unable to operate the controller of the game machine as desired because the fingertip is inconvenient or unfamiliar with the operation of the electronic device. .
また、非特許文献2には、ロボットが利用者にキーボードの入力操作を教示するシステムが記載されている。このシステムでは、マイクロフォンに入力される利用者の音声をコンピュータに取り込んで音声認識処理を行うことにより、入力された音声を単語として認識する。そして、認識した単語に対応するキーの位置を指差すように、キーボードの横に配置された小型のロボットを制御する。これにより、利用者はロボットから何度でも気軽にキーボードの操作を教わることができるため、電子機器の操作に不慣れな高齢者でも自分のペースで着実にキー操作を習得することができる。
ところで、慢性的な疾患を患っている人の割合は、一般に年齢が高くなるほどが多くなる傾向がある。こうした疾患からの回復を図り、健康を維持・増進させるためには、リハビリテーションとして適切な運動を行うことが効果的である。しかしながら、従来このようなリハビリテーションとしての運動は、専門の施設においてインストラクタの指示の元で行われており、高齢者が家庭内で個人的に行うことが困難であるという問題がある。 By the way, the proportion of people suffering from chronic diseases generally tends to increase with age. In order to recover from these diseases and maintain and improve health, it is effective to perform appropriate exercise as rehabilitation. However, conventionally, such exercise as rehabilitation has been performed under the instruction of an instructor in a specialized facility, and there is a problem that it is difficult for an elderly person to personally perform at home.
また、リハビリテーションに限らず、例えばスポーツにおいて技能の向上を図るためのトレーニングを行う際に、正しいフォームを指導してくれるインストラクタがいない場合には、インストラクタの代わりにビデオなどを見て学習する必要がある。ところがこのような個人的なトレーニングでは、情報を一方的に受け取るのみであり、実際に行った動作が適切であるかについてはトレーニングを行う者が自分で把握しなくてはならない。そのため、インストラクタの指示を受けてトレーニングを行う場合に比べて学習効果が劣るという問題がある。 In addition to rehabilitation, for example, when training to improve skills in sports, if there is no instructor who teaches the correct form, it is necessary to study by watching videos instead of the instructor is there. However, in such personal training, only information is received unilaterally, and the person who performs the training has to grasp for himself whether the action actually performed is appropriate. Therefore, there is a problem that the learning effect is inferior to the case where training is performed in response to the instruction of the instructor.
本発明はかかる事情に鑑みてなされたものであり、その目的は、リハビリテーションの運動等において模範的な動作を効果的に利用者に教示することができる動作教示装置とその方法を提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide an operation teaching apparatus and method that can effectively teach an exemplary operation to a user in a rehabilitation exercise or the like. is there.
本発明の第1の観点に係る動作教示装置は、利用者に模範的な動作を提示する動作提示部と、上記動作提示部が提示した動作に対応する上記利用者の動作を認識する動作認識部と、上記動作提示部が提示した動作と上記動作認識部が認識した動作との差異を検出する検出部と、上記検出部が検出した差異を補正するためのアドバイスに関する情報を提供する情報提供部とを有する。
好適には、上記動作提示部は、上記検出部の検出結果に応じて、同一の動作を繰り返し提示する。
An operation teaching apparatus according to a first aspect of the present invention includes an operation presentation unit that presents an exemplary operation to a user, and an operation recognition that recognizes the operation of the user corresponding to the operation presented by the operation presentation unit. Information providing information relating to advice for correcting a difference detected by the detection unit, a detection unit for detecting a difference between the motion presented by the motion presentation unit and the motion recognized by the motion recognition unit Part.
Preferably, the operation presentation unit repeatedly presents the same operation according to the detection result of the detection unit.
上記動作教示装置は、上記利用者のバイタルサインを測定するバイタルサイン測定部を有しても良い。この場合、上記動作提示部は、提示可能な複数の動作の中から、上記バイタルサイン測定部の測定結果に応じた動作を選択して提示しても良い。また、上記情報提供部は、上記検出部が検出した差異を補正するためのアドバイスに関する複数の情報のうち、上記バイタルサイン測定部の測定結果に応じた情報を選択して提供しても良い。 The motion teaching apparatus may include a vital sign measurement unit that measures the vital sign of the user. In this case, the motion presentation unit may select and present a motion according to the measurement result of the vital sign measurement unit from a plurality of motions that can be presented. The information providing unit may select and provide information according to the measurement result of the vital sign measurement unit from among a plurality of pieces of information related to advice for correcting the difference detected by the detection unit.
上記動作教示装置は、上記検出部の検出結果に応じて、上記利用者の身体能力を評価する評価部を有しても良い。この場合、上記動作提示部は、提示可能な複数の動作の中から、上記評価部の評価結果に応じた動作を選択して提示しても良い。また、上記情報提供部は、上記検出部が検出した差異を補正するためのアドバイスに関する複数の情報のうち、上記評価部の評価結果に応じた情報を選択して提供しても良い。 The motion teaching device may include an evaluation unit that evaluates the physical ability of the user according to a detection result of the detection unit. In this case, the operation presentation unit may select and present an operation according to the evaluation result of the evaluation unit from a plurality of operations that can be presented. The information providing unit may select and provide information according to the evaluation result of the evaluation unit among a plurality of pieces of information related to advice for correcting the difference detected by the detection unit.
上記動作教示装置は、上記利用者の音声を認識する音声認識部を有しても良い。この場合、上記動作提示部は、上記音声認識部により認識された上記利用者の音声に応じて、動作の提示の開始、動作の提示の終了、及び、提示可能な複数の動作の中からの上記利用者に提示する動作の選択の少なくとも1つを行っても良い。 The motion teaching apparatus may include a voice recognition unit that recognizes the user's voice. In this case, the action presentation unit starts the action presentation, ends the action presentation, and a plurality of actions that can be presented according to the user's voice recognized by the voice recognition unit. You may perform at least 1 of the selection of the operation | movement shown to the said user.
また、上記動作提示部は、模範的な動作を実演するロボット、模範的な動作の映像を表示する映像表示部、及び、模範的な動作を教示する音声を出力する音声出力部の少なくとも1つを含んでも良い。 Further, the motion presentation unit is at least one of a robot demonstrating an exemplary motion, a video display unit that displays a video of the exemplary motion, and an audio output unit that outputs a voice teaching the exemplary motion. May be included.
本発明の第2の観点に係る動作教示方法は、ロボット、映像表示部、及び、音声出力部の少なくとも1つが、利用者に模範的な動作を提示する第1の工程と、上記第1の工程において提示した動作に対応する上記利用者の動作を、少なくとも2つの位置から撮影部によって撮影し、当該撮影部が撮影した上記利用者の動作に基づいて、上記利用者の所定の身体部位の3次元位置情報を取得する第2の工程と、上記第2の工程において取得した3次元位置情報に基づいて、上記第1の工程において提示した動作と上記撮影部が撮影した上記利用者の動作との差異を検出する第3の工程と、上記第3の工程において検出された差異を補正するためのアドバイスに関する情報を提供する第4の工程とを有する。 The motion teaching method according to the second aspect of the present invention includes a first step in which at least one of a robot, a video display unit, and an audio output unit presents an exemplary motion to a user, and the first step The user's motion corresponding to the motion presented in the process is photographed by the photographing unit from at least two positions, and based on the user's motion photographed by the photographing unit, the user's predetermined body part Based on the second step of acquiring the three-dimensional position information and the three-dimensional position information acquired in the second step, the operation presented in the first step and the user's operation photographed by the photographing unit And a fourth step of providing information related to advice for correcting the difference detected in the third step.
本発明によれば、提示された動作とこれに合わせて利用者が行った実際の動作との差異が検出され、この差異を補正するためのアドバイスが利用者に提供されるため、一方的に動作が提示される場合に比べて、模範的な動作を効果的に利用者に教示することができる。 According to the present invention, a difference between the presented action and the actual action performed by the user is detected, and advice for correcting this difference is provided to the user. Compared to the case where the action is presented, the exemplary action can be effectively taught to the user.
<第1の実施形態>
図1は、本発明の第1の実施形態に係る動作教示装置の構成の一例を示す図である。
図1に示す動作教示装置は、ロボット20と、カメラ31,32と、スピーカ40と、制御部100とを有する。
また、制御部100は、ロボット制御部101と、動作認識処理部102と、検出部103と、音声出力部104とを有する。
<First Embodiment>
FIG. 1 is a diagram showing an example of the configuration of the motion teaching apparatus according to the first embodiment of the present invention.
The motion teaching apparatus shown in FIG. 1 includes a
In addition, the
なお、図1に示す動作教示装置の各構成要素と本発明の各構成要素との対応関係は次の通りである。
ロボット20及びロボット制御部101を含むユニットは、本発明の動作提示部の一実施形態である。
カメラ31,32及び動作認識処理部102を含むユニットは、本発明の動作認識部の一実施形態である。
スピーカ40及び音声出力部104を含むユニットは、本発明の情報提供部の一実施形態である。
The correspondence relationship between each component of the motion teaching apparatus shown in FIG. 1 and each component of the present invention is as follows.
A unit including the
A unit including the
The unit including the
ロボット20は、利用者10に模範的な動作(模範動作)を提示するための装置であり、人体に模して形成された各部位(手、足、首など)をロボット制御部101の制御に従って動かす。
The
カメラ31,32は、各々異なる位置から利用者10の映像を撮影し、その映像信号を制御部100に出力する。
The
スピーカ40は、音声出力部104から出力される音声信号に応じた音声を出力する。
The
制御部100は、動作教示装置の全体動作に関わる種々の処理、制御を行う。すなわち、制御部100は、ロボット20を制御して模範動作を実演させ、この実演に合わせて行われる利用者10の動作をカメラ31,32によって撮影する。そして、撮影した動作に基づいて利用者10の所定の身体部位の3次元的位置情報を取得し、この位置情報とロボット20に実演させた模範動作との差異を補正するためのアドバイスを音声としてスピーカ40から出力する。
The
図2は、制御部100の構成の一例を示す図である。
制御部100は、例えば図2に示すように、入力部110と、表示部111と、インターフェース部112と、記憶装置113と、RAM114と、ROM115と、コンピュータ116とを有する。
FIG. 2 is a diagram illustrating an example of the configuration of the
For example, as shown in FIG. 2, the
入力部110は、例えばキーボードやマウスなど、利用者の操作に応じた情報を入力するための機器である。
The
表示部111は、例えば液晶ディスプレイやCRTディスプレイなどの表示機器を含み、コンピュータ116から供給される映像信号に基づいて画像を表示する。
The
インターフェース部112は、コンピュータ116の入出力装置とロボット20やカメラ31,32、スピーカ40などの外部機器との間で信号をやりとりする。すなわち、ロボット20への制御信号の出力や、カメラ31,32からの映像信号の取り込み、スピーカ40への音声信号の出力などを行う。
The
記憶装置113は、例えばハードディスク装置や光磁気ディスク装置など、比較的容量の大きなデータの記憶が可能な装置であり、コンピュータ116のオペレーティングシステムやアプリケーションプログラム、各種のデータを記憶する。例えば、ロボット20の制御データや、スピーカ40において出力するアドバイス用音声のデータなどを記憶する。
The
RAM114は、コンピュータ116の処理過程において一時的に記憶する必要があるデータやコンピュータ116のプログラムコードなどを記憶する。
ROM115は、コンピュータ116において利用される定数データや起動用プログラムなどを記憶する。
The
The
コンピュータ116は、ROM115や記憶装置113に格納されるプログラムに従って、各種の処理を実行する。次に述べる機能ブロック(ロボット制御部101、動作認識処理部102、検出部103、音声出力部104など)の処理は、コンピュータ116によって実現される。
The
ロボット制御部101は、記憶装置113に格納される制御データに基づいてロボット20を制御し、模範動作を実演させる。
The
模範動作は、例えば一連の複数の動作によって構成されており、記憶装置113はこの一連の動作(以降、動作パターンと呼ぶ)をロボット20に実演させるための制御データを格納する。ロボット制御部101は、記憶装置113に格納される制御データに基づいて、動作パターンを構成する各々の動作をロボット20に順番に実演させる。
ただし、後述する検出部103において、動作認識処理部102が認識した利用者10の動作とロボット20の模範動作との間に一定以上の差異が検出された場合、ロボット制御部101は、この模範動作をロボット20に繰り返し実演させる。
The exemplary operation is constituted by a series of a plurality of operations, for example, and the
However, when the
また、ロボット制御部101は、複数の動作パターンの実演が可能な制御データが記憶装置113に格納されている場合、例えば表示部111に動作パターンを選択するためのメニュー画面を表示して、その選択を利用者10に促す。利用者10が入力部110の操作によって動作パターンを選択すると、ロボット制御部101は、当該選択された動作パターンをロボット20に実演させる。
Further, when control data capable of demonstrating a plurality of operation patterns is stored in the
動作認識処理部102は、ロボット20の実演に合わせて利用者10が動作を行う所定の期間(例えばロボット20の実演中や実演後の所定の期間)において、カメラ31,32が撮影した利用者10の動作を認識する処理を行う。すなわち、この期間に2つのカメラ(31,32)で撮影された利用者10の動作に基づいて、利用者10の所定の身体部位の3次元位置情報を取得する。
The motion
例えば、動作認識処理部102は、2つのカメラ(31,32)の一方で撮影された画像と、利用者10がいない状態で予め撮影された背景の画像とに基づいて、RRF(radial reach filter)などの画像処理技術により、撮影画像から利用者10の画像を抽出する。
For example, the motion
次いで、動作認識処理部102は、例えば画素の輝度分布などに基づいて、一方のカメラで撮影された画像の各部分が他方のカメラで撮影された画像のどの部分に対応しているかを特定する。そして、対応する2つの部分の画面上における位置と、カメラ31,32の設置位置、撮影の方向などの情報に基づいて、この2つの部分が共通に写し出している実際の被写体の3次元位置を算出する。
更に、動作認識処理部102は、各画像の形状や面積などに基づいて、画像のどの部分が利用者10のどの身体部位(頭、手、足など)に相当するかを推定する。
以上の処理により、動作認識処理部102は、利用者10の所定の身体部位の3次元位置に関する情報を取得する。
Next, the motion
Further, the motion
Through the above processing, the motion
検出部103は、動作認識処理部102が認識した利用者10の動作と、ロボット制御部101がロボット20に実演させた模範動作との差異を検出する。
The
検出部103は、例えば、動作認識処理部102が算出した所定の身体部位の位置が、利用者10に提示した模範動作において要求される位置に対してどの方向へどの程度離れているかを検出する。
また、位置の差異だけでなく、例えば動作認識処理部102が算出した所定の身体部位の移動速度や加速度、当該身体部位が単位時間あたりに所定の距離を超えて移動する回数や周期など、当該身体部位の動作を表す様々な特性値を算出し、この特性値が模範動作において要求される値に対して大きいか小さいか、どの程度離れているかを検出しても良い。
The
In addition to the position difference, for example, the movement speed and acceleration of the predetermined body part calculated by the motion
音声出力部104は、検出部103において検出された差異を補正するためのアドバイス用音声データを記憶装置113から読み出し、その音声をスピーカ40から出力する。
例えば、利用者10の右腕の位置が模範動作に比べて下がっていると検出部103において検出された場合、音声出力部104は、「右腕をもう少し上へ伸ばしてください」といった内容の音声データを記憶装置113から読み出し、その音声をスピーカ40から出力する。
The
For example, when the
ここで、上述した構成を有する図1に示す動作教示装置の動作について、図3に示すフローチャートを参照して説明する。 Here, the operation of the motion teaching apparatus having the above-described configuration shown in FIG. 1 will be described with reference to the flowchart shown in FIG.
ステップST100:
ロボット制御部101は、入力部110に入力される利用者10の指示に従って、複数の動作パターンの中から実演を行う動作パターンを選択する。
Step ST100:
The
ステップST105(第1の工程):
ロボット制御部101は、ステップST100で選択した動作パターンにおける最初の模範動作をロボット20に実演させる。
Step ST105 (first step):
The
ステップST110(第2の工程):
動作認識処理部102は、ロボット20の実演に合わせて利用者10が動作を行う所定の期間において、カメラ31,32で撮影される利用者10の画像に基づいて、利用者10の所定の身体部位の3次元位置情報を取得する。
Step ST110 (second step):
The motion
ステップST115(第3の工程):
検出部103は、動作認識処理部102が取得した3次元位置情報に基づいて、ロボット制御部101がロボット20に実演させた模範動作と利用者10の動作との差異を検出する。
Step ST115 (third process):
Based on the three-dimensional position information acquired by the motion
ステップST120,ST125,ST130:
検出部103において、ロボット20の模範動作と利用者10の動作との間に一定以上の差異が検出された場合、ロボット制御部101は、ステップST105に戻って、再度同じ模範動作をロボット20に実演させる。そしてこの実演を行うとき、音声出力部104は、検出部103の検出結果に応じたアドバイス用音声データを記憶装置113から読み出してスピーカ40から出力する(ステップST125、第4の工程)。
他方、検出部103において検出された上記差異が一定以上でない場合、ロボット制御部101は、現在の動作パターンにおける次の動作を選択し(ST130)、この模範動作をステップST105以降の処理でロボット20に実演させる。
Steps ST120, ST125, ST130:
If the
On the other hand, when the difference detected by the
以上説明したように、図1に示す動作教示装置によれば、ロボット20によって利用者10に模範動作が提示され、この模範動作に対応する利用者10の動作がカメラ31,32の撮影画像に基づいて認識される。そして、認識された利用者10の動作とロボット20が提示した模範動作との差異が検出され、この差異を補正するためのアドバイスが音声としてスピーカ40から出力される。
そのため、利用者10は、間違った動作をしたときに音声のアドバイスに従ってそれを正すことが可能となり、ビデオなどで一方的に動作が提示される場合に比べて、より効果的に模範動作を学習することができる。
As described above, according to the motion teaching apparatus shown in FIG. 1, an exemplary motion is presented to the
Therefore, the
また、本実施形態によって模範的な正しい動作を学習することにより、運動の効果を最大限に得ることができる。例えばリハビリテーションの運動に本実施形態を適用した場合には、利用者の身体機能の回復や健康の維持・増進に著しい効果が得られる。スポーツのトレーニングに本実施形態を適用した場合には、利用者の技能の向上に大きく貢献することができる。 In addition, by learning exemplary correct actions according to the present embodiment, the effect of exercise can be obtained to the maximum. For example, when the present embodiment is applied to rehabilitation exercise, a significant effect can be obtained in restoring the physical function of the user and maintaining / promoting health. When this embodiment is applied to sports training, it can greatly contribute to improvement of user skills.
専門のインストラクタの指導を受けてリハビリテーションやトレーニングを行う場合、時間的な制約などから自らのペースに合わせて動作の学習を行うことが難しい。特に、体力の低下などによって学習のペースが遅くなっている高齢者は、時間をかけて学習を行う必要があるため、限られた時間しか占有できないインストラクタによる指導は高齢者にとって体力的若しくは心理的な負担になる場合がある。
本実施形態に係る動作教示装置によれば、時間や場所の制約を受けることなく、自分のペースで気軽に動作の学習を行うことができるため、高齢者や障害者のリハビリテーションに最適な環境を提供することができる。
When performing rehabilitation and training under the guidance of a specialized instructor, it is difficult to learn movements according to their own pace due to time constraints. In particular, elderly people whose learning pace is slowed down due to low physical fitness, etc. need to learn over time, so instruction by an instructor who can occupy only a limited amount of time is physically or psychologically for the elderly May be a burden.
According to the motion teaching apparatus according to the present embodiment, it is possible to easily learn motion at your own pace without being restricted by time or place, so an environment suitable for rehabilitation of the elderly and disabled Can be provided.
また、一方的に情報が与えられる従来の方法では、内容が単調になりがちであり、すぐに飽きてしまう問題がある。これに対し、本実施形態に係る動作教示装置によれば、利用者の動作に応じてアドバイスが提供されるため、学習の面白みが増し、利用者の意欲を高めることができる。
しかも、家庭内で気軽に学習を行うことができるため、施設に通ってリハビリテーションやトレーニングを受ける場合に比べて、学習の反復・継続性を高めることができる。
In addition, the conventional method in which information is unilaterally given tends to be monotonous and quickly gets bored. On the other hand, according to the motion teaching apparatus according to the present embodiment, since advice is provided according to the user's motion, the learning is more interesting and the user's motivation can be enhanced.
Moreover, since it is possible to easily learn at home, it is possible to increase the repetition and continuity of learning compared to the case where rehabilitation and training are conducted through a facility.
更に、ロボット20の3次元的な動きによって動作を提示するため、利用者は動作を容易に理解することができる。これにより、利用者に正しい動作を身に付けさせることができる。
Furthermore, since the motion is presented by the three-dimensional movement of the
<第2の実施形態>
次に、本発明の第2の実施形態について説明する。
第2の実施形態に係る動作教示装置では、利用者のバイタルサインに応じて、提示する動作の内容やアドバイスの内容が変更される。
<Second Embodiment>
Next, a second embodiment of the present invention will be described.
In the motion teaching apparatus according to the second embodiment, the content of the motion to be presented and the content of the advice are changed according to the vital sign of the user.
図4は、本発明の第2の実施形態に係る動作教示装置の構成の一例を示す図である。
図4に示す動作教示装置は、ロボット20と、カメラ31,32と、スピーカ40と、バイタルサイン測定器50と、制御部100Aとを有する。制御部100Aは、ロボット制御部101Aと、動作認識処理部102と、検出部103と、音声出力部104Aと、測定処理部105とを有する。
図1と図4の同一符号は同一の構成要素を示すため、以下では図1に示す動作教示装置と異なる構成要素についてのみ説明する。
FIG. 4 is a diagram showing an example of the configuration of the motion teaching apparatus according to the second embodiment of the present invention.
The motion teaching apparatus shown in FIG. 4 includes a
Since the same reference numerals in FIG. 1 and FIG. 4 indicate the same constituent elements, only the constituent elements different from the motion teaching apparatus shown in FIG. 1 will be described below.
バイタルサイン測定器50は、例えば心拍、血圧、酸素飽和度、呼吸数、体温、発汗、脳波など、利用者10の生命活動に関わる兆候を測定する。
The vital
測定処理部105は、バイタルサイン測定器50の測定結果を取り込み、これをロボット制御部101A及び音声出力部104Aに渡す。測定処理部105は、バイタルサイン測定器50の測定結果を時間的に平均化しても良い。
The
なお、バイタルサイン測定器50及び測定処理部105を含むユニットは、本発明のバイタルサイン測定部の一実施形態である。
The unit including the vital
ロボット制御部101Aは、提示可能な複数の動作の中からバイタルサイン測定器50の測定結果に応じて選択した動作をロボット20に実演させる。例えば、バイタルサインの測定結果によって利用者10の疲労度が一定以上に高まっていることが推定される場合、現在の動作パターンや別の動作パターンの中からより疲労度の小さい動作を選択してロボット20に実演させる。
その他の動作についてはロボット制御部101と同じである。
The
Other operations are the same as those of the
音声出力部104Aは、検出部103が検出した差異を補正するための複数のアドバイス用音声のうち、バイタルサイン測定器50の測定結果に応じて選択した音声をスピーカ40から出力する。例えば、バイタルサインの測定結果によって利用者10の疲労度が一定以上に高まっていることが推定される場合、身体的な負荷が比較的小さくなるようにアドバイスの音声を選択する。
その他の動作については音声出力部104と同じである。
104 A of audio | voice output parts output the audio | voice selected according to the measurement result of the vital
Other operations are the same as those of the
ここで、上述した構成を有する図4に示す動作教示装置の動作について、図5に示すフローチャートを参照して説明する。 Here, the operation of the motion teaching apparatus shown in FIG. 4 having the above-described configuration will be described with reference to the flowchart shown in FIG.
ステップST200:
測定処理部105がバイタルサイン測定器50の測定結果を取り込む。
Step ST200:
The
ステップST205:
ロボット制御部101Aは、入力部110に入力される利用者10の指示、若しくはステップST200で取り込まれたバイタルサイン測定器50の測定結果に従って、複数の動作パターンの中から実演を行う動作パターンを選択する。
Step ST205:
The
ステップST210(第1の工程):
ロボット制御部101Aは、ステップST205で選択した動作パターンにおける最初の模範動作をロボット20に実演させる。
Step ST210 (first step):
The
ステップST215(第2の工程):
動作認識処理部102は、ロボット20の実演に合わせて利用者10が動作を行う所定の期間において、利用者10の所定の身体部位の3次元位置情報を取得する。
Step ST215 (second step):
The motion
ステップST220(第3の工程):
検出部103は、動作認識処理部102が取得した3次元位置情報に基づいて、ロボット制御部101Aがロボット20に実演させた模範動作と利用者10の動作との差異を検出する。
Step ST220 (third process):
Based on the three-dimensional position information acquired by the motion
ステップST225:
測定処理部105がバイタルサイン測定器50の測定結果を取り込む。
Step ST225:
The
ステップST230,ST235,ST240:
検出部103において、ロボット20の模範動作と利用者10の動作との間に一定以上の差異が検出された場合、ロボット制御部101Aは、ステップST210に戻って、再度同じ模範動作をロボット20に実演させる。
そしてこの実演を行う際、音声出力部104Aは、検出部103の検出結果に加えてバイタルサイン測定器50の測定結果を考慮したアドバイス用音声をスピーカ40から出力する(ステップST235,第4の工程)。
例えば、バイタルサインの測定結果によって利用者10の疲労度が一定以上に高まっていることが推定される場合、身体的な負荷が小さくなるようにアドバイスの音声を選択する。
Steps ST230, ST235, ST240:
When the
When performing this demonstration, the
For example, when it is estimated that the fatigue level of the
他方、検出部103において検出された上記差異が一定以上でない場合、ロボット制御部101Aは、バイタルサイン測定器50の測定結果を考慮して次の動作を選択し(ST240)、この選択した模範動作をステップST210以降の処理でロボット20に実演させる。
例えば、バイタルサイン測定器50の測定結果から利用者10の体調が通常の状態にあると推定される場合、ロボット制御部101Aは、現在の動作パターンにおける次の動作を通常通り選択する。これに対し、バイタルサイン測定器50の測定結果から利用者10が一定以上疲労していると推定される場合、ロボット制御部101Aは、現在の動作パターン若しくは別の動作パターンに含まれる、より負荷の軽い動作を選択する。
On the other hand, when the difference detected by the
For example, when it is estimated from the measurement result of the vital
なお、ロボット制御部101Aは、バイタルサイン測定器50の測定結果に応じて、同一の動作の繰り返しを行うか否か決定しても良い。例えば、検出部103において検出された上記差異が一定以上の場合でも、バイタルサイン測定器50の測定結果によって利用者10が一定以上疲労していることが推測される場合には、同一の動作の繰り返しを避けてステップST240に進んでも良い。
Note that the
以上説明したように、本実施形態に係る動作教示装置によれば、利用者10のバイタルサインの測定結果に応じて、練習する動作の内容やアドバイスの内容を適応的に変化させることができる。そのため、特に病気を患っている高齢者など、利用者の体調に不安がある場合でも、無理な負荷を避けて適度な運動を行うことが可能になる。
As described above, according to the motion teaching apparatus according to the present embodiment, it is possible to adaptively change the content of the motion to be practiced and the content of the advice according to the measurement result of the vital sign of the
<第3の実施形態>
次に、本発明の第3の実施形態について説明する。
第3の実施形態に係る動作教示装置では、利用者の身体能力に応じて、提示する動作やアドバイスの内容が変更される。
<Third Embodiment>
Next, a third embodiment of the present invention will be described.
In the motion teaching apparatus according to the third embodiment, the motion to be presented and the content of advice are changed according to the physical ability of the user.
図6は、本発明の第3の実施形態に係る動作教示装置の構成の一例を示す図である。
図6に示す動作教示装置は、ロボット20と、カメラ31,32と、スピーカ40と、制御部100Bとを有する。制御部100Bは、ロボット制御部101Bと、動作認識処理部102と、検出部103と、音声出力部104Bと、評価部106とを有する。
図1と図6の同一符号は同一の構成要素を示すため、以下では図1に示す動作教示装置と異なる構成要素についてのみ説明する。
FIG. 6 is a diagram showing an example of the configuration of the motion teaching apparatus according to the third embodiment of the present invention.
The motion teaching apparatus shown in FIG. 6 includes a
Since the same reference numerals in FIG. 1 and FIG. 6 indicate the same components, only the components different from the motion teaching device shown in FIG. 1 will be described below.
評価部106は、検出部103の検出結果に応じて利用者10の身体能力を評価する。例えば、検出部103において検出される動作の差異に、動作ごとの難易度に応じた重みを付けて平均化し、その平均値に応じて利用者10の身体能力をランク付けする。
また、ロボット制御部101Bによって同一の動作の提示が繰り返される数をカウントし、この数が少ないほど身体能力の評価が高くなるように上記のランクを調節しても良い。
The
Alternatively, the number of repeated presentations of the same action by the
ロボット制御部101Bは、提示可能な複数の動作の中から評価部106の評価結果に応じて選択した動作をロボット20に実演させる。例えば、評価部106の評価が高くなった場合、現在の動作パターンや別の動作パターンの中からより難易度の高い動作を選択してロボット20に実演させる。
その他の動作についてはロボット制御部101と同じである。
The
Other operations are the same as those of the
音声出力部104Bは、検出部103が検出した差異を補正するための複数のアドバイス用音声のうち、評価部106の評価結果に応じて選択した音声をスピーカ40から出力する。例えば、評価部106の評価が高くなるほど、検出部103において検出される差異がより小さくなるように(すなわち、より正確な動作を要求するように)アドバイスの音声を選択する。
その他の動作については音声出力部104と同じである。
The sound output unit 104B outputs, from the
Other operations are the same as those of the
ここで、上述した構成を有する図6に示す動作教示装置の動作について、図7に示すフローチャートを参照して説明する。 Here, the operation of the motion teaching apparatus having the above-described configuration shown in FIG. 6 will be described with reference to the flowchart shown in FIG.
ステップST300:
ロボット制御部101Bは、入力部110に入力される利用者10の指示に従って、複数の動作パターンの中から実演を行う動作パターンを選択する。
Step ST300:
The
ステップST305(第1の工程):
ロボット制御部101Bは、ステップST300で選択した動作パターンにおける最初の模範動作をロボット20に実演させる。
Step ST305 (first step):
The
ステップST310(第2の工程):
動作認識処理部102は、ロボット20の実演に合わせて利用者10が動作を行う所定の期間において、利用者10の所定の身体部位の3次元位置情報を取得する。
Step ST310 (second step):
The motion
ステップST315(第3の工程):
検出部103は、動作認識処理部102が取得した3次元位置情報に基づいて、ロボット制御部101Bがロボット20に実演させた模範動作と利用者10の動作との差異を検出する。
Step ST315 (third process):
Based on the three-dimensional position information acquired by the motion
ステップST320:
評価部106が、検出部103の検出結果に応じて利用者10の身体能力を評価する。
Step ST320:
The
ステップST325,ST330,ST335:
検出部103において、ロボット20の模範動作と利用者10の動作との間に一定以上の差異が検出された場合、ロボット制御部101Bは、ステップST305に戻って、再度同じ模範動作をロボット20に実演させる。
そしてこの実演を行う際、音声出力部104Bは、検出部103の検出結果に加えて評価部106の評価結果を考慮したアドバイス用音声をスピーカ40から出力する(ステップST330、第4の工程)。
例えば、評価部106の評価が高くなるほど、より正確な動作を要求するようにアドバイスの音声を選択する。
Steps ST325, ST330, ST335:
If the
When performing this demonstration, the audio output unit 104B outputs, from the
For example, the advice voice is selected so that the higher the evaluation of the
他方、検出部103において検出された上記差異が一定以上でない場合、ロボット制御部101Bは、評価部106の評価結果を考慮して次の動作を選択し(ST335)、この模範動作をステップST305以降の処理でロボット20に実演させる。
例えば、評価部106の評価結果が前回の動作時の評価と変わらない場合、ロボット制御部101Bは、現在の動作パターンにおける次の動作を通常通り選択する。これに対し、評価部106の評価結果が前回の動作時よりも高くなった場合、ロボット制御部101Bは、現在の動作パターン若しくは別の動作パターンに含まれる、より難易度の高い動作を選択する。
On the other hand, if the difference detected by the
For example, when the evaluation result of the
なお、ロボット制御部101Bは、評価部106の評価結果に応じて、同一の動作の繰り返しを行うか否か決定しても良い。例えば、検出部103において一定以上の上記差異が検出されていない場合でも、評価部106の評価結果から利用者10の身体能力がある程度高いと推測される場合には同一の動作を繰り返すようにして、より模範的な動作を利用者10に要求しても良い。
The
以上説明したように、本実施形態に係る動作教示装置によれば、利用者10の身体能力の評価結果に応じて、練習する動作の内容やアドバイスの内容を適応的に変化させることができる。これにより、利用者10の身体能力に応じた適切な動作を選択することができるため、動作の学習の効果(健康の増進や技能向上)を更に高めることができる。
As described above, according to the motion teaching device according to the present embodiment, it is possible to adaptively change the content of the motion to practice and the content of advice according to the evaluation result of the physical ability of the
<第4の実施形態>
次に、本発明の第4の実施形態について説明する。
第4の実施形態に係る動作教示装置では、利用者の音声によって動作の提示の開始や終了などが制御可能になる。
<Fourth Embodiment>
Next, a fourth embodiment of the present invention will be described.
In the motion teaching apparatus according to the fourth embodiment, the start and end of the motion presentation can be controlled by the user's voice.
図8は、本発明の第4の実施形態に係る動作教示装置の構成の一例を示す図である。
図8に示す動作教示装置は、ロボット20と、カメラ31,32と、スピーカ40と、マイクロフォン60と、制御部100Cとを有する。制御部100Cは、ロボット制御部101Cと、動作認識処理部102と、検出部103と、音声出力部104と、音声認識処理部107とを有する。
図1と図8の同一符号は同一の構成要素を示すため、以下では図1に示す動作教示装置と異なる構成要素についてのみ説明する。
FIG. 8 is a diagram showing an example of the configuration of the motion teaching apparatus according to the fourth embodiment of the present invention.
The motion teaching apparatus shown in FIG. 8 includes a
Since the same reference numerals in FIG. 1 and FIG. 8 indicate the same components, only the components different from the motion teaching apparatus shown in FIG. 1 will be described below.
マイクロフォン60は、利用者10が発する音声を入力して音声信号に変換する。
音声認識処理部107は、マイクロフォン60から出力される音声信号に基づいて、利用者10の音声を文字や単語として認識する処理を行う。
The
The voice
ロボット制御部101Cは、音声認識処理部107において認識された利用者10の音声に応じて、ロボット20による動作の提示の開始や終了を行う。また、利用者10に提示可能な複数の動作パターンの中から実際に提示する動作パターンを、上記認識された音声に応じて選択する。
The robot control unit 101C starts and ends the presentation of the operation by the
例えば、音声認識処理部107が「開始!」という利用者10の音声を認識したとき、ロボット制御部101Cはロボット20による動作の実演を開始し、実演の途中で「終了!」という利用者10の音声が認識されたとき、ロボット20の実演を終了する。
また、「1」「2」「3」という名称が与えられた3つの動作パターンの提示が可能な場合において、音声認識処理部107が「1を開始!」という利用者10の音声を認識したとき、ロボット制御部101Cは「1」の動作パターンの提示を選択して、その動作の提示を開始する。
ロボット制御部101Cのその他の動作についてはロボット制御部101と同じである。
For example, when the voice
In addition, when the three motion patterns given the names “1”, “2”, and “3” can be presented, the voice
Other operations of the robot control unit 101C are the same as those of the
ここで、上述した構成を有する図8に示す動作教示装置の動作について、図9に示すフローチャートを参照して説明する。 Here, the operation of the motion teaching apparatus shown in FIG. 8 having the above-described configuration will be described with reference to the flowchart shown in FIG.
ステップST400:
ロボット制御部101Cは、音声認識処理部107において動作の開始を要求する利用者10の音声が認識されるまで、ロボット20の実演開始を保留する。
Step ST400:
The
ステップST405:
例えば「1を開始!」という音声を音声認識処理部107が認識すると、ロボット制御部101Cは、この音声に従って「1」という名称が与えられた動作パターンを選択する。
Step ST405:
For example, when the voice
ステップST410(第1の工程):
ロボット制御部101Cは、ステップST405で選択した動作パターンにおける最初の模範動作をロボット20に実演させる。
Step ST410 (first step):
The robot control unit 101C causes the
ステップST415(第2の工程):
動作認識処理部102は、ロボット20の実演に合わせて利用者10が動作を行う所定の期間において、利用者10の所定の身体部位の3次元位置情報を取得する。
Step ST415 (second process):
The motion
ステップST420(第3の工程):
検出部103は、動作認識処理部102が取得した3次元位置情報に基づいて、ロボット制御部101Cがロボット20に実演させた模範動作と利用者10の動作との差異を検出する。
Step ST420 (third process):
Based on the three-dimensional position information acquired by the motion
ステップST425:
ロボット20の実演中又はその後において動作の終了を要求する利用者10の音声(例えば「終了!」)を音声認識処理部107が認識した場合、ロボット制御部101Cはロボット20の実演を終了する。そのような音声を音声認識処理部が認識しなかった場合は、ステップST430に移る。
Step ST425:
When the voice
ステップST430,ST435,ST440:
検出部103において、ロボット20の模範動作と利用者10の動作との間に一定以上の差異が検出された場合、ロボット制御部101Cは、ステップST410に戻って、再度同じ模範動作をロボット20に実演させる。そしてこの実演を行うとき、音声出力部104は、検出部103の検出結果に応じたアドバイス用音声データを記憶装置113から読み出してスピーカ40から出力する(ステップST435、第4の工程)。
他方、検出部103において検出された上記差異が一定以上になっていない場合、ロボット制御部101は、現在の動作パターンにおける次の動作を選択し(ST440)、この模範動作をステップST410以降の処理でロボット20に実演させる。
Steps ST430, ST435, ST440:
When the
On the other hand, if the difference detected by the
以上説明したように、本実施形態に係る動作教示装置によれば、ロボット20による模範動作の実演の開始や終了、動作パターンの選択を、利用者の音声によって容易に行うことができる。これにより、面倒な操作を覚えることなく非常に簡単に装置を利用することができる。また、高齢者や体の不自由な人でも一人で気軽にリハビリテーションの運動を学習することが可能になるため、装置の稼動率が向上し、利用者の健康増進を図ることができる。
As described above, according to the motion teaching apparatus according to the present embodiment, the start and end of the demonstration of the exemplary motion by the
以上、本発明の幾つかの実施形態について説明したが、本発明は上記の形態に限定されるものではなく、種々の改変が可能である。 As mentioned above, although several embodiment of this invention was described, this invention is not limited to said form, A various modification | change is possible.
例えば、上述した実施形態では、ロボットによって模範動作を提示する例が挙げられているが、本発明はこれに限定されない。例えば、コンピュータグラフィックス等の映像技術によって人物や生き物、アニメーションキャラクタなどを表示装置に映し出すことにより、2次元や3次元の映像で模範動作を提示しても良い。
また、目の不自由な人を対象とする場合などにおいては、音声によって動作を教示しても良い。
更には、これらの幾つかの提示手段を組み合わせて利用者に動作を提示しても良い。
このように、本発明によれば、動作提示部に様々な装置を適用することができるため、利用者のニーズに合わせてハードウェア構成をフレキシブルに選択することができる。
For example, in the above-described embodiment, an example in which an exemplary motion is presented by a robot is given, but the present invention is not limited to this. For example, an exemplary operation may be presented as a two-dimensional or three-dimensional image by projecting a person, a living thing, an animation character, or the like on a display device by a video technique such as computer graphics.
In addition, when the subject is a blind person, the operation may be taught by voice.
Furthermore, you may show an operation | movement to a user combining these some presentation means.
As described above, according to the present invention, various devices can be applied to the operation presentation unit, so that the hardware configuration can be flexibly selected according to the needs of the user.
上述した実施形態では、カメラで撮影した映像によって利用者の動作を認識しているが、本発明はこれに限定されない。例えば利用者に装着した加速度センサや傾斜センサ、方位センサ、光学センサなどとカメラを併用して使用者の動作を認識しても良いし、これらのセンサのみで使用者の動作を認識しても良い。 In the above-described embodiment, the user's action is recognized by the video shot by the camera, but the present invention is not limited to this. For example, the user's motion may be recognized using a camera in combination with an acceleration sensor, a tilt sensor, an orientation sensor, an optical sensor, etc. worn by the user, or the user's motion may be recognized only with these sensors. good.
上述した実施形態では、音声によって利用者にアドバイスを提供する例が示されているが、本発明はこれに限定されない。例えばテレビモニターなどをで映像によりアドバイスを提供しても良いし、光(ランプの点滅など)や、機械的振動や、電気的刺激などによってアドバイスを提供しても良い。 In the embodiment described above, an example in which advice is provided to the user by voice is shown, but the present invention is not limited to this. For example, advice may be provided by video on a TV monitor or the like, or advice may be provided by light (such as blinking of a lamp), mechanical vibration, or electrical stimulation.
動作の提示とアドバイスの提供には、同一のハードウェアを使用しても良い。
例えば、動作の提示とアドバイスの提供を映像で行う場合には、両者の映像を同一のテレビモニターに表示させても良い。動作の提示とアドバイスの提供を音声で行う場合には、両者の音声を同一のスピーカから出力しても良い。
The same hardware may be used to present actions and provide advice.
For example, when the operation is presented and the advice is provided by video, both videos may be displayed on the same television monitor. When presenting an operation and providing advice by voice, both voices may be output from the same speaker.
本実施形態の各構成要素は、有線通信はもちろんのこと、無線通信によっても接続可能である。例えば、バイタルサイン測定器は、無線通信によって制御部に測定結果を伝送しても良い。これにより、利用者は余計な配線に邪魔されることなく動作の学習に専念することができる。 Each component of this embodiment can be connected by wireless communication as well as wired communication. For example, the vital sign measuring device may transmit the measurement result to the control unit by wireless communication. Thus, the user can concentrate on learning the operation without being disturbed by unnecessary wiring.
また、本発明の各構成要素は、インターネットなどのネットワーク経由で接続することも可能である。例えば図1の例において、制御部100を構成するコンピュータ機器と、ロボット20、カメラ31,32、スピーカ40などの機器をネットワーク経由で接続することも可能である。これにより、コンピュータ機器を配置できない場所でも本装置を利用することが可能になる。
Each component of the present invention can also be connected via a network such as the Internet. For example, in the example of FIG. 1, it is also possible to connect a computer device constituting the
10…利用者、20…ロボット、31,32…カメラ、40…スピーカ、50…バイタルサイン測定器、60…マイクロフォン、100,100A,100B,100C…制御部、101,101A,101B,101C…ロボット制御部、102…動作認識処理部、103…検出部、104,104A,104B…音声出力部、105…測定処理部、106…評価部、107…音声認識処理部
DESCRIPTION OF
Claims (11)
上記動作提示部が提示した動作に対応する上記利用者の動作を認識する動作認識部と、
上記動作提示部が提示した動作と上記動作認識部が認識した動作との差異を検出する検出部と、
上記検出部が検出した差異を補正するためのアドバイスに関する情報を提供する情報提供部と
を有する動作教示装置。 An action presentation unit that presents exemplary actions to the user;
An action recognition unit for recognizing the action of the user corresponding to the action presented by the action presentation unit;
A detection unit for detecting a difference between the motion presented by the motion presentation unit and the motion recognized by the motion recognition unit;
An operation teaching device comprising: an information providing unit that provides information on advice for correcting the difference detected by the detection unit.
請求項1に記載の動作教示装置。 The operation presentation unit repeatedly presents the same operation according to the detection result of the detection unit,
The motion teaching apparatus according to claim 1.
上記動作提示部は、提示可能な複数の動作の中から、上記バイタルサイン測定部の測定結果に応じた動作を選択して提示する、
請求項1又は2に記載の動作教示装置。 It has a vital sign measurement unit that measures the vital signs of the user,
The operation presentation unit selects and presents an operation according to the measurement result of the vital sign measurement unit from a plurality of operations that can be presented.
The motion teaching apparatus according to claim 1 or 2.
上記情報提供部は、上記検出部が検出した差異を補正するためのアドバイスに関する複数の情報のうち、上記バイタルサイン測定部の測定結果に応じた情報を選択して提供する、
請求項1又は2に記載の動作教示装置。 It has a vital sign measurement unit that measures the vital signs of the user,
The information providing unit selects and provides information according to the measurement result of the vital sign measurement unit among a plurality of pieces of information related to advice for correcting the difference detected by the detection unit.
The motion teaching apparatus according to claim 1 or 2.
上記動作提示部は、提示可能な複数の動作の中から、上記評価部の評価結果に応じた動作を選択して提示する、
請求項1又は2に記載の動作教示装置。 According to the detection result of the detection unit, the evaluation unit for evaluating the physical ability of the user,
The operation presentation unit selects and presents an operation according to the evaluation result of the evaluation unit from a plurality of operations that can be presented.
The motion teaching apparatus according to claim 1 or 2.
上記情報提供部は、上記検出部が検出した差異を補正するためのアドバイスに関する複数の情報のうち、上記評価部の評価結果に応じた情報を選択して提供する、
請求項1又は2に記載の動作教示装置。 According to the detection result of the detection unit, the evaluation unit for evaluating the physical ability of the user,
The information providing unit selects and provides information according to the evaluation result of the evaluation unit among a plurality of pieces of information related to advice for correcting the difference detected by the detection unit.
The motion teaching apparatus according to claim 1 or 2.
上記動作提示部は、上記音声認識部により認識された上記利用者の音声に応じて、
動作の提示の開始、
動作の提示の終了、及び、
提示可能な複数の動作の中からの上記利用者に提示する動作の選択
の少なくとも1つを行う、
請求項1又は2に記載の動作教示装置。 A voice recognition unit that recognizes the user's voice;
The operation presentation unit is responsive to the user's voice recognized by the voice recognition unit,
The start of an action presentation,
The end of the presentation of the action, and
Selecting at least one of actions to be presented to the user from a plurality of actions that can be presented;
The motion teaching apparatus according to claim 1 or 2.
模範的な動作を実演するロボット、
模範的な動作の映像を表示する映像表示部、及び、
模範的な動作を教示する音声を出力する音声出力部
の少なくとも1つを含む、
請求項1乃至7の何れか一に記載の動作教示装置。 The action presentation unit
A robot demonstrating exemplary movements,
An image display unit for displaying an image of an exemplary operation; and
Including at least one sound output unit that outputs sound teaching an exemplary operation;
The motion teaching device according to any one of claims 1 to 7.
少なくとも2つの位置から上記利用者を撮影する撮影部と、
上記撮影部が撮影した上記利用者の動作に基づいて、上記利用者の所定の身体部位の3次元位置情報を取得する位置情報取得部と
を含む、
請求項1乃至7の何れか一に記載の動作教示装置。 The motion recognition unit
A photographing unit for photographing the user from at least two positions;
A position information acquisition unit that acquires three-dimensional position information of a predetermined body part of the user based on an action of the user imaged by the imaging unit;
The motion teaching device according to any one of claims 1 to 7.
請求項1乃至7の何れか一に記載の動作教示装置。 The information providing unit provides information on the advice using at least one of video, sound, light, vibration, and electrical stimulation;
The motion teaching device according to any one of claims 1 to 7.
上記第1の工程において提示した動作に対応する上記利用者の動作を、少なくとも2つの位置から撮影部によって撮影し、当該撮影部が撮影した上記利用者の動作に基づいて、上記利用者の所定の身体部位の3次元位置情報を取得する第2の工程と、
上記第2の工程において取得した3次元位置情報に基づいて、上記第1の工程において提示した動作と上記撮影部が撮影した上記利用者の動作との差異を検出する第3の工程と、
上記第3の工程において検出された差異を補正するためのアドバイスに関する情報を提供する第4の工程と
を有する動作教示方法。
A first step in which at least one of a robot, a video display unit, and an audio output unit presents an exemplary operation to the user;
The user's motion corresponding to the motion presented in the first step is photographed by the photographing unit from at least two positions, and the user's predetermined motion is determined based on the user's motion photographed by the photographing unit. A second step of acquiring three-dimensional position information of the body part of
A third step of detecting a difference between the motion presented in the first step and the motion of the user photographed by the photographing unit based on the three-dimensional position information acquired in the second step;
A fourth step of providing information relating to advice for correcting the difference detected in the third step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005144626A JP2006320424A (en) | 2005-05-17 | 2005-05-17 | Action teaching apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005144626A JP2006320424A (en) | 2005-05-17 | 2005-05-17 | Action teaching apparatus and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006320424A true JP2006320424A (en) | 2006-11-30 |
Family
ID=37540529
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005144626A Pending JP2006320424A (en) | 2005-05-17 | 2005-05-17 | Action teaching apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006320424A (en) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008168133A (en) * | 2007-01-12 | 2008-07-24 | Internatl Business Mach Corp <Ibm> | Method, system and program for tracking range of user's body movement |
JP2009247836A (en) * | 2008-04-11 | 2009-10-29 | Konami Sports & Life Co Ltd | Apparatus, method, program and system for exercise management |
JP2010036025A (en) * | 2008-07-11 | 2010-02-18 | Tokyo Univ Of Science | Method and apparatus for determining human action under uncertainty |
WO2013055024A1 (en) * | 2011-10-12 | 2013-04-18 | 한국과학기술연구원 | Apparatus for training recognition capability using robot and method for same |
WO2013059828A1 (en) * | 2011-10-20 | 2013-04-25 | Jay Shiro Tashiro | System and method for assessing an individual's physical and psychosocial abilities |
JP2013090758A (en) * | 2011-10-25 | 2013-05-16 | Vstone Kk | Exercise promotion robot |
US8789440B2 (en) | 2011-09-14 | 2014-07-29 | Korea Institute Of Science And Technology | Manipulator with weight compensation mechanism and face robot using the same |
KR101447563B1 (en) * | 2013-04-05 | 2014-10-08 | 한국과학기술연구원 | Evaluation system of cognitive ability based on physical object and method thereof |
WO2015037089A1 (en) * | 2013-09-11 | 2015-03-19 | 日立コンシューマエレクトロニクス株式会社 | Brain dysfunction assessment method, brain dysfunction assessment device, and program thereof |
US9223936B2 (en) | 2010-11-24 | 2015-12-29 | Nike, Inc. | Fatigue indices and uses thereof |
US9283429B2 (en) | 2010-11-05 | 2016-03-15 | Nike, Inc. | Method and system for automated personal training |
US9358426B2 (en) | 2010-11-05 | 2016-06-07 | Nike, Inc. | Method and system for automated personal training |
US9457256B2 (en) | 2010-11-05 | 2016-10-04 | Nike, Inc. | Method and system for automated personal training that includes training programs |
JPWO2016002885A1 (en) * | 2014-07-03 | 2017-04-27 | 帝人ファーマ株式会社 | Rehabilitation support device and control program for rehabilitation support device |
US9811639B2 (en) | 2011-11-07 | 2017-11-07 | Nike, Inc. | User interface and fitness meters for remote joint workout session |
US9852271B2 (en) | 2010-12-13 | 2017-12-26 | Nike, Inc. | Processing data of a user performing an athletic activity to estimate energy expenditure |
US9977874B2 (en) | 2011-11-07 | 2018-05-22 | Nike, Inc. | User interface for remote joint workout session |
US10188930B2 (en) | 2012-06-04 | 2019-01-29 | Nike, Inc. | Combinatory score having a fitness sub-score and an athleticism sub-score |
KR20190011759A (en) * | 2016-06-03 | 2019-02-07 | 웨스트 & 베르그 아이티 컨설팅 아베 | Motion training aids |
US10420982B2 (en) | 2010-12-13 | 2019-09-24 | Nike, Inc. | Fitness training system with energy expenditure calculation that uses a form factor |
CN112567401A (en) * | 2018-12-26 | 2021-03-26 | 欧姆龙株式会社 | Motion analysis device, motion analysis method, and motion analysis program |
WO2022070297A1 (en) * | 2020-09-30 | 2022-04-07 | 日本電気株式会社 | Rehabilitation assistance device, rehabilitation assistance system, rehabilitation assistance method, and recording medium |
KR20220055225A (en) * | 2020-10-26 | 2022-05-03 | 재단법인차세대융합기술연구원 | Method of mornitoring home training using three dimensional modeling and server performing the same |
KR102630799B1 (en) * | 2023-07-26 | 2024-01-29 | 주식회사 에이아이태권도 | Method and apparatus for evaluating taekwondo movement based on voice recognition using artificial intelligence |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0728580U (en) * | 1993-11-12 | 1995-05-30 | ベースゴルフ株式会社 | Golf practice teaching tools |
JPH08266698A (en) * | 1995-03-31 | 1996-10-15 | Nippon Koden Corp | Fitness evaluation system and exercise aid system |
JPH0956697A (en) * | 1995-08-21 | 1997-03-04 | Matsushita Electric Ind Co Ltd | Rehabilitation aiding device |
JP2000037490A (en) * | 1998-07-24 | 2000-02-08 | Konami Co Ltd | Dancing game device |
JP2005111178A (en) * | 2003-10-10 | 2005-04-28 | Matsushita Electric Works Ltd | Motion training display system |
-
2005
- 2005-05-17 JP JP2005144626A patent/JP2006320424A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0728580U (en) * | 1993-11-12 | 1995-05-30 | ベースゴルフ株式会社 | Golf practice teaching tools |
JPH08266698A (en) * | 1995-03-31 | 1996-10-15 | Nippon Koden Corp | Fitness evaluation system and exercise aid system |
JPH0956697A (en) * | 1995-08-21 | 1997-03-04 | Matsushita Electric Ind Co Ltd | Rehabilitation aiding device |
JP2000037490A (en) * | 1998-07-24 | 2000-02-08 | Konami Co Ltd | Dancing game device |
JP2005111178A (en) * | 2003-10-10 | 2005-04-28 | Matsushita Electric Works Ltd | Motion training display system |
Cited By (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008168133A (en) * | 2007-01-12 | 2008-07-24 | Internatl Business Mach Corp <Ibm> | Method, system and program for tracking range of user's body movement |
JP2009247836A (en) * | 2008-04-11 | 2009-10-29 | Konami Sports & Life Co Ltd | Apparatus, method, program and system for exercise management |
JP2010036025A (en) * | 2008-07-11 | 2010-02-18 | Tokyo Univ Of Science | Method and apparatus for determining human action under uncertainty |
US10583328B2 (en) | 2010-11-05 | 2020-03-10 | Nike, Inc. | Method and system for automated personal training |
US11710549B2 (en) | 2010-11-05 | 2023-07-25 | Nike, Inc. | User interface for remote joint workout session |
US11094410B2 (en) | 2010-11-05 | 2021-08-17 | Nike, Inc. | Method and system for automated personal training |
US9919186B2 (en) | 2010-11-05 | 2018-03-20 | Nike, Inc. | Method and system for automated personal training |
US11915814B2 (en) | 2010-11-05 | 2024-02-27 | Nike, Inc. | Method and system for automated personal training |
US9283429B2 (en) | 2010-11-05 | 2016-03-15 | Nike, Inc. | Method and system for automated personal training |
US9358426B2 (en) | 2010-11-05 | 2016-06-07 | Nike, Inc. | Method and system for automated personal training |
US9457256B2 (en) | 2010-11-05 | 2016-10-04 | Nike, Inc. | Method and system for automated personal training that includes training programs |
US9223936B2 (en) | 2010-11-24 | 2015-12-29 | Nike, Inc. | Fatigue indices and uses thereof |
US9852271B2 (en) | 2010-12-13 | 2017-12-26 | Nike, Inc. | Processing data of a user performing an athletic activity to estimate energy expenditure |
US10420982B2 (en) | 2010-12-13 | 2019-09-24 | Nike, Inc. | Fitness training system with energy expenditure calculation that uses a form factor |
US8789440B2 (en) | 2011-09-14 | 2014-07-29 | Korea Institute Of Science And Technology | Manipulator with weight compensation mechanism and face robot using the same |
EP2767967A4 (en) * | 2011-10-12 | 2015-08-12 | Korea Inst Sci & Tech | Apparatus for training recognition capability using robot and method for same |
WO2013055024A1 (en) * | 2011-10-12 | 2013-04-18 | 한국과학기술연구원 | Apparatus for training recognition capability using robot and method for same |
KR101317383B1 (en) * | 2011-10-12 | 2013-10-11 | 한국과학기술연구원 | Cognitive ability training apparatus using robots and method thereof |
WO2013059828A1 (en) * | 2011-10-20 | 2013-04-25 | Jay Shiro Tashiro | System and method for assessing an individual's physical and psychosocial abilities |
JP2013090758A (en) * | 2011-10-25 | 2013-05-16 | Vstone Kk | Exercise promotion robot |
US9811639B2 (en) | 2011-11-07 | 2017-11-07 | Nike, Inc. | User interface and fitness meters for remote joint workout session |
US9977874B2 (en) | 2011-11-07 | 2018-05-22 | Nike, Inc. | User interface for remote joint workout session |
US10825561B2 (en) | 2011-11-07 | 2020-11-03 | Nike, Inc. | User interface for remote joint workout session |
US10188930B2 (en) | 2012-06-04 | 2019-01-29 | Nike, Inc. | Combinatory score having a fitness sub-score and an athleticism sub-score |
KR101447563B1 (en) * | 2013-04-05 | 2014-10-08 | 한국과학기술연구원 | Evaluation system of cognitive ability based on physical object and method thereof |
WO2015037089A1 (en) * | 2013-09-11 | 2015-03-19 | 日立コンシューマエレクトロニクス株式会社 | Brain dysfunction assessment method, brain dysfunction assessment device, and program thereof |
US10478114B2 (en) | 2013-09-11 | 2019-11-19 | Maxell, Ltd. | Brain dysfunction assessment method, brain dysfunction assessment device, and program thereof |
JPWO2015037089A1 (en) * | 2013-09-11 | 2017-03-02 | 日立マクセル株式会社 | Cerebral dysfunction evaluation method, cerebral dysfunction evaluation apparatus and program thereof |
US10417931B2 (en) | 2014-07-03 | 2019-09-17 | Teijin Pharma Limited | Rehabilitation assistance device and program for controlling rehabilitation assistance device |
JPWO2016002885A1 (en) * | 2014-07-03 | 2017-04-27 | 帝人ファーマ株式会社 | Rehabilitation support device and control program for rehabilitation support device |
KR20190011759A (en) * | 2016-06-03 | 2019-02-07 | 웨스트 & 베르그 아이티 컨설팅 아베 | Motion training aids |
JP2021166760A (en) * | 2016-06-03 | 2021-10-21 | ウエスト アンド ベルグ ホールディング アーベー | Motion training aid |
US11348478B2 (en) | 2016-06-03 | 2022-05-31 | West & Bergh Holding Ab | Motion training aid |
KR20220103818A (en) * | 2016-06-03 | 2022-07-22 | 웨스트 & 베르그 홀딩 아베 | Motion training aid |
KR102424637B1 (en) | 2016-06-03 | 2022-07-25 | 웨스트 & 베르그 홀딩 아베 | movement training aid |
JP7232874B2 (en) | 2016-06-03 | 2023-03-03 | ウエスト アンド ベルグ ホールディング アーベー | exercise training aid |
KR102605331B1 (en) | 2016-06-03 | 2023-11-22 | 웨스트 & 베르그 홀딩 아베 | Motion training aid |
JP2019517338A (en) * | 2016-06-03 | 2019-06-24 | ウエスト アンド ベルグ ホールディング アーベー | Exercise training aid |
CN112567401A (en) * | 2018-12-26 | 2021-03-26 | 欧姆龙株式会社 | Motion analysis device, motion analysis method, and motion analysis program |
WO2022070297A1 (en) * | 2020-09-30 | 2022-04-07 | 日本電気株式会社 | Rehabilitation assistance device, rehabilitation assistance system, rehabilitation assistance method, and recording medium |
KR20220055225A (en) * | 2020-10-26 | 2022-05-03 | 재단법인차세대융합기술연구원 | Method of mornitoring home training using three dimensional modeling and server performing the same |
KR102423421B1 (en) * | 2020-10-26 | 2022-07-21 | 재단법인 차세대융합기술연구원 | Method of mornitoring home training using three dimensional modeling and server performing the same |
KR102630799B1 (en) * | 2023-07-26 | 2024-01-29 | 주식회사 에이아이태권도 | Method and apparatus for evaluating taekwondo movement based on voice recognition using artificial intelligence |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006320424A (en) | Action teaching apparatus and method | |
US8758020B2 (en) | Periodic evaluation and telerehabilitation systems and methods | |
JP4594157B2 (en) | Exercise support system, user terminal device thereof, and exercise support program | |
JP2011110215A (en) | Rehabilitation system, program and computer-readable recording medium recording program | |
EP2203896B1 (en) | Method and system for selecting the viewing configuration of a rendered figure | |
JPH09120464A (en) | Rehabilitation support device | |
US20220028296A1 (en) | Information processing apparatus, information processing method, and computer program | |
JP2013066696A (en) | Image processing system and image processing method | |
US11682157B2 (en) | Motion-based online interactive platform | |
Li et al. | Development of exergame-based virtual trainer for physical therapy using kinect | |
JP2011152333A (en) | Body skill learning support device and body skill learning support method | |
KR20170140705A (en) | Cognitive ability rehabilitation system using association card game and method thereof | |
EP2482935B1 (en) | System for supporting a user to do exercises | |
US20210322824A1 (en) | Systems and methods for gestural detection and control in immersive and interactive flume swimming pools | |
JP2009095404A (en) | Moving image display system, moving image display method, and computer program | |
JP2019024579A (en) | Rehabilitation support system, rehabilitation support method, and program | |
JP2009089744A (en) | Moving image display system, moving image display method, and computer program | |
KR101053467B1 (en) | System and method for controlling smart motion suite using simulation motion data | |
KR20210066046A (en) | Exercise support device using IoT sensor | |
JP2019024580A (en) | Rehabilitation support system, rehabilitation support method, and program | |
KR20090058803A (en) | Method for learning video exercise | |
WO2023026529A1 (en) | Information processing device, information processing method, and program | |
WO2023176567A1 (en) | Exercise assistance system | |
US20240135617A1 (en) | Online interactive platform with motion detection | |
JP2022129615A (en) | Exercise support system and exercise support method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080516 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20080603 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20080603 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100826 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100907 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110201 |