JP2006320424A - Action teaching apparatus and method - Google Patents

Action teaching apparatus and method Download PDF

Info

Publication number
JP2006320424A
JP2006320424A JP2005144626A JP2005144626A JP2006320424A JP 2006320424 A JP2006320424 A JP 2006320424A JP 2005144626 A JP2005144626 A JP 2005144626A JP 2005144626 A JP2005144626 A JP 2005144626A JP 2006320424 A JP2006320424 A JP 2006320424A
Authority
JP
Japan
Prior art keywords
unit
user
motion
robot
presented
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005144626A
Other languages
Japanese (ja)
Inventor
Kazuyoshi Yoshino
和芳 吉野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tama TLO Co Ltd
Original Assignee
Tama TLO Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tama TLO Co Ltd filed Critical Tama TLO Co Ltd
Priority to JP2005144626A priority Critical patent/JP2006320424A/en
Publication of JP2006320424A publication Critical patent/JP2006320424A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an action teaching apparatus and method which can effectively teach players standard actions in rehabilitation exercise or the like. <P>SOLUTION: The standard actions are presented to a user 10 by a robot 20 and actions of the user 10 corresponding to the standard actions are recognized from images taken by cameras 31 and 32. A difference is detected between the actions of the user 10 recognized and the standard actions presented by the robot 20 and an advice for correcting the difference is outputted in a voice from a speaker 40. This enables the user 10 to correct his each wrong action following the vocal advice, thereby achieving the effective learning of the standard actions as compared with the unilateral presentation of actions with a video or the like. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、例えばリハビリテーションのための運動や、電子機器の操作、スポーツ、などにおいて、利用者に模範的な身体の動作を教示する動作教示装置とその方法に関するものである。   The present invention relates to a motion teaching apparatus and method for teaching an exemplary body motion to a user in, for example, exercise for rehabilitation, operation of an electronic device, sports, and the like.

医療技術の発達によって平均寿命が伸びた一方で子供の数が年々減少していることから、社会の高齢化が急速に進んでいる。そのため、高齢者を支援する仕組みや環境の整備が急務になっている。   With the development of medical technology, the average life expectancy has increased while the number of children has been decreasing year by year, and so society is aging rapidly. For this reason, there is an urgent need to develop a mechanism and environment that supports the elderly.

非特許文献1には、カメラで撮影した利用者の映像をコンピュータに取り込んで画像処理を行うことにより利用者のジェスチャを推定し、この推定したジェスチャに応じてゲーム機を操作する技術が記載されている。これにより、指先が不自由であったり、電子機器の操作に不慣れであるためゲーム機のコントローラを思うように操作できない高齢者であっても、負担を感じることなくゲームを楽しむことが可能になる。   Non-Patent Document 1 describes a technique for estimating a user's gesture by capturing a user's video captured by a camera into a computer and performing image processing, and operating a game machine according to the estimated gesture. ing. This makes it possible to enjoy the game without feeling a burden even for an elderly person who is unable to operate the controller of the game machine as desired because the fingertip is inconvenient or unfamiliar with the operation of the electronic device. .

また、非特許文献2には、ロボットが利用者にキーボードの入力操作を教示するシステムが記載されている。このシステムでは、マイクロフォンに入力される利用者の音声をコンピュータに取り込んで音声認識処理を行うことにより、入力された音声を単語として認識する。そして、認識した単語に対応するキーの位置を指差すように、キーボードの横に配置された小型のロボットを制御する。これにより、利用者はロボットから何度でも気軽にキーボードの操作を教わることができるため、電子機器の操作に不慣れな高齢者でも自分のペースで着実にキー操作を習得することができる。
今井、他2名,「ステレオカメラを利用した家庭用ゲーム機のジェスチャ操作」,「第19回リハ工学カンファレンス 講演論文集」,2004年8月25日,p.191−192 吉野、他1名,「高齢者のためのパソコンキー入力操作の学習支援システム」,「第19回リハ工学カンファレンス 講演論文集」,2004年8月25日,p.201−202
Non-Patent Document 2 describes a system in which a robot teaches a user to perform keyboard input operations. In this system, a user's voice input to a microphone is taken into a computer and voice recognition processing is performed to recognize the input voice as a word. Then, the small robot arranged on the side of the keyboard is controlled so that the position of the key corresponding to the recognized word is pointed. As a result, the user can easily learn how to operate the keyboard from the robot any number of times, so that even an elderly person unaccustomed to operating electronic devices can learn key operations at their own pace.
Imai and two others, “Gesture operation of home video game machines using stereo cameras”, “The 19th Rehabilitation Engineering Conference Proceedings”, August 25, 2004, p. 191-192 Yoshino and 1 other, "Learning support system for PC key input operation for the elderly", "The 19th Rehabilitation Engineering Conference Proceedings", August 25, 2004, p. 201-202

ところで、慢性的な疾患を患っている人の割合は、一般に年齢が高くなるほどが多くなる傾向がある。こうした疾患からの回復を図り、健康を維持・増進させるためには、リハビリテーションとして適切な運動を行うことが効果的である。しかしながら、従来このようなリハビリテーションとしての運動は、専門の施設においてインストラクタの指示の元で行われており、高齢者が家庭内で個人的に行うことが困難であるという問題がある。   By the way, the proportion of people suffering from chronic diseases generally tends to increase with age. In order to recover from these diseases and maintain and improve health, it is effective to perform appropriate exercise as rehabilitation. However, conventionally, such exercise as rehabilitation has been performed under the instruction of an instructor in a specialized facility, and there is a problem that it is difficult for an elderly person to personally perform at home.

また、リハビリテーションに限らず、例えばスポーツにおいて技能の向上を図るためのトレーニングを行う際に、正しいフォームを指導してくれるインストラクタがいない場合には、インストラクタの代わりにビデオなどを見て学習する必要がある。ところがこのような個人的なトレーニングでは、情報を一方的に受け取るのみであり、実際に行った動作が適切であるかについてはトレーニングを行う者が自分で把握しなくてはならない。そのため、インストラクタの指示を受けてトレーニングを行う場合に比べて学習効果が劣るという問題がある。   In addition to rehabilitation, for example, when training to improve skills in sports, if there is no instructor who teaches the correct form, it is necessary to study by watching videos instead of the instructor is there. However, in such personal training, only information is received unilaterally, and the person who performs the training has to grasp for himself whether the action actually performed is appropriate. Therefore, there is a problem that the learning effect is inferior to the case where training is performed in response to the instruction of the instructor.

本発明はかかる事情に鑑みてなされたものであり、その目的は、リハビリテーションの運動等において模範的な動作を効果的に利用者に教示することができる動作教示装置とその方法を提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an operation teaching apparatus and method that can effectively teach an exemplary operation to a user in a rehabilitation exercise or the like. is there.

本発明の第1の観点に係る動作教示装置は、利用者に模範的な動作を提示する動作提示部と、上記動作提示部が提示した動作に対応する上記利用者の動作を認識する動作認識部と、上記動作提示部が提示した動作と上記動作認識部が認識した動作との差異を検出する検出部と、上記検出部が検出した差異を補正するためのアドバイスに関する情報を提供する情報提供部とを有する。
好適には、上記動作提示部は、上記検出部の検出結果に応じて、同一の動作を繰り返し提示する。
An operation teaching apparatus according to a first aspect of the present invention includes an operation presentation unit that presents an exemplary operation to a user, and an operation recognition that recognizes the operation of the user corresponding to the operation presented by the operation presentation unit. Information providing information relating to advice for correcting a difference detected by the detection unit, a detection unit for detecting a difference between the motion presented by the motion presentation unit and the motion recognized by the motion recognition unit Part.
Preferably, the operation presentation unit repeatedly presents the same operation according to the detection result of the detection unit.

上記動作教示装置は、上記利用者のバイタルサインを測定するバイタルサイン測定部を有しても良い。この場合、上記動作提示部は、提示可能な複数の動作の中から、上記バイタルサイン測定部の測定結果に応じた動作を選択して提示しても良い。また、上記情報提供部は、上記検出部が検出した差異を補正するためのアドバイスに関する複数の情報のうち、上記バイタルサイン測定部の測定結果に応じた情報を選択して提供しても良い。   The motion teaching apparatus may include a vital sign measurement unit that measures the vital sign of the user. In this case, the motion presentation unit may select and present a motion according to the measurement result of the vital sign measurement unit from a plurality of motions that can be presented. The information providing unit may select and provide information according to the measurement result of the vital sign measurement unit from among a plurality of pieces of information related to advice for correcting the difference detected by the detection unit.

上記動作教示装置は、上記検出部の検出結果に応じて、上記利用者の身体能力を評価する評価部を有しても良い。この場合、上記動作提示部は、提示可能な複数の動作の中から、上記評価部の評価結果に応じた動作を選択して提示しても良い。また、上記情報提供部は、上記検出部が検出した差異を補正するためのアドバイスに関する複数の情報のうち、上記評価部の評価結果に応じた情報を選択して提供しても良い。   The motion teaching device may include an evaluation unit that evaluates the physical ability of the user according to a detection result of the detection unit. In this case, the operation presentation unit may select and present an operation according to the evaluation result of the evaluation unit from a plurality of operations that can be presented. The information providing unit may select and provide information according to the evaluation result of the evaluation unit among a plurality of pieces of information related to advice for correcting the difference detected by the detection unit.

上記動作教示装置は、上記利用者の音声を認識する音声認識部を有しても良い。この場合、上記動作提示部は、上記音声認識部により認識された上記利用者の音声に応じて、動作の提示の開始、動作の提示の終了、及び、提示可能な複数の動作の中からの上記利用者に提示する動作の選択の少なくとも1つを行っても良い。   The motion teaching apparatus may include a voice recognition unit that recognizes the user's voice. In this case, the action presentation unit starts the action presentation, ends the action presentation, and a plurality of actions that can be presented according to the user's voice recognized by the voice recognition unit. You may perform at least 1 of the selection of the operation | movement shown to the said user.

また、上記動作提示部は、模範的な動作を実演するロボット、模範的な動作の映像を表示する映像表示部、及び、模範的な動作を教示する音声を出力する音声出力部の少なくとも1つを含んでも良い。   Further, the motion presentation unit is at least one of a robot demonstrating an exemplary motion, a video display unit that displays a video of the exemplary motion, and an audio output unit that outputs a voice teaching the exemplary motion. May be included.

本発明の第2の観点に係る動作教示方法は、ロボット、映像表示部、及び、音声出力部の少なくとも1つが、利用者に模範的な動作を提示する第1の工程と、上記第1の工程において提示した動作に対応する上記利用者の動作を、少なくとも2つの位置から撮影部によって撮影し、当該撮影部が撮影した上記利用者の動作に基づいて、上記利用者の所定の身体部位の3次元位置情報を取得する第2の工程と、上記第2の工程において取得した3次元位置情報に基づいて、上記第1の工程において提示した動作と上記撮影部が撮影した上記利用者の動作との差異を検出する第3の工程と、上記第3の工程において検出された差異を補正するためのアドバイスに関する情報を提供する第4の工程とを有する。   The motion teaching method according to the second aspect of the present invention includes a first step in which at least one of a robot, a video display unit, and an audio output unit presents an exemplary motion to a user, and the first step The user's motion corresponding to the motion presented in the process is photographed by the photographing unit from at least two positions, and based on the user's motion photographed by the photographing unit, the user's predetermined body part Based on the second step of acquiring the three-dimensional position information and the three-dimensional position information acquired in the second step, the operation presented in the first step and the user's operation photographed by the photographing unit And a fourth step of providing information related to advice for correcting the difference detected in the third step.

本発明によれば、提示された動作とこれに合わせて利用者が行った実際の動作との差異が検出され、この差異を補正するためのアドバイスが利用者に提供されるため、一方的に動作が提示される場合に比べて、模範的な動作を効果的に利用者に教示することができる。   According to the present invention, a difference between the presented action and the actual action performed by the user is detected, and advice for correcting this difference is provided to the user. Compared to the case where the action is presented, the exemplary action can be effectively taught to the user.

<第1の実施形態>
図1は、本発明の第1の実施形態に係る動作教示装置の構成の一例を示す図である。
図1に示す動作教示装置は、ロボット20と、カメラ31,32と、スピーカ40と、制御部100とを有する。
また、制御部100は、ロボット制御部101と、動作認識処理部102と、検出部103と、音声出力部104とを有する。
<First Embodiment>
FIG. 1 is a diagram showing an example of the configuration of the motion teaching apparatus according to the first embodiment of the present invention.
The motion teaching apparatus shown in FIG. 1 includes a robot 20, cameras 31 and 32, a speaker 40, and a control unit 100.
In addition, the control unit 100 includes a robot control unit 101, an action recognition processing unit 102, a detection unit 103, and an audio output unit 104.

なお、図1に示す動作教示装置の各構成要素と本発明の各構成要素との対応関係は次の通りである。
ロボット20及びロボット制御部101を含むユニットは、本発明の動作提示部の一実施形態である。
カメラ31,32及び動作認識処理部102を含むユニットは、本発明の動作認識部の一実施形態である。
スピーカ40及び音声出力部104を含むユニットは、本発明の情報提供部の一実施形態である。
The correspondence relationship between each component of the motion teaching apparatus shown in FIG. 1 and each component of the present invention is as follows.
A unit including the robot 20 and the robot control unit 101 is an embodiment of the motion presentation unit of the present invention.
A unit including the cameras 31 and 32 and the motion recognition processing unit 102 is an embodiment of the motion recognition unit of the present invention.
The unit including the speaker 40 and the audio output unit 104 is an embodiment of the information providing unit of the present invention.

ロボット20は、利用者10に模範的な動作(模範動作)を提示するための装置であり、人体に模して形成された各部位(手、足、首など)をロボット制御部101の制御に従って動かす。   The robot 20 is a device for presenting an exemplary motion (exemplary motion) to the user 10, and the robot controller 101 controls each part (hand, foot, neck, etc.) formed in the shape of a human body. Move according to.

カメラ31,32は、各々異なる位置から利用者10の映像を撮影し、その映像信号を制御部100に出力する。   The cameras 31 and 32 capture images of the user 10 from different positions and output the image signals to the control unit 100.

スピーカ40は、音声出力部104から出力される音声信号に応じた音声を出力する。   The speaker 40 outputs a sound corresponding to the sound signal output from the sound output unit 104.

制御部100は、動作教示装置の全体動作に関わる種々の処理、制御を行う。すなわち、制御部100は、ロボット20を制御して模範動作を実演させ、この実演に合わせて行われる利用者10の動作をカメラ31,32によって撮影する。そして、撮影した動作に基づいて利用者10の所定の身体部位の3次元的位置情報を取得し、この位置情報とロボット20に実演させた模範動作との差異を補正するためのアドバイスを音声としてスピーカ40から出力する。   The control unit 100 performs various processes and controls related to the overall operation of the motion teaching apparatus. That is, the control unit 100 controls the robot 20 to demonstrate an exemplary operation, and images the operation of the user 10 performed in accordance with the demonstration with the cameras 31 and 32. Then, three-dimensional position information of a predetermined body part of the user 10 is acquired based on the photographed movement, and advice for correcting the difference between the position information and the model movement demonstrated by the robot 20 is used as a voice. Output from the speaker 40.

図2は、制御部100の構成の一例を示す図である。
制御部100は、例えば図2に示すように、入力部110と、表示部111と、インターフェース部112と、記憶装置113と、RAM114と、ROM115と、コンピュータ116とを有する。
FIG. 2 is a diagram illustrating an example of the configuration of the control unit 100.
For example, as shown in FIG. 2, the control unit 100 includes an input unit 110, a display unit 111, an interface unit 112, a storage device 113, a RAM 114, a ROM 115, and a computer 116.

入力部110は、例えばキーボードやマウスなど、利用者の操作に応じた情報を入力するための機器である。   The input unit 110 is a device for inputting information corresponding to a user operation, such as a keyboard and a mouse.

表示部111は、例えば液晶ディスプレイやCRTディスプレイなどの表示機器を含み、コンピュータ116から供給される映像信号に基づいて画像を表示する。   The display unit 111 includes a display device such as a liquid crystal display or a CRT display, and displays an image based on a video signal supplied from the computer 116.

インターフェース部112は、コンピュータ116の入出力装置とロボット20やカメラ31,32、スピーカ40などの外部機器との間で信号をやりとりする。すなわち、ロボット20への制御信号の出力や、カメラ31,32からの映像信号の取り込み、スピーカ40への音声信号の出力などを行う。   The interface unit 112 exchanges signals between the input / output device of the computer 116 and external devices such as the robot 20, the cameras 31 and 32, and the speaker 40. That is, a control signal is output to the robot 20, a video signal is captured from the cameras 31 and 32, and an audio signal is output to the speaker 40.

記憶装置113は、例えばハードディスク装置や光磁気ディスク装置など、比較的容量の大きなデータの記憶が可能な装置であり、コンピュータ116のオペレーティングシステムやアプリケーションプログラム、各種のデータを記憶する。例えば、ロボット20の制御データや、スピーカ40において出力するアドバイス用音声のデータなどを記憶する。   The storage device 113 is a device capable of storing a relatively large amount of data, such as a hard disk device or a magneto-optical disk device, and stores an operating system and application programs of the computer 116 and various data. For example, the control data of the robot 20, advice voice data output from the speaker 40, and the like are stored.

RAM114は、コンピュータ116の処理過程において一時的に記憶する必要があるデータやコンピュータ116のプログラムコードなどを記憶する。
ROM115は、コンピュータ116において利用される定数データや起動用プログラムなどを記憶する。
The RAM 114 stores data that needs to be temporarily stored in the process of the computer 116, program code of the computer 116, and the like.
The ROM 115 stores constant data used in the computer 116, a startup program, and the like.

コンピュータ116は、ROM115や記憶装置113に格納されるプログラムに従って、各種の処理を実行する。次に述べる機能ブロック(ロボット制御部101、動作認識処理部102、検出部103、音声出力部104など)の処理は、コンピュータ116によって実現される。   The computer 116 executes various processes according to programs stored in the ROM 115 and the storage device 113. Processing of functional blocks (robot control unit 101, motion recognition processing unit 102, detection unit 103, voice output unit 104, etc.) described below is realized by computer 116.

ロボット制御部101は、記憶装置113に格納される制御データに基づいてロボット20を制御し、模範動作を実演させる。   The robot control unit 101 controls the robot 20 based on the control data stored in the storage device 113 and demonstrates an exemplary operation.

模範動作は、例えば一連の複数の動作によって構成されており、記憶装置113はこの一連の動作(以降、動作パターンと呼ぶ)をロボット20に実演させるための制御データを格納する。ロボット制御部101は、記憶装置113に格納される制御データに基づいて、動作パターンを構成する各々の動作をロボット20に順番に実演させる。
ただし、後述する検出部103において、動作認識処理部102が認識した利用者10の動作とロボット20の模範動作との間に一定以上の差異が検出された場合、ロボット制御部101は、この模範動作をロボット20に繰り返し実演させる。
The exemplary operation is constituted by a series of a plurality of operations, for example, and the storage device 113 stores control data for causing the robot 20 to demonstrate this series of operations (hereinafter referred to as operation patterns). Based on the control data stored in the storage device 113, the robot control unit 101 causes the robot 20 to perform each operation constituting the operation pattern in order.
However, when the detection unit 103 described later detects a certain difference or more between the motion of the user 10 recognized by the motion recognition processing unit 102 and the exemplary motion of the robot 20, the robot control unit 101 may The robot 20 is repeatedly demonstrated in motion.

また、ロボット制御部101は、複数の動作パターンの実演が可能な制御データが記憶装置113に格納されている場合、例えば表示部111に動作パターンを選択するためのメニュー画面を表示して、その選択を利用者10に促す。利用者10が入力部110の操作によって動作パターンを選択すると、ロボット制御部101は、当該選択された動作パターンをロボット20に実演させる。   Further, when control data capable of demonstrating a plurality of operation patterns is stored in the storage device 113, the robot control unit 101 displays a menu screen for selecting an operation pattern on the display unit 111, for example. The user 10 is prompted to make a selection. When the user 10 selects an operation pattern by operating the input unit 110, the robot control unit 101 causes the robot 20 to demonstrate the selected operation pattern.

動作認識処理部102は、ロボット20の実演に合わせて利用者10が動作を行う所定の期間(例えばロボット20の実演中や実演後の所定の期間)において、カメラ31,32が撮影した利用者10の動作を認識する処理を行う。すなわち、この期間に2つのカメラ(31,32)で撮影された利用者10の動作に基づいて、利用者10の所定の身体部位の3次元位置情報を取得する。   The motion recognition processing unit 102 is a user photographed by the cameras 31 and 32 during a predetermined period in which the user 10 operates in accordance with the demonstration of the robot 20 (for example, a predetermined period during or after the demonstration of the robot 20). Processing for recognizing 10 operations is performed. That is, the three-dimensional position information of a predetermined body part of the user 10 is acquired based on the actions of the user 10 taken by the two cameras (31, 32) during this period.

例えば、動作認識処理部102は、2つのカメラ(31,32)の一方で撮影された画像と、利用者10がいない状態で予め撮影された背景の画像とに基づいて、RRF(radial reach filter)などの画像処理技術により、撮影画像から利用者10の画像を抽出する。   For example, the motion recognition processing unit 102 uses an RRF (radial reach filter) based on an image captured by one of the two cameras (31, 32) and a background image captured in advance without the user 10. The image of the user 10 is extracted from the captured image by an image processing technique such as).

次いで、動作認識処理部102は、例えば画素の輝度分布などに基づいて、一方のカメラで撮影された画像の各部分が他方のカメラで撮影された画像のどの部分に対応しているかを特定する。そして、対応する2つの部分の画面上における位置と、カメラ31,32の設置位置、撮影の方向などの情報に基づいて、この2つの部分が共通に写し出している実際の被写体の3次元位置を算出する。
更に、動作認識処理部102は、各画像の形状や面積などに基づいて、画像のどの部分が利用者10のどの身体部位(頭、手、足など)に相当するかを推定する。
以上の処理により、動作認識処理部102は、利用者10の所定の身体部位の3次元位置に関する情報を取得する。
Next, the motion recognition processing unit 102 identifies which part of the image captured by one camera corresponds to which part of the image captured by the other camera based on, for example, the luminance distribution of the pixels. . Based on the information on the position of the corresponding two parts on the screen, the installation positions of the cameras 31 and 32, the shooting direction, etc., the three-dimensional position of the actual subject that the two parts are projected in common is obtained. calculate.
Further, the motion recognition processing unit 102 estimates which part of the image corresponds to which body part (head, hand, foot, etc.) of the user 10 based on the shape and area of each image.
Through the above processing, the motion recognition processing unit 102 acquires information regarding the three-dimensional position of the predetermined body part of the user 10.

検出部103は、動作認識処理部102が認識した利用者10の動作と、ロボット制御部101がロボット20に実演させた模範動作との差異を検出する。   The detection unit 103 detects a difference between the operation of the user 10 recognized by the operation recognition processing unit 102 and the exemplary operation demonstrated by the robot 20 by the robot control unit 101.

検出部103は、例えば、動作認識処理部102が算出した所定の身体部位の位置が、利用者10に提示した模範動作において要求される位置に対してどの方向へどの程度離れているかを検出する。
また、位置の差異だけでなく、例えば動作認識処理部102が算出した所定の身体部位の移動速度や加速度、当該身体部位が単位時間あたりに所定の距離を超えて移動する回数や周期など、当該身体部位の動作を表す様々な特性値を算出し、この特性値が模範動作において要求される値に対して大きいか小さいか、どの程度離れているかを検出しても良い。
The detection unit 103 detects, for example, how far the position of the predetermined body part calculated by the motion recognition processing unit 102 is in which direction with respect to the position required in the exemplary motion presented to the user 10. .
In addition to the position difference, for example, the movement speed and acceleration of the predetermined body part calculated by the motion recognition processing unit 102, the number of times the body part moves over a predetermined distance per unit time, the cycle, etc. Various characteristic values representing the movement of the body part may be calculated, and it may be detected whether the characteristic value is larger or smaller than the value required in the exemplary movement or how far away.

音声出力部104は、検出部103において検出された差異を補正するためのアドバイス用音声データを記憶装置113から読み出し、その音声をスピーカ40から出力する。
例えば、利用者10の右腕の位置が模範動作に比べて下がっていると検出部103において検出された場合、音声出力部104は、「右腕をもう少し上へ伸ばしてください」といった内容の音声データを記憶装置113から読み出し、その音声をスピーカ40から出力する。
The audio output unit 104 reads out advice audio data for correcting the difference detected by the detection unit 103 from the storage device 113, and outputs the audio from the speaker 40.
For example, when the detection unit 103 detects that the position of the right arm of the user 10 is lower than that of the exemplary action, the audio output unit 104 displays audio data with a content such as “Please extend the right arm a little higher”. The data is read from the storage device 113 and the sound is output from the speaker 40.

ここで、上述した構成を有する図1に示す動作教示装置の動作について、図3に示すフローチャートを参照して説明する。   Here, the operation of the motion teaching apparatus having the above-described configuration shown in FIG. 1 will be described with reference to the flowchart shown in FIG.

ステップST100:
ロボット制御部101は、入力部110に入力される利用者10の指示に従って、複数の動作パターンの中から実演を行う動作パターンを選択する。
Step ST100:
The robot control unit 101 selects an operation pattern for performing a demonstration from a plurality of operation patterns in accordance with an instruction from the user 10 input to the input unit 110.

ステップST105(第1の工程):
ロボット制御部101は、ステップST100で選択した動作パターンにおける最初の模範動作をロボット20に実演させる。
Step ST105 (first step):
The robot control unit 101 causes the robot 20 to demonstrate the first exemplary operation in the operation pattern selected in step ST100.

ステップST110(第2の工程):
動作認識処理部102は、ロボット20の実演に合わせて利用者10が動作を行う所定の期間において、カメラ31,32で撮影される利用者10の画像に基づいて、利用者10の所定の身体部位の3次元位置情報を取得する。
Step ST110 (second step):
The motion recognition processing unit 102 performs a predetermined body of the user 10 on the basis of images of the user 10 captured by the cameras 31 and 32 during a predetermined period in which the user 10 operates in accordance with the demonstration of the robot 20. The three-dimensional position information of the part is acquired.

ステップST115(第3の工程):
検出部103は、動作認識処理部102が取得した3次元位置情報に基づいて、ロボット制御部101がロボット20に実演させた模範動作と利用者10の動作との差異を検出する。
Step ST115 (third process):
Based on the three-dimensional position information acquired by the motion recognition processing unit 102, the detection unit 103 detects a difference between the exemplary motion that the robot control unit 101 has demonstrated to the robot 20 and the motion of the user 10.

ステップST120,ST125,ST130:
検出部103において、ロボット20の模範動作と利用者10の動作との間に一定以上の差異が検出された場合、ロボット制御部101は、ステップST105に戻って、再度同じ模範動作をロボット20に実演させる。そしてこの実演を行うとき、音声出力部104は、検出部103の検出結果に応じたアドバイス用音声データを記憶装置113から読み出してスピーカ40から出力する(ステップST125、第4の工程)。
他方、検出部103において検出された上記差異が一定以上でない場合、ロボット制御部101は、現在の動作パターンにおける次の動作を選択し(ST130)、この模範動作をステップST105以降の処理でロボット20に実演させる。
Steps ST120, ST125, ST130:
If the detection unit 103 detects a certain difference or more between the exemplary operation of the robot 20 and the operation of the user 10, the robot control unit 101 returns to step ST105 and again performs the same exemplary operation on the robot 20. Let me demonstrate. And when performing this demonstration, the audio | voice output part 104 reads the audio | voice data for advice according to the detection result of the detection part 103 from the memory | storage device 113, and outputs it from the speaker 40 (step ST125, 4th process).
On the other hand, when the difference detected by the detection unit 103 is not equal to or greater than a certain level, the robot control unit 101 selects the next operation in the current operation pattern (ST130), and this exemplary operation is performed by the process after step ST105. To demonstrate.

以上説明したように、図1に示す動作教示装置によれば、ロボット20によって利用者10に模範動作が提示され、この模範動作に対応する利用者10の動作がカメラ31,32の撮影画像に基づいて認識される。そして、認識された利用者10の動作とロボット20が提示した模範動作との差異が検出され、この差異を補正するためのアドバイスが音声としてスピーカ40から出力される。
そのため、利用者10は、間違った動作をしたときに音声のアドバイスに従ってそれを正すことが可能となり、ビデオなどで一方的に動作が提示される場合に比べて、より効果的に模範動作を学習することができる。
As described above, according to the motion teaching apparatus shown in FIG. 1, an exemplary motion is presented to the user 10 by the robot 20, and the motion of the user 10 corresponding to this exemplary motion is displayed on the captured images of the cameras 31 and 32. Recognized on the basis. Then, a difference between the recognized action of the user 10 and the model action presented by the robot 20 is detected, and advice for correcting this difference is output from the speaker 40 as a sound.
Therefore, the user 10 can correct the action according to the voice advice when performing the wrong action, and learns the model action more effectively than when the action is presented unilaterally in a video or the like. can do.

また、本実施形態によって模範的な正しい動作を学習することにより、運動の効果を最大限に得ることができる。例えばリハビリテーションの運動に本実施形態を適用した場合には、利用者の身体機能の回復や健康の維持・増進に著しい効果が得られる。スポーツのトレーニングに本実施形態を適用した場合には、利用者の技能の向上に大きく貢献することができる。   In addition, by learning exemplary correct actions according to the present embodiment, the effect of exercise can be obtained to the maximum. For example, when the present embodiment is applied to rehabilitation exercise, a significant effect can be obtained in restoring the physical function of the user and maintaining / promoting health. When this embodiment is applied to sports training, it can greatly contribute to improvement of user skills.

専門のインストラクタの指導を受けてリハビリテーションやトレーニングを行う場合、時間的な制約などから自らのペースに合わせて動作の学習を行うことが難しい。特に、体力の低下などによって学習のペースが遅くなっている高齢者は、時間をかけて学習を行う必要があるため、限られた時間しか占有できないインストラクタによる指導は高齢者にとって体力的若しくは心理的な負担になる場合がある。
本実施形態に係る動作教示装置によれば、時間や場所の制約を受けることなく、自分のペースで気軽に動作の学習を行うことができるため、高齢者や障害者のリハビリテーションに最適な環境を提供することができる。
When performing rehabilitation and training under the guidance of a specialized instructor, it is difficult to learn movements according to their own pace due to time constraints. In particular, elderly people whose learning pace is slowed down due to low physical fitness, etc. need to learn over time, so instruction by an instructor who can occupy only a limited amount of time is physically or psychologically for the elderly May be a burden.
According to the motion teaching apparatus according to the present embodiment, it is possible to easily learn motion at your own pace without being restricted by time or place, so an environment suitable for rehabilitation of the elderly and disabled Can be provided.

また、一方的に情報が与えられる従来の方法では、内容が単調になりがちであり、すぐに飽きてしまう問題がある。これに対し、本実施形態に係る動作教示装置によれば、利用者の動作に応じてアドバイスが提供されるため、学習の面白みが増し、利用者の意欲を高めることができる。
しかも、家庭内で気軽に学習を行うことができるため、施設に通ってリハビリテーションやトレーニングを受ける場合に比べて、学習の反復・継続性を高めることができる。
In addition, the conventional method in which information is unilaterally given tends to be monotonous and quickly gets bored. On the other hand, according to the motion teaching apparatus according to the present embodiment, since advice is provided according to the user's motion, the learning is more interesting and the user's motivation can be enhanced.
Moreover, since it is possible to easily learn at home, it is possible to increase the repetition and continuity of learning compared to the case where rehabilitation and training are conducted through a facility.

更に、ロボット20の3次元的な動きによって動作を提示するため、利用者は動作を容易に理解することができる。これにより、利用者に正しい動作を身に付けさせることができる。   Furthermore, since the motion is presented by the three-dimensional movement of the robot 20, the user can easily understand the motion. Thereby, a user can be made to wear a correct operation.

<第2の実施形態>
次に、本発明の第2の実施形態について説明する。
第2の実施形態に係る動作教示装置では、利用者のバイタルサインに応じて、提示する動作の内容やアドバイスの内容が変更される。
<Second Embodiment>
Next, a second embodiment of the present invention will be described.
In the motion teaching apparatus according to the second embodiment, the content of the motion to be presented and the content of the advice are changed according to the vital sign of the user.

図4は、本発明の第2の実施形態に係る動作教示装置の構成の一例を示す図である。
図4に示す動作教示装置は、ロボット20と、カメラ31,32と、スピーカ40と、バイタルサイン測定器50と、制御部100Aとを有する。制御部100Aは、ロボット制御部101Aと、動作認識処理部102と、検出部103と、音声出力部104Aと、測定処理部105とを有する。
図1と図4の同一符号は同一の構成要素を示すため、以下では図1に示す動作教示装置と異なる構成要素についてのみ説明する。
FIG. 4 is a diagram showing an example of the configuration of the motion teaching apparatus according to the second embodiment of the present invention.
The motion teaching apparatus shown in FIG. 4 includes a robot 20, cameras 31, 32, a speaker 40, a vital sign measuring instrument 50, and a control unit 100A. The control unit 100A includes a robot control unit 101A, an action recognition processing unit 102, a detection unit 103, an audio output unit 104A, and a measurement processing unit 105.
Since the same reference numerals in FIG. 1 and FIG. 4 indicate the same constituent elements, only the constituent elements different from the motion teaching apparatus shown in FIG. 1 will be described below.

バイタルサイン測定器50は、例えば心拍、血圧、酸素飽和度、呼吸数、体温、発汗、脳波など、利用者10の生命活動に関わる兆候を測定する。   The vital sign measuring device 50 measures signs related to the life activity of the user 10 such as heart rate, blood pressure, oxygen saturation, respiratory rate, body temperature, sweating, and electroencephalogram.

測定処理部105は、バイタルサイン測定器50の測定結果を取り込み、これをロボット制御部101A及び音声出力部104Aに渡す。測定処理部105は、バイタルサイン測定器50の測定結果を時間的に平均化しても良い。   The measurement processing unit 105 takes in the measurement result of the vital sign measuring instrument 50 and passes it to the robot control unit 101A and the voice output unit 104A. The measurement processing unit 105 may average the measurement results of the vital sign measuring device 50 in terms of time.

なお、バイタルサイン測定器50及び測定処理部105を含むユニットは、本発明のバイタルサイン測定部の一実施形態である。   The unit including the vital sign measuring device 50 and the measurement processing unit 105 is an embodiment of the vital sign measuring unit of the present invention.

ロボット制御部101Aは、提示可能な複数の動作の中からバイタルサイン測定器50の測定結果に応じて選択した動作をロボット20に実演させる。例えば、バイタルサインの測定結果によって利用者10の疲労度が一定以上に高まっていることが推定される場合、現在の動作パターンや別の動作パターンの中からより疲労度の小さい動作を選択してロボット20に実演させる。
その他の動作についてはロボット制御部101と同じである。
The robot control unit 101A causes the robot 20 to demonstrate the operation selected according to the measurement result of the vital sign measuring device 50 from the plurality of operations that can be presented. For example, when it is estimated that the fatigue level of the user 10 is increased to a certain level or more based on the measurement result of the vital sign, an operation with a lower fatigue level is selected from the current operation pattern or another operation pattern. Let the robot 20 demonstrate.
Other operations are the same as those of the robot control unit 101.

音声出力部104Aは、検出部103が検出した差異を補正するための複数のアドバイス用音声のうち、バイタルサイン測定器50の測定結果に応じて選択した音声をスピーカ40から出力する。例えば、バイタルサインの測定結果によって利用者10の疲労度が一定以上に高まっていることが推定される場合、身体的な負荷が比較的小さくなるようにアドバイスの音声を選択する。
その他の動作については音声出力部104と同じである。
104 A of audio | voice output parts output the audio | voice selected according to the measurement result of the vital sign measuring device 50 among the some audio | voices for advice for correct | amending the difference which the detection part 103 detected from the speaker 40. FIG. For example, when it is estimated that the fatigue level of the user 10 is increased to a certain level or more based on the measurement result of the vital sign, the voice of advice is selected so that the physical load becomes relatively small.
Other operations are the same as those of the audio output unit 104.

ここで、上述した構成を有する図4に示す動作教示装置の動作について、図5に示すフローチャートを参照して説明する。   Here, the operation of the motion teaching apparatus shown in FIG. 4 having the above-described configuration will be described with reference to the flowchart shown in FIG.

ステップST200:
測定処理部105がバイタルサイン測定器50の測定結果を取り込む。
Step ST200:
The measurement processing unit 105 captures the measurement result of the vital sign measuring device 50.

ステップST205:
ロボット制御部101Aは、入力部110に入力される利用者10の指示、若しくはステップST200で取り込まれたバイタルサイン測定器50の測定結果に従って、複数の動作パターンの中から実演を行う動作パターンを選択する。
Step ST205:
The robot control unit 101A selects an operation pattern to perform a demonstration from a plurality of operation patterns according to the instruction of the user 10 input to the input unit 110 or the measurement result of the vital sign measuring device 50 captured in step ST200. To do.

ステップST210(第1の工程):
ロボット制御部101Aは、ステップST205で選択した動作パターンにおける最初の模範動作をロボット20に実演させる。
Step ST210 (first step):
The robot control unit 101A causes the robot 20 to demonstrate the first exemplary motion in the motion pattern selected in step ST205.

ステップST215(第2の工程):
動作認識処理部102は、ロボット20の実演に合わせて利用者10が動作を行う所定の期間において、利用者10の所定の身体部位の3次元位置情報を取得する。
Step ST215 (second step):
The motion recognition processing unit 102 acquires the three-dimensional position information of a predetermined body part of the user 10 during a predetermined period in which the user 10 operates in accordance with the demonstration of the robot 20.

ステップST220(第3の工程):
検出部103は、動作認識処理部102が取得した3次元位置情報に基づいて、ロボット制御部101Aがロボット20に実演させた模範動作と利用者10の動作との差異を検出する。
Step ST220 (third process):
Based on the three-dimensional position information acquired by the motion recognition processing unit 102, the detection unit 103 detects a difference between the exemplary motion that the robot control unit 101A demonstrated to the robot 20 and the motion of the user 10.

ステップST225:
測定処理部105がバイタルサイン測定器50の測定結果を取り込む。
Step ST225:
The measurement processing unit 105 captures the measurement result of the vital sign measuring device 50.

ステップST230,ST235,ST240:
検出部103において、ロボット20の模範動作と利用者10の動作との間に一定以上の差異が検出された場合、ロボット制御部101Aは、ステップST210に戻って、再度同じ模範動作をロボット20に実演させる。
そしてこの実演を行う際、音声出力部104Aは、検出部103の検出結果に加えてバイタルサイン測定器50の測定結果を考慮したアドバイス用音声をスピーカ40から出力する(ステップST235,第4の工程)。
例えば、バイタルサインの測定結果によって利用者10の疲労度が一定以上に高まっていることが推定される場合、身体的な負荷が小さくなるようにアドバイスの音声を選択する。
Steps ST230, ST235, ST240:
When the detection unit 103 detects a certain difference or more between the exemplary operation of the robot 20 and the operation of the user 10, the robot control unit 101A returns to step ST210 and again performs the same exemplary operation on the robot 20. Let me demonstrate.
When performing this demonstration, the audio output unit 104A outputs the advice audio considering the measurement result of the vital sign measuring device 50 in addition to the detection result of the detection unit 103 from the speaker 40 (step ST235, fourth step). ).
For example, when it is estimated that the fatigue level of the user 10 is increased to a certain level or more based on the measurement result of vital signs, the voice of advice is selected so that the physical load is reduced.

他方、検出部103において検出された上記差異が一定以上でない場合、ロボット制御部101Aは、バイタルサイン測定器50の測定結果を考慮して次の動作を選択し(ST240)、この選択した模範動作をステップST210以降の処理でロボット20に実演させる。
例えば、バイタルサイン測定器50の測定結果から利用者10の体調が通常の状態にあると推定される場合、ロボット制御部101Aは、現在の動作パターンにおける次の動作を通常通り選択する。これに対し、バイタルサイン測定器50の測定結果から利用者10が一定以上疲労していると推定される場合、ロボット制御部101Aは、現在の動作パターン若しくは別の動作パターンに含まれる、より負荷の軽い動作を選択する。
On the other hand, when the difference detected by the detection unit 103 is not equal to or greater than a certain level, the robot control unit 101A selects the next operation in consideration of the measurement result of the vital sign measuring instrument 50 (ST240), and the selected exemplary operation Is demonstrated by the robot 20 in the process after step ST210.
For example, when it is estimated from the measurement result of the vital sign measuring device 50 that the physical condition of the user 10 is in the normal state, the robot control unit 101A selects the next operation in the current operation pattern as usual. On the other hand, when it is estimated from the measurement result of the vital sign measuring instrument 50 that the user 10 is more than a certain amount of fatigue, the robot control unit 101A includes a load that is included in the current operation pattern or another operation pattern. Choose a light operation.

なお、ロボット制御部101Aは、バイタルサイン測定器50の測定結果に応じて、同一の動作の繰り返しを行うか否か決定しても良い。例えば、検出部103において検出された上記差異が一定以上の場合でも、バイタルサイン測定器50の測定結果によって利用者10が一定以上疲労していることが推測される場合には、同一の動作の繰り返しを避けてステップST240に進んでも良い。   Note that the robot control unit 101A may determine whether to repeat the same operation according to the measurement result of the vital sign measurement device 50. For example, even when the difference detected by the detection unit 103 is greater than or equal to a certain level, if the user 10 is assumed to be fatigued by a certain amount or more according to the measurement result of the vital sign measuring instrument 50, the same operation is performed. The process may proceed to step ST240 while avoiding repetition.

以上説明したように、本実施形態に係る動作教示装置によれば、利用者10のバイタルサインの測定結果に応じて、練習する動作の内容やアドバイスの内容を適応的に変化させることができる。そのため、特に病気を患っている高齢者など、利用者の体調に不安がある場合でも、無理な負荷を避けて適度な運動を行うことが可能になる。   As described above, according to the motion teaching apparatus according to the present embodiment, it is possible to adaptively change the content of the motion to be practiced and the content of the advice according to the measurement result of the vital sign of the user 10. Therefore, even if the elderly are particularly ill, such as an elderly person, it is possible to perform an appropriate exercise while avoiding an unreasonable load.

<第3の実施形態>
次に、本発明の第3の実施形態について説明する。
第3の実施形態に係る動作教示装置では、利用者の身体能力に応じて、提示する動作やアドバイスの内容が変更される。
<Third Embodiment>
Next, a third embodiment of the present invention will be described.
In the motion teaching apparatus according to the third embodiment, the motion to be presented and the content of advice are changed according to the physical ability of the user.

図6は、本発明の第3の実施形態に係る動作教示装置の構成の一例を示す図である。
図6に示す動作教示装置は、ロボット20と、カメラ31,32と、スピーカ40と、制御部100Bとを有する。制御部100Bは、ロボット制御部101Bと、動作認識処理部102と、検出部103と、音声出力部104Bと、評価部106とを有する。
図1と図6の同一符号は同一の構成要素を示すため、以下では図1に示す動作教示装置と異なる構成要素についてのみ説明する。
FIG. 6 is a diagram showing an example of the configuration of the motion teaching apparatus according to the third embodiment of the present invention.
The motion teaching apparatus shown in FIG. 6 includes a robot 20, cameras 31, 32, a speaker 40, and a control unit 100B. The control unit 100B includes a robot control unit 101B, an action recognition processing unit 102, a detection unit 103, an audio output unit 104B, and an evaluation unit 106.
Since the same reference numerals in FIG. 1 and FIG. 6 indicate the same components, only the components different from the motion teaching device shown in FIG. 1 will be described below.

評価部106は、検出部103の検出結果に応じて利用者10の身体能力を評価する。例えば、検出部103において検出される動作の差異に、動作ごとの難易度に応じた重みを付けて平均化し、その平均値に応じて利用者10の身体能力をランク付けする。
また、ロボット制御部101Bによって同一の動作の提示が繰り返される数をカウントし、この数が少ないほど身体能力の評価が高くなるように上記のランクを調節しても良い。
The evaluation unit 106 evaluates the physical ability of the user 10 according to the detection result of the detection unit 103. For example, the difference in motion detected by the detection unit 103 is averaged by assigning a weight according to the degree of difficulty for each motion, and the physical ability of the user 10 is ranked according to the average value.
Alternatively, the number of repeated presentations of the same action by the robot control unit 101B may be counted, and the rank may be adjusted such that the smaller the number, the higher the evaluation of physical ability.

ロボット制御部101Bは、提示可能な複数の動作の中から評価部106の評価結果に応じて選択した動作をロボット20に実演させる。例えば、評価部106の評価が高くなった場合、現在の動作パターンや別の動作パターンの中からより難易度の高い動作を選択してロボット20に実演させる。
その他の動作についてはロボット制御部101と同じである。
The robot control unit 101B causes the robot 20 to demonstrate the operation selected from the plurality of operations that can be presented according to the evaluation result of the evaluation unit 106. For example, when the evaluation of the evaluation unit 106 becomes high, an operation with a higher difficulty level is selected from the current operation pattern or another operation pattern, and the robot 20 is made to demonstrate.
Other operations are the same as those of the robot control unit 101.

音声出力部104Bは、検出部103が検出した差異を補正するための複数のアドバイス用音声のうち、評価部106の評価結果に応じて選択した音声をスピーカ40から出力する。例えば、評価部106の評価が高くなるほど、検出部103において検出される差異がより小さくなるように(すなわち、より正確な動作を要求するように)アドバイスの音声を選択する。
その他の動作については音声出力部104と同じである。
The sound output unit 104B outputs, from the speaker 40, the sound selected according to the evaluation result of the evaluation unit 106 among the plurality of advice sounds for correcting the difference detected by the detection unit 103. For example, the voice of the advice is selected so that the difference detected by the detection unit 103 becomes smaller as the evaluation of the evaluation unit 106 becomes higher (that is, a more accurate operation is requested).
Other operations are the same as those of the audio output unit 104.

ここで、上述した構成を有する図6に示す動作教示装置の動作について、図7に示すフローチャートを参照して説明する。   Here, the operation of the motion teaching apparatus having the above-described configuration shown in FIG. 6 will be described with reference to the flowchart shown in FIG.

ステップST300:
ロボット制御部101Bは、入力部110に入力される利用者10の指示に従って、複数の動作パターンの中から実演を行う動作パターンを選択する。
Step ST300:
The robot control unit 101B selects an operation pattern for performing a demonstration from a plurality of operation patterns in accordance with an instruction from the user 10 input to the input unit 110.

ステップST305(第1の工程):
ロボット制御部101Bは、ステップST300で選択した動作パターンにおける最初の模範動作をロボット20に実演させる。
Step ST305 (first step):
The robot control unit 101B causes the robot 20 to demonstrate the first exemplary operation in the operation pattern selected in step ST300.

ステップST310(第2の工程):
動作認識処理部102は、ロボット20の実演に合わせて利用者10が動作を行う所定の期間において、利用者10の所定の身体部位の3次元位置情報を取得する。
Step ST310 (second step):
The motion recognition processing unit 102 acquires the three-dimensional position information of a predetermined body part of the user 10 during a predetermined period in which the user 10 operates in accordance with the demonstration of the robot 20.

ステップST315(第3の工程):
検出部103は、動作認識処理部102が取得した3次元位置情報に基づいて、ロボット制御部101Bがロボット20に実演させた模範動作と利用者10の動作との差異を検出する。
Step ST315 (third process):
Based on the three-dimensional position information acquired by the motion recognition processing unit 102, the detection unit 103 detects a difference between the exemplary motion that the robot control unit 101B demonstrated to the robot 20 and the motion of the user 10.

ステップST320:
評価部106が、検出部103の検出結果に応じて利用者10の身体能力を評価する。
Step ST320:
The evaluation unit 106 evaluates the physical ability of the user 10 according to the detection result of the detection unit 103.

ステップST325,ST330,ST335:
検出部103において、ロボット20の模範動作と利用者10の動作との間に一定以上の差異が検出された場合、ロボット制御部101Bは、ステップST305に戻って、再度同じ模範動作をロボット20に実演させる。
そしてこの実演を行う際、音声出力部104Bは、検出部103の検出結果に加えて評価部106の評価結果を考慮したアドバイス用音声をスピーカ40から出力する(ステップST330、第4の工程)。
例えば、評価部106の評価が高くなるほど、より正確な動作を要求するようにアドバイスの音声を選択する。
Steps ST325, ST330, ST335:
If the detection unit 103 detects a certain difference or more between the exemplary motion of the robot 20 and the motion of the user 10, the robot control unit 101B returns to step ST305 and again performs the same exemplary motion on the robot 20. Let me demonstrate.
When performing this demonstration, the audio output unit 104B outputs, from the speaker 40, advice audio that takes into consideration the evaluation result of the evaluation unit 106 in addition to the detection result of the detection unit 103 (step ST330, fourth step).
For example, the advice voice is selected so that the higher the evaluation of the evaluation unit 106 is, the more accurate operation is requested.

他方、検出部103において検出された上記差異が一定以上でない場合、ロボット制御部101Bは、評価部106の評価結果を考慮して次の動作を選択し(ST335)、この模範動作をステップST305以降の処理でロボット20に実演させる。
例えば、評価部106の評価結果が前回の動作時の評価と変わらない場合、ロボット制御部101Bは、現在の動作パターンにおける次の動作を通常通り選択する。これに対し、評価部106の評価結果が前回の動作時よりも高くなった場合、ロボット制御部101Bは、現在の動作パターン若しくは別の動作パターンに含まれる、より難易度の高い動作を選択する。
On the other hand, if the difference detected by the detection unit 103 is not equal to or greater than a certain level, the robot control unit 101B selects the next operation in consideration of the evaluation result of the evaluation unit 106 (ST335), and performs this exemplary operation after step ST305. In this process, the robot 20 is demonstrated.
For example, when the evaluation result of the evaluation unit 106 is not different from the evaluation during the previous operation, the robot control unit 101B selects the next operation in the current operation pattern as usual. On the other hand, when the evaluation result of the evaluation unit 106 is higher than that at the previous operation, the robot control unit 101B selects a more difficult operation included in the current operation pattern or another operation pattern. .

なお、ロボット制御部101Bは、評価部106の評価結果に応じて、同一の動作の繰り返しを行うか否か決定しても良い。例えば、検出部103において一定以上の上記差異が検出されていない場合でも、評価部106の評価結果から利用者10の身体能力がある程度高いと推測される場合には同一の動作を繰り返すようにして、より模範的な動作を利用者10に要求しても良い。   The robot control unit 101B may determine whether to repeat the same operation according to the evaluation result of the evaluation unit 106. For example, even if the difference above a certain level is not detected in the detection unit 103, the same operation is repeated if the physical ability of the user 10 is estimated to be somewhat high from the evaluation result of the evaluation unit 106. A more exemplary operation may be requested from the user 10.

以上説明したように、本実施形態に係る動作教示装置によれば、利用者10の身体能力の評価結果に応じて、練習する動作の内容やアドバイスの内容を適応的に変化させることができる。これにより、利用者10の身体能力に応じた適切な動作を選択することができるため、動作の学習の効果(健康の増進や技能向上)を更に高めることができる。   As described above, according to the motion teaching device according to the present embodiment, it is possible to adaptively change the content of the motion to practice and the content of advice according to the evaluation result of the physical ability of the user 10. Thereby, since the suitable operation | movement according to the user's 10 physical ability can be selected, the effect (health improvement and skill improvement) of action learning can further be improved.

<第4の実施形態>
次に、本発明の第4の実施形態について説明する。
第4の実施形態に係る動作教示装置では、利用者の音声によって動作の提示の開始や終了などが制御可能になる。
<Fourth Embodiment>
Next, a fourth embodiment of the present invention will be described.
In the motion teaching apparatus according to the fourth embodiment, the start and end of the motion presentation can be controlled by the user's voice.

図8は、本発明の第4の実施形態に係る動作教示装置の構成の一例を示す図である。
図8に示す動作教示装置は、ロボット20と、カメラ31,32と、スピーカ40と、マイクロフォン60と、制御部100Cとを有する。制御部100Cは、ロボット制御部101Cと、動作認識処理部102と、検出部103と、音声出力部104と、音声認識処理部107とを有する。
図1と図8の同一符号は同一の構成要素を示すため、以下では図1に示す動作教示装置と異なる構成要素についてのみ説明する。
FIG. 8 is a diagram showing an example of the configuration of the motion teaching apparatus according to the fourth embodiment of the present invention.
The motion teaching apparatus shown in FIG. 8 includes a robot 20, cameras 31, 32, a speaker 40, a microphone 60, and a control unit 100C. The control unit 100C includes a robot control unit 101C, an action recognition processing unit 102, a detection unit 103, a voice output unit 104, and a voice recognition processing unit 107.
Since the same reference numerals in FIG. 1 and FIG. 8 indicate the same components, only the components different from the motion teaching apparatus shown in FIG. 1 will be described below.

マイクロフォン60は、利用者10が発する音声を入力して音声信号に変換する。
音声認識処理部107は、マイクロフォン60から出力される音声信号に基づいて、利用者10の音声を文字や単語として認識する処理を行う。
The microphone 60 inputs a voice uttered by the user 10 and converts it into a voice signal.
The voice recognition processing unit 107 performs processing for recognizing the voice of the user 10 as a character or a word based on the voice signal output from the microphone 60.

ロボット制御部101Cは、音声認識処理部107において認識された利用者10の音声に応じて、ロボット20による動作の提示の開始や終了を行う。また、利用者10に提示可能な複数の動作パターンの中から実際に提示する動作パターンを、上記認識された音声に応じて選択する。   The robot control unit 101C starts and ends the presentation of the operation by the robot 20 in accordance with the voice of the user 10 recognized by the voice recognition processing unit 107. Further, an operation pattern to be actually presented is selected from a plurality of operation patterns that can be presented to the user 10 according to the recognized voice.

例えば、音声認識処理部107が「開始!」という利用者10の音声を認識したとき、ロボット制御部101Cはロボット20による動作の実演を開始し、実演の途中で「終了!」という利用者10の音声が認識されたとき、ロボット20の実演を終了する。
また、「1」「2」「3」という名称が与えられた3つの動作パターンの提示が可能な場合において、音声認識処理部107が「1を開始!」という利用者10の音声を認識したとき、ロボット制御部101Cは「1」の動作パターンの提示を選択して、その動作の提示を開始する。
ロボット制御部101Cのその他の動作についてはロボット制御部101と同じである。
For example, when the voice recognition processing unit 107 recognizes the voice of the user 10 “Start!”, The robot control unit 101C starts demonstration of the operation by the robot 20, and the user 10 “End!” In the middle of the demonstration. Is recognized, the demonstration of the robot 20 is finished.
In addition, when the three motion patterns given the names “1”, “2”, and “3” can be presented, the voice recognition processing unit 107 recognizes the voice of the user 10 “Start 1”! At this time, the robot control unit 101C selects the presentation of the motion pattern “1” and starts presenting the motion.
Other operations of the robot control unit 101C are the same as those of the robot control unit 101.

ここで、上述した構成を有する図8に示す動作教示装置の動作について、図9に示すフローチャートを参照して説明する。   Here, the operation of the motion teaching apparatus shown in FIG. 8 having the above-described configuration will be described with reference to the flowchart shown in FIG.

ステップST400:
ロボット制御部101Cは、音声認識処理部107において動作の開始を要求する利用者10の音声が認識されるまで、ロボット20の実演開始を保留する。
Step ST400:
The robot control unit 101 </ b> C suspends the demonstration start of the robot 20 until the voice recognition processing unit 107 recognizes the voice of the user 10 requesting the start of the operation.

ステップST405:
例えば「1を開始!」という音声を音声認識処理部107が認識すると、ロボット制御部101Cは、この音声に従って「1」という名称が与えられた動作パターンを選択する。
Step ST405:
For example, when the voice recognition processing unit 107 recognizes the voice “Start 1!”, The robot control unit 101C selects an operation pattern given the name “1” according to the voice.

ステップST410(第1の工程):
ロボット制御部101Cは、ステップST405で選択した動作パターンにおける最初の模範動作をロボット20に実演させる。
Step ST410 (first step):
The robot control unit 101C causes the robot 20 to demonstrate the first exemplary operation in the operation pattern selected in step ST405.

ステップST415(第2の工程):
動作認識処理部102は、ロボット20の実演に合わせて利用者10が動作を行う所定の期間において、利用者10の所定の身体部位の3次元位置情報を取得する。
Step ST415 (second process):
The motion recognition processing unit 102 acquires the three-dimensional position information of a predetermined body part of the user 10 during a predetermined period in which the user 10 operates in accordance with the demonstration of the robot 20.

ステップST420(第3の工程):
検出部103は、動作認識処理部102が取得した3次元位置情報に基づいて、ロボット制御部101Cがロボット20に実演させた模範動作と利用者10の動作との差異を検出する。
Step ST420 (third process):
Based on the three-dimensional position information acquired by the motion recognition processing unit 102, the detection unit 103 detects a difference between the exemplary motion that the robot control unit 101C demonstrated to the robot 20 and the motion of the user 10.

ステップST425:
ロボット20の実演中又はその後において動作の終了を要求する利用者10の音声(例えば「終了!」)を音声認識処理部107が認識した場合、ロボット制御部101Cはロボット20の実演を終了する。そのような音声を音声認識処理部が認識しなかった場合は、ステップST430に移る。
Step ST425:
When the voice recognition processing unit 107 recognizes the voice (for example, “End!”) Of the user 10 requesting the end of the operation during or after the demonstration of the robot 20, the robot control unit 101C ends the demonstration of the robot 20. If the voice recognition processing unit does not recognize such voice, the process proceeds to step ST430.

ステップST430,ST435,ST440:
検出部103において、ロボット20の模範動作と利用者10の動作との間に一定以上の差異が検出された場合、ロボット制御部101Cは、ステップST410に戻って、再度同じ模範動作をロボット20に実演させる。そしてこの実演を行うとき、音声出力部104は、検出部103の検出結果に応じたアドバイス用音声データを記憶装置113から読み出してスピーカ40から出力する(ステップST435、第4の工程)。
他方、検出部103において検出された上記差異が一定以上になっていない場合、ロボット制御部101は、現在の動作パターンにおける次の動作を選択し(ST440)、この模範動作をステップST410以降の処理でロボット20に実演させる。
Steps ST430, ST435, ST440:
When the detection unit 103 detects a certain difference or more between the exemplary operation of the robot 20 and the operation of the user 10, the robot control unit 101C returns to step ST410 and again applies the same exemplary operation to the robot 20. Let me demonstrate. And when performing this demonstration, the audio | voice output part 104 reads the audio | voice data for advice according to the detection result of the detection part 103 from the memory | storage device 113, and outputs it from the speaker 40 (step ST435, 4th process).
On the other hand, if the difference detected by the detection unit 103 is not greater than or equal to a certain level, the robot control unit 101 selects the next operation in the current operation pattern (ST440), and this exemplary operation is processed after step ST410. Let robot 20 demonstrate.

以上説明したように、本実施形態に係る動作教示装置によれば、ロボット20による模範動作の実演の開始や終了、動作パターンの選択を、利用者の音声によって容易に行うことができる。これにより、面倒な操作を覚えることなく非常に簡単に装置を利用することができる。また、高齢者や体の不自由な人でも一人で気軽にリハビリテーションの運動を学習することが可能になるため、装置の稼動率が向上し、利用者の健康増進を図ることができる。   As described above, according to the motion teaching apparatus according to the present embodiment, the start and end of the demonstration of the exemplary motion by the robot 20 and the selection of the motion pattern can be easily performed by the user's voice. Thereby, the apparatus can be used very easily without memorizing troublesome operations. In addition, since it is possible for an elderly person or a physically handicapped person to easily learn rehabilitation exercises alone, the operating rate of the apparatus can be improved and the health of the user can be improved.

以上、本発明の幾つかの実施形態について説明したが、本発明は上記の形態に限定されるものではなく、種々の改変が可能である。   As mentioned above, although several embodiment of this invention was described, this invention is not limited to said form, A various modification | change is possible.

例えば、上述した実施形態では、ロボットによって模範動作を提示する例が挙げられているが、本発明はこれに限定されない。例えば、コンピュータグラフィックス等の映像技術によって人物や生き物、アニメーションキャラクタなどを表示装置に映し出すことにより、2次元や3次元の映像で模範動作を提示しても良い。
また、目の不自由な人を対象とする場合などにおいては、音声によって動作を教示しても良い。
更には、これらの幾つかの提示手段を組み合わせて利用者に動作を提示しても良い。
このように、本発明によれば、動作提示部に様々な装置を適用することができるため、利用者のニーズに合わせてハードウェア構成をフレキシブルに選択することができる。
For example, in the above-described embodiment, an example in which an exemplary motion is presented by a robot is given, but the present invention is not limited to this. For example, an exemplary operation may be presented as a two-dimensional or three-dimensional image by projecting a person, a living thing, an animation character, or the like on a display device by a video technique such as computer graphics.
In addition, when the subject is a blind person, the operation may be taught by voice.
Furthermore, you may show an operation | movement to a user combining these some presentation means.
As described above, according to the present invention, various devices can be applied to the operation presentation unit, so that the hardware configuration can be flexibly selected according to the needs of the user.

上述した実施形態では、カメラで撮影した映像によって利用者の動作を認識しているが、本発明はこれに限定されない。例えば利用者に装着した加速度センサや傾斜センサ、方位センサ、光学センサなどとカメラを併用して使用者の動作を認識しても良いし、これらのセンサのみで使用者の動作を認識しても良い。   In the above-described embodiment, the user's action is recognized by the video shot by the camera, but the present invention is not limited to this. For example, the user's motion may be recognized using a camera in combination with an acceleration sensor, a tilt sensor, an orientation sensor, an optical sensor, etc. worn by the user, or the user's motion may be recognized only with these sensors. good.

上述した実施形態では、音声によって利用者にアドバイスを提供する例が示されているが、本発明はこれに限定されない。例えばテレビモニターなどをで映像によりアドバイスを提供しても良いし、光(ランプの点滅など)や、機械的振動や、電気的刺激などによってアドバイスを提供しても良い。   In the embodiment described above, an example in which advice is provided to the user by voice is shown, but the present invention is not limited to this. For example, advice may be provided by video on a TV monitor or the like, or advice may be provided by light (such as blinking of a lamp), mechanical vibration, or electrical stimulation.

動作の提示とアドバイスの提供には、同一のハードウェアを使用しても良い。
例えば、動作の提示とアドバイスの提供を映像で行う場合には、両者の映像を同一のテレビモニターに表示させても良い。動作の提示とアドバイスの提供を音声で行う場合には、両者の音声を同一のスピーカから出力しても良い。
The same hardware may be used to present actions and provide advice.
For example, when the operation is presented and the advice is provided by video, both videos may be displayed on the same television monitor. When presenting an operation and providing advice by voice, both voices may be output from the same speaker.

本実施形態の各構成要素は、有線通信はもちろんのこと、無線通信によっても接続可能である。例えば、バイタルサイン測定器は、無線通信によって制御部に測定結果を伝送しても良い。これにより、利用者は余計な配線に邪魔されることなく動作の学習に専念することができる。   Each component of this embodiment can be connected by wireless communication as well as wired communication. For example, the vital sign measuring device may transmit the measurement result to the control unit by wireless communication. Thus, the user can concentrate on learning the operation without being disturbed by unnecessary wiring.

また、本発明の各構成要素は、インターネットなどのネットワーク経由で接続することも可能である。例えば図1の例において、制御部100を構成するコンピュータ機器と、ロボット20、カメラ31,32、スピーカ40などの機器をネットワーク経由で接続することも可能である。これにより、コンピュータ機器を配置できない場所でも本装置を利用することが可能になる。   Each component of the present invention can also be connected via a network such as the Internet. For example, in the example of FIG. 1, it is also possible to connect a computer device constituting the control unit 100 and devices such as the robot 20, the cameras 31 and 32, and the speaker 40 via a network. This makes it possible to use this apparatus even in places where computer equipment cannot be arranged.

第1の実施形態に係る動作教示装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the operation | movement teaching apparatus which concerns on 1st Embodiment. 制御部の構成の一例を示す図である。It is a figure which shows an example of a structure of a control part. 図1に示す動作教示装置の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the operation | movement teaching apparatus shown in FIG. 第2の実施形態に係る動作教示装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the operation | movement teaching apparatus which concerns on 2nd Embodiment. 図4に示す動作教示装置の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the operation | movement teaching apparatus shown in FIG. 第3の実施形態に係る動作教示装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the operation | movement teaching apparatus which concerns on 3rd Embodiment. 図6に示す動作教示装置の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the operation | movement teaching apparatus shown in FIG. 第3の実施形態に係る動作教示装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the operation | movement teaching apparatus which concerns on 3rd Embodiment. 図8に示す動作教示装置の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the operation | movement teaching apparatus shown in FIG.

符号の説明Explanation of symbols

10…利用者、20…ロボット、31,32…カメラ、40…スピーカ、50…バイタルサイン測定器、60…マイクロフォン、100,100A,100B,100C…制御部、101,101A,101B,101C…ロボット制御部、102…動作認識処理部、103…検出部、104,104A,104B…音声出力部、105…測定処理部、106…評価部、107…音声認識処理部
DESCRIPTION OF SYMBOLS 10 ... User, 20 ... Robot, 31, 32 ... Camera, 40 ... Speaker, 50 ... Vital sign measuring device, 60 ... Microphone, 100, 100A, 100B, 100C ... Control part, 101, 101A, 101B, 101C ... Robot Control unit, 102 ... motion recognition processing unit, 103 ... detection unit, 104, 104A, 104B ... voice output unit, 105 ... measurement processing unit, 106 ... evaluation unit, 107 ... voice recognition processing unit

Claims (11)

利用者に模範的な動作を提示する動作提示部と、
上記動作提示部が提示した動作に対応する上記利用者の動作を認識する動作認識部と、
上記動作提示部が提示した動作と上記動作認識部が認識した動作との差異を検出する検出部と、
上記検出部が検出した差異を補正するためのアドバイスに関する情報を提供する情報提供部と
を有する動作教示装置。
An action presentation unit that presents exemplary actions to the user;
An action recognition unit for recognizing the action of the user corresponding to the action presented by the action presentation unit;
A detection unit for detecting a difference between the motion presented by the motion presentation unit and the motion recognized by the motion recognition unit;
An operation teaching device comprising: an information providing unit that provides information on advice for correcting the difference detected by the detection unit.
上記動作提示部は、上記検出部の検出結果に応じて、同一の動作を繰り返し提示する、
請求項1に記載の動作教示装置。
The operation presentation unit repeatedly presents the same operation according to the detection result of the detection unit,
The motion teaching apparatus according to claim 1.
上記利用者のバイタルサインを測定するバイタルサイン測定部を有し、
上記動作提示部は、提示可能な複数の動作の中から、上記バイタルサイン測定部の測定結果に応じた動作を選択して提示する、
請求項1又は2に記載の動作教示装置。
It has a vital sign measurement unit that measures the vital signs of the user,
The operation presentation unit selects and presents an operation according to the measurement result of the vital sign measurement unit from a plurality of operations that can be presented.
The motion teaching apparatus according to claim 1 or 2.
上記利用者のバイタルサインを測定するバイタルサイン測定部を有し、
上記情報提供部は、上記検出部が検出した差異を補正するためのアドバイスに関する複数の情報のうち、上記バイタルサイン測定部の測定結果に応じた情報を選択して提供する、
請求項1又は2に記載の動作教示装置。
It has a vital sign measurement unit that measures the vital signs of the user,
The information providing unit selects and provides information according to the measurement result of the vital sign measurement unit among a plurality of pieces of information related to advice for correcting the difference detected by the detection unit.
The motion teaching apparatus according to claim 1 or 2.
上記検出部の検出結果に応じて、上記利用者の身体能力を評価する評価部を有し、
上記動作提示部は、提示可能な複数の動作の中から、上記評価部の評価結果に応じた動作を選択して提示する、
請求項1又は2に記載の動作教示装置。
According to the detection result of the detection unit, the evaluation unit for evaluating the physical ability of the user,
The operation presentation unit selects and presents an operation according to the evaluation result of the evaluation unit from a plurality of operations that can be presented.
The motion teaching apparatus according to claim 1 or 2.
上記検出部の検出結果に応じて、上記利用者の身体能力を評価する評価部を有し、
上記情報提供部は、上記検出部が検出した差異を補正するためのアドバイスに関する複数の情報のうち、上記評価部の評価結果に応じた情報を選択して提供する、
請求項1又は2に記載の動作教示装置。
According to the detection result of the detection unit, the evaluation unit for evaluating the physical ability of the user,
The information providing unit selects and provides information according to the evaluation result of the evaluation unit among a plurality of pieces of information related to advice for correcting the difference detected by the detection unit.
The motion teaching apparatus according to claim 1 or 2.
上記利用者の音声を認識する音声認識部を有し、
上記動作提示部は、上記音声認識部により認識された上記利用者の音声に応じて、
動作の提示の開始、
動作の提示の終了、及び、
提示可能な複数の動作の中からの上記利用者に提示する動作の選択
の少なくとも1つを行う、
請求項1又は2に記載の動作教示装置。
A voice recognition unit that recognizes the user's voice;
The operation presentation unit is responsive to the user's voice recognized by the voice recognition unit,
The start of an action presentation,
The end of the presentation of the action, and
Selecting at least one of actions to be presented to the user from a plurality of actions that can be presented;
The motion teaching apparatus according to claim 1 or 2.
上記動作提示部は、
模範的な動作を実演するロボット、
模範的な動作の映像を表示する映像表示部、及び、
模範的な動作を教示する音声を出力する音声出力部
の少なくとも1つを含む、
請求項1乃至7の何れか一に記載の動作教示装置。
The action presentation unit
A robot demonstrating exemplary movements,
An image display unit for displaying an image of an exemplary operation; and
Including at least one sound output unit that outputs sound teaching an exemplary operation;
The motion teaching device according to any one of claims 1 to 7.
上記動作認識部は、
少なくとも2つの位置から上記利用者を撮影する撮影部と、
上記撮影部が撮影した上記利用者の動作に基づいて、上記利用者の所定の身体部位の3次元位置情報を取得する位置情報取得部と
を含む、
請求項1乃至7の何れか一に記載の動作教示装置。
The motion recognition unit
A photographing unit for photographing the user from at least two positions;
A position information acquisition unit that acquires three-dimensional position information of a predetermined body part of the user based on an action of the user imaged by the imaging unit;
The motion teaching device according to any one of claims 1 to 7.
上記情報提供部は、映像、音、光、振動、電気刺激の少なくとも1つを利用して上記アドバイスに関する情報を提供する、
請求項1乃至7の何れか一に記載の動作教示装置。
The information providing unit provides information on the advice using at least one of video, sound, light, vibration, and electrical stimulation;
The motion teaching device according to any one of claims 1 to 7.
ロボット、映像表示部、及び、音声出力部の少なくとも1つが、利用者に模範的な動作を提示する第1の工程と、
上記第1の工程において提示した動作に対応する上記利用者の動作を、少なくとも2つの位置から撮影部によって撮影し、当該撮影部が撮影した上記利用者の動作に基づいて、上記利用者の所定の身体部位の3次元位置情報を取得する第2の工程と、
上記第2の工程において取得した3次元位置情報に基づいて、上記第1の工程において提示した動作と上記撮影部が撮影した上記利用者の動作との差異を検出する第3の工程と、
上記第3の工程において検出された差異を補正するためのアドバイスに関する情報を提供する第4の工程と
を有する動作教示方法。
A first step in which at least one of a robot, a video display unit, and an audio output unit presents an exemplary operation to the user;
The user's motion corresponding to the motion presented in the first step is photographed by the photographing unit from at least two positions, and the user's predetermined motion is determined based on the user's motion photographed by the photographing unit. A second step of acquiring three-dimensional position information of the body part of
A third step of detecting a difference between the motion presented in the first step and the motion of the user photographed by the photographing unit based on the three-dimensional position information acquired in the second step;
A fourth step of providing information relating to advice for correcting the difference detected in the third step.
JP2005144626A 2005-05-17 2005-05-17 Action teaching apparatus and method Pending JP2006320424A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005144626A JP2006320424A (en) 2005-05-17 2005-05-17 Action teaching apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005144626A JP2006320424A (en) 2005-05-17 2005-05-17 Action teaching apparatus and method

Publications (1)

Publication Number Publication Date
JP2006320424A true JP2006320424A (en) 2006-11-30

Family

ID=37540529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005144626A Pending JP2006320424A (en) 2005-05-17 2005-05-17 Action teaching apparatus and method

Country Status (1)

Country Link
JP (1) JP2006320424A (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008168133A (en) * 2007-01-12 2008-07-24 Internatl Business Mach Corp <Ibm> Method, system and program for tracking range of user's body movement
JP2009247836A (en) * 2008-04-11 2009-10-29 Konami Sports & Life Co Ltd Apparatus, method, program and system for exercise management
JP2010036025A (en) * 2008-07-11 2010-02-18 Tokyo Univ Of Science Method and apparatus for determining human action under uncertainty
WO2013055024A1 (en) * 2011-10-12 2013-04-18 한국과학기술연구원 Apparatus for training recognition capability using robot and method for same
WO2013059828A1 (en) * 2011-10-20 2013-04-25 Jay Shiro Tashiro System and method for assessing an individual's physical and psychosocial abilities
JP2013090758A (en) * 2011-10-25 2013-05-16 Vstone Kk Exercise promotion robot
US8789440B2 (en) 2011-09-14 2014-07-29 Korea Institute Of Science And Technology Manipulator with weight compensation mechanism and face robot using the same
KR101447563B1 (en) * 2013-04-05 2014-10-08 한국과학기술연구원 Evaluation system of cognitive ability based on physical object and method thereof
WO2015037089A1 (en) * 2013-09-11 2015-03-19 日立コンシューマエレクトロニクス株式会社 Brain dysfunction assessment method, brain dysfunction assessment device, and program thereof
US9223936B2 (en) 2010-11-24 2015-12-29 Nike, Inc. Fatigue indices and uses thereof
US9283429B2 (en) 2010-11-05 2016-03-15 Nike, Inc. Method and system for automated personal training
US9358426B2 (en) 2010-11-05 2016-06-07 Nike, Inc. Method and system for automated personal training
US9457256B2 (en) 2010-11-05 2016-10-04 Nike, Inc. Method and system for automated personal training that includes training programs
JPWO2016002885A1 (en) * 2014-07-03 2017-04-27 帝人ファーマ株式会社 Rehabilitation support device and control program for rehabilitation support device
US9811639B2 (en) 2011-11-07 2017-11-07 Nike, Inc. User interface and fitness meters for remote joint workout session
US9852271B2 (en) 2010-12-13 2017-12-26 Nike, Inc. Processing data of a user performing an athletic activity to estimate energy expenditure
US9977874B2 (en) 2011-11-07 2018-05-22 Nike, Inc. User interface for remote joint workout session
US10188930B2 (en) 2012-06-04 2019-01-29 Nike, Inc. Combinatory score having a fitness sub-score and an athleticism sub-score
KR20190011759A (en) * 2016-06-03 2019-02-07 웨스트 & 베르그 아이티 컨설팅 아베 Motion training aids
US10420982B2 (en) 2010-12-13 2019-09-24 Nike, Inc. Fitness training system with energy expenditure calculation that uses a form factor
CN112567401A (en) * 2018-12-26 2021-03-26 欧姆龙株式会社 Motion analysis device, motion analysis method, and motion analysis program
WO2022070297A1 (en) * 2020-09-30 2022-04-07 日本電気株式会社 Rehabilitation assistance device, rehabilitation assistance system, rehabilitation assistance method, and recording medium
KR20220055225A (en) * 2020-10-26 2022-05-03 재단법인차세대융합기술연구원 Method of mornitoring home training using three dimensional modeling and server performing the same
KR102630799B1 (en) * 2023-07-26 2024-01-29 주식회사 에이아이태권도 Method and apparatus for evaluating taekwondo movement based on voice recognition using artificial intelligence

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0728580U (en) * 1993-11-12 1995-05-30 ベースゴルフ株式会社 Golf practice teaching tools
JPH08266698A (en) * 1995-03-31 1996-10-15 Nippon Koden Corp Fitness evaluation system and exercise aid system
JPH0956697A (en) * 1995-08-21 1997-03-04 Matsushita Electric Ind Co Ltd Rehabilitation aiding device
JP2000037490A (en) * 1998-07-24 2000-02-08 Konami Co Ltd Dancing game device
JP2005111178A (en) * 2003-10-10 2005-04-28 Matsushita Electric Works Ltd Motion training display system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0728580U (en) * 1993-11-12 1995-05-30 ベースゴルフ株式会社 Golf practice teaching tools
JPH08266698A (en) * 1995-03-31 1996-10-15 Nippon Koden Corp Fitness evaluation system and exercise aid system
JPH0956697A (en) * 1995-08-21 1997-03-04 Matsushita Electric Ind Co Ltd Rehabilitation aiding device
JP2000037490A (en) * 1998-07-24 2000-02-08 Konami Co Ltd Dancing game device
JP2005111178A (en) * 2003-10-10 2005-04-28 Matsushita Electric Works Ltd Motion training display system

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008168133A (en) * 2007-01-12 2008-07-24 Internatl Business Mach Corp <Ibm> Method, system and program for tracking range of user's body movement
JP2009247836A (en) * 2008-04-11 2009-10-29 Konami Sports & Life Co Ltd Apparatus, method, program and system for exercise management
JP2010036025A (en) * 2008-07-11 2010-02-18 Tokyo Univ Of Science Method and apparatus for determining human action under uncertainty
US10583328B2 (en) 2010-11-05 2020-03-10 Nike, Inc. Method and system for automated personal training
US11710549B2 (en) 2010-11-05 2023-07-25 Nike, Inc. User interface for remote joint workout session
US11094410B2 (en) 2010-11-05 2021-08-17 Nike, Inc. Method and system for automated personal training
US9919186B2 (en) 2010-11-05 2018-03-20 Nike, Inc. Method and system for automated personal training
US11915814B2 (en) 2010-11-05 2024-02-27 Nike, Inc. Method and system for automated personal training
US9283429B2 (en) 2010-11-05 2016-03-15 Nike, Inc. Method and system for automated personal training
US9358426B2 (en) 2010-11-05 2016-06-07 Nike, Inc. Method and system for automated personal training
US9457256B2 (en) 2010-11-05 2016-10-04 Nike, Inc. Method and system for automated personal training that includes training programs
US9223936B2 (en) 2010-11-24 2015-12-29 Nike, Inc. Fatigue indices and uses thereof
US9852271B2 (en) 2010-12-13 2017-12-26 Nike, Inc. Processing data of a user performing an athletic activity to estimate energy expenditure
US10420982B2 (en) 2010-12-13 2019-09-24 Nike, Inc. Fitness training system with energy expenditure calculation that uses a form factor
US8789440B2 (en) 2011-09-14 2014-07-29 Korea Institute Of Science And Technology Manipulator with weight compensation mechanism and face robot using the same
EP2767967A4 (en) * 2011-10-12 2015-08-12 Korea Inst Sci & Tech Apparatus for training recognition capability using robot and method for same
WO2013055024A1 (en) * 2011-10-12 2013-04-18 한국과학기술연구원 Apparatus for training recognition capability using robot and method for same
KR101317383B1 (en) * 2011-10-12 2013-10-11 한국과학기술연구원 Cognitive ability training apparatus using robots and method thereof
WO2013059828A1 (en) * 2011-10-20 2013-04-25 Jay Shiro Tashiro System and method for assessing an individual's physical and psychosocial abilities
JP2013090758A (en) * 2011-10-25 2013-05-16 Vstone Kk Exercise promotion robot
US9811639B2 (en) 2011-11-07 2017-11-07 Nike, Inc. User interface and fitness meters for remote joint workout session
US9977874B2 (en) 2011-11-07 2018-05-22 Nike, Inc. User interface for remote joint workout session
US10825561B2 (en) 2011-11-07 2020-11-03 Nike, Inc. User interface for remote joint workout session
US10188930B2 (en) 2012-06-04 2019-01-29 Nike, Inc. Combinatory score having a fitness sub-score and an athleticism sub-score
KR101447563B1 (en) * 2013-04-05 2014-10-08 한국과학기술연구원 Evaluation system of cognitive ability based on physical object and method thereof
WO2015037089A1 (en) * 2013-09-11 2015-03-19 日立コンシューマエレクトロニクス株式会社 Brain dysfunction assessment method, brain dysfunction assessment device, and program thereof
US10478114B2 (en) 2013-09-11 2019-11-19 Maxell, Ltd. Brain dysfunction assessment method, brain dysfunction assessment device, and program thereof
JPWO2015037089A1 (en) * 2013-09-11 2017-03-02 日立マクセル株式会社 Cerebral dysfunction evaluation method, cerebral dysfunction evaluation apparatus and program thereof
US10417931B2 (en) 2014-07-03 2019-09-17 Teijin Pharma Limited Rehabilitation assistance device and program for controlling rehabilitation assistance device
JPWO2016002885A1 (en) * 2014-07-03 2017-04-27 帝人ファーマ株式会社 Rehabilitation support device and control program for rehabilitation support device
KR20190011759A (en) * 2016-06-03 2019-02-07 웨스트 & 베르그 아이티 컨설팅 아베 Motion training aids
JP2021166760A (en) * 2016-06-03 2021-10-21 ウエスト アンド ベルグ ホールディング アーベー Motion training aid
US11348478B2 (en) 2016-06-03 2022-05-31 West & Bergh Holding Ab Motion training aid
KR20220103818A (en) * 2016-06-03 2022-07-22 웨스트 & 베르그 홀딩 아베 Motion training aid
KR102424637B1 (en) 2016-06-03 2022-07-25 웨스트 & 베르그 홀딩 아베 movement training aid
JP7232874B2 (en) 2016-06-03 2023-03-03 ウエスト アンド ベルグ ホールディング アーベー exercise training aid
KR102605331B1 (en) 2016-06-03 2023-11-22 웨스트 & 베르그 홀딩 아베 Motion training aid
JP2019517338A (en) * 2016-06-03 2019-06-24 ウエスト アンド ベルグ ホールディング アーベー Exercise training aid
CN112567401A (en) * 2018-12-26 2021-03-26 欧姆龙株式会社 Motion analysis device, motion analysis method, and motion analysis program
WO2022070297A1 (en) * 2020-09-30 2022-04-07 日本電気株式会社 Rehabilitation assistance device, rehabilitation assistance system, rehabilitation assistance method, and recording medium
KR20220055225A (en) * 2020-10-26 2022-05-03 재단법인차세대융합기술연구원 Method of mornitoring home training using three dimensional modeling and server performing the same
KR102423421B1 (en) * 2020-10-26 2022-07-21 재단법인 차세대융합기술연구원 Method of mornitoring home training using three dimensional modeling and server performing the same
KR102630799B1 (en) * 2023-07-26 2024-01-29 주식회사 에이아이태권도 Method and apparatus for evaluating taekwondo movement based on voice recognition using artificial intelligence

Similar Documents

Publication Publication Date Title
JP2006320424A (en) Action teaching apparatus and method
US8758020B2 (en) Periodic evaluation and telerehabilitation systems and methods
JP4594157B2 (en) Exercise support system, user terminal device thereof, and exercise support program
JP2011110215A (en) Rehabilitation system, program and computer-readable recording medium recording program
EP2203896B1 (en) Method and system for selecting the viewing configuration of a rendered figure
JPH09120464A (en) Rehabilitation support device
US20220028296A1 (en) Information processing apparatus, information processing method, and computer program
JP2013066696A (en) Image processing system and image processing method
US11682157B2 (en) Motion-based online interactive platform
Li et al. Development of exergame-based virtual trainer for physical therapy using kinect
JP2011152333A (en) Body skill learning support device and body skill learning support method
KR20170140705A (en) Cognitive ability rehabilitation system using association card game and method thereof
EP2482935B1 (en) System for supporting a user to do exercises
US20210322824A1 (en) Systems and methods for gestural detection and control in immersive and interactive flume swimming pools
JP2009095404A (en) Moving image display system, moving image display method, and computer program
JP2019024579A (en) Rehabilitation support system, rehabilitation support method, and program
JP2009089744A (en) Moving image display system, moving image display method, and computer program
KR101053467B1 (en) System and method for controlling smart motion suite using simulation motion data
KR20210066046A (en) Exercise support device using IoT sensor
JP2019024580A (en) Rehabilitation support system, rehabilitation support method, and program
KR20090058803A (en) Method for learning video exercise
WO2023026529A1 (en) Information processing device, information processing method, and program
WO2023176567A1 (en) Exercise assistance system
US20240135617A1 (en) Online interactive platform with motion detection
JP2022129615A (en) Exercise support system and exercise support method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080516

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20080603

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100907

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110201