JP6781200B2 - Exercise support system and program - Google Patents

Exercise support system and program Download PDF

Info

Publication number
JP6781200B2
JP6781200B2 JP2018107675A JP2018107675A JP6781200B2 JP 6781200 B2 JP6781200 B2 JP 6781200B2 JP 2018107675 A JP2018107675 A JP 2018107675A JP 2018107675 A JP2018107675 A JP 2018107675A JP 6781200 B2 JP6781200 B2 JP 6781200B2
Authority
JP
Japan
Prior art keywords
motion
information
subject
axis
angular velocity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2018107675A
Other languages
Japanese (ja)
Other versions
JP2019208880A (en
Inventor
俊希 板花
俊希 板花
洋明 川端
洋明 川端
満美 吉田
満美 吉田
悠佑 柏原
悠佑 柏原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mizuno Corp
Original Assignee
Mizuno Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mizuno Corp filed Critical Mizuno Corp
Priority to JP2018107675A priority Critical patent/JP6781200B2/en
Publication of JP2019208880A publication Critical patent/JP2019208880A/en
Application granted granted Critical
Publication of JP6781200B2 publication Critical patent/JP6781200B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本開示は、運動支援システムおよびプログラムに関し、特に、被験者の運動動作の習得のための情報を出力する運動支援システムおよびそのような情報を出力するためのコンピュータによって実行されるプログラムに関する。 The present disclosure relates to exercise support systems and programs, and more particularly to exercise support systems that output information for the acquisition of a subject's motor movements and programs that are executed by a computer to output such information.

従来、被験者の運動動作のパターンを自動的に判定する技術が種々提案されている。たとえば、特許第5314224号公報(特許文献1)は、トレッドミル上を走行するユーザーについての身体運動情報を取得し、取得した身体運動情報から特徴を抽出し、抽出された特徴を所与の演算式に適用することにより当該ユーザーのランニングフォーム得点を算出する、ランニングフォーム診断システムを提案する。 Conventionally, various techniques have been proposed for automatically determining a pattern of a subject's motor movement. For example, Japanese Patent No. 5314224 (Patent Document 1) acquires physical exercise information about a user running on a treadmill, extracts features from the acquired physical exercise information, and performs a given calculation on the extracted features. We propose a running form diagnostic system that calculates the running form score of the user by applying it to the formula.

特許第5314224号公報Japanese Patent No. 5314224

一方、被験者の動作が特定の運動動作についての正しい動作であるかどうかについて、より直接的な情報が求められる場合がある。 On the other hand, more direct information may be required as to whether the subject's movement is the correct movement for a particular motor movement.

本開示は、かかる実情に鑑み考え出されたものであり、その目的は、被験者に特定の運動動作に関する直接的な情報を提供することである。 The present disclosure has been conceived in light of such circumstances and its purpose is to provide the subject with direct information about a particular motor movement.

本開示のある局面に従うと、被験者の運動動作の習得のための情報を出力する運動支援システムが提供される。運動支援システムは、情報を出力する出力部と、被験者に取り付けられたセンサによって検出された運動情報を取得する運動情報取得部と、運動情報取得部によって取得された運動情報が運動動作について設定された閾値を超えた場合に、出力部から情報を出力する制御部とを備える。 According to certain aspects of the present disclosure, an exercise support system is provided that outputs information for the subject to acquire motor movements. In the exercise support system, an output unit that outputs information, an exercise information acquisition unit that acquires exercise information detected by a sensor attached to the subject, and an exercise information acquired by the exercise information acquisition unit are set for exercise motion. It is provided with a control unit that outputs information from the output unit when the threshold value is exceeded.

制御部は、運動情報取得部が運動情報を取得したことに応じて、出力部から情報を出力してもよい。 The control unit may output information from the output unit in response to the movement information acquisition unit acquiring the movement information.

運動情報は、運動動作を正しく行う上で重要な、腕の動きを含む、当該運動動作における特異フェーズにおいて取得されてもよい。 The movement information may be acquired in a specific phase in the movement, including the movement of the arm, which is important for performing the movement correctly.

運動動作は、走る動作、跳ぶ動作、および投げる動作のうち少なくとも1の種類の動作を含んでもよい。 The motor motion may include at least one type of motion of running, jumping, and throwing.

運動動作は、走る動作を含んでもよい。運動情報は、肘を屈曲した状態での、被験者の肩関節の屈曲または伸展を表わす情報を含んでもよい。 The motor motion may include a running motion. The exercise information may include information representing the flexion or extension of the shoulder joint of the subject with the elbow flexed.

運動情報は、被験者の腕の長手方向に沿った軸および被験者の手首の幅方向に沿った軸の中の少なくとも一つの軸に沿った加速度、ならびに、被験者の手のひらを貫く軸周りの角速度、のうち少なくとも一つを含んでもよい。 The motion information includes the acceleration along at least one axis in the longitudinal axis of the subject's arm and the axis along the width of the subject's wrist, and the angular velocity around the axis penetrating the subject's palm. At least one of them may be included.

運動動作は、跳ぶ動作を含んでもよい。運動情報は、被験者の肩関節の屈曲位置から伸展位置への変化を表わす情報を含んでもよい。 The motor motion may include a jumping motion. The motion information may include information indicating the change from the flexion position to the extension position of the shoulder joint of the subject.

運動情報は、被験者の腕の長手方向に沿った軸の加速度、ならびに、被験者の手首の幅方向に沿った軸および被験者の手のひらを貫く軸のうち少なくとも一つの軸に沿った軸周りの角速度、のうち少なくとも一つを含んでもよい。 The motion information includes the acceleration of the axis along the longitudinal direction of the subject's arm, and the angular velocity around the axis along at least one of the axis along the width direction of the subject's wrist and the axis penetrating the subject's palm. At least one of them may be included.

運動動作は、投げる動作を含んでもよい。運動情報は、被験者の肩関節を伸展、外転、または外旋することにより上腕を後方に引く動作を表わす情報であってもよい。 The kinetic motion may include a throwing motion. The motion information may be information representing a motion of pulling the upper arm backward by extending, abducting, or abducting the shoulder joint of the subject.

運動情報は、被験者の手首の幅方向に沿った軸および被験者の手のひらを貫く方向に沿った軸の少なくとも一方の軸に沿った加速度、ならびに、被験者の手首の幅方向に沿った軸周りの角速度、のうち少なくとも一つを含んでもよい。 The motion information includes acceleration along at least one axis along the width direction of the subject's wrist and an axis along the direction penetrating the subject's palm, and angular velocity around the axis along the width direction of the subject's wrist. , At least one of them may be included.

運動情報取得部は、センサと一体的に構成された、被験者の腕に装着される筐体によって構成されてもよい。 The motion information acquisition unit may be configured by a housing mounted on the arm of the subject, which is integrally configured with the sensor.

運動支援システムは、センサを内包し、被験者の腕に装着される筐体をさらに備えていてもよい。運動情報取得部は、センサと通信可能な通信回路を含んでもよい。 The exercise support system may further include a housing that includes a sensor and is worn on the subject's arm. The motion information acquisition unit may include a communication circuit capable of communicating with the sensor.

制御部は、2種類以上の運動動作のうち1の種類の運動動作の指定を受け付け、指定された種類の運動動作について設定された閾値を用いて、出力部から情報を出力してもよい。 The control unit may accept the designation of one type of exercise movement out of two or more types of movement movements, and output information from the output unit using the threshold value set for the specified type of movement movement.

本開示の他の局面に従うと、コンピュータによって実行されるプログラムが提供される。プログラムは、コンピュータに、被験者に取り付けられたセンサによって検出された運動情報を取得するステップと、取得した運動情報が、被験者の運動動作について設定された閾値を超えたか否かを判断するステップと、運動情報が閾値を超えたと判断した場合に、情報を出力するステップと、を実行させる。 According to other aspects of the disclosure, a program executed by a computer is provided. The program includes a step of acquiring motion information detected by a sensor attached to the subject and a step of determining whether or not the acquired motion information exceeds a threshold set for the subject's motion motion. When it is determined that the exercise information exceeds the threshold value, the step of outputting the information and the step of outputting the information are executed.

本開示によれば、被験者に取り付けられたセンサによって検出された運動情報が所与の運動動作について設定された閾値を超えた場合に、情報が出力される。これにより、被験者は、情報が出力されるかいなかによって当該被験者の動作が所与の運動動作について正しい動作であるか否かを直接的に判断し得る。 According to the present disclosure, when the motion information detected by the sensor attached to the subject exceeds the threshold value set for a given motion motion, the information is output. Thereby, the subject can directly judge whether or not the motion of the subject is the correct motion for a given motor motion based on the information output.

運動情報を取得するためのセンサを装着した被験者を示す図である。It is a figure which shows the subject who attached the sensor for acquiring the exercise information. 図1の支援装置100内のセンサによって検出される運動情報の一例を説明するための図である。It is a figure for demonstrating an example of the motion information detected by the sensor in the support device 100 of FIG. 支援装置100のハードウェア構成の一例を表わす図である。It is a figure which shows an example of the hardware composition of the support device 100. 運動支援システムの機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of an exercise support system. 2種類の動作のパターンのそれぞれにおける、被験者の「走る動作」の一連の流れを表わす図である。It is a figure which shows the series flow of "running motion" of a subject in each of two kinds of motion patterns. 正しい「走る動作」が繰り返されたときのセンサの検出出力の一例を示す図である。It is a figure which shows an example of the detection output of a sensor when a correct "running motion" is repeated. 運動情報を用いた「走る動作」についての情報出力のために実行される処理のフローチャートである。It is a flowchart of the process executed for information output about "running motion" using motion information. 2種類の動作パターンのそれぞれにおける、被験者の「跳ぶ動作」の一連の流れを表わす図である。It is a figure which shows the series flow of "jumping motion" of a subject in each of two kinds of motion patterns. 正しい「跳ぶ動作」が実施されたときのセンサの検出出力の一例を示す図である。It is a figure which shows an example of the detection output of a sensor when a correct "jumping motion" is performed. 運動情報を用いた「跳ぶ動作」についての情報出力のために実行される処理のフローチャートである。It is a flowchart of the process executed for information output about "jumping motion" using motion information. 2種類の動作パターンのそれぞれにおける、被験者の「投げる動作」の一連の流れを表わす図である。It is a figure which shows the series flow of "throwing motion" of a subject in each of two kinds of motion patterns. 正しい「投げる動作」が実施されたときのセンサの検出出力の一例を示す図である。It is a figure which shows an example of the detection output of a sensor when a correct "throwing operation" is performed. 運動情報を用いた「投げる動作」についての情報出力のために実行される処理のフローチャートである。It is a flowchart of the process executed for information output about "throwing motion" using motion information. 運動支援システムの構成の他の例を示す図である。It is a figure which shows another example of the structure of an exercise support system. コンピュータ500のハードウェア構成を模式的に示す図である。It is a figure which shows typically the hardware composition of the computer 500. 支援装置100として用いられる端末における加速度および角速度の検出方向の一例を示す図である。It is a figure which shows an example of the detection direction of acceleration and angular velocity in the terminal used as a support device 100. 支援装置100として用いられる端末における、検出軸の設定を受け付ける画面の一例を示す図である。It is a figure which shows an example of the screen which accepts the setting of the detection axis in the terminal used as a support device 100. 圧電センサを利用して被験者の運動動作に関する情報を提供する運動支援システムを説明するための図である。It is a figure for demonstrating the exercise support system which provides the information about the exercise motion of a subject using a piezoelectric sensor. 圧電センサユニット110の構成の一例を示す図である。It is a figure which shows an example of the structure of the piezoelectric sensor unit 110.

以下、図面を参照しつつ、運動支援システムに関する実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらについての詳細な説明は繰り返さない。 Hereinafter, embodiments relating to the exercise support system will be described with reference to the drawings. In the following description, the same parts and components are designated by the same reference numerals. Their names and functions are the same. Therefore, the detailed description of these will not be repeated.

[運動支援システムの概要]
図1は、運動情報を取得するためのセンサを装着した被験者を示す図である。図1に示されるように、被験者900は、当該被験者の運動動作についての情報を取得するために、支援装置100を装着している。支援装置100は、運動支援システムの一例であり、被験者900の運動情報を取得するためのセンサを内包する。
[Overview of exercise support system]
FIG. 1 is a diagram showing a subject wearing a sensor for acquiring motion information. As shown in FIG. 1, the subject 900 is equipped with a support device 100 in order to acquire information about the subject's motor movements. The support device 100 is an example of an exercise support system, and includes a sensor for acquiring exercise information of the subject 900.

図2は、図1の支援装置100内のセンサによって検出される運動情報の一例を説明するための図である。図2には、支援装置100を装着した被験者900の腕ARの一部の拡大図が示される。 FIG. 2 is a diagram for explaining an example of motion information detected by the sensor in the support device 100 of FIG. FIG. 2 shows an enlarged view of a part of the arm AR of the subject 900 wearing the support device 100.

図2の例では、支援装置100内のセンサ(後述する、加速度センサ41およびジャイロセンサ42)は、3つの軸について、各軸の加速度および各軸周りの角速度を検出する。図2に示された3軸(X軸,Y軸,Z軸)のうち、X軸は、腕ARの長手方向に沿った方向を表す。Y軸は、被験者の手首の幅方向を表す。Z軸は、被験者の手の平を貫く方向を表す。 In the example of FIG. 2, the sensors in the support device 100 (acceleration sensor 41 and gyro sensor 42, which will be described later) detect the acceleration of each axis and the angular velocity around each axis for the three axes. Of the three axes (X-axis, Y-axis, Z-axis) shown in FIG. 2, the X-axis represents the direction along the longitudinal direction of the arm AR. The Y-axis represents the width direction of the subject's wrist. The Z-axis represents the direction through which the subject's palm is pierced.

本明細書では、「Ax」「Ay」「Az」のそれぞれは、X軸、Y軸、およびZ軸のそれぞれに沿った方向における加速度の検出出力の表記に利用される。また、「Gx」「Gy」「Gz」のそれぞれは、X軸、Y軸、およびZ軸のそれぞれの軸の周りの回転方向における角速度の検出出力の表記に利用される。 In the present specification, each of "Ax", "Ay", and "Az" is used to describe the detection output of acceleration in the directions along the X-axis, Y-axis, and Z-axis, respectively. Further, each of "Gx", "Gy", and "Gz" is used to describe the detection output of the angular velocity in the rotation direction around each of the X-axis, Y-axis, and Z-axis.

支援装置100は、上記の3種類の加速度および3種類の角速度のうち少なくとも一種類の情報を利用して、被験者の所与の種類の運動動作を、正しい態様に導くための情報を出力する。一例では、所与の動作が正しい動作であるか否かは専門家によって判断される。より具体的には、支援装置100は、閾値を用いて上記情報を出力する。ある実施の形態では、閾値は、専門家が正しいと判断した動作において取得された運動情報を用いて生成される。他の実施の形態では、専門家自身が、正しい動作において取得されるであろう閾値を設定してもよい。支援装置100は、さらに、当該判断の結果を表わす情報を出力する。支援装置100が判断する動作の種類は、たとえば、「走る動作」「跳ぶ動作」または「投げる動作」である。 The support device 100 uses at least one of the above three types of acceleration and three types of angular velocity information to output information for guiding a given type of motor movement of the subject to a correct mode. In one example, an expert will determine if a given action is the correct action. More specifically, the support device 100 outputs the above information using the threshold value. In certain embodiments, the threshold is generated using the motion information acquired in a motion that the expert deems correct. In other embodiments, the expert himself may set a threshold that will be acquired in the correct operation. The support device 100 further outputs information representing the result of the determination. The type of motion determined by the support device 100 is, for example, a "running motion", a "jumping motion", or a "throwing motion".

[ハードウェア構成]
図3は、支援装置100のハードウェア構成の一例を表わす図である。支援装置100は、専用の端末であってもよいし、スマートフォン等の多機能な端末の一機能として実現されてもよい。図3を参照して、支援装置100の構成の一例について説明する。
[Hardware configuration]
FIG. 3 is a diagram showing an example of the hardware configuration of the support device 100. The support device 100 may be a dedicated terminal or may be realized as one function of a multifunctional terminal such as a smartphone. An example of the configuration of the support device 100 will be described with reference to FIG.

支援装置100は、CPU(Central Processing Unit)20と、アンテナ23と、通信装置24と、入力スイッチ25と、フラッシュメモリ27と、RAM(Random Access Memory)28と、ROM(Read-Only Memory)29と、メモリカード駆動装置30と、マイク32と、スピーカ33と、音声信号処理回路34と、LED(Light Emitting Diode)36と、通信インターフェイス37と、バイブレータ38と、加速度センサ41と、ジャイロセンサ42とを備える。メモリカード駆動装置30には、メモリカード31が装着され得る。 The support device 100 includes a CPU (Central Processing Unit) 20, an antenna 23, a communication device 24, an input switch 25, a flash memory 27, a RAM (Random Access Memory) 28, and a ROM (Read-Only Memory) 29. , Memory card drive device 30, microphone 32, speaker 33, audio signal processing circuit 34, LED (Light Emitting Diode) 36, communication interface 37, vibrator 38, acceleration sensor 41, and gyro sensor 42. And. A memory card 31 may be mounted on the memory card drive device 30.

CPU20は、支援装置100に対して与えられる命令に基づいて支援装置100の動作を制御するための処理を実行する。アンテナ23によって受信された信号は、通信装置24によってフロントエンド処理が行なわれ、処理後の信号は、CPU20に送られる。 The CPU 20 executes a process for controlling the operation of the support device 100 based on an instruction given to the support device 100. The signal received by the antenna 23 is front-end processed by the communication device 24, and the processed signal is sent to the CPU 20.

入力スイッチ25は、たとえばタッチセンサまたはハードウェアボタン等であり、支援装置100に対する命令の入力を受け付ける。入力された当該命令に応じた信号は、CPU20に入力される。 The input switch 25 is, for example, a touch sensor or a hardware button, and receives an input of a command to the support device 100. The signal corresponding to the input command is input to the CPU 20.

音声信号処理回路34は、マイク32に入力された音声を、予め定められた処理を施した後、CPU20に入力する。音声信号処理回路34は、また、CPU20からの命令に従って、スピーカ33から音声を出力する。 The audio signal processing circuit 34 inputs the voice input to the microphone 32 to the CPU 20 after performing predetermined processing. The audio signal processing circuit 34 also outputs audio from the speaker 33 in accordance with a command from the CPU 20.

フラッシュメモリ27は、CPU20から送られるデータを格納する。CPU20は、フラッシュメモリ27等の記憶装置に格納されたプログラムを実行する。 The flash memory 27 stores data sent from the CPU 20. The CPU 20 executes a program stored in a storage device such as a flash memory 27.

RAM28は、CPU20によって生成されるデータ等を一時的に保持する。ROM29は、支援装置100に予め定められた動作を実行させるためのプログラムあるいはデータを格納する。CPU20は、ROM29から当該プログラムまたはデータを読み出し、支援装置100の動作を制御する。 The RAM 28 temporarily holds data or the like generated by the CPU 20. The ROM 29 stores a program or data for causing the support device 100 to execute a predetermined operation. The CPU 20 reads the program or data from the ROM 29 and controls the operation of the support device 100.

メモリカード駆動装置30は、メモリカード31に格納されているデータを読み出し、CPU20に送出する。CPU20は、メモリカード31に格納されたプログラムを実行してもよい。メモリカード駆動装置30は、CPU20によって出力されるデータを、メモリカード31の記憶領域に書き込む。 The memory card drive device 30 reads the data stored in the memory card 31 and sends it to the CPU 20. The CPU 20 may execute the program stored in the memory card 31. The memory card drive device 30 writes the data output by the CPU 20 into the storage area of the memory card 31.

LED36は、CPU20から出力される信号に基づいて発光する。ある局面において、通信インターフェイス37は、WiFi(Wireless Fidelity)、Bluetooth(登録商標)、NFC(Near Field Communication)等の規格に従って外部の機器と通信する。別の局面において、通信インターフェイス37は、データ通信用のケーブルの装着を受け付ける。通信インターフェイス37は、CPU20から出力される信号を発信する。あるいは、通信インターフェイス37は、支援装置100の外部から受信した信号に含まれるデータを、CPU20に対して送信する。 The LED 36 emits light based on the signal output from the CPU 20. In a certain aspect, the communication interface 37 communicates with an external device according to standards such as WiFi (Wireless Fidelity), Bluetooth (registered trademark), and NFC (Near Field Communication). In another aspect, the communication interface 37 accepts the attachment of a cable for data communication. The communication interface 37 transmits a signal output from the CPU 20. Alternatively, the communication interface 37 transmits data included in the signal received from the outside of the support device 100 to the CPU 20.

バイブレータ38は、CPU20から出力される信号に基づいて、予め定められた周波数で発振動作を実行する。 The vibrator 38 executes an oscillation operation at a predetermined frequency based on the signal output from the CPU 20.

加速度センサ41は、支援装置100に作用する加速度を検出する。ある局面において、加速度センサ41は、3軸(図2のX軸,Y軸,およびZ軸)のそれぞれの軸に沿った加速度を検出する加速度センサとして実現される。ジャイロセンサ42は、支援装置100に作用する角速度を検出し、3軸(図2のX軸,Y軸,およびZ軸)のそれぞれの軸周りの角加速度を検出する。加速度センサ41およびジャイロセンサ42のそれぞれによって検出された加速度,角速度は、CPU20に入力される。 The acceleration sensor 41 detects the acceleration acting on the support device 100. In a certain aspect, the acceleration sensor 41 is realized as an acceleration sensor that detects acceleration along each of the three axes (X-axis, Y-axis, and Z-axis in FIG. 2). The gyro sensor 42 detects the angular velocity acting on the support device 100, and detects the angular acceleration around each of the three axes (X-axis, Y-axis, and Z-axis in FIG. 2). The acceleration and angular velocity detected by each of the acceleration sensor 41 and the gyro sensor 42 are input to the CPU 20.

[機能ブロック]
図4は、運動支援システムの機能ブロックの一例を示す図である。
[Functional block]
FIG. 4 is a diagram showing an example of functional blocks of the exercise support system.

図4では、運動支援システム400(図1〜図3の例では、支援装置100によって実現される)の機能として、センサ部410、判定部420、閾値記憶部430、および出力部440が示される。 In FIG. 4, the sensor unit 410, the determination unit 420, the threshold storage unit 430, and the output unit 440 are shown as the functions of the exercise support system 400 (in the example of FIGS. 1 to 3, realized by the support device 100). ..

センサ部410は、被験者の運動動作についての運動情報を検出し、たとえば加速度センサ41およびジャイロセンサ42の少なくとも一方によって実現される。 The sensor unit 410 detects motion information about the subject's motion motion, and is realized by, for example, at least one of an acceleration sensor 41 and a gyro sensor 42.

判定部420は、運動情報と所与の運動動作について設定された閾値とを比較し、当該比較の結果に従って出力部440に情報を出力する。なお、本明細書において、検出値が閾値を超えることは、検出値が閾値を跨いで変化することを意味する。すなわち、閾値を超えることは、状況に応じて、検出値が閾値を上回ることおよび閾値を下回ることの双方を意味し得る。判定部420は、たとえばCPU20によって実現される。 The determination unit 420 compares the motion information with the threshold set for a given motion motion, and outputs the information to the output unit 440 according to the result of the comparison. In the present specification, when the detected value exceeds the threshold value, it means that the detected value changes across the threshold value. That is, exceeding the threshold value may mean that the detected value exceeds the threshold value and falls below the threshold value, depending on the situation. The determination unit 420 is realized by, for example, the CPU 20.

一例では、上記閾値は、実際の運動動作において取得された値、または、(同一人または複数人による)複数回の運動動作において取得された値が統計学的に処理されることによって得られた値を用いて設定される。たとえば、「跳ぶ動作」についての閾値は、実際に「跳ぶ動作」が行われたときに取得された運動情報を用いて設定される。より具体的には、「跳ぶ動作」についての閾値は、正しい「跳ぶ動作」において取得された運動情報と、正しくない「跳ぶ動作」において取得された運動情報との双方を用いて設定されてもよい。 In one example, the threshold was obtained by statistically processing values obtained in actual exercise movements or values obtained in multiple exercise movements (by the same person or multiple people). Set using a value. For example, the threshold value for the "jumping motion" is set using the motion information acquired when the "jumping motion" is actually performed. More specifically, even if the threshold value for the "jumping motion" is set using both the motion information acquired in the correct "jumping motion" and the motion information acquired in the incorrect "jumping motion". Good.

閾値記憶部430は、判定部420によって利用される閾値を格納する。閾値記憶部430は、CPU20がアクセス可能な記憶装置(たとえば、フラッシュメモリ27、メモリカード31、等)によって実現される。 The threshold storage unit 430 stores the threshold value used by the determination unit 420. The threshold storage unit 430 is realized by a storage device (for example, a flash memory 27, a memory card 31, etc.) accessible to the CPU 20.

出力部440は、被験者の運動動作についての情報を出力し、たとえば、スピーカ33、LED36、およびバイブレータ38の中の少なくとも一つによって実現される。 The output unit 440 outputs information about the subject's motor movements, and is realized by, for example, at least one of the speaker 33, the LED 36, and the vibrator 38.

判定部420は、所与の運動動作を実行する被験者について取得された運動情報が所与の閾値を超えた場合に、所与の運動動作に関連する情報を出力する。判定部420は、取得された運動情報が所与の閾値に近づいている場合にも、被験者の運動動作が正しい動作に近づいていることを表わす情報を出力してもよい。 The determination unit 420 outputs information related to a given motor motion when the motion information acquired for the subject performing the given motor motion exceeds a given threshold value. The determination unit 420 may output information indicating that the subject's motion motion is approaching the correct motion even when the acquired motion information is approaching a given threshold value.

運動支援システム400は、後述する入力スイッチ25等として実現される入力部を備えていてもよい。判定部420は、入力部に対する操作に応じて「走る動作」「跳ぶ動作」または「投げる動作」のいずれかの指定を受け付けた場合、指定された動作に従った閾値を読出し、当該閾値を利用して被験者の運動情報についての情報を出力してもよい。すなわち、運動支援システム400は、複数種類の運動動作についての情報を出力可能に構成されており、運動動作の種類の指定を受け付け、指定された種類の運動動作についての情報を出力するように構成されていてもよい。 The exercise support system 400 may include an input unit realized as an input switch 25 or the like, which will be described later. When the determination unit 420 receives the designation of either "running motion", "jumping motion", or "throwing motion" according to the operation on the input unit, the determination unit 420 reads a threshold value according to the designated motion and uses the threshold value. Then, information about the exercise information of the subject may be output. That is, the exercise support system 400 is configured to be able to output information on a plurality of types of exercise movements, accepts designation of the type of exercise movement, and outputs information on the specified type of exercise movement. It may have been.

[情報の出力例(走る動作)]
一例では、支援装置100は、被験者の「走る動作」についての情報を出力する。図5〜図7を参照して、支援装置100による、「走る動作」についての情報の出力について説明する。
[Information output example (running operation)]
In one example, the support device 100 outputs information about the subject's "running motion". The output of information about the "running motion" by the support device 100 will be described with reference to FIGS. 5 to 7.

図5は、2種類の動作のパターンのそれぞれにおける、被験者の「走る動作」の一連の流れを表わす図である。図5には、支援装置100を装着した被験者の、「走る動作」についての2種類の動作パターンR1,R2が示される。パターンR2は「走る動作」についての正しい動作を表わすのに対し、パターンR1は「走る動作」についての正しくない動作を表わす。パターンR1と比較して、パターンR2では、被験者の動作は、正しい「走る動作」が含む特徴的な動作(特異フェーズ)を含む。特異フェーズは、「走る動作」を正しく行う上で重要なフェーズであり得る。特異フェーズは、腕の動きを含んでもよい。 FIG. 5 is a diagram showing a series of "running movements" of the subject in each of the two types of movement patterns. FIG. 5 shows two types of motion patterns R1 and R2 for the “running motion” of the subject wearing the support device 100. The pattern R2 represents a correct motion for "running motion", whereas the pattern R1 represents an incorrect motion for "running motion". Compared to pattern R1, in pattern R2, the subject's movements include characteristic movements (singular phases) that the correct "running movement" includes. The singular phase can be an important phase in performing the "running motion" correctly. The singular phase may include arm movements.

特徴的な動作の一例は、一方側(たとえば、右)の肘関節が屈曲された状態で、他方側(たとえば、左)の脚が前方に振り出されるときに一方側(たとえば、右)の肩関節が屈曲する、という動作である。 An example of a characteristic movement is when the elbow joint on one side (eg, right) is flexed and the leg on the other side (eg, left) is swung forward on one side (eg, right). This is the movement of the shoulder joint flexing.

特徴的な動作の他の例は、一方側(たとえば、右)の肘関節が屈曲された状態で、他方側(たとえば、左)の脚による蹴りだしに併せて一方側(たとえば、右)の肩関節を伸展する、という動作である。 Another example of characteristic movement is one side (eg, right) with the elbow joint on one side (eg, right) flexed in conjunction with kicking by the leg on the other side (eg, left). It is the action of extending the shoulder joint.

パターンR2において、支援装置100内のセンサは、被験者の上記特徴的な動作が発生したことを検出する。支援装置100は、当該センサが上記特徴的な動作の発生を検出したことに応じて、情報出力の一例として、予め定められた音声(図5中の「ピピッ」)を出力する。音声は、上記肩関節の屈曲および伸展の一方が検出されたときに出力されてもよいし、それぞれが検出されたときのそれぞれのタイミングで出力されてもよい。音声が出力されることにより、被験者は、その時点での当該被験者の動作が「走る動作」について正しいものであることを理解し得る。 In the pattern R2, the sensor in the support device 100 detects that the characteristic movement of the subject has occurred. The support device 100 outputs a predetermined voice (“pip” in FIG. 5) as an example of information output in response to the sensor detecting the occurrence of the characteristic operation. The sound may be output when one of the flexion and extension of the shoulder joint is detected, or may be output at each timing when each of them is detected. By outputting the voice, the subject can understand that the movement of the subject at that time is correct for the "running movement".

一方、パターンR1では、被験者の動作は、上記特徴的な動作を含まない。したがって、支援装置100は、上記予め定められた音声を出力しない。 On the other hand, in the pattern R1, the movement of the subject does not include the above-mentioned characteristic movement. Therefore, the support device 100 does not output the predetermined voice.

図6は、正しい「走る動作」が繰り返されたときのセンサの検出出力の一例を示す図である。図6において、グラフ(A)は、ジャイロセンサ42の検出出力を示す。グラフ(B)は、加速度センサ41の検出出力を示す。 FIG. 6 is a diagram showing an example of the detection output of the sensor when the correct “running motion” is repeated. In FIG. 6, the graph (A) shows the detection output of the gyro sensor 42. The graph (B) shows the detection output of the acceleration sensor 41.

グラフ(A)は、角速度Gx,Gy,Gzの変化を示す。グラフ(A)に示されるように、正しい「走る動作」が繰り返されたとき、角速度Gzの変化は、角速度Gx,Gyの変化に比べて大きい。これに基づき、支援装置100は、角速度Gzの値に基づいて、被験者が上記特徴的な動作を実行したことを検出してもよい。 Graph (A) shows changes in angular velocities Gx, Gy, and Gz. As shown in the graph (A), when the correct "running motion" is repeated, the change in the angular velocity Gz is larger than the change in the angular velocities Gx and Gy. Based on this, the support device 100 may detect that the subject has performed the above characteristic movement based on the value of the angular velocity Gz.

グラフ(A)において、値TR11,TR12は、「走る動作」の特徴的な動作の発生の判断に利用される閾値の一例である。値TR11,TR12は、閾値記憶部430に格納される。特徴的な動作が発生したと判断される基準の一例は、角速度Gzが値TR11を超える(値TR11を下回る)ことである。他の例は、角速度Gzが値TR12を超える(値TR12を上回る)ことである。さらに他の例は、角速度Gzが、値TR11を下回った後、所与の時間内に、値TR12を上回るように、変化したことである。 In the graph (A), the values TR11 and TR12 are examples of the threshold values used for determining the occurrence of the characteristic motion of the “running motion”. The values TR11 and TR12 are stored in the threshold storage unit 430. An example of a criterion for determining that a characteristic operation has occurred is that the angular velocity Gz exceeds the value TR11 (below the value TR11). Another example is that the angular velocity Gz exceeds the value TR12 (exceeds the value TR12). Yet another example is that the angular velocity Gz changed to exceed the value TR12 within a given time after falling below the value TR11.

グラフ(B)は、加速度Ax,Ay,Azの変化を示す。グラフ(B)に示されるように、正しい「走る動作」が繰り返されたとき、加速度Ax,Ayの変化は加速度Azの変化より大きい。これに基づき、支援装置100は、加速度Axまたは加速度Ayの値に基づいて、被験者が上記特徴的な動作を実行したことを検出してもよい。 Graph (B) shows changes in accelerations Ax, Ay, and Az. As shown in the graph (B), when the correct "running motion" is repeated, the change in acceleration Ax and Ay is larger than the change in acceleration Az. Based on this, the support device 100 may detect that the subject has performed the characteristic motion based on the value of the acceleration Ax or the acceleration Ay.

グラフ(B)において、値TR21,TR22は、「走る動作」の特徴的な動作の発生の判断に利用される、加速度Axについての閾値の一例である。値TR31,TR32は、「走る動作」の特徴的な動作の発生の判断に利用される、加速度Ayについての閾値の一例である。値TR21,TR22,TR31,TR32は、閾値記憶部430に格納される。 In the graph (B), the values TR21 and TR22 are examples of the threshold values for the acceleration Ax, which are used to determine the occurrence of the characteristic motion of the “running motion”. The values TR31 and TR32 are examples of threshold values for the acceleration Ay, which are used to determine the occurrence of a characteristic motion of the "running motion". The values TR21, TR22, TR31, and TR32 are stored in the threshold storage unit 430.

加速度Axに基づいて特徴的な動作が発生したと判断される基準の一例は、加速度Axが値TR21を超える(値TR21を上回る)ことである。他の例は、加速度Axが値TR22を超える(値TR22を下回る)ことである。さらに他の例は、加速度Axが、値TR21を上回った後、所与の時間内に、値TR22を下回るように、変化したことである。 An example of a criterion for determining that a characteristic motion has occurred based on the acceleration Ax is that the acceleration Ax exceeds the value TR21 (exceeds the value TR21). Another example is that the acceleration Ax exceeds the value TR22 (below the value TR22). Yet another example is that the acceleration Ax has changed to fall below the value TR22 within a given time period after exceeding the value TR21.

加速度Ayに基づいて特徴的な動作が発生したと判断される基準の一例は、加速度Ayが値TR31を超える(値TR31を上回る)ことである。他の例は、加速度Ayが値TR32を超える(値TR32を下回る)ことである。さらに他の例は、加速度Ayが、値TR31を上回った後、所与の時間内に、値TR32を下回るように、変化したことである。 An example of a criterion for determining that a characteristic motion has occurred based on the acceleration Ay is that the acceleration Ay exceeds the value TR31 (exceeds the value TR31). Another example is that the acceleration Ay exceeds the value TR32 (below the value TR32). Yet another example is that the acceleration Ay changes to fall below the value TR32 within a given time period after exceeding the value TR31.

以上、図5および図6を参照して、角速度Gz、加速度Ax、または、加速度Ayを利用した、特徴的な動作の発生の検出が説明された。角速度Gz、加速度Ax、または、加速度Ayによって、少なくとも、特徴的な動作の中の腕の動き(たとえば、一方側(たとえば、右)の肘関節が屈曲された状態で当該一方側の肩関節が屈曲する、または、一方側(たとえば、右)の肘関節が屈曲された状態で当該一方側の肩関節を伸展する)が検出される。なお、脚の動きを検出するセンサがさらに用いられ、特徴的な動作の発生の有無の判断において当該センサによる脚の動きの検出結果がさらに用いられてもよい。 As described above, with reference to FIGS. 5 and 6, the detection of the occurrence of a characteristic motion using the angular velocity Gz, the acceleration Ax, or the acceleration Ay has been described. Due to angular velocity Gz, acceleration Ax, or acceleration Ay, at least the movement of the arm during a characteristic movement (eg, one side (eg, right) of the elbow joint is flexed and the one side of the shoulder joint is flexed. Flexion or extension of the shoulder joint on one side (eg, right) with the elbow joint on one side flexed) is detected. A sensor that detects the movement of the leg may be further used, and the detection result of the movement of the leg by the sensor may be further used in determining the presence or absence of the occurrence of a characteristic movement.

グラフ(A)では、加速度Gzが、時刻t1に閾値TR11を初めて超え、時刻t2に閾値TR12を初めて超えたことが示されている。間隔DRは、角速度Gzの値が値TR11を超えてから値TR12を超えるまでの時間を表わす。加速度Gzが、閾値TR11を超えた後に閾値TR12を超える、という変化を続けると、そのたびに間隔DRは算出され得る。支援装置100は、運動情報(角速度Gz、加速度Ax、または、加速度Ay)が、2つの閾値のうち一方を超えてから他方を超えるまでの時間が報知に利用されてもよい。 In the graph (A), it is shown that the acceleration Gz exceeds the threshold value TR11 for the first time at time t1 and exceeds the threshold value TR12 for the first time at time t2. The interval DR represents the time from when the value of the angular velocity Gz exceeds the value TR11 to when it exceeds the value TR12. If the acceleration Gz continues to change from exceeding the threshold value TR11 to exceeding the threshold value TR12, the interval DR can be calculated each time. The support device 100 may use the time from when the motion information (angular velocity Gz, acceleration Ax, or acceleration Ay) exceeds one of the two threshold values to when it exceeds the other for notification.

[処理の流れ(走る動作)]
図7は、運動情報を用いた「走る動作」についての情報出力のために実行される処理のフローチャートである。図7の処理は、たとえばCPU20が所与のプログラムを実行することによって実現される。以下、図7を参照して上記処理の流れを説明する。
[Processing flow (running operation)]
FIG. 7 is a flowchart of a process executed for outputting information about a “running motion” using motion information. The process of FIG. 7 is realized, for example, by the CPU 20 executing a given program. Hereinafter, the flow of the above processing will be described with reference to FIG. 7.

ステップS10にて、CPU20は、被験者の運動動作の支援を開始するタイミングが到来したか否かを判断する。当該タイミングの到来の一例は、所与のボタン(入力スイッチ25)を操作されたことである。他の例は、マイク32に所与の音声(たとえば、「スタート!」)が入力されたことである。さらに他の例は、加速度センサ41が所与の方向の振動を検出したことである。さらに他の例は、ジャイロセンサ42が所与の方向の回転を検出したことである。 In step S10, the CPU 20 determines whether or not it is time to start supporting the motor movement of the subject. An example of the arrival of the timing is that a given button (input switch 25) has been operated. Another example is that a given voice (eg, "start!") Has been input to the microphone 32. Yet another example is that the accelerometer 41 has detected vibration in a given direction. Yet another example is that the gyro sensor 42 has detected rotation in a given direction.

ステップS12にて、CPU20は、角速度Gzの値を継続的に取得する。なお、角速度Gzは、「走る動作」の運動情報の一例である。他の例は、図6を参照して説明されたように、加速度Axおよび/または加速度Ayである。 In step S12, the CPU 20 continuously acquires the value of the angular velocity Gz. The angular velocity Gz is an example of motion information of "running motion". Another example is acceleration Ax and / or acceleration Ay, as described with reference to FIG.

ステップS14にて、CPU20は、取得した運動情報が所与の閾値を超えたか否かを判断する。ステップS14における「閾値を超えた」ことは、2種類の閾値(たとえば、図6のグラフ(A)の閾値TR11,TR12)の一方を超えたことであってもよいし、一方を超えてから所与の時間内にさらに他方を超えたことであってもよい。CPU20は、運動情報が所与の閾値を超えたと判断するまでステップS14の制御を継続し(ステップS14にてNO)、運動情報が所与の閾値を超えたと判断すると(ステップS14にてYES)、ステップS16へ制御を進める。 In step S14, the CPU 20 determines whether or not the acquired motion information exceeds a given threshold value. “Exceeding the threshold value” in step S14 may mean exceeding one of two types of threshold values (for example, threshold values TR11 and TR12 in the graph (A) of FIG. 6), or after exceeding one of them. It may be that the other is exceeded within a given time. The CPU 20 continues the control of step S14 until it determines that the exercise information exceeds a given threshold value (NO in step S14), and determines that the exercise information exceeds a given threshold value (YES in step S14). , The control proceeds to step S16.

ステップS16にて、CPU20は、所与の情報を出力して、ステップS14へ制御を戻す。出力される情報の一例は、図5に示されたように、電子音「ピピッ」である。他の例は、「OK!」など、「走る動作」についての正確な動作を実現されていることを被験者に知らせる音声である。さらに他の例は、バイブレータ38の振動である。さらに他の例は、LED36の点灯/点滅である。さらに他の例は、これらの中の任意の情報出力の組合せである。また、CPU20は、ステップS16の制御の前から情報を出力し、ステップS16において情報の出力態様を変更してもよい。たとえば、CPU20は、継続的に「ピー」という電子音を出力し、ステップS16にて出力される音声を「ピピッ」に変更してもよい。 In step S16, the CPU 20 outputs the given information and returns control to step S14. An example of the output information is the electronic sound "pip" as shown in FIG. Another example is a voice that informs the subject that an accurate motion for "running motion" such as "OK!" Is realized. Yet another example is the vibration of the vibrator 38. Yet another example is lighting / blinking of the LED 36. Yet another example is any combination of information outputs in these. Further, the CPU 20 may output information before the control in step S16, and may change the information output mode in step S16. For example, the CPU 20 may continuously output a beeping sound and change the sound output in step S16 to beeping.

CPU20は、間隔DR(図6)の長さによって出力する情報の種類を変更してもよい。たとえば、被験者が走る速度が速くなるほど間隔DRは短くなる。一例では、CPU20は、間隔DRが短くなるほど、「ピピッ」という電子音の1回目の「ピ」と2回目の「ピ」の間隔を短くしてもよい。他の例では、CPU20は、間隔DRが所与の値以上である場合には、「ピピッ」という単純な電子音を出力し、間隔DRが所与の値より短くなった場合に、特別な音声(たとえば、「いい走りです!」)を出力してもよい。 The CPU 20 may change the type of information to be output depending on the length of the interval DR (FIG. 6). For example, the faster the subject runs, the shorter the interval DR. In one example, the CPU 20 may shorten the interval between the first “pi” and the second “pi” of the beeping electronic sound as the interval DR becomes shorter. In another example, the CPU 20 outputs a simple beeping sound when the interval DR is greater than or equal to a given value, and is special when the interval DR is shorter than the given value. You may output audio (for example, "Good run!").

以上説明された図7の処理では、CPU20は、運動情報が所与の閾値を超えたことに基づいて情報を出力する。 In the process of FIG. 7 described above, the CPU 20 outputs information based on the fact that the motion information exceeds a given threshold value.

なお、CPU20は、ステップS10にて支援を開始してから所与の時間以上継続して運動情報が閾値を超えない場合、音声「がんばって!」等の、予め定められた情報を出力してもよい。 If the exercise information does not exceed the threshold value continuously for a given time or longer after the support is started in step S10, the CPU 20 may output predetermined information such as a voice "Good luck!". Good.

[情報の出力例(跳ぶ動作)]
一例では、支援装置100は、被験者の「跳ぶ動作」についての情報を出力する。図8〜図10を参照して、支援装置100による、「跳ぶ動作」についての情報の出力について説明する。
[Information output example (jumping operation)]
In one example, the support device 100 outputs information about the subject's "jumping motion". The output of information about the "jumping motion" by the support device 100 will be described with reference to FIGS. 8 to 10.

図8は、2種類の動作パターンのそれぞれにおける、被験者の「跳ぶ動作」の一連の流れを表わす図である。図8には、支援装置100を装着した被験者の、「跳ぶ動作」についての2種類の動作パターンJ1,J2が示される。パターンJ2は「跳ぶ動作」についての正しい動作を表わすのに対し、パターンJ1は「跳ぶ動作」についての正しくない動作を表わす。パターンJ1と比較して、パターンJ2では、被験者の動作は、正しい「跳ぶ動作」が含む特徴的な動作(特異フェーズ)を含む。特異フェーズは、「跳ぶ動作」を正しく行う上で重要なフェーズであり得る。特異フェーズは、腕の動きを含んでもよい。 FIG. 8 is a diagram showing a series of flow of the subject's "jumping motion" in each of the two types of motion patterns. FIG. 8 shows two types of motion patterns J1 and J2 for the “jumping motion” of the subject wearing the support device 100. The pattern J2 represents the correct action for the "jumping action", whereas the pattern J1 represents the incorrect action for the "jumping action". Compared to pattern J1, in pattern J2, the subject's movements include characteristic movements (singular phases) that the correct "jumping movement" includes. The singular phase can be an important phase in performing the "jumping motion" correctly. The singular phase may include arm movements.

特徴的な動作の一例は、下肢を屈曲させた状態で肩関節を屈曲位置から伸展位置へと移行させ、さらに、重心を低くする、という動作である。 An example of a characteristic motion is the motion of shifting the shoulder joint from the flexion position to the extension position while the lower limbs are flexed, and further lowering the center of gravity.

パターンJ2において、支援装置100内のセンサは、被験者の上記特徴的な動作が発生したことを検出する。支援装置100は、当該センサが上記特徴的な動作の発生を検出したことに応じて、情報出力の一例として、予め定められた音声(図8中の「ピピッ」)を出力する。音声が出力されることにより、被験者は、その時点での当該被験者の動作が「跳ぶ動作」について正しいものであることを理解し得る。さらに、被験者は、音声が出力されることにより、次に肩関節を屈曲させて前方に振り出すことにより「跳ぶ動作」を完成させるタイミングを認識し得る。 In pattern J2, the sensor in the support device 100 detects that the above characteristic movement of the subject has occurred. The support device 100 outputs a predetermined voice (“pip” in FIG. 8) as an example of information output in response to the sensor detecting the occurrence of the characteristic operation. By outputting the sound, the subject can understand that the subject's movement at that time is correct for the "jumping movement". Further, the subject can recognize the timing of completing the "jumping motion" by bending the shoulder joint and swinging it forward by outputting the voice.

一方、パターンJ1では、被験者の動作は、上記特徴的な動作を含まない。したがって、支援装置100は、上記予め定められた音声を出力しない。 On the other hand, in the pattern J1, the movement of the subject does not include the above-mentioned characteristic movement. Therefore, the support device 100 does not output the predetermined voice.

図9は、正しい「跳ぶ動作」が実施されたときのセンサの検出出力の一例を示す図である。図9のグラフは、加速度センサ41の検出出力(Ax,Ay,Az)およびジャイロセンサ42の検出出力(Gx,Gy,Gz)を含む。 FIG. 9 is a diagram showing an example of the detection output of the sensor when the correct “jumping motion” is performed. The graph of FIG. 9 includes the detection output (Ax, Ay, Az) of the acceleration sensor 41 and the detection output (Gx, Gy, Gz) of the gyro sensor 42.

図9では、「跳ぶ動作」のための運動情報の判断対象の期間が枠AR1として示されている。判断対象の期間は、たとえば、被験者が、跳躍に備えて身体を沈みこませた状態で腕を後方に振る、というフェーズに対応する。一例では、「跳ぶ動作」の判断のために、運動情報として、点P1を含む角速度Gy(図9中の一点鎖線)、点P2を含む角速度Gz(図9中の細線)、および、点P3を含む加速度Ax(図9中の太線)の中の、少なくとも一つが用いられる。なお、点P1〜P3は、図9中の3種類の線を区別するために付されたものであって、それらの位置には特段の意味合いは含まれない。 In FIG. 9, the period of the determination target of the motion information for the “jumping motion” is shown as the frame AR1. The period to be judged corresponds to, for example, a phase in which the subject swings his / her arm backward while the body is sunk in preparation for jumping. In one example, for the determination of "jumping motion", the angular velocity Gy including the point P1 (dashed line in FIG. 9), the angular velocity Gz including the point P2 (thin line in FIG. 9), and the point P3 are used as motion information. At least one of the acceleration Ax (thick line in FIG. 9) including the above is used. It should be noted that the points P1 to P3 are attached to distinguish the three types of lines in FIG. 9, and their positions do not include any particular meaning.

一例では、角速度Gyについての閾値TJgy(図示略)が設定され、支援装置100は、枠AR1で示された期間内において角速度Gyが閾値TJgyを超えた(上回った)場合に、特徴的な動作が発生したと判断し、所与の情報を出力する。 In one example, a threshold value TJgy (not shown) for the angular velocity Gy is set, and the support device 100 performs a characteristic operation when the angular velocity Gy exceeds (exceeds) the threshold value TJgy within the period indicated by the frame AR1. Is determined to have occurred and the given information is output.

他の例では、角速度Gzについての閾値TJgz(図示略)が設定され、支援装置100は、枠AR1で示された期間内において角速度Gzが閾値TJgzを超えた(上回った)場合に、特徴的な動作が発生したと判断し、所与の情報を出力する。 In another example, a threshold value TJgs (not shown) for the angular velocity Gz is set, and the support device 100 is characteristic when the angular velocity Gz exceeds (exceeds) the threshold value TJgs within the period indicated by the frame AR1. It is judged that an operation has occurred and given information is output.

さらに他の例では、加速度Axについての閾値TJax(図示略)が設定され、支援装置100は、枠AR1で示された期間内において加速度Axが閾値TJaxを超えた(下回った)場合に、特徴的な動作が発生したと判断し、所与の情報を出力する。 In yet another example, a threshold TJax (not shown) for the acceleration Ax is set, and the support device 100 is characterized when the acceleration Ax exceeds (falls below) the threshold TJax within the period indicated by the frame AR1. It is determined that a specific operation has occurred, and given information is output.

閾値TJgy,TJgz,TJaxは、閾値記憶部430に格納されている。
以上、図8および図9を参照して、角速度Gy、角速度Gz、または、加速度Axを利用した、特徴的な動作の発生の検出が説明された。角速度Gy、角速度Gz、または、加速度Axによって、少なくとも、特徴的な動作の中の腕の動き(たとえば、肩関節を屈曲位置から伸展位置へと移行させる動き)が検出される。なお、脚の動きを検出するセンサがさらに用いられ、特徴的な動作の発生の有無の判断において当該センサの検出出力がさらに用いられてもよい。
The threshold values TJgy, TJgz, and TJax are stored in the threshold value storage unit 430.
With reference to FIGS. 8 and 9, the detection of the occurrence of a characteristic motion using the angular velocity Gy, the angular velocity Gz, or the acceleration Ax has been described above. At least the movement of the arm in the characteristic movement (for example, the movement of shifting the shoulder joint from the flexion position to the extension position) is detected by the angular velocity Gy, the angular velocity Gz, or the acceleration Ax. A sensor that detects the movement of the leg may be further used, and the detection output of the sensor may be further used in determining the presence or absence of the occurrence of a characteristic motion.

[処理の流れ(跳ぶ動作)]
図10は、運動情報を用いた「跳ぶ動作」についての情報出力のために実行される処理のフローチャートである。図10の処理は、たとえばCPU20が所与のプログラムを実行することによって実現される。以下、図10を参照して上記処理の流れを説明する。
[Processing flow (jumping operation)]
FIG. 10 is a flowchart of a process executed for outputting information about a “jumping motion” using motion information. The process of FIG. 10 is realized, for example, by the CPU 20 executing a given program. Hereinafter, the flow of the above processing will be described with reference to FIG.

ステップS20にて、CPU20は、被験者の運動動作の支援を開始するタイミングが到来したか否かを判断する。当該タイミングは、図9の枠AR1で示される期間が開始するタイミングに相当する。当該タイミングの到来の一例は、所与のボタン(入力スイッチ25)を操作されたことである。他の例は、マイク32への所与の音声の入力、加速度センサ41が所与の方向の振動を検出したこと、および/または、ジャイロセンサ42が所与の方向の回転を検出したことである。 In step S20, the CPU 20 determines whether or not it is time to start supporting the motor movement of the subject. The timing corresponds to the timing at which the period shown in the frame AR1 of FIG. 9 starts. An example of the arrival of the timing is that a given button (input switch 25) has been operated. Another example is the input of a given voice to the microphone 32, the accelerometer 41 detecting vibration in a given direction, and / or the gyro sensor 42 detecting rotation in a given direction. is there.

ステップS22にて、CPU20は、加速度Axの値を継続的に取得する。なお、加速度Axは、「跳ぶ動作」の運動情報の一例である。他の例は、図9を参照して説明されたように、角速度Gyおよび/または角速度Gzである。 In step S22, the CPU 20 continuously acquires the value of the acceleration Ax. The acceleration Ax is an example of the motion information of the "jumping motion". Another example is the angular velocity Gy and / or the angular velocity Gz, as described with reference to FIG.

ステップS24にて、CPU20は、取得した運動情報が所与の閾値を超えたか否かを判断する。CPU20は、運動情報が所与の閾値を超えたと判断するまでステップS24の制御を継続し(ステップS24にてNO)、運動情報が所与の閾値を超えたと判断すると(ステップS24にてYES)、ステップS26へ制御を進める。 In step S24, the CPU 20 determines whether or not the acquired motion information exceeds a given threshold value. The CPU 20 continues the control of step S24 until it determines that the exercise information exceeds a given threshold value (NO in step S24), and determines that the exercise information exceeds a given threshold value (YES in step S24). , The control proceeds to step S26.

ステップS26にて、CPU20は、所与の情報を出力して、ステップS24へ制御を戻す。出力される情報の一例は、図8に示されたように、電子音「ピピッ」である。他の例は、「さぁ、跳ぶぞ!」など、「跳ぶ動作」についての正確な動作を実現されていることを被験者に知らせる音声である。さらに他の例は、バイブレータ38の振動である。さらに他の例は、LED36の点灯/点滅である。さらに他の例は、これらの中の任意の情報出力の組合せである。また、CPU20は、ステップS26の制御の前から情報を出力し、ステップS26において情報の出力態様を変更してもよい。たとえば、CPU20は、継続的に「ピー」という電子音を出力し、ステップS26にて出力される音声を「ピピッ」に変更してもよい。 In step S26, the CPU 20 outputs the given information and returns control to step S24. An example of the output information is the electronic sound "pip" as shown in FIG. Another example is a voice that informs the subject that an accurate motion for the "jumping motion" has been achieved, such as "Now, let's jump!". Yet another example is the vibration of the vibrator 38. Yet another example is lighting / blinking of the LED 36. Yet another example is any combination of information outputs in these. Further, the CPU 20 may output information before the control in step S26, and may change the information output mode in step S26. For example, the CPU 20 may continuously output a beeping sound and change the sound output in step S26 to beeping.

以上説明された図10の処理では、CPU20は、運動情報が所与の閾値を超えたことに基づいて情報を出力する。 In the process of FIG. 10 described above, the CPU 20 outputs information based on the fact that the motion information exceeds a given threshold value.

なお、CPU20は、ステップS20にて支援を開始してから所与の時間以上継続して(たとえば、枠AR1で示される期間が終了するまで)運動情報が閾値を超えない場合、音声「もう一度やってみよう!」等の、予め定められた情報を出力した後、図10の処理を終了させてもよい。 If the movement information does not exceed the threshold value continuously for a given time or longer (for example, until the end of the period indicated by the frame AR1) after the support is started in step S20, the CPU 20 makes a voice "do it again". After outputting predetermined information such as "Let's try!", The process of FIG. 10 may be terminated.

[情報の出力例(投げる動作)]
一例では、支援装置100は、被験者の「投げる動作」についての情報を出力する。図11〜図13を参照して、支援装置100による、「投げる動作」についての情報の出力について説明する。
[Information output example (throwing operation)]
In one example, the support device 100 outputs information about the subject's "throwing motion". The output of information about the "throwing operation" by the support device 100 will be described with reference to FIGS. 11 to 13.

図11は、2種類の動作パターンのそれぞれにおける、被験者の「投げる動作」の一連の流れを表わす図である。図11には、支援装置100を装着した被験者の、「投げる動作」についての2種類の動作パターンT1,T2が示される。パターンT2は「投げる動作」についての正しい動作を表わすのに対し、パターンT1は「投げる動作」についての正しくない動作を表わす。パターンT1と比較して、パターンT2では、被験者の動作は、正しい「投げる動作」が含む特徴的な動作(特異フェーズ)を含む。特異フェーズは、「投げる動作」を正しく行う上で重要なフェーズであり得る。特異フェーズは、腕の動きを含んでもよい。 FIG. 11 is a diagram showing a series of flow of the subject's "throwing motion" in each of the two types of motion patterns. FIG. 11 shows two types of motion patterns T1 and T2 for the "throwing motion" of the subject wearing the support device 100. The pattern T2 represents the correct action for the "throwing action", whereas the pattern T1 represents the incorrect action for the "throwing action". Compared to pattern T1, in pattern T2, the subject's movements include characteristic movements (singular phases) that the correct "throwing movement" includes. The singular phase can be an important phase in performing the "throwing motion" correctly. The singular phase may include arm movements.

特徴的な動作の一例は、投げる動作を行う側の腕(右腕または左腕)の肩関節の伸展、外転、および、外旋の少なくとも一つを行うことにより、当該側の手(右手または左手)を後方に引くことを含む動作である。 An example of a characteristic movement is that by performing at least one of extension, abduction, and abduction of the shoulder joint of the side arm (right arm or left arm) performing the throwing movement, the hand (right hand or left hand) is performed. ) Is an operation including pulling backward.

パターンT2において、支援装置100内のセンサは、被験者の上記特徴的な動作が発生したことを検出する。支援装置100は、当該センサが上記特徴的な動作の発生を検出したことに応じて、情報出力の一例として、予め定められた音声(図11中の「ピピッ」)を出力する。音声が出力されることにより、被験者は、その時点での当該被験者の動作が「投げる動作」について正しいものであることを理解し得る。さらに、被験者は、音声が出力されることにより、次に肩関節を伸展させて前方に振り出すことにより「投げる動作」を完成させるタイミングを認識し得る。 In the pattern T2, the sensor in the support device 100 detects that the above-mentioned characteristic movement of the subject has occurred. The support device 100 outputs a predetermined voice (“pip” in FIG. 11) as an example of information output in response to the sensor detecting the occurrence of the characteristic operation. By outputting the sound, the subject can understand that the subject's action at that time is correct for the "throwing action". Further, the subject can recognize the timing of completing the "throwing motion" by extending the shoulder joint and swinging it forward by outputting the voice.

一方、パターンT1では、被験者の動作は、上記特徴的な動作を含まない。したがって、支援装置100は、上記予め定められた音声を出力しない。 On the other hand, in the pattern T1, the movement of the subject does not include the above-mentioned characteristic movement. Therefore, the support device 100 does not output the predetermined voice.

図12は、正しい「投げる動作」が実施されたときのセンサの検出出力の一例を示す図である。図12のグラフは、加速度センサ41の検出出力(Ax,Ay,Az)およびジャイロセンサ42の検出出力(Gx,Gy,Gz)を含む。 FIG. 12 is a diagram showing an example of the detection output of the sensor when the correct “throwing operation” is performed. The graph of FIG. 12 includes the detection output (Ax, Ay, Az) of the acceleration sensor 41 and the detection output (Gx, Gy, Gz) of the gyro sensor 42.

一例では、「投げる動作」の判断のために、運動情報として、点P4を含む加速度Ay(図12中の二点鎖線)、点P5を含む加速度Az(図12中の破線)、および、点P6を含む角速度Gy(図12中の一点鎖線)の中の、少なくとも一つが用いられる。なお、点P4〜P6は、図12中の3種類の線を区別するために付されたものであって、それらの位置には特段の意味合いは含まれない。 In one example, the acceleration Ay including the point P4 (two-dot chain line in FIG. 12), the acceleration Az including the point P5 (broken line in FIG. 12), and the point are used as motion information for determining the “throwing motion”. At least one of the angular velocity Gy (dotted line in FIG. 12) including P6 is used. It should be noted that the points P4 to P6 are attached to distinguish the three types of lines in FIG. 12, and their positions do not include any particular meaning.

一例では、加速度Ayについての閾値TTay(図示略)が設定され、支援装置100は、加速度Ayが閾値TTayを超えた(上回った)場合に、特徴的な動作が発生したと判断し、所与の情報を出力する。 In one example, a threshold value TTay (not shown) for the acceleration Ay is set, and the support device 100 determines that a characteristic operation has occurred when the acceleration Ay exceeds (exceeds) the threshold value TTay, and is given. Information is output.

他の例では、加速度Azについての閾値TTaz(図示略)が設定され、支援装置100は、加速度Azが閾値TTazを超えた(上回った)場合に、特徴的な動作が発生したと判断し、所与の情報を出力する。 In another example, a threshold value TTaz (not shown) for the acceleration Az is set, and the support device 100 determines that a characteristic operation has occurred when the acceleration Az exceeds (exceeds) the threshold value TTaz. Output given information.

さらに他の例では、角速度Gyについての閾値TTgy(図示略)が設定され、支援装置100は、角速度Gyが閾値TTgyを超えた(下回った)場合に、特徴的な動作が発生したと判断し、所与の情報を出力する。 In yet another example, a threshold value TTgy (not shown) for the angular velocity Gy is set, and the support device 100 determines that a characteristic operation has occurred when the angular velocity Gy exceeds (falls below) the threshold value TTgy. , Outputs given information.

閾値TTay,TTaz,TTgyは、閾値記憶部430に格納されている。
以上、図11および図12を参照して、加速度Ay、加速度Az、または、角速度Gyを利用した、特徴的な動作(たとえば、投げる動作を行う側の腕(右腕または左腕)の肩関節を外転および外旋の少なくとも一方と、当該側の手(右手または左手)上後方に引くこととを含む動作)の発生の検出が説明された。なお、脚の動きを検出するセンサがさらに用いられ、特徴的な動作の発生の有無の判断において当該センサの検出出力がさらに用いられてもよい。
The threshold values TTay, TTaz, and TTgy are stored in the threshold value storage unit 430.
As described above, with reference to FIGS. 11 and 12, the shoulder joint of the characteristic motion (for example, the arm (right arm or left arm) on the side performing the throwing motion) using the acceleration Ay, the acceleration Az, or the angular velocity Gy is removed. The detection of the occurrence of at least one of rolling and abduction and the occurrence of a hand (right or left hand) up and backward pulling on that side) was described. A sensor that detects the movement of the leg may be further used, and the detection output of the sensor may be further used in determining the presence or absence of the occurrence of a characteristic motion.

[処理の流れ(投げる動作)]
図13は、運動情報を用いた「投げる動作」についての情報出力のために実行される処理のフローチャートである。図13の処理は、たとえばCPU20が所与のプログラムを実行することによって実現される。以下、図13を参照して上記処理の流れを説明する。
[Processing flow (throwing operation)]
FIG. 13 is a flowchart of a process executed for outputting information about a “throwing motion” using motion information. The process of FIG. 13 is realized, for example, by the CPU 20 executing a given program. Hereinafter, the flow of the above processing will be described with reference to FIG.

ステップS30にて、CPU20は、被験者の運動動作の支援を開始するタイミングが到来したか否かを判断する。当該タイミングの到来の一例は、所与のボタン(入力スイッチ25)を操作されたことである。他の例は、マイク32への所与の音声の入力、加速度センサ41が所与の方向の振動を検出したこと、および/または、ジャイロセンサ42が所与の方向の回転を検出したことである。 In step S30, the CPU 20 determines whether or not it is time to start supporting the motor movement of the subject. An example of the arrival of the timing is that a given button (input switch 25) has been operated. Another example is the input of a given voice to the microphone 32, the accelerometer 41 detecting vibration in a given direction, and / or the gyro sensor 42 detecting rotation in a given direction. is there.

ステップS32にて、CPU20は、加速度Ayの値を継続的に取得する。なお、加速度Ayは、「投げる動作」の運動情報の一例である。他の例は、図12を参照して説明されたように、加速度Azおよび/または角速度Gyである。 In step S32, the CPU 20 continuously acquires the value of the acceleration Ay. The acceleration Ay is an example of the motion information of the "throwing motion". Another example is acceleration Az and / or angular velocity Gy, as described with reference to FIG.

ステップS34にて、CPU20は、取得した運動情報が所与の閾値を超えたか否かを判断する。CPU20は、運動情報が所与の閾値を超えたと判断するまでステップS34の制御を継続し(ステップS34にてNO)、運動情報が所与の閾値を超えたと判断すると(ステップS34にてYES)、ステップS36へ制御を進める。 In step S34, the CPU 20 determines whether or not the acquired motion information exceeds a given threshold value. The CPU 20 continues the control of step S34 until it determines that the exercise information exceeds a given threshold value (NO in step S34), and determines that the exercise information exceeds a given threshold value (YES in step S34). , The control proceeds to step S36.

ステップS36にて、CPU20は、所与の情報を出力して、ステップS34へ制御を戻す。出力される情報の一例は、図11に示されたように、電子音「ピピッ」である。当該情報の出力により、被験者は、投げる動作を完成させるために手を前方に出すタイミングを認識することができる。 In step S36, the CPU 20 outputs the given information and returns control to step S34. An example of the output information is the electronic sound "pip" as shown in FIG. By outputting the information, the subject can recognize the timing of putting his / her hand forward to complete the throwing motion.

出力される情報の他の例は、「いいよ!投げて!」など、「投げる動作」についての正確な動作を実現されていることを被験者に知らせる音声である。さらに他の例は、バイブレータ38の振動である。さらに他の例は、LED36の点灯/点滅である。さらに他の例は、これらの中の任意の情報出力の組合せである。また、CPU20は、ステップS36の制御の前から情報を出力し、ステップS36において情報の出力態様を変更してもよい。たとえば、CPU20は、継続的に「ピー」という電子音を出力し、ステップS36にて出力される音声を「ピピッ」に変更してもよい。 Another example of the output information is a voice informing the subject that an accurate motion for the "throwing motion" has been achieved, such as "OK! Throw!". Yet another example is the vibration of the vibrator 38. Yet another example is lighting / blinking of the LED 36. Yet another example is any combination of information outputs in these. Further, the CPU 20 may output information before the control in step S36, and may change the information output mode in step S36. For example, the CPU 20 may continuously output a beeping sound and change the sound output in step S36 to beeping.

以上説明された図13の処理では、CPU20は、運動情報が所与の閾値を超えたことに基づいて情報を出力する。 In the process of FIG. 13 described above, the CPU 20 outputs information based on the fact that the motion information exceeds a given threshold value.

なお、CPU20は、ステップS30にて支援を開始してから所与の時間以上継続して運動情報が閾値を超えない場合、音声「肩を開いて、手を挙げながら後ろに引いてみよう!」等の、上記特徴的な動作に誘導するための情報を出力してもよい。 If the movement information does not exceed the threshold value for a given time or longer after the support is started in step S30, the CPU 20 voices "Open your shoulders, raise your hand and pull back!" Information for guiding to the above characteristic operation such as, etc. may be output.

[運動支援システムの構成]
運動支援システムは、図1等に示されたような、被験者の腕に装着される形態(腕時計型)の装置であってもよいし、スマートフォン等の汎用の端末であってもよい。運動支援システムが汎用の端末によって構成される場合、当該端末はベルト等で被験者の腕に装着される。
[Structure of exercise support system]
The exercise support system may be a device (wristwatch type) worn on the arm of the subject as shown in FIG. 1 or the like, or may be a general-purpose terminal such as a smartphone. When the exercise support system is composed of a general-purpose terminal, the terminal is worn on the subject's arm with a belt or the like.

図14は、運動支援システムの構成の他の例を示す図である。運動支援システムは、複数の装置によって構成されてもよい。より具体的には、図14の構成例(A)および構成例(B)に示されるように、運動支援システム400は、センサを備える支援装置100と、支援装置100からセンサの検出出力を取得するためのコンピュータ500とによって構成されてもよい。構成例(A)では、支援装置100は腕時計型の端末であり、コンピュータ500はスマートフォン等の汎用の端末である。構成例(B)では、支援装置100は汎用の端末であり、コンピュータ500はノート型のパーソナルコンピュータである。 FIG. 14 is a diagram showing another example of the configuration of the exercise support system. The exercise support system may be composed of a plurality of devices. More specifically, as shown in the configuration example (A) and the configuration example (B) of FIG. 14, the exercise support system 400 acquires the detection output of the sensor from the support device 100 including the sensor and the support device 100. It may be configured by the computer 500 for the operation. In the configuration example (A), the support device 100 is a wristwatch-type terminal, and the computer 500 is a general-purpose terminal such as a smartphone. In the configuration example (B), the support device 100 is a general-purpose terminal, and the computer 500 is a notebook-type personal computer.

図15は、コンピュータ500のハードウェア構成を模式的に示す図である。図5に示されるように、コンピュータ500は、主たる構成要素として、CPU510と、キーボード等の入力部520と、メモリ530と、メモリインタフェース(I/F)540と、通信インタフェース(I/F)550と、出力部560とを含む。CPU510、入力部520、メモリ530、メモリI/F540、通信I/F550、および出力部560は、互いに内部バスで接続されている。 FIG. 15 is a diagram schematically showing a hardware configuration of the computer 500. As shown in FIG. 5, the computer 500 has a CPU 510, an input unit 520 such as a keyboard, a memory 530, a memory interface (I / F) 540, and a communication interface (I / F) 550 as main components. And the output unit 560. The CPU 510, the input unit 520, the memory 530, the memory I / F 540, the communication I / F 550, and the output unit 560 are connected to each other by an internal bus.

入力部520は、コンピュータ500への情報の入力のために操作され、たとえば、ハードウェアボタン、および/または、ソフトウェアボタンとして実現される。 The input unit 520 is operated for inputting information to the computer 500, and is realized as, for example, a hardware button and / or a software button.

メモリ530は、RAMおよび/またはROMなどの記憶装置によって実現される。メモリ530は、CPU510によって実行されるプログラム、および、当該プログラムの実行において利用されるデータが格納される。 The memory 530 is realized by a storage device such as RAM and / or ROM. The memory 530 stores a program executed by the CPU 510 and data used in executing the program.

メモリI/F540は、外部の記憶媒体541からデータを読み出す。記憶媒体541は、コンピュータ500に対して着脱可能である。CPU510は、メモリI/F540を介して外部の記憶媒体541に格納されているデータを読み出して、当該データをメモリ530に格納する。また、CPU510は、メモリ530からデータを読み出し、当該データを、メモリI/F540を介して記憶媒体541に格納する。CPU510が実行するプログラムは、記憶媒体541に格納されていてもよい。また、CPU510が実行するプログラムは、公衆ネットワーク等のネットワークを介してダウンロードされて、メモリ530に格納されてもよい。 The memory I / F 540 reads data from the external storage medium 541. The storage medium 541 is removable from the computer 500. The CPU 510 reads the data stored in the external storage medium 541 via the memory I / F 540, and stores the data in the memory 530. Further, the CPU 510 reads data from the memory 530 and stores the data in the storage medium 541 via the memory I / F 540. The program executed by the CPU 510 may be stored in the storage medium 541. Further, the program executed by the CPU 510 may be downloaded via a network such as a public network and stored in the memory 530.

通信I/F550は、アンテナやコネクタによって実現される。通信I/F550は、有線通信あるいは無線通信によって他の装置(支援装置100を含む)との間で、データを送受信する。CPU510は、通信I/F550を介して、他の装置からプログラムや画像データやテキストデータなどを受信し、また、他の装置に画像データやテキストデータを送信する。 Communication I / F 550 is realized by an antenna or a connector. The communication I / F 550 transmits / receives data to / from another device (including the support device 100) by wired communication or wireless communication. The CPU 510 receives a program, image data, text data, or the like from another device via the communication I / F 550, and transmits the image data or text data to the other device.

出力部560は、音声、光、および/または振動等によって情報を出力する。出力は、たとえば、スピーカ、LEDおよび/またはディスプレイ、ならびに、バイブレータの中の少なくとも一つとして実現される。 The output unit 560 outputs information by voice, light, and / or vibration. The output is realized, for example, as at least one of a speaker, an LED and / or a display, and a vibrator.

CPU510は、メモリ530あるいは記憶媒体541に記憶されているプログラムを実行することによって、コンピュータ500の各部を制御する。 The CPU 510 controls each part of the computer 500 by executing a program stored in the memory 530 or the storage medium 541.

構成例(A)および構成例(B)では、センサ部410は、支援装置100の加速度センサ41およびジャイロセンサ42の中の少なくとも一方によって実現される。判定部420は、コンピュータ500のCPU510によって実現される。閾値記憶部430は、CPU510がアクセス可能な記憶装置によって構成され、たとえば、メモリ530または記憶媒体541によって実現される。出力部440は、出力部560によって実現される。 In the configuration example (A) and the configuration example (B), the sensor unit 410 is realized by at least one of the acceleration sensor 41 and the gyro sensor 42 of the support device 100. The determination unit 420 is realized by the CPU 510 of the computer 500. The threshold storage unit 430 is configured by a storage device accessible to the CPU 510, and is realized by, for example, a memory 530 or a storage medium 541. The output unit 440 is realized by the output unit 560.

なお、運動支援システムは、図14に示された支援装置100とコンピュータ500以外に、出力部560として、情報出力用の装置(スピーカ、ディスプレイ、バイブレータ、ロボット、等)を備えていてもよい。この場合、判定部420としてのコンピュータ500は、被験者の運動情報が所与の閾値を超えた場合、当該情報出力用の装置に対して情報の出力を指示してもよい。これにより、多様な出力態様で情報が出力され得る。 In addition to the support device 100 and the computer 500 shown in FIG. 14, the exercise support system may include an information output device (speaker, display, vibrator, robot, etc.) as an output unit 560. In this case, the computer 500 as the determination unit 420 may instruct the device for outputting the information to output the information when the motion information of the subject exceeds a given threshold value. As a result, information can be output in various output modes.

たとえば、運動支援システムは、被験者が正しい態様で所与の運動動作を実行したとき、ロボットが所与の動作を実行するように構成され得る。この場合、支援装置100内のセンサは当該運動動作に対応する運動情報を検出し、当該運動情報をコンピュータ500へ送信する。コンピュータ500は、当該運動情報に基づいて、被験者が正しい運動動作を実行したと判断し、上記ロボットへ所与の動作を実行することを指示する。ロボットは、コンピュータ500からの指示に応じて、所与の動作を実行する。 For example, an exercise support system may be configured for a robot to perform a given motion when the subject performs a given motion in the correct manner. In this case, the sensor in the support device 100 detects the motion information corresponding to the motion motion and transmits the motion information to the computer 500. Based on the motion information, the computer 500 determines that the subject has performed the correct motion motion, and instructs the robot to perform the given motion. The robot executes a given operation in response to an instruction from the computer 500.

汎用の端末が支援装置100として用いられる場合、当該端末は、当該端末内のセンサの検出方向を、図2に示されたような支援装置100としての検出方向と整合させるための設定を受け付けることができる。図16は、支援装置100として用いられる端末における加速度および角速度の検出方向の一例を示す図である。図17は、支援装置100として用いられる端末における、検出軸の設定を受け付ける画面の一例を示す図である。 When a general-purpose terminal is used as the support device 100, the terminal accepts a setting for matching the detection direction of the sensor in the terminal with the detection direction of the support device 100 as shown in FIG. Can be done. FIG. 16 is a diagram showing an example of detection directions of acceleration and angular velocity in a terminal used as a support device 100. FIG. 17 is a diagram showing an example of a screen that accepts the setting of the detection axis in the terminal used as the support device 100.

図16に示された端末では、その長手方向に沿ってY軸が定義され、短手方向に沿ってX軸が定義されている。被験者が、当該端末を、当該端末の長手方向が被験者の腕の長手方向に沿うように装着する場合、図2に示されるように、端末の長手方向に沿ってX軸が定義され、端末の短手方向に沿ってY軸が定義されるように、端末における軸の定義を変更する必要が生じる。 In the terminal shown in FIG. 16, the Y-axis is defined along the longitudinal direction thereof, and the X-axis is defined along the lateral direction. When the subject wears the terminal so that the longitudinal direction of the terminal is along the longitudinal direction of the subject's arm, the X-axis is defined along the longitudinal direction of the terminal as shown in FIG. It will be necessary to change the definition of the axis in the terminal so that the Y axis is defined along the lateral direction.

図17の例では、図16の端末(支援装置100)のタッチパネル100Aは、軸を入替えるための画面を表示する。当該画面は、X軸,Y軸のそれぞれを表わすソフトウェアキー100Bを含む。ユーザは、たとえば、所与のソフトウェアキーを操作することにより、端末における加速度および/または角速度の検出の軸の方向を、被験者の運動動作についての判断に適したものに変更することができる。 In the example of FIG. 17, the touch panel 100A of the terminal (support device 100) of FIG. 16 displays a screen for exchanging axes. The screen includes software keys 100B representing each of the X-axis and the Y-axis. The user can, for example, operate a given software key to change the direction of the axis of acceleration and / or angular velocity detection at the terminal to be suitable for determining the subject's motor movements.

[閾値の変更]
運動支援システムでは、被験者の運動動作についての判断に用いられる閾値が変更され得る。閾値記憶部430は、被験者の特性(身長、体重、性別、年齢、および/または運動能力の高さ)に対応した複数の閾値を格納していてもよい。判定部420は、ユーザから入力された被験者の特性に対応する閾値を選択し、当該閾値を利用して、図7等を参照して説明された運動動作についての判断を実行してもよい。
[Change threshold]
In the exercise support system, the thresholds used to judge the subject's motor movements can be changed. The threshold storage unit 430 may store a plurality of thresholds corresponding to the characteristics of the subject (height, weight, gender, age, and / or high athletic ability). The determination unit 420 may select a threshold value corresponding to the characteristics of the subject input by the user, and use the threshold value to perform a determination on the motor motion described with reference to FIG. 7 and the like.

[圧電センサの利用]
本開示において利用されるセンサは、被験者の運動情報を提供できるものであれば加速度センサ41またはジャイロセンサ42のような慣性センサに限定されない。図18は、圧電センサを利用して被験者の運動動作に関する情報を提供する運動支援システムを説明するための図である。図18の例では、運動支援システムは、支援装置100Xとコンピュータ500とを含む。
[Use of piezoelectric sensor]
The sensor used in the present disclosure is not limited to an inertial sensor such as an acceleration sensor 41 or a gyro sensor 42 as long as it can provide motion information of a subject. FIG. 18 is a diagram for explaining an exercise support system that uses a piezoelectric sensor to provide information on the exercise motion of a subject. In the example of FIG. 18, the exercise support system includes a support device 100X and a computer 500.

支援装置100Xは、ベルト101と、筐体102と、球体103と、取付具104と、圧電センサユニット110とを含む。取付具104は、筐体102を、当該筐体102の向きを両矢印1810によって示される回転方向について調整可能にベルト101に取り付ける。取付具104は、調整後の筐体102の向きを固定できる。 The support device 100X includes a belt 101, a housing 102, a sphere 103, a fixture 104, and a piezoelectric sensor unit 110. The fixture 104 attaches the housing 102 to the belt 101 so that the orientation of the housing 102 can be adjusted in the direction of rotation indicated by the double-headed arrow 1810. The fixture 104 can fix the orientation of the adjusted housing 102.

支援装置100Xは、ベルト101によって被験者の腕ARに装着される。被験者の運動動作が判断される場合、取付具104は、筐体102についての両矢印1800の方向が図2に示されたX軸,Y軸,Z軸の中の運動情報として求められる方向に沿うように調整される。 The support device 100X is attached to the subject's arm AR by the belt 101. When the motion motion of the subject is determined, the fixture 104 determines the direction of the double-headed arrow 1800 with respect to the housing 102 in the direction obtained as motion information in the X-axis, Y-axis, and Z-axis shown in FIG. Adjusted to fit.

球体103は、筐体102内に封じ込められており、筐体102内を両矢印1800で示された方向に沿って移動し得る。被験者の腕が両矢印1800方向に移動すると、球体103は、筐体102に加えられる両矢印1800方向の加速度の大きさに応じた速度で筐体102内を移動する。これにより、球体103は、当該加速度に応じた速度で圧電センサユニット110に衝突する。 The sphere 103 is enclosed in the housing 102 and can move in the housing 102 along the direction indicated by the double-headed arrow 1800. When the subject's arm moves in the direction of the double-headed arrow 1800, the sphere 103 moves in the housing 102 at a speed corresponding to the magnitude of the acceleration in the double-headed arrow 1800 direction applied to the housing 102. As a result, the sphere 103 collides with the piezoelectric sensor unit 110 at a speed corresponding to the acceleration.

図19は、圧電センサユニット110の構成の一例を示す図である。圧電センサユニット110は、圧電素子111と、検出回路112と、通信回路113とを含む。 FIG. 19 is a diagram showing an example of the configuration of the piezoelectric sensor unit 110. The piezoelectric sensor unit 110 includes a piezoelectric element 111, a detection circuit 112, and a communication circuit 113.

圧電素子111は、球体103が当該圧電素子111に衝突することにより、衝突した速度に応じた大きさの起電力を発生する。より具体的には、球体103が圧電素子111に衝突する速度が大きいほど、圧電素子111内ではより大きい起電力が発生する。 When the sphere 103 collides with the piezoelectric element 111, the piezoelectric element 111 generates an electromotive force having a magnitude corresponding to the collision speed. More specifically, the higher the speed at which the sphere 103 collides with the piezoelectric element 111, the larger the electromotive force is generated in the piezoelectric element 111.

検出回路112は、圧電素子111において発生した起電力を検出し、通信回路113へ出力する。通信回路113は、検出回路から出力された起電力を、コンピュータ500へ送信する。 The detection circuit 112 detects the electromotive force generated in the piezoelectric element 111 and outputs it to the communication circuit 113. The communication circuit 113 transmits the electromotive force output from the detection circuit to the computer 500.

図18の運動支援システムでは、図4の運動支援システム400のセンサ部410が圧電素子111として実現される。判定部420,閾値記憶部430,出力部440のそれぞれが、コンピュータ500のCPU510,メモリ530(または記憶媒体541),出力部560のそれぞれとして実現される。 In the exercise support system of FIG. 18, the sensor unit 410 of the exercise support system 400 of FIG. 4 is realized as the piezoelectric element 111. Each of the determination unit 420, the threshold storage unit 430, and the output unit 440 is realized as the CPU 510 of the computer 500, the memory 530 (or the storage medium 541), and the output unit 560, respectively.

閾値記憶部430(メモリ530等)は、所与の運動動作における特徴的な動作の発生を判断するための閾値として、圧電素子111において発生する起電力の大きさを記憶する。判定部420(CPU510)は、支援装置100Xから出力された起電力が閾値を超えたか否かによって、被験者の動作が上記所与の運動動作についての特徴的な動作に相当するか否かを判断する。そして、判定部420(CPU510)は、被験者の動作が上記特徴的な動作に相当すると判断すると、出力部440(出力部560)から所与の情報を出力する。 The threshold storage unit 430 (memory 530, etc.) stores the magnitude of the electromotive force generated in the piezoelectric element 111 as a threshold value for determining the occurrence of a characteristic motion in a given motion motion. The determination unit 420 (CPU 510) determines whether or not the motion of the subject corresponds to the characteristic motion for the given motion motion, depending on whether or not the electromotive force output from the support device 100X exceeds the threshold value. To do. Then, when the determination unit 420 (CPU 510) determines that the motion of the subject corresponds to the characteristic motion, the determination unit 420 (CPU 510) outputs given information from the output unit 440 (output unit 560).

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。また、実施の形態に示された2以上の実現例は、単独でも、また可能な限り組み合わせても、実施されることが意図される。 It should be considered that the embodiments disclosed this time are exemplary in all respects and not restrictive. The scope of the present invention is shown by the scope of claims rather than the above description, and it is intended to include all modifications within the meaning and scope equivalent to the scope of claims. It is also intended that the two or more implementations shown in the embodiments be implemented alone or in combination as much as possible.

20,510 CPU、24 通信装置、25 入力スイッチ、27 フラッシュメモリ、31 メモリカード、37 通信インターフェイス、38 バイブレータ、41 加速度センサ、42 ジャイロセンサ、100,100X 支援装置、100A タッチパネル、101 ベルト、102 筐体、103 球体、104 取付具、110 圧電センサユニット、111 圧電素子、112 検出回路、113 通信回路、400 運動支援システム、410 センサ部、420 判定部、430 閾値記憶部、440,560 出力部、500 コンピュータ、520 入力部、541 記憶媒体、900 被験者。 20,510 CPU, 24 communication devices, 25 input switches, 27 flash memory, 31 memory cards, 37 communication interfaces, 38 vibrators, 41 acceleration sensors, 42 gyro sensors, 100, 100X support devices, 100A touch panels, 101 belts, 102 housings. Body, 103 sphere, 104 fixture, 110 piezoelectric sensor unit, 111 piezoelectric element, 112 detection circuit, 113 communication circuit, 400 motion support system, 410 sensor unit, 420 judgment unit, 430 threshold storage unit, 440,560 output unit, 500 computers, 520 inputs, 541 storage media, 900 subjects.

Claims (3)

被験者の跳ぶ動作の習得のための情報を出力する運動支援システムであって、
情報を出力する出力部と、
前記被験者に取り付けられたセンサによって検出された検出値を基に、下肢を屈曲させた状態で肩関節を屈曲位置から伸展位置へと移行させ、さらに、重心を低くする動作を表わす情報である運動情報を検出する運動情報取得部と、
前記運動情報取得部によって取得された前記運動情報が、前記跳ぶ動作について設定された条件を満たす場合に、前記出力部から情報を出力する制御部とを備え、
前記運動情報取得部は、前記被験者の腕の長手方向に沿った軸(X軸)に沿った角速度をGx、手首の幅方向に沿った軸(Y軸)に沿った角速度をGy、手のひらを貫く軸(Z軸)周りの角速度をGzとした場合に、前記角速度Gyが所定の値を超えたときに前記運動情報を検出する、運動支援システム。
It is an exercise support system that outputs information for learning the jumping motion of the subject.
An output unit that outputs information and
Based on the detection value detected by the sensor attached to the subject, the movement is information indicating the motion of shifting the shoulder joint from the flexion position to the extension position with the lower limbs flexed and further lowering the center of gravity. The exercise information acquisition unit that detects information and
When the motion information acquired by the motion information acquisition unit satisfies the condition set for the jumping motion, the control unit that outputs information from the output unit is provided.
The motion information acquisition unit sets the angular velocity along the axis (X-axis) along the longitudinal direction of the subject's arm as Gx, the angular velocity along the axis along the width direction of the wrist (Y-axis) as Gy, and the palm. An exercise support system that detects the motion information when the angular velocity Gy exceeds a predetermined value when the angular velocity around the penetrating axis (Z axis) is Gz.
被験者の跳ぶ動作の習得のための情報を出力する運動支援システムであって、
情報を出力する出力部と、
前記被験者に取り付けられたセンサによって検出された検出値を基に、下肢を屈曲させた状態で肩関節を屈曲位置から伸展位置へと移行させ、さらに、重心を低くする動作を表わす情報である運動情報を検出する運動情報取得部と、
前記運動情報取得部によって取得された前記運動情報が、前記跳ぶ動作について設定された条件を満たす場合に、前記出力部から情報を出力する制御部とを備え、
前記運動情報取得部は、前記被験者の腕の長手方向に沿った軸(X軸)に沿った角速度をGx、手首の幅方向に沿った軸(Y軸)に沿った角速度をGy、手のひらを貫く軸(Z軸)周りの角速度をGzとした場合に、前記角速度Gzが所定の値を超えたときに前記運動情報を検出する、運動支援システム。
It is an exercise support system that outputs information for learning the jumping motion of the subject.
An output unit that outputs information and
Based on the detection value detected by the sensor attached to the subject, the movement is information indicating the motion of shifting the shoulder joint from the flexion position to the extension position with the lower limbs flexed and further lowering the center of gravity. The exercise information acquisition unit that detects information and
When the motion information acquired by the motion information acquisition unit satisfies the condition set for the jumping motion, the control unit that outputs information from the output unit is provided.
The motion information acquisition unit sets the angular velocity along the axis (X-axis) along the longitudinal direction of the subject's arm as Gx, the angular velocity along the axis along the width direction of the wrist (Y-axis) as Gy, and the palm. An exercise support system that detects the motion information when the angular velocity Gz exceeds a predetermined value, where the angular velocity around the penetrating axis (Z axis) is Gz.
コンピュータに実行されるプログラムであって、
前記プログラムは、前記コンピュータを、請求項1〜請求項のいずれか1項に記載の運動支援システムの前記出力部、前記運動情報取得部、および、前記制御部として機能させる、プログラム。
A program that runs on a computer
The program causes the computer to function as the output unit, the exercise information acquisition unit, and the control unit of the exercise support system according to any one of claims 1 to 2 .
JP2018107675A 2018-06-05 2018-06-05 Exercise support system and program Expired - Fee Related JP6781200B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018107675A JP6781200B2 (en) 2018-06-05 2018-06-05 Exercise support system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018107675A JP6781200B2 (en) 2018-06-05 2018-06-05 Exercise support system and program

Publications (2)

Publication Number Publication Date
JP2019208880A JP2019208880A (en) 2019-12-12
JP6781200B2 true JP6781200B2 (en) 2020-11-04

Family

ID=68844075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018107675A Expired - Fee Related JP6781200B2 (en) 2018-06-05 2018-06-05 Exercise support system and program

Country Status (1)

Country Link
JP (1) JP6781200B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10328341A (en) * 1997-05-30 1998-12-15 Casio Comput Co Ltd Device and method for movement data estimation, storage medium which stores movement data estimation processing program
US9452341B2 (en) * 2012-02-29 2016-09-27 Mizuno Corporation Running form diagnosis system and method for scoring running form
US9504414B2 (en) * 2012-04-13 2016-11-29 Adidas Ag Wearable athletic activity monitoring methods and systems
JP5896234B2 (en) * 2012-08-29 2016-03-30 カシオ計算機株式会社 Exercise state notification system, exercise state notification method, and exercise state notification program
JP5888309B2 (en) * 2013-10-31 2016-03-22 カシオ計算機株式会社 Training support apparatus and system, form analysis apparatus and method, and program
KR102410180B1 (en) * 2013-12-02 2022-06-23 나이키 이노베이트 씨.브이. Flight time
JP2018077606A (en) * 2016-11-08 2018-05-17 セイコーエプソン株式会社 Portable electronic device, display method, display system, program, and storage medium

Also Published As

Publication number Publication date
JP2019208880A (en) 2019-12-12

Similar Documents

Publication Publication Date Title
US11511154B1 (en) Athletic performance and technique monitoring
CN105748265B (en) Navigation device and method
JP5896240B2 (en) Exercise support device, exercise support method, and exercise support program
US9113841B2 (en) Biological information notifying apparatus, biological information notifying method, and computer-readable storage medium having biological information notifying program stored thereon
KR20100112764A (en) Apparatus and method for motion correcting and management system for motion correcting apparatus
JPWO2004091400A1 (en) Acceleration sensor axis information correction apparatus and acceleration sensor axis information correction method
JP2015058096A (en) Exercise support device, exercise support method, and exercise support program
JP6241488B2 (en) Exercise support device, exercise support method, and exercise support program
US10471331B2 (en) Pacing system with feedback based adjustments
JP6365031B2 (en) Activity amount measuring device, activity amount measuring method, activity amount measuring program
WO2010072883A9 (en) Overall motion determination
JP2011224122A (en) Behavior recognition device
JP5014023B2 (en) Pedometer
JP2012160150A (en) Electronic apparatus, pedometer, and program
JPWO2017179423A1 (en) Motion measurement device, information processing device, and motion measurement method
JP6781200B2 (en) Exercise support system and program
JP6432665B2 (en) Exercise device, arm lowering angle detection method and program
JP5095493B2 (en) Status determination device, status determination method, program, and recording medium
JP2018054617A (en) Sampling frequency control device, sampling frequency control method, and program
JP6642770B1 (en) Motor function evaluation device, motor function evaluation system, motor function evaluation program, and motor function evaluation method
WO2017006624A1 (en) Activity notification system, exercise information measurement device, electronic equipment, activity notification method, and activity notification program
Sie et al. The design of a smartphone-based fall detection system
JP2021157231A (en) Electronic device, measurement system, operation instruction method and program
JP2011227918A (en) Electronic pedometer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201015

R150 Certificate of patent or registration of utility model

Ref document number: 6781200

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees