JP6689889B2 - Information processing method, information processing apparatus, and program - Google Patents

Information processing method, information processing apparatus, and program Download PDF

Info

Publication number
JP6689889B2
JP6689889B2 JP2017563464A JP2017563464A JP6689889B2 JP 6689889 B2 JP6689889 B2 JP 6689889B2 JP 2017563464 A JP2017563464 A JP 2017563464A JP 2017563464 A JP2017563464 A JP 2017563464A JP 6689889 B2 JP6689889 B2 JP 6689889B2
Authority
JP
Japan
Prior art keywords
training
predetermined
posture
unit
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017563464A
Other languages
Japanese (ja)
Other versions
JPWO2017130339A1 (en
Inventor
晋 中村
晋 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jins Holdings Inc
Original Assignee
Jins Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jins Holdings Inc filed Critical Jins Holdings Inc
Publication of JPWO2017130339A1 publication Critical patent/JPWO2017130339A1/en
Application granted granted Critical
Publication of JP6689889B2 publication Critical patent/JP6689889B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports

Landscapes

  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Rehabilitation Tools (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理方法、情報処理装置及びプログラムに関する。   The present invention relates to an information processing method, an information processing device, and a program.

従来、体幹部に装着した加速度センサからの加速度情報を用いて、運動内容を判別し、各運動内容の運動量を算出する技術が知られている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, a technique is known in which the content of exercise is determined and the amount of exercise of each exercise is calculated using acceleration information from an acceleration sensor attached to the trunk (for example, see Patent Document 1).

特開2006−271893号公報JP 2006-271893 A

しかしながら、従来技術では、基本的に運動量を算出するものであるため、体幹に関するトレーニングのような所定姿勢を所定時間維持するトレーニングに対して適用することは想定されていない。また、体幹に関するトレーニングについては、姿勢の安定性を評価することが好ましいが、従来技術では、体幹に関するトレーニングにおける姿勢の安定性を評価するようなものは存在しない。   However, since the conventional technique basically calculates the amount of exercise, it is not assumed to be applied to training for maintaining a predetermined posture for a predetermined time, such as training on the trunk. Further, it is preferable to evaluate posture stability in training regarding the trunk, but there is no conventional technique that evaluates posture stability in training regarding the trunk.

そこで、開示の技術は、所定姿勢を所定時間維持するトレーニングにおけるユーザの姿勢について、適切な評価を行うことができることを目的とする。   Therefore, the disclosed technique has an object to appropriately evaluate the posture of a user in training for maintaining a predetermined posture for a predetermined time.

開示の技術の一態様における情報処理方法は、制御部及び記憶部を有するコンピュータが実行する情報処理方法であって、前記制御部は、体幹に関する所定のトレーニングを示す情報を受け付けること、前記記憶部に記憶された閾値情報であって、体幹に関するトレーニングごとに閾値が関連付けられた前記閾値情報に基づき、前記所定のトレーニングに対する閾値を特定すること、評価対象のユーザに装着されたセンサから検出される信号値を取得すること、前記信号値と前記閾値との比較結果に基づいて、前記所定のトレーニング時の前記ユーザの姿勢を評価すること、を実行する。   An information processing method according to an aspect of the disclosed technique is an information processing method executed by a computer having a control unit and a storage unit, wherein the control unit receives information indicating a predetermined training regarding a core, the storage The threshold information stored in the unit, based on the threshold information associated with the threshold for each training on the core, to identify the threshold for the predetermined training, detected from the sensor worn by the user to be evaluated Acquiring a signal value to be performed, and evaluating a posture of the user at the time of the predetermined training based on a result of comparison between the signal value and the threshold value.

開示の技術によれば、所定姿勢を所定時間維持するトレーニングにおけるユーザの姿勢について、適切な評価を行うことができる。   According to the disclosed technology, it is possible to appropriately evaluate the posture of a user in training for maintaining a predetermined posture for a predetermined time.

実施例における情報処理システムの一例を示す図である。It is a figure which shows an example of the information processing system in an Example. 実施例における情報処理装置のハードウェア構成を示す概略構成図である。It is a schematic block diagram which shows the hardware constitutions of the information processing apparatus in an Example. 実施例における処理装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the processing apparatus in an Example. 実施例における情報処理装置の構成の一例を示すブロック図である。It is a block diagram showing an example of composition of an information processor in an example. 実施例における取得部の機能の一例を示すブロック図である。It is a block diagram which shows an example of the function of the acquisition part in an Example. 実施例における評価部の機能の一例を示すブロック図である。It is a block diagram which shows an example of the function of the evaluation part in an Example. 実施例における生成部の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the production | generation part in an Example. 閾値情報の一例を示す図である。It is a figure which shows an example of threshold value information. トレーニング情報の一例を示す図である。It is a figure which shows an example of training information. 目的情報の一例を示す図である。It is a figure which shows an example of purpose information. ユーザの姿勢に対する評価結果情報の一例を示す図である。It is a figure which shows an example of the evaluation result information with respect to a user's posture. 所定の信号における閾値比較の具体例を示す図である。It is a figure which shows the specific example of the threshold value comparison in a predetermined signal. 設定画面の一例を示す図である。It is a figure which shows an example of a setting screen. 目的選択画面の一例を示す図である。It is a figure which shows an example of a purpose selection screen. トレーニングメニュー表示画面の一例を示す図である。It is a figure which shows an example of a training menu display screen. トレーニングのガイダンス画面の一例を示す図である。It is a figure which shows an example of the guidance screen of training. スコア表示画面の一例を示す図である。It is a figure which shows an example of a score display screen. トレーニング結果画面の一例を示す図である。It is a figure which shows an example of a training result screen. アプリ選択画面の一例を示す図である。It is a figure which shows an example of an application selection screen. 他のアプリケーションから所定の部位が通知された画面の一例を示す図である。It is a figure which shows an example of the screen in which the predetermined part was notified from the other application. トレーニングメニュー表示画面の一例を示す図である。It is a figure which shows an example of a training menu display screen. 実施例における体幹トレーニングを実行するアプリケーションの全体処理の一例を示すフローチャートである。It is a flow chart which shows an example of the whole processing of the application which performs core training in an example. 目的に応じたメニューの生成処理の一例を示すフローチャートである。9 is a flowchart illustrating an example of a menu generation process according to a purpose. 所定の部位に応じたメニューの生成処理の一例を示すフローチャートである。8 is a flowchart showing an example of a menu generation process according to a predetermined part. トレーニング処理の一例を示すフローチャートである。It is a flow chart which shows an example of training processing.

以下、図面を参照して本発明の実施の形態を説明する。ただし、以下に説明する実施形態は、あくまでも例示であり、以下に明示しない種々の変形や技術の適用を排除する意図はない。即ち、本発明は、その趣旨を逸脱しない範囲で種々変形して実施することができる。また、以下の図面の記載において、同一または類似の部分には同一または類似の符号を付して表している。図面は模式的なものであり、必ずしも実際の寸法や比率等とは一致しない。図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることがある。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the embodiments described below are merely examples, and are not intended to exclude various modifications and application of techniques not explicitly shown below. That is, the present invention can be implemented with various modifications without departing from the spirit of the present invention. Further, in the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals. The drawings are schematic and do not necessarily match actual dimensions and ratios. The drawings may include portions having different dimensional relationships and ratios.

[実施例]
実施例では、加速度センサ及び角速度センサを搭載する対象として、アイウエアを例に挙げる。図1は、実施例における情報処理システム1の一例を示す図である。図1に示す情報処理システム1は、外部装置10とアイウエア30とを含み、外部装置10とアイウエア30は、ネットワークを介して接続され、データ通信可能になっている。
[Example]
In the embodiment, eyewear is given as an example of a target on which the acceleration sensor and the angular velocity sensor are mounted. FIG. 1 is a diagram illustrating an example of the information processing system 1 according to the embodiment. The information processing system 1 shown in FIG. 1 includes an external device 10 and eyewear 30, and the external device 10 and the eyewear 30 are connected via a network so that data communication is possible.

アイウエア30は、例えばテンプル部分に処理装置20を搭載する。処理装置20は、3軸加速度センサ及び3軸角速度センサ(6軸センサでもよい)を含む。また、アイウエア30は、一対のノーズパッド及びブリッジ部分にそれぞれ生体電極31、33、35を有してもよい。アイウエア30に生体電極が設けられる場合、これらの生体電極から取得される眼電位信号は、処理装置20に送信される。   The eyewear 30 has the processing device 20 mounted on a temple portion, for example. The processing device 20 includes a three-axis acceleration sensor and a three-axis angular velocity sensor (may be a six-axis sensor). Further, the eyewear 30 may have the bioelectrodes 31, 33, and 35 on the pair of nose pads and the bridge portion, respectively. When the eyewear 30 is provided with bioelectrodes, the electro-oculography signals acquired from these bioelectrodes are transmitted to the processing device 20.

処理装置20の設置位置は、必ずしもテンプルである必要はないが、アイウエア30が装着された際のバランスを考慮して位置決めされればよい。   The installation position of the processing device 20 does not necessarily have to be the temple, but may be positioned in consideration of the balance when the eyewear 30 is attached.

外部装置10は、通信機能を有する情報処理装置である。例えば、外部装置10は、ユーザが所持する携帯電話及びスマートフォン等の携帯通信端末やPC(Personal Computer)、タブレット型端末等である。外部装置10は、処理装置20から受信したセンサ信号等に基づいて、体幹に関するトレーニング(以下、体幹トレーニングとも称する。)時の姿勢を評価する。以下、外部装置10は、情報処理装置10と称して説明する。   The external device 10 is an information processing device having a communication function. For example, the external device 10 is a mobile communication terminal such as a mobile phone and a smartphone owned by a user, a PC (Personal Computer), a tablet type terminal, or the like. The external device 10 evaluates the posture at the time of training on the core (hereinafter, also referred to as core training) based on the sensor signal received from the processing device 20. Hereinafter, the external device 10 will be described as an information processing device 10.

<情報処理装置10のハードウェア構成>
図2は、実施例における情報処理装置10のハードウェア構成を示す概略構成図である。情報処理装置10の典型的な一例は、スマートフォンなどの携帯電話機であるが、この他、ネットワークに無線又は有線接続可能な携帯端末、あるいはタブレット型端末のようなタッチパネルを搭載した電子機器など、ネットワークを使って通信しながらデータ処理しつつ画面表示可能な汎用機器なども実施形態における情報処理装置10に該当しうる。
<Hardware Configuration of Information Processing Device 10>
FIG. 2 is a schematic configuration diagram illustrating a hardware configuration of the information processing device 10 according to the embodiment. A typical example of the information processing apparatus 10 is a mobile phone such as a smartphone, but in addition to this, a mobile terminal capable of wireless or wired connection to the network, or an electronic device equipped with a touch panel such as a tablet terminal, a network. A general-purpose device or the like that can display a screen while performing data processing while communicating using the device may correspond to the information processing device 10 in the embodiment.

実施形態における情報処理装置10は、例えば、図示しない矩形の薄形筐体を備え、その筐体の一方の面には、タッチパネル102が構成される。情報処理装置10では、各構成要素が主制御部150に接続されている。主制御部150は、例えばプロセッサである。   The information processing apparatus 10 according to the embodiment includes, for example, a rectangular thin casing (not shown), and the touch panel 102 is configured on one surface of the casing. In the information processing device 10, each component is connected to the main control unit 150. The main controller 150 is, for example, a processor.

主制御部150には、移動体通信用アンテナ112、移動体通信部114、無線LAN通信用アンテナ116、無線LAN通信部118、記憶部120、スピーカ104、マイクロフォン106、ハードボタン108、ハードキー110及び6軸センサ111が接続されている。また、主制御部150には、さらに、タッチパネル102、カメラ130、及び外部インターフェース140が接続されている。外部インターフェース140は、音声出力端子142を含む。   The main control unit 150 includes a mobile communication antenna 112, a mobile communication unit 114, a wireless LAN communication antenna 116, a wireless LAN communication unit 118, a storage unit 120, a speaker 104, a microphone 106, hard buttons 108, and hard keys 110. And the 6-axis sensor 111 is connected. Further, the touch panel 102, the camera 130, and the external interface 140 are further connected to the main control unit 150. The external interface 140 includes an audio output terminal 142.

タッチパネル102は、表示装置及び入力装置の両方の機能を備え、表示機能を担うディスプレイ(表示画面)102Aと、入力機能を担うタッチセンサ102Bとで構成される。ディスプレイ102Aは、例えば、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイなどの一般的な表示デバイスにより構成される。タッチセンサ102Bは、ディスプレイ102Aの上面に配置された接触操作を検知するための素子及びその上に積層された透明な操作面を備えて構成される。タッチセンサ102Bの接触検知方式としては、静電容量式、抵抗膜式(感圧式)、電磁誘導式など既知の方式のうちの任意の方式を採用することができる。   The touch panel 102 has both functions of a display device and an input device, and is configured by a display (display screen) 102A having a display function and a touch sensor 102B having an input function. The display 102A is configured by a general display device such as a liquid crystal display or an organic EL (Electro Luminescence) display. The touch sensor 102B includes an element for detecting a touch operation, which is arranged on the upper surface of the display 102A, and a transparent operation surface laminated on the element. As a contact detection method of the touch sensor 102B, an arbitrary method among known methods such as an electrostatic capacitance type, a resistance film type (pressure sensitive type), and an electromagnetic induction type can be adopted.

表示装置としてのタッチパネル102は、主制御部150によるプログラム122の実行により生成されるアプリケーション(以下、アプリとも称する。)の画像を表示する。入力装置としてのタッチパネル102は、操作面に対して接触する接触物(プレイヤの指やスタイラスなどを含む。以下、「指」である場合を代表例として説明する。)の動作を検知することで、操作入力を受け付け、その接触位置の情報を主制御部150に与える。指の動作は、接触点の位置または領域を示す座標情報として検知され、座標情報は、例えば、タッチパネル102の短辺方向及び長辺方向の二軸上の座標値として表される。   The touch panel 102 as a display device displays an image of an application (hereinafter, also referred to as an application) generated by the execution of the program 122 by the main control unit 150. The touch panel 102 as an input device detects a motion of a contact object (including a player's finger, stylus, etc., which will be described below as a representative example) that comes into contact with the operation surface. , Receives the operation input, and gives the information of the contact position to the main control unit 150. The movement of the finger is detected as coordinate information indicating the position or area of the contact point, and the coordinate information is represented as, for example, coordinate values on the two axes of the touch panel 102 in the short side direction and the long side direction.

情報処理装置10は、移動体通信用アンテナ112や無線LAN通信用アンテナ116を通じてネットワークNに接続され、処理装置20との間でデータ通信をすることが可能である。なお、記憶部120は、プログラム122を記録し、また、記憶部120は、外部装置10と別体であってもよく、例えば、SDカードやCD−RAM等の記録媒体であってもよい。   The information processing device 10 is connected to the network N through the mobile communication antenna 112 and the wireless LAN communication antenna 116, and can perform data communication with the processing device 20. The storage unit 120 records the program 122, and the storage unit 120 may be a separate body from the external device 10, and may be, for example, a recording medium such as an SD card or a CD-RAM.

<処理装置20の構成>
図3は、実施例における処理装置20の構成の一例を示すブロック図である。図3に示すように、処理装置20は、処理部202、送信部204、6軸センサ206、及び電源部208を有する。また、各生体電極31、33、35は、例えば増幅部を介して電線を用いて処理部202に接続される。なお、処理装置20の各部は、一方のテンプルに設けられるのではなく、一対のテンプルに分散して設けられてもよい。
<Structure of processing device 20>
FIG. 3 is a block diagram illustrating an example of the configuration of the processing device 20 according to the embodiment. As illustrated in FIG. 3, the processing device 20 includes a processing unit 202, a transmission unit 204, a 6-axis sensor 206, and a power supply unit 208. In addition, each of the biological electrodes 31, 33, and 35 is connected to the processing unit 202 using an electric wire, for example, via an amplification unit. Each part of the processing device 20 may be provided in a pair of temples instead of being provided in one temple.

6軸センサ206は、3軸加速度センサ及び3軸角速度センサである。また、これらの各センサは別個に設けられてもよい。6軸センサ206は、検出したセンサ信号を処理部202に出力する。   The 6-axis sensor 206 is a 3-axis acceleration sensor and a 3-axis angular velocity sensor. Also, each of these sensors may be provided separately. The 6-axis sensor 206 outputs the detected sensor signal to the processing unit 202.

処理部202は、例えばプロセッサであり、6軸センサ206から得られるセンサ信号を必要に応じて処理し、送信部204に出力する。例えば、処理部202は、6軸センサ206からのセンサ信号を用いて、以下の6つの信号を生成し、各信号の信号値を取得する。
・第1信号:X軸方向における加速度を示す信号
・第2信号:Y軸方向における加速度を示す信号
・第3信号:Z軸方向における加速度を示す信号
・第4信号:ピッチ(Pitch)角を示す信号
・第5信号:ロール(Roll)角を示す信号
・第6信号:ヨー(Yaw)角を示す信号
The processing unit 202 is, for example, a processor, processes the sensor signal obtained from the 6-axis sensor 206 as necessary, and outputs the sensor signal to the transmission unit 204. For example, the processing unit 202 uses the sensor signals from the 6-axis sensor 206 to generate the following six signals, and acquires the signal value of each signal.
First signal: signal indicating acceleration in the X-axis direction Second signal: signal indicating acceleration in the Y-axis direction Third signal: signal indicating acceleration in the Z-axis direction Fourth signal: pitch angle Signal indicating: -Fifth signal: Signal indicating roll angle-Sixth signal: Signal indicating yaw angle

例えば、第1信号は、頭の前後方向における加速度を示す信号であり、第2信号は、頭の横方向における加速度を示す信号であり、第3信号は、頭の鉛直方向における加速度を示す信号である。また、第4信号(ピッチ角)は、例えば頭の上下の傾きを示し、第5信号(ロール角)は、例えば頭の進行軸周りの運動を示し、第6信号(ヨー角)は、頭の左右の傾きを示す。第4〜6信号については、公知の技術を用いて算出されればよい。また、処理部202は、6軸センサ206から得られるセンサ信号を増幅等するだけでもよい。   For example, the first signal is a signal indicating acceleration in the longitudinal direction of the head, the second signal is a signal indicating acceleration in the lateral direction of the head, and the third signal is a signal indicating acceleration in the vertical direction of the head. Is. Further, the fourth signal (pitch angle) indicates, for example, the inclination of the head up and down, the fifth signal (roll angle) indicates, for example, the movement of the head around the traveling axis, and the sixth signal (yaw angle) indicates the head. Shows the left and right inclination of. The fourth to sixth signals may be calculated using a known technique. Further, the processing unit 202 may only amplify the sensor signal obtained from the 6-axis sensor 206.

送信部204は、処理部202によって処理された第1信号から第6信号の各信号値を情報処理装置10に送信する。例えば、送信部204は、Bluetooth(登録商標)及び無線LAN等の無線通信、又は有線通信によってセンサ信号又は各データを情報処理装置10に送信する。電源部208は、処理部202、送信部204、6軸センサ206等に電力を供給する。   The transmission unit 204 transmits each signal value of the first signal to the sixth signal processed by the processing unit 202 to the information processing device 10. For example, the transmission unit 204 transmits the sensor signal or each data to the information processing device 10 by wireless communication such as Bluetooth (registered trademark) and wireless LAN, or wired communication. The power supply unit 208 supplies power to the processing unit 202, the transmission unit 204, the 6-axis sensor 206, and the like.

<情報処理装置10の構成>
次に、情報処理装置10の構成について説明する。図4は、実施例における情報処理装置10の構成の一例を示す図である。情報処理装置10は、記憶部302、通信部304、及び制御部306を有する。
<Configuration of information processing device 10>
Next, the configuration of the information processing device 10 will be described. FIG. 4 is a diagram illustrating an example of the configuration of the information processing device 10 according to the embodiment. The information processing device 10 includes a storage unit 302, a communication unit 304, and a control unit 306.

記憶部302は、例えば、図2に示す記憶部120等により実現されうる。記憶部302は、実施例における体幹トレーニングのアプリケーションに関するデータ、例えば、処理装置20から受信したデータや、トレーニングに関するトレーニング情報や、トレーニング中のユーザの姿勢判定に用いる閾値情報や、トレーニングの目的に関する目的情報や、ユーザの姿勢判定の結果情報や、画面に表示される画面情報等を記憶する。   The storage unit 302 can be realized by, for example, the storage unit 120 shown in FIG. The storage unit 302 relates to data related to a core training application in the embodiment, for example, data received from the processing device 20, training information related to training, threshold information used for posture determination of a user during training, and purpose of training. The target information, the result information of the posture determination of the user, the screen information displayed on the screen, and the like are stored.

通信部304は、例えば移動体通信部114や無線LAN通信部118等により実現されうる。通信部304は、例えば処理装置20からデータを受信する。また、通信部304は、情報処理装置10において処理されたデータをサーバ(不図示)に送信したりしてもよい。すなわち、通信部304は、送信部と受信部としての機能を有する。   The communication unit 304 can be realized by, for example, the mobile communication unit 114, the wireless LAN communication unit 118, or the like. The communication unit 304 receives data from the processing device 20, for example. The communication unit 304 may also transmit the data processed by the information processing device 10 to a server (not shown). That is, the communication unit 304 has a function as a transmission unit and a reception unit.

制御部306は、例えば主制御部150等により実現されうる。制御部306は、体幹トレーニングのアプリケーションを実行する。実施例における体幹トレーニングのアプリケーションは、体幹トレーニングのガイダンスを行い、トレーニング中のユーザの姿勢を評価したり、トレーニングメニューを自動生成したりする機能を有する。この機能を実現するため、制御部306は、受付部312、特定部314、取得部316、評価部318、生成部320、及び表示制御部322を有する。以下、制御部306の機能を、姿勢判定機能と、メニュー生成機能とに分けて説明する。   The control unit 306 can be realized by, for example, the main control unit 150 or the like. The control unit 306 executes a core training application. The core training application in the embodiment has a function of performing core training guidance, evaluating the posture of the user during training, and automatically generating a training menu. To realize this function, the control unit 306 includes a reception unit 312, a specification unit 314, an acquisition unit 316, an evaluation unit 318, a generation unit 320, and a display control unit 322. Hereinafter, the function of the control unit 306 will be described separately for the posture determination function and the menu generation function.

≪姿勢判定機能≫
受付部312は、ユーザ操作に基づき、体幹に関する所定のトレーニングを示す情報(以下、トレーニングIDとも称す。)を受け付ける。例えば、受付部312は、表示画面に表示された複数のトレーニングに対するユーザの押下が検知された場合に、その押下に対応するトレーニングIDを受け付ける。また、受付部312は、内部又は外部機器の他のアプリケーションから、トレーニングIDを受け付けてもよい。
≪Posture judgment function≫
The reception unit 312 receives information (hereinafter, also referred to as a training ID) indicating a predetermined training regarding the trunk based on the user operation. For example, when the user's pressing of a plurality of trainings displayed on the display screen is detected, the receiving unit 312 receives the training ID corresponding to the pressing. Further, the reception unit 312 may receive the training ID from another application of the internal or external device.

特定部314は、記憶部302に記憶された閾値情報であって、体幹に関するトレーニングごとに閾値が関連付けられた閾値情報に基づき、受付部312により受け付けられた所定のトレーニングに対する閾値を特定する。例えば、特定部314は、受付部312により受け付けられたトレーニングIDが示す所定のトレーニングに対する閾値を、閾値情報を参照して特定する。特定される閾値の数は、特に問わず、トレーニングの内容に応じた1又は複数の閾値が設定されていればよい。閾値情報は、トレーニングごとに、用いられる信号の閾値が関連付けられている。なお、閾値情報は、図8を用いて後述する。   The identifying unit 314 identifies the threshold value for the predetermined training accepted by the accepting unit 312 based on the threshold value information stored in the storage unit 302 and associated with the threshold value for each training regarding the trunk. For example, the identifying unit 314 identifies the threshold for the predetermined training indicated by the training ID received by the receiving unit 312, with reference to the threshold information. The number of specified thresholds is not particularly limited as long as one or more thresholds are set according to the content of the training. The threshold value information is associated with a threshold value of a signal used for each training. The threshold information will be described later with reference to FIG.

取得部316は、評価対象であり、トレーニングIDが示す所定のトレーニングを行うユーザに装着されたセンサから検出される信号値を取得する。例えば、取得部316は、ユーザに装着されたセンサ(例えば6軸センサ206)から、姿勢判定に用いる信号の信号値をネットワークを介して直接的に取得したり、又は一旦記憶部302に記憶された信号値を間接的に取得したりする。   The acquisition unit 316 is an evaluation target, and acquires a signal value detected from a sensor attached to a user who performs a predetermined training indicated by the training ID. For example, the acquisition unit 316 directly acquires a signal value of a signal used for posture determination from a sensor worn by the user (for example, the 6-axis sensor 206) via a network, or is temporarily stored in the storage unit 302. Indirectly obtain the signal value that was saved.

評価部318は、取得部316により取得された信号値と、特定部314により特定された閾値との比較結果に基づいて、所定のトレーニング時のユーザの姿勢を評価する。例えば、評価部318は、信号値の絶対値が閾値未満であるか否かに基づいて、姿勢の安定性を評価する。より具体的には、評価部318は、信号値が、閾値が示す所定範囲内に入っていれば、姿勢が安定していると判定し、信号値が所定範囲に入っていなければ、姿勢が安定していないと判定する。これにより、評価部318は、姿勢の安定性を評価することができる。   The evaluation unit 318 evaluates the posture of the user at the time of predetermined training based on the comparison result of the signal value acquired by the acquisition unit 316 and the threshold value specified by the specification unit 314. For example, the evaluation unit 318 evaluates the stability of the posture based on whether the absolute value of the signal value is less than the threshold value. More specifically, the evaluation unit 318 determines that the posture is stable if the signal value is within the predetermined range indicated by the threshold, and the posture is stable if the signal value is not within the predetermined range. Judge that it is not stable. Thereby, the evaluation unit 318 can evaluate the stability of the posture.

表示制御部322は、評価部318の評価結果を表示画面に表示するよう制御する。これにより、体幹トレーニング中のユーザの姿勢に対する評価を、ユーザにフィードバックすることができる。   The display control unit 322 controls to display the evaluation result of the evaluation unit 318 on the display screen. Thereby, the evaluation of the posture of the user during the core training can be fed back to the user.

また、特定部314は、姿勢判定に対し、トレーニングごとに、比較対象の1又は複数の信号及びこの信号の閾値が関連付けられた閾値情報を用いてもよい。例えば、特定部314は、この閾値情報に基づき、受付部312により受け付けられた所定のトレーニングに対する比較対象の信号及び閾値をそれぞれ特定する。   Further, the identifying unit 314 may use threshold information in which one or a plurality of signals to be compared and threshold values of the signals are associated with each other for the training for the posture determination. For example, the identifying unit 314 identifies the signal to be compared and the threshold for the predetermined training received by the receiving unit 312 based on the threshold information.

この場合、取得部316は、ユーザに装着されたセンサから、特定部314により特定された比較対象の信号の信号値を取得する。例えば、取得部316は、センサから全信号(第1〜第6信号)を取得し、その中から特定された信号だけを取得するようにしてもよい。また、取得部316は、特定された信号をセンサに通知し、特定された信号だけをセンサから取得するようにしてもよい。これにより、様々なトレーニングが行われる場合に、各トレーニングに合った信号を用いて、姿勢判定をすることができる。さらに、そのトレーニングに関係が無い信号を用いた処理が行われないため、省電力化に寄与することができる。   In this case, the acquisition unit 316 acquires the signal value of the comparison target signal identified by the identification unit 314 from the sensor worn by the user. For example, the acquisition unit 316 may acquire all signals (first to sixth signals) from the sensor and acquire only the specified signal from the signals. Further, the acquisition unit 316 may notify the sensor of the specified signal and acquire only the specified signal from the sensor. Accordingly, when various types of training are performed, the posture determination can be performed using a signal suitable for each training. Further, since processing using a signal that is not related to the training is not performed, it is possible to contribute to power saving.

また、特定部314は、姿勢判定に対し、トレーニングごとに、センサからの信号に関するピーク閾値がさらに関連付けられた閾値情報を用いてもよい。例えば、特定部314は、この閾値情報に基づき、所定のトレーニングに対する比較対象の信号のピーク閾値をさらに特定する。   Further, the identifying unit 314 may use threshold information in which the peak threshold related to the signal from the sensor is further associated with each training for the posture determination. For example, the specifying unit 314 further specifies the peak threshold value of the signal to be compared with respect to the predetermined training, based on the threshold value information.

この場合、取得部316は、比較対象の信号のピーク間の差値を算出することを含む。図5は、取得部316の機能の一例を示すブロック図である。図5に示す取得部316は、差値算出部3162を含む。差値算出部3162は、所定時間毎に繰り返される姿勢の信号のピーク間の差値を算出する。例えば、同じ姿勢を所定時間維持する運動が、複数回繰り返される場合、差値算出部3162は、この所定時間内のピーク値を求め、このピーク値と次の所定時間内のピーク値との差値を次々に算出する。   In this case, the acquisition unit 316 includes calculating the difference value between the peaks of the signals to be compared. FIG. 5 is a block diagram showing an example of the function of the acquisition unit 316. The acquisition unit 316 illustrated in FIG. 5 includes a difference value calculation unit 3162. The difference value calculation unit 3162 calculates the difference value between the peaks of the posture signals that are repeated at every predetermined time. For example, when the exercise for maintaining the same posture for a predetermined time is repeated a plurality of times, the difference value calculation unit 3162 obtains a peak value within this predetermined time, and the difference between this peak value and the peak value within the next predetermined time. The value is calculated one after another.

次に、評価部318の各機能について説明する。図6は、評価部318の機能の一例を示すブロック図である。図6に示す評価部318は、第1判定部3181、第1評価部3183、第2評価部3185、スコア算出部3187、及び第2判定部3189を含む。   Next, each function of the evaluation unit 318 will be described. FIG. 6 is a block diagram showing an example of the function of the evaluation unit 318. The evaluation unit 318 illustrated in FIG. 6 includes a first determination unit 3181, a first evaluation unit 3183, a second evaluation unit 3185, a score calculation unit 3187, and a second determination unit 3189.

第1判定部3181は、上述したとおり、所定のトレーニング中に取得される信号の信号値が、閾値で表される所定範囲内に含まれるか否かを判定する。実施例では、例えば動きが比較的小さいトレーニングが想定されているため、所定範囲を超える信号値は、動きが大きいことを表す。   As described above, the first determination unit 3181 determines whether the signal value of the signal acquired during the predetermined training is included in the predetermined range represented by the threshold value. In the embodiment, for example, training in which the motion is relatively small is assumed, so a signal value exceeding the predetermined range indicates that the motion is large.

また、第1判定部3181は、トレーニングごとに比較対象となる信号が異なる場合は、トレーニングに対応する信号の信号値と、その信号の閾値とを用いて比較判定を行う。第1判定部3181は、比較結果を第1評価部3183に出力する。   Further, when the signals to be compared differ for each training, the first determination unit 3181 performs the comparison determination using the signal value of the signal corresponding to the training and the threshold value of the signal. The first determination unit 3181 outputs the comparison result to the first evaluation unit 3183.

第1評価部3183は、第1判定部3181から取得した比較結果に基づき、信号値の絶対値が閾値未満であれば、姿勢が安定していると評価し、信号値の絶対値が閾値を超えていれば、姿勢が不安定であると評価する。   If the absolute value of the signal value is less than the threshold value, the first evaluation unit 3183 evaluates that the posture is stable based on the comparison result acquired from the first determination unit 3181, and the absolute value of the signal value becomes the threshold value. If it exceeds, it is evaluated that the posture is unstable.

第2評価部3185は、差値算出部3162により算出された差値の絶対値が、記憶部302に記憶されるピーク閾値未満であるか否かにさらに基づいて、姿勢の安定性を評価してもよい。例えば、第2評価部3185は、所定時間おきに繰り返される姿勢に関する信号のピーク間の差値の絶対値が閾値未満であれば、繰り返し時の姿勢が同様であると判定し、姿勢が安定しているとみなす。また、第2評価部3185は、ピーク間の差値の絶対値が閾値以上であれば、繰り返し時の姿勢が異なると判定し、姿勢が不安定であるとみなす。これにより、体幹トレーニングで実行される所定の姿勢の繰り返しについて、姿勢の安定性を適切に評価することができる。なお、ピーク閾値は、信号毎に設定されてもよい。   The second evaluation unit 3185 evaluates the stability of the posture based on whether or not the absolute value of the difference value calculated by the difference value calculation unit 3162 is less than the peak threshold stored in the storage unit 302. May be. For example, if the absolute value of the difference value between the peaks of the signals related to the posture repeated every predetermined time is less than the threshold, the second evaluation unit 3185 determines that the postures at the time of repetition are the same, and the posture is stable. Are considered to be If the absolute value of the difference value between the peaks is equal to or greater than the threshold value, the second evaluation unit 3185 determines that the posture at the time of repetition is different, and regards the posture as unstable. This makes it possible to appropriately evaluate the stability of the posture with respect to the repetition of the predetermined posture executed in the core training. The peak threshold may be set for each signal.

スコア算出部3187は、信号値の絶対値又は差値の絶対値が閾値以上となる回数に応じて、姿勢の安定性を示すスコアを算出してもよい。例えば、スコア算出部3187は、100点満点から、絶対値が閾値以上となる回数を減算して、スコアを算出してもよい。これにより、ユーザの姿勢に対して把握しやすい評価指標をユーザに提供することができる。   The score calculation unit 3187 may calculate a score indicating the stability of the posture according to the number of times that the absolute value of the signal value or the absolute value of the difference value is equal to or more than the threshold value. For example, the score calculation unit 3187 may calculate the score by subtracting the number of times the absolute value is equal to or more than the threshold value from the maximum score of 100 points. Accordingly, it is possible to provide the user with an evaluation index that is easy to grasp with respect to the user's posture.

第2判定部3189は、センサからの信号値を用いて、ユーザが所定のトレーニング中であるか否かを判定する。例えば、第2判定部3189は、受け付けたトレーニングにおいて、所定の姿勢を維持する所定時間中であるにもかかわらず、信号値が0近辺でかつ変動が小さかったり、信号値が所定の値周辺に遷移していなかったりするようであれば、トレーニング中ではないと判定する。   The second determination unit 3189 uses the signal value from the sensor to determine whether or not the user is undergoing predetermined training. For example, in the received training, the second determination unit 3189 has a signal value around 0 and a small variation, or a signal value around a predetermined value, even during a predetermined time period for maintaining a predetermined posture. If there is no transition, it is determined that training is not in progress.

この場合、スコア算出部3187は、スコアを算出する際に、ユーザが所定のトレーニング中であるか否かの第2判定部3189による判定結果を、スコアに反映してもよい。例えば、スコア算出部3187は、センサの信号に基づいて、トレーニング中ではないと判定された場合、スコアを現在値から所定値下げるようにする。なお、スコア算出部3187は、トレーニング中ではないと判定される時間が長いほど、所定値の値を大きくしてもよい。このようなトレーニング中の判定結果をスコアに反映させることで、ユーザに対して、例えば繰り返しのトレーニングを継続して行う契機を与えることができる。   In this case, when calculating the score, the score calculation unit 3187 may reflect the determination result by the second determination unit 3189, which indicates whether or not the user is performing predetermined training, in the score. For example, the score calculation unit 3187 lowers the score from the current value by a predetermined value when it is determined that the training is not in progress based on the signal from the sensor. The score calculation unit 3187 may increase the value of the predetermined value as the time when it is determined that the training is not being performed is longer. By reflecting the determination result during such training on the score, it is possible to give the user an opportunity to continuously perform repeated training, for example.

また、第1評価部3183及び第2評価部3185による各評価結果、並びにスコア算出部3187により算出されたスコアは、表示制御部322により表示画面に表示される。これにより、ユーザに対して、より詳細な評価結果を報知することができる。   Further, the evaluation results by the first evaluation unit 3183 and the second evaluation unit 3185, and the score calculated by the score calculation unit 3187 are displayed on the display screen by the display control unit 322. Accordingly, it is possible to notify the user of a more detailed evaluation result.

≪メニュー生成機能≫
図4に戻り、メニュー生成機能について説明する。まず、特定部314は、記憶部302に記憶されたトレーニング情報であって、トレーニングごとに、1又は複数の属性が関連付けられたトレーニング情報に基づき、所定の属性に対する1又は複数のトレーニングを特定する。例えば、特定部314は、受付部312により、所定の属性が受け付けられると、この所定の属性に対する1又は複数のトレーニングを特定する。例えば、トレーニング情報は、トレーニングごとに、属性として、種類、静止時間、所要時間、所定の部位、目的などが関連付けられている。なお、トレーニング情報は、図9を用いて後述する。
≪Menu generation function≫
Returning to FIG. 4, the menu generation function will be described. First, the identifying unit 314 identifies one or a plurality of trainings for a predetermined attribute based on the training information stored in the storage unit 302 and the training information associated with one or a plurality of attributes for each training. . For example, when the receiving unit 312 receives a predetermined attribute, the specifying unit 314 specifies one or a plurality of trainings for the predetermined attribute. For example, the training information is associated with attributes such as type, stationary time, required time, predetermined part, and purpose for each training. The training information will be described later with reference to FIG.

生成部320は、特定部314により特定された1又は複数のトレーニングの中から、所定数のトレーニングを組み合わせてトレーニングのメニューを生成する。例えば、生成部320は、トレーニングを抽出する際、トレーニングの所要時間を用いて、全体で所定時間よりも短くなるように抽出したり、トレーニングの種類を用いて、同種のトレーニングだけが抽出されないようにしたりする。これにより、生成部320は、複数のトレーニングを適宜組み合わせてメニューを生成するため、ユーザに飽きさせずにトレーニングを継続させることができる。   The generation unit 320 generates a training menu by combining a predetermined number of trainings out of one or a plurality of trainings specified by the specifying unit 314. For example, when extracting the training, the generation unit 320 uses the time required for the training so as to be shorter than the predetermined time as a whole, or uses the type of training so that only the same kind of training is not extracted. Or Accordingly, the generation unit 320 generates a menu by appropriately combining a plurality of trainings, and thus the training can be continued without the user getting tired.

次に、生成部320のより詳細な機能について説明する。図7は、生成部320の機能の一例を示す図である。図7に示す生成部320は、第1生成部3202と、第2生成部3204とを含む。第1生成部3202は、受け付けられた所定の目的からメニューを生成し、第2生成部3204は、受け付けられた所定の部位からメニューを生成する。   Next, more detailed functions of the generation unit 320 will be described. FIG. 7 is a diagram illustrating an example of functions of the generation unit 320. The generation unit 320 illustrated in FIG. 7 includes a first generation unit 3202 and a second generation unit 3204. The first generation unit 3202 generates a menu from the received predetermined purpose, and the second generation unit 3204 generates the menu from the received predetermined portion.

まず、所定の目的からメニューが生成される場合について説明する。ここでは、属性はトレーニングの目的及び種類を含む。受付部312は、トレーニングに関する所定の目的を示す情報(以下、目的別IDとも称す。)受け付ける。所定の目的とは、例えば、「基礎体幹を鍛える」、「歩行姿勢を綺麗にする」、「痩せやすい」などである。なお、記憶部302には、目的別IDと目的の名称とが関連付けられた目的情報が記憶されている(例えば図10参照)。
First, a case where a menu is generated for a predetermined purpose will be described. Here, the attributes include the purpose and type of training. Accepting unit 312, information indicating a predetermined object TRAINING (hereinafter, also referred to as object-specific ID.) Accepts. The predetermined purpose is, for example, “training the basic trunk”, “cleaning the walking posture”, “easy to lose weight”, and the like. It should be noted that the storage unit 302 stores purpose information in which the purpose-specific ID and the purpose name are associated with each other (see, for example, FIG. 10).

この場合、特定部314は、トレーニングに関する目的及び種類を含む属性が関連付けられたトレーニング情報に基づき、受け付けられた目的別IDが示す所定の目的に対する複数のトレーニングを特定する。トレーニングの種類とは、例えば、「ストレッチ」、「強化」、「バランス連動」などである。   In this case, the identifying unit 314 identifies a plurality of trainings for a predetermined purpose indicated by the received purpose-specific ID, based on the training information associated with the attributes including the purpose and type of training. The types of training are, for example, “stretch”, “strengthen”, “balance-linked” and the like.

第1生成部3202は、特定部314により特定された複数のトレーニングの中から、各種類の割合が所定の割合になるようにこの各種類のトレーニングを抽出し、抽出された各種類のトレーニングを組み合わせてトレーニングのメニューを生成する。   The first generation unit 3202 extracts each type of training from the plurality of trainings identified by the identification unit 314 so that the ratio of each type becomes a predetermined rate, and extracts each type of extracted training. Combine to generate a training menu.

例えば、第1生成部3202は、トレーニングの種類として、「ストレッチ」、「強化」、「バランス連動」の比が、3:2:1になるように、トレーニングを抽出する。より具体的には、第1生成部3202は、特定されたトレーニングの中から、「ストレッチ」をランダムに3つ、「強化」をランダムに2つ、「バランス連動」をランダムに1つ抽出し、これらを組み合わせてメニューを生成する。   For example, the first generation unit 3202 extracts training so that the ratio of “stretch”, “strengthen”, and “balance-linked” is 3: 2: 1 as the type of training. More specifically, the first generation unit 3202 extracts three “stretches” at random, two “strengths” at random, and one “balance interlocking” at random from the identified training. , These are combined to generate a menu.

これにより、体幹を鍛えたいユーザの目的に合わせて、トレーニングメニューを自動で生成することができる。また、ランダムにトレーニングのメニューが自動生成されるため、同じ目的を選んだとしても、毎回同じメニューにはならずに、ユーザに飽きを感じさせずにトレーニングを継続させることができる。   Thereby, the training menu can be automatically generated according to the purpose of the user who wants to train the core. Further, since a training menu is automatically generated at random, even if the same purpose is selected, the same menu is not obtained every time, and the training can be continued without making the user tired.

次に、所定の部位からメニューが生成される場合について説明する。ここでは、属性は所定の部位を含む。受付部312は、ユーザの体に関する所定の部位を示す情報(以下、部位IDとも称す。)を受け付ける。例えば、受付部312は、他のアプリケーションから、部位IDを受け付けたり、ユーザ操作に基づき部位IDを受け付けたりする。所定の部位とは、例えば背中、腹部、足首などである。また、他のアプリケーションとは、例えばランニングやウォーキングをサポートするアプリケーションなどである。この他のアプリケーションが、ランニングやウォーキングの弱点となる部位を検知可能な場合、受付部312は、この他のアプリケーションから部位IDを受け付ける。この他のアプリケーションは、外部機器にインストールされたものでも、同機器にインストールされたものでもよい。   Next, a case where a menu is generated from a predetermined part will be described. Here, the attribute includes a predetermined part. The reception unit 312 receives information indicating a predetermined part of the user's body (hereinafter, also referred to as a part ID). For example, the reception unit 312 receives a site ID from another application or a site ID based on a user operation. The predetermined part is, for example, the back, abdomen, ankle or the like. The other application is, for example, an application that supports running or walking. When the other application can detect a site that is a weak point of running or walking, the reception unit 312 receives the site ID from the other application. The other application may be installed in the external device or installed in the external device.

特定部314は、ユーザの体に関する1又は複数の部位を含む属性が関連付けられたトレーニング情報に基づき、部位IDが示す所定の部位に対する複数のトレーニングを特定する。例えば、特定部314は、記憶部302に記憶されたトレーニング情報を参照し、所定の部位(例えば「背中」)に関連付けられたトレーニングを特定する。   The specifying unit 314 specifies a plurality of trainings for a predetermined part indicated by the part ID, based on training information associated with attributes including one or a plurality of parts related to the body of the user. For example, the identifying unit 314 refers to the training information stored in the storage unit 302 and identifies the training associated with a predetermined region (for example, “back”).

第2生成部3204は、特定部314により特定された複数のトレーニングの中から、所定数のトレーニングを組み合わせてトレーニングのメニューを生成する。例えば、第2生成部3204は、「背中」に関連付けられた複数のトレーニングの中から、ランダムに所定数を抽出してメニューを生成する。これにより、ユーザが鍛えたい所定の部位や、他のアプリケーションから通知された所定の部位に対して、トレーニングメニューを自動で生成することができる。また、第1生成部3202及び第2生成部3204は、トレーニングを抽出する際に、各トレーニングの所要時間やその他の属性を考慮して抽出してもよい。   The second generation unit 3204 generates a training menu by combining a predetermined number of trainings from the plurality of trainings specified by the specifying unit 314. For example, the second generation unit 3204 randomly extracts a predetermined number from a plurality of trainings associated with “back” and generates a menu. Thus, the training menu can be automatically generated for a predetermined part that the user wants to train or a predetermined part notified from another application. Also, the first generation unit 3202 and the second generation unit 3204 may extract the training in consideration of the required time for each training and other attributes.

また、第1生成部3202及び第2生成部3204により生成された各メニューは、表示制御部322により表示画面に表示される。これにより、ユーザは、自動で生成されたメニューの内容を把握することができる。   The menus generated by the first generation unit 3202 and the second generation unit 3204 are displayed on the display screen by the display control unit 322. Thereby, the user can grasp the contents of the automatically generated menu.

<データ例>
次に、実施例における体幹トレーニングのアプリケーションに用いられる各種データの例について説明する。図8は、閾値情報の一例を示す図である。図8に示す例では、各トレーニングの識別情報(例えばトレーニングID)ごとに、トレーニング名と、比較対象を特定するためのパラメータ(judgeFactor及びjudgePeak)と、そのパラメータの閾値とが関連付けられている。
<Data example>
Next, examples of various data used for the application of the core training in the embodiment will be described. FIG. 8 is a diagram showing an example of threshold information. In the example shown in FIG. 8, for each piece of identification information (for example, training ID) for each training, a training name, parameters (judgeFactor and judgePeak) for specifying a comparison target, and a threshold value of the parameter are associated with each other.

judgeFactorは、6ケタの0又は1で表され、左から順に第1信号(thr_accX)、第2信号(thr_accY)、・・・、第6信号に対応する。また、「0」は比較対象ではないことを示し、「1」は比較対象であることを示す。例えば、judgeFactorが「000110」の場合、第4信号と第5信号とが比較対象として用いられることを示す。judgeFactorは、第1評価部3183により用いられる。また、図8に示す各信号の行に設定された数値が、閾値を示す。例えば、ID「4」の第1信号(thr_accX)に関する閾値は「2」である。   The judgefactor is represented by 6 digits of 0 or 1, and corresponds to the first signal (thr_accX), the second signal (thr_accY), ..., The sixth signal in order from the left. Further, “0” indicates that the object is not a comparison object, and “1” indicates that the object is a comparison object. For example, when the jitterFactor is “000110”, it indicates that the fourth signal and the fifth signal are used as comparison targets. The judgeFactor is used by the first evaluation unit 3183. Further, the numerical value set in each signal line shown in FIG. 8 indicates the threshold value. For example, the threshold for the first signal (thr_accX) with ID “4” is “2”.

judgePeakは、6ケタの0又は1で表され、左から順に第1信号のピーク、第2信号のピーク、・・・、第6信号のピーク(thr_yaw_pk)に対応する。また、「0」は比較対象ではないことを示し、「1」は比較対象であることを示す。例えば、judgePeakが「010010」の場合、第2信号のピークと第5信号のピークとが比較対象として用いられることを示す。judgePeakは、第2評価部3185により用いられる。また、図8に示すピークの行に設けられた数値が、閾値を示す。例えば、ID「3」の第6信号のピークに関する閾値は「2」である。   The judgegePeak is represented by 6 digits of 0 or 1, and corresponds to the peak of the first signal, the peak of the second signal, ..., And the peak of the sixth signal (thr_yaw_pk) in order from the left. Further, “0” indicates that the object is not a comparison object, and “1” indicates that the object is a comparison object. For example, when the peakPeak is “010010”, it indicates that the peak of the second signal and the peak of the fifth signal are used as comparison targets. judgegePeak is used by the second evaluation unit 3185. Further, the numerical value provided in the row of peaks shown in FIG. 8 indicates the threshold value. For example, the threshold for the peak of the sixth signal with ID “3” is “2”.

例えば、番号1のトレーニングについて、トレーニング名「腸腰筋ストレッチ」、judgeFactor「000110」、judgePeak「000000」が関連付けられている。この例によれば、第4信号(thr_pitch)の閾値は「1」であり、ピーク間の閾値は適用されない。   For example, with respect to the training of number 1, the training names “Iliopsoas muscle stretch”, judgeFactor “000110”, and judgePeak “000000” are associated. According to this example, the threshold value of the fourth signal (thr_pitch) is “1”, and the threshold value between peaks is not applied.

また、番号3のトレーニングについて、トレーニング名「立位回旋」、judgeFactor「111000」、judgePeak「000001」が関連付けられている。この例によれば、第1信号(thr_accX)の閾値は「1」であり、第2信号(thr_accY)の閾値は「1」であり、第3信号(thr_accZ)の閾値は「1」であり、第6信号のピーク間(thr_yaw_pk)の閾値「2」である。   Further, with respect to the training of number 3, the training names “standing standing rotation”, judgeFactor “111000”, and judgePeak “000001” are associated. According to this example, the threshold value of the first signal (thr_accX) is “1”, the threshold value of the second signal (thr_accY) is “1”, and the threshold value of the third signal (thr_accZ) is “1”. , The threshold value “2” between the peaks (thr_yaw_pk) of the sixth signal.

図8に示す閾値情報によれば、特定部314は、トレーニングについて、比較対象となる信号と閾値とを、judgeFactor及びjudgePeakとその閾値とを参照することで容易に特定することができる。   According to the threshold information illustrated in FIG. 8, the identifying unit 314 can easily identify a signal to be compared and a threshold for training by referring to the judgefactor and the judgepeak and the threshold thereof.

図9は、トレーニング情報の一例を示す図である。図9に示す例では、各トレーニングの識別情報(例えばトレーニングID)ごとに、トレーニング名、種類(効果)、抽選例外フラグ、静止時間、回数、所要時間、所定の部位(例えば背中、体幹側面、腹部など)、目的別IDが関連付けられる。   FIG. 9 is a diagram showing an example of training information. In the example shown in FIG. 9, the training name, type (effect), lottery exception flag, rest time, number of times, required time, predetermined part (for example, back, trunk side surface) for each identification information (eg, training ID) of each training , Abdomen, etc.) and the purpose-specific ID are associated.

種類は、トレーニングの種類又は効果を示す。種類は、例えば、ストレッチ、強化、パランス連動などがある。抽選例外フラグは、同時に実行されないトレーニングの番号を示す。例えば、トレーニングID「5」の「あぐら回旋」は、トレーニングID「3」の「立位回旋」と同時にトレーニングメニューに含まれることはない。これらは、ストレッチのトレーニングの中でも、同じタイプの回旋系のトレーニングだからである。   The type indicates the type or effect of training. The types include, for example, stretching, strengthening, and balance interlocking. The lottery exception flag indicates a training number that is not executed at the same time. For example, “Agura swirl” with the training ID “5” is not included in the training menu at the same time as “Standing swirl” with the training ID “3”. This is because these are the same types of convolutive training in stretching training.

静止時間は、トレーニング中にユーザがとる姿勢の静止時間を示す。例えば、静止時間が「3」の場合、その姿勢を3秒間維持することを示す。回数は、1回のトレーニングにおいて、所定の姿勢を繰り返す回数を示す。例えば、回数が「3」の場合、その姿勢を3セット繰り返すことを示す。所要時間は、1回のトレーニングにかかる時間を示す。   The stationary time indicates the stationary time of the posture taken by the user during training. For example, when the stationary time is “3”, it indicates that the posture is maintained for 3 seconds. The number of times indicates the number of times a predetermined posture is repeated in one training. For example, when the number of times is “3”, it indicates that the posture is repeated three sets. The required time indicates the time required for one training.

所定の部位は、そのトレーニングに効果がある人間の部位を示す。図9に示す例では、部位IDとして、部位名が用いられるが、番号などが用いられてもよい。なお、1つのトレーニングで複数の部位に効果があってもよい。効果のある部位には、「〇」が設定され、効果のない部位には、「−」が設定される。   The predetermined part indicates a human part effective for the training. In the example shown in FIG. 9, the site name is used as the site ID, but a number or the like may be used. In addition, one training may have an effect on a plurality of regions. "O" is set to the effective part, and "-" is set to the ineffective part.

目的別IDは、トレーニングの目的を識別するための情報である。図10で後述するように、目的別IDごとに、トレーニングの目的が関連付けられた目的情報が記憶部302に記憶される。例えば、目的別ID「1」は、「基礎体幹を鍛える」とし、目的別ID「2」は、「歩行姿勢を綺麗にする」とする。   The purpose-specific ID is information for identifying the purpose of training. As will be described later with reference to FIG. 10, the goal information in which the goal of training is associated with each goal ID is stored in the storage unit 302. For example, the purpose-specific ID “1” is “train the basic trunk”, and the purpose-specific ID “2” is “clean the walking posture”.

図9に示す例では、トレーニングID「4」について、トレーニング名「立位側屈」、種類「ストレッチ」、抽選例外フラグ「6」、静止時間「3」、回数「3」、所要時間「170」、背中「〇」、体幹側面「〇」、腹部「−」、・・・、目的別ID「1,2」が関連付けられている。   In the example shown in FIG. 9, for the training ID “4”, the training name “standing posture lateral bending”, the type “stretching”, the lottery exception flag “6”, the stationary time “3”, the number of times “3”, the required time “170”. , Back “◯”, trunk side “◯”, abdomen “−”, ..., Purpose-specific IDs “1, 2” are associated.

図9に示すトレーニング情報によれば、特定部314は、目的別IDを用いて、所定のトレーニングを特定することができ、また、所定の部位を用いて、所定のトレーニングを特定することができる。   According to the training information shown in FIG. 9, the identifying unit 314 can identify the predetermined training by using the purpose-specific ID, and can also identify the predetermined training by using the predetermined site. .

図10は、目的情報の一例を示す図である。図10に示す例では、目的別IDごとに、トレーニングの目的の名称が関連付けられる。例えば、目的別ID「1」には、目的の名称「基礎体幹を鍛える」が関連付けられる。   FIG. 10 is a diagram showing an example of the purpose information. In the example shown in FIG. 10, a training purpose name is associated with each purpose-based ID. For example, the purpose-specific ID “1” is associated with the purpose name “train the basic core”.

図11は、ユーザの姿勢に対する評価結果情報の一例を示す図である。図11に示す例では、所定のユーザに対し、各トレーニングにおいて評価されたスコアと、各信号の信号値と、ピーク値の閾値とが関連付けられている。   FIG. 11 is a diagram showing an example of evaluation result information for the posture of the user. In the example illustrated in FIG. 11, the score evaluated in each training, the signal value of each signal, and the threshold value of the peak value are associated with a predetermined user.

例えば、ユーザ「AAA」は、トレーニング「ランジ」についてスコア「78」を獲得している。図11に示すように、各トレーニングついて、姿勢に関する評価を示すスコアが関連付けられている。   For example, the user “AAA” has acquired the score “78” for the training “Lanji”. As shown in FIG. 11, a score indicating a posture evaluation is associated with each training.

<閾値比較の具体例>
図12は、所定の信号における閾値比較の具体例を示す図である。図12に示す例では、第1〜第6信号のうちの一の信号S1の変動を示す。図12に示す例では、以下の順でトレーニングが開始されたとする。
T1:1セット目(右)のガイダンス開始
T2:1セット目(右)の準備姿勢開始
T3:1セット目(右)の姿勢静止開始
T4:1セット目(右)の姿勢静止終了
T5:1セット目(右)の姿勢終了、及び1セット目(左)ガイダンス開始
T6:1セット目(左)の準備姿勢開始
T7:1セット目(左)の姿勢静止開始
T8:1セット目(左)の姿勢静止終了
T9:1セット目(左)の姿勢終了、及び2セット目(右)ガイダンス開始
T10:2セット目(右)の準備姿勢開始
T11:2セット目(右)の姿勢静止開始
・・・
<Specific example of threshold comparison>
FIG. 12 is a diagram showing a specific example of threshold comparison for a predetermined signal. In the example shown in FIG. 12, the fluctuation of one signal S1 of the first to sixth signals is shown. In the example shown in FIG. 12, it is assumed that training is started in the following order.
T1: Start guidance for 1st set (right) T2: Start preparation for 1st set (right) T3: Start posture for 1st set (right) T4: End posture for 1st set (right) T5: 1 Posture of the 1st set (right) ends, guidance of the 1st set (left) starts T6: Preparation posture of the 1st set (left) T7: Posture rest of the 1st set (left) T8: 1st set (left) Posture stop of T9: End of posture of 1st set (left), start of 2nd set (right) T10: Start of preparatory posture of 2nd set (right) T11: Start of posture stop of 2nd set (right)・ ・

このとき、第1判定部3181は、信号S1が、対応する閾値Th1と閾値Th2との間の所定範囲に含まれるか否かを判定する。閾値Th1は、基準値+記憶部302に設定された閾値であり、閾値Th2は、基準値−記憶部302に設定された閾値である。基準値は、例えば移動時間窓内の信号値の平均値である。第1判定部3181は、区間T3−T4において、値V1、V2、V3及びV4が所定の範囲内に含まれないと判定する。この場合、第1評価部3183は、これらの値に対する姿勢については、安定していないと評価する。なお、記憶部320に記憶される閾値は、トレーニングの期間毎に閾値Th1及び閾値Th2が設定されてもよい。   At this time, the first determination unit 3181 determines whether or not the signal S1 is included in a predetermined range between the corresponding threshold Th1 and threshold Th2. The threshold value Th1 is a reference value + a threshold value set in the storage unit 302, and the threshold value Th2 is a reference value−a threshold value set in the storage unit 302. The reference value is, for example, an average value of signal values within the moving time window. The first determination unit 3181 determines that the values V1, V2, V3, and V4 are not included within the predetermined range in the section T3-T4. In this case, the first evaluation unit 3183 evaluates that the posture with respect to these values is not stable. As the threshold value stored in the storage unit 320, the threshold value Th1 and the threshold value Th2 may be set for each training period.

また、スコア算出部3187は、予め設定された所定値(例えば100)から、信号S1の値が所定の範囲を超えた回数を減算する。この場合、T4終了時点で、スコア算出部3187は、スコア「96(=100−4)」を算出する。また、信号S1の値が所定の範囲内に含まれるか否かの判定は、姿勢静止時間に限らず、例えば姿勢準備時間(T2−T3など)にも適用してもよい。   Further, the score calculation unit 3187 subtracts the number of times the value of the signal S1 exceeds the predetermined range from a predetermined value (for example, 100) set in advance. In this case, the score calculation unit 3187 calculates the score “96 (= 100−4)” at the end of T4. Further, the determination as to whether or not the value of the signal S1 falls within the predetermined range may be applied not only to the posture rest time but also to the posture preparation time (T2-T3 etc.), for example.

また、差値算出部3162は、繰り返しの姿勢における姿勢の安定性について、T3付近のピーク値P1と、T11付近のピーク値P2との差値を算出する。第1判定部3181は、ピーク間の差値(P1−P2)が、閾値未満であるか否かを判定する。第2評価部3185は、ピーク間の差値が閾値未満であれば、繰り返しの姿勢が同様であり、安定していると評価し、ピーク間の差値が閾値以上であれば、繰り返しの姿勢が異なり、安定していないと評価する。第2評価部3185により姿勢が安定していないと評価されたとき、スコア算出部3187は、現在のスコアから、予め設定された値を減算してもよい。   Further, the difference value calculation unit 3162 calculates the difference value between the peak value P1 near T3 and the peak value P2 near T11 regarding the stability of the posture in the repeated postures. The 1st determination part 3181 determines whether the difference value (P1-P2) between peaks is less than a threshold value. If the difference value between peaks is less than the threshold value, the second evaluation unit 3185 evaluates that the repeated postures are similar and stable, and if the difference value between the peaks is greater than or equal to the threshold value, the repeated posture is determined. But different and not stable. When the second evaluation unit 3185 evaluates that the posture is not stable, the score calculation unit 3187 may subtract a preset value from the current score.

<画面例>
次に、実施例における体幹トレーニングのアプリケーションの画面例について説明する。図13は、設定画面の一例を示す図である。図13に示す画面は、例えばアプリケーションの起動後の初期段階において表示される画面であり、「目的別体幹トレーニング」ボタンB10と、「他アプリからのトレーニング」ボタンB12とのいずれかをユーザに選択させる画面である。
<Screen example>
Next, an example of a screen of an application for core training in the embodiment will be described. FIG. 13 is a diagram showing an example of the setting screen. The screen shown in FIG. 13 is, for example, a screen that is displayed in the initial stage after the application is started, and the user selects either the “Train training by purpose” button B10 or the “Training from another application” button B12. This is a screen for selection.

例えば、受付部312は、ユーザによりボタンB10が押された場合、このボタン押下を示す情報を表示制御部322に通知し、表示制御部322は、ユーザに目的を選択させる画面を表示するように制御する(例えば図14参照)。   For example, when the button B10 is pressed by the user, the reception unit 312 notifies the display control unit 322 of information indicating that the button has been pressed, and the display control unit 322 causes the user to display a screen for selecting the purpose. Control (see, for example, FIG. 14).

また、表示制御部322は、ユーザによりボタンB12が押された場合、このボタン押下を示す情報を表示制御部322に通知し、表示制御部322は、ユーザに他アプリを選択させる画面を表示するよう制御する(例えば図19参照)。   Further, when the user presses the button B12, the display control unit 322 notifies the display control unit 322 of information indicating that the button has been pressed, and the display control unit 322 displays a screen that allows the user to select another application. Control (see, for example, FIG. 19).

図14は、目的選択画面の一例を示す図である。図14に示す画面は、1又は複数の目的から一の目的を選択するための各ボタンが表示される画面である。例えば、基礎体幹を鍛えるためトレーニングを示す「基礎体幹をトレーニング」ボタンB20と、歩行姿勢を綺麗にするためのトレーニングを示す「歩行姿勢を綺麗にしたい」ボタンB22とが表示される。   FIG. 14 is a diagram showing an example of the purpose selection screen. The screen shown in FIG. 14 is a screen on which buttons for selecting one purpose from one or a plurality of purposes are displayed. For example, a “train basic trunk” button B20 indicating training for training the basic trunk and a “want to improve walking posture” button B22 indicating training for cleaning the walking posture are displayed.

図14に示す例で、ユーザは、「基礎体幹をトレーニング」ボタンB20を押したとする。受付部312は、このボタンB20の押下を検知し、基礎体幹をトレーニングするための目的別ID「1」を特定部314に通知する。特定部314は、目的別ID「1」を取得し、図9に示すトレーニング情報を参照し、目的別ID「1」に対応する複数のトレーニングを特定する。   In the example shown in FIG. 14, it is assumed that the user has pressed the “train basic core” button B20. The reception unit 312 detects the pressing of the button B20 and notifies the identification unit 314 of the purpose-specific ID “1” for training the basic trunk. The identifying unit 314 acquires the purpose-specific ID “1”, refers to the training information illustrated in FIG. 9, and specifies a plurality of trainings corresponding to the purpose-specific ID “1”.

生成部320は、例えば、特定部314により特定されたトレーニングの中から乱数を用いたランダム抽選により所定数のトレーニングを抽出し、トレーニングメニューを生成する。   The generation unit 320 generates a training menu by extracting a predetermined number of trainings from the training specified by the specifying unit 314 by random lottery using random numbers, for example.

図15は、トレーニングメニュー表示画面の一例を示す図である。図15に示す例では、生成部320により、「ストレッチ」TR10、「ポジション」TR12、「リフト」TR14、「アップ」TR16の4つのトレーニングが抽出されている。また、図15に示す画面には、これら4つのトレーニングを全て行った場合の所要時間が10分と表示される。   FIG. 15 is a diagram showing an example of a training menu display screen. In the example shown in FIG. 15, the generating unit 320 extracts four trainings of “stretch” TR10, “position” TR12, “lift” TR14, and “up” TR16. Further, the screen shown in FIG. 15 displays that the time required for performing all four trainings is 10 minutes.

また、図15に示す画面では、各トレーニングがボタン形式で選択可能になっており、ユーザ所定のトレーニングの表示領域を押すと、そのトレーニングが選択状態になり、この選択状態でユーザが「トレーニングを始める」ボタンを押すと、そのトレーニングが開始される。例えば、受付部312は、ユーザによる「アップ」TR16のボタンが押されたことを受け付け、次に、「トレーニングを始める」ボタンが押されたことを受け付けたとする。   Further, in the screen shown in FIG. 15, each workout can be selected in the button format, and when the user presses the display area of the workout specified by the user, the workout is brought into the selected state. Press the "Start" button to start the workout. For example, it is assumed that the accepting unit 312 accepts that the user has pressed the “up” TR16 button, and then has accepted that the “start training” button has been pressed.

このとき、表示制御部322は、「アップ」TR16に対応するトレーニングのガイダンスを表示画面に表示し、特定部314は、「アップ」TR16に対応する比較対象の信号及びその閾値を、図8に示す閾値情報を参照して特定する。   At this time, the display control unit 322 displays the training guidance corresponding to “up” TR16 on the display screen, and the identifying unit 314 displays the comparison target signal corresponding to “up” TR16 and the threshold value thereof in FIG. It identifies by referring to the threshold information shown.

図16は、「アップ」TR16に対するトレーニングのガイダンス画面の一例を示す図である。図16に示す画面には、「アップ」に対応するトレーニングである「腸腰筋ストレッチ」のガイダンスが表示されている。また、図16に示す画面には、所要時間である「30秒」と、セット数「3set」が表示されている。   FIG. 16 is a diagram showing an example of a training guidance screen for the “up” TR16. On the screen shown in FIG. 16, guidance for “Iliopsoas stretch”, which is training corresponding to “up”, is displayed. Further, the screen shown in FIG. 16 displays the required time “30 seconds” and the number of sets “3 set”.

図16に示す画面の後、表示制御部322は、予め設定された手順に従って、トレーニング画面を表示するよう制御する。例えば、手順は、(1)ガイダンス開始(準備姿勢)、(2)姿勢移行のカウント、(3)姿勢の静止、(4)準備姿勢に戻るカウントである。また、(2)〜(4)の手順がセット数の分だけ繰り返し行われる。   After the screen shown in FIG. 16, the display control unit 322 controls to display the training screen according to a preset procedure. For example, the procedure is (1) guidance start (preparation posture), (2) posture transition count, (3) posture stationary, and (4) count returning to the preparation posture. The steps (2) to (4) are repeated for the number of sets.

評価部318は、この(2)〜(4)の間、アイウエア30に搭載される6軸センサ206によりセンシングされた信号を用いて、上述したとおり、ユーザの姿勢を評価する。また、評価部318は、姿勢の評価指標としてスコアを算出してもよい。   During (2) to (4), the evaluation unit 318 evaluates the user's posture using the signal sensed by the 6-axis sensor 206 mounted on the eyewear 30 as described above. The evaluation unit 318 may also calculate a score as a posture evaluation index.

図17は、スコア表示画面の一例を示す図である。図17に示す例では、「腸腰筋ストレッチ」のトレーニングに対するユーザの姿勢に対して、表示制御部322は、スコアSC10として、スコア算出部3187が算出した「76」を画面に表示するよう制御する。   FIG. 17 is a diagram showing an example of the score display screen. In the example illustrated in FIG. 17, with respect to the posture of the user for the training of “iliopsoas muscle stretch”, the display control unit 322 controls the score SC10 to display “76” calculated by the score calculation unit 3187 on the screen. To do.

次に、図15に示すトレーニングが全て行われた場合、トレーニングの結果画面が表示される。図18は、トレーニング結果画面の一例を示す図である。図18に示す画面では、キャラクタが表示され、キャラクタの部位ごとに、スコアが表示される。各部位のスコアは、その部位に関連付けられている、ユーザが行った全てのトレーニングのスコアの平均点が表示される。例えば、ユーザはトレーニングA〜Cを行い、腹部に関するトレーニングがトレーニングA、Bである場合、腹部に表示されるスコアは、トレーニングA及びBのスコアの平均点である。例えば、スコアの平均点は、スコア算出部3187により算出される。図18に示すように、各部位のスコアが一画面で表示されるため、ユーザは、どこの部位に対して適切にトレーニングできていないかを把握することができる。   Next, when all the training shown in FIG. 15 has been performed, a training result screen is displayed. FIG. 18 is a diagram showing an example of the training result screen. On the screen shown in FIG. 18, a character is displayed and a score is displayed for each part of the character. As the score of each part, the average score of all the trainings performed by the user, which is associated with the part, is displayed. For example, when the user performs training A to C and the training related to the abdomen is training A and B, the score displayed on the abdomen is the average score of the training A and B. For example, the average score is calculated by the score calculator 3187. As shown in FIG. 18, since the score of each part is displayed on one screen, the user can grasp which part the training is not properly performed.

図19は、アプリ選択画面の一例を示す図である。図19に示す画面は、1又は複数のアプリから一のアプリを選択するための各ボタンが表示される画面である。例えば、他のアプリを示す「RUN」ボタンB30と、「WALK」ボタン32とが表示される。   FIG. 19 is a diagram showing an example of the application selection screen. The screen shown in FIG. 19 is a screen on which each button for selecting one application from one or a plurality of applications is displayed. For example, a “RUN” button B30 indicating another application and a “WALK” button 32 are displayed.

図19に示す例で、ユーザは、「RUN」ボタンB30を押したとする。受付部312は、このボタンB30の押下を検知し、「RUN」に対応するアプリケーションから、URLスキーム等を用いて、部位「腿裏側」を示す部位IDを取得する。   In the example shown in FIG. 19, it is assumed that the user has pressed the “RUN” button B30. The reception unit 312 detects the pressing of the button B30, and acquires the site ID indicating the site “back of the thigh” from the application corresponding to “RUN” using a URL scheme or the like.

図20は、他のアプリケーションから所定の部位が通知された画面の一例を示す図である。図20に示す画面は、ランニングアプリから、「腿裏側」が通知されたことを示す。図20に示す画面では、キャラクタを用いて、ランニングアプリから通知された部位が示され、トレーニングを開始する「トレーニングする」ボタンB40が表示される。   FIG. 20 is a diagram showing an example of a screen notified of a predetermined part from another application. The screen shown in FIG. 20 indicates that “back of thigh” is notified from the running application. In the screen shown in FIG. 20, the part notified from the running application is displayed using a character, and a “train” button B40 for starting training is displayed.

ここで、ユーザは、このボタンB40を押したとする。受付部312は、部位「腿裏側」を示す部位IDを特定部314に通知する。特定部314は、部位IDを取得し、図9に示すトレーニング情報を参照し、部位IDが示す部位「腿裏側」に対応する複数のトレーニングを特定する。   Here, it is assumed that the user presses the button B40. The reception unit 312 notifies the identification unit 314 of the site ID indicating the site “back of thigh”. The identifying unit 314 acquires the site ID, refers to the training information illustrated in FIG. 9, and identifies a plurality of trainings corresponding to the site “back of the thigh” indicated by the site ID.

生成部320は、例えば、特定部314により特定されたトレーニングの中から乱数を用いたランダム抽選により所定数のトレーニングを抽出し、トレーニングメニューを生成する。   The generation unit 320 generates a training menu by extracting a predetermined number of trainings from the training specified by the specifying unit 314 by random lottery using random numbers, for example.

図21は、トレーニングメニュー表示画面の一例を示す図である。図21に示す例では、生成部320により、「ランジストレッチ」TR20、「ハムストリングストレッチ」TR22、「腸腰筋ストレッチ」TR24、「プランクポジション(膝つき)」TR26、「腿後面のスクワット」TR28、「片足立ちから片手上げ」TR30の6つのトレーニングが抽出されている。また、図21に示す画面には、これら6つのトレーニングを全て行った場合の所要時間が11分と表示される。   FIG. 21 is a diagram showing an example of the training menu display screen. In the example shown in FIG. 21, the generation unit 320 causes the “lung stretch” TR20, the “hamstring stretch” TR22, the “iliopsoas muscle stretch” TR24, the “plank position (with knees)” TR26, and the “thigh rear squat” TR28. , Six trainings of "one leg standing to one hand raised" TR30 are extracted. Further, the screen shown in FIG. 21 shows that the time required for performing all six trainings is 11 minutes.

また、図21に示す画面では、各トレーニングがボタン形式で選択可能になっており、ユーザ所定のトレーニングの表示領域を押すと、そのトレーニングが選択状態になり、この選択状態でユーザが「トレーニングを始める」ボタンを押すと、そのトレーニングが開始される。   Further, in the screen shown in FIG. 21, each workout can be selected in a button format, and when the user presses the display area of the workout specified by the user, the workout is brought into a selected state. Press the "Start" button to start the workout.

また、生成部320は、各種類のトレーニングが所定の割合となるようにトレーニングメニューを生成してもよい。例えば、ストレッチ:強化:バランス連動の比が3:2:1である場合、生成部320は、種類「ストレッチ」から、「ランジストレッチ」TR20、「ハムストリングストレッチ」TR22、及び「腸腰筋ストレッチ」TR24の3つを抽出し、種類「強化」から、「プランクポジション(膝つき)」TR26、及び「腿後面のスクワット」TR28の2つを抽出し、種類「バランス連動」から、「片足立ちから片手上げ」TR30の1つを抽出し、メニューを自動的に生成する。   Further, the generation unit 320 may generate the training menu so that each type of training has a predetermined ratio. For example, when the ratio of stretch: enhancement: balance interlocking is 3: 2: 1, the generation unit 320 selects the “stretch” type “range stretch” TR20, the “hamstring stretch” TR22, and the iliopsoas stretch. Extracting three of TR24, extracting two types of "Plank position (with knees)" TR26 and "Squat on the back of thigh" TR28 from the type "strengthening", and standing on one leg from the type "balance interlocking" One of "from one hand" TR30 is extracted and a menu is automatically generated.

トレーニングが選択されて実行されると、上述したように、所定の手順が画面に表示され、ユーザはそれに従ってトレーニングを行う。このとき、評価部318は、トレーニング中のユーザの姿勢について評価を行う。   When the training is selected and executed, as described above, the predetermined procedure is displayed on the screen and the user follows the training. At this time, the evaluation unit 318 evaluates the posture of the user during training.

<動作>
次に、実施例における情報処理装置10の動作について説明する。図22は、実施例における体幹トレーニングを実行するアプリケーションの全体処理の一例を示すフローチャートである。図22に示すフローチャートは、ユーザがアイウエア30を装着して、情報処理装置10を操作し、上述したアプリケーションのアイコンをユーザがタッチするなどして、このアプリケーションの実行するときに行われる処理である。なお、処理装置20と情報処理装置10との接続については、事前に行われていればよい。
<Operation>
Next, the operation of the information processing device 10 in the embodiment will be described. FIG. 22 is a flowchart showing an example of the overall processing of the application that executes the core training in the embodiment. The flowchart shown in FIG. 22 is a process performed when the user wears the eyewear 30, operates the information processing apparatus 10, and the user touches the icon of the application described above to execute the application. is there. The processing device 20 and the information processing device 10 may be connected in advance.

図22に示すステップS102で、制御部306は、ユーザ操作に基づき、トレーニングの目的、又は他のアプリケーションが選択されたか否かを判定する。例えば、ユーザにより、図13に示す「目的別体幹トレーニング」ボタンB10又は「他アプリからのトレーニング」ボタンB12がタッチされたか否かを、制御部306は判定する。目的が選択されれば、処理はステップS104に進み、他のアプリが選択されれば、処理はステップS108に進む。   In step S102 shown in FIG. 22, the control unit 306 determines whether the purpose of training or another application is selected based on the user operation. For example, the control unit 306 determines whether or not the user has touched the “purpose-specific core training” button B10 or the “training from another application” button B12 shown in FIG. If the purpose is selected, the process proceeds to step S104, and if another application is selected, the process proceeds to step S108.

ステップS104で、表示制御部322は、複数の目的を画面に表示し、ユーザに一の目的を選択させる。受付部312は、選択された目的を受け付ける。例えば、ユーザにより、図14に示す「基礎体幹をトレーニング」ボタンB20、又は「歩行姿勢を綺麗にしたい」ボタンB22のどちらが押されたかを検知し、押下されたボタンに対応する目的を示す情報を取得する。   In step S104, the display control unit 322 displays a plurality of purposes on the screen and allows the user to select one purpose. The reception unit 312 receives the selected purpose. For example, information indicating the purpose corresponding to the button that is detected by the user detecting which one of the "train basic core" button B20 and the "I want to improve the walking posture" button B22 shown in FIG. 14 is pressed. To get.

ステップS106で、生成部320は、目的を示す情報を受付部312から取得すると、図9に示すトレーニング情報を参照し、その目的に関連付けられたトレーニングの中から、所定数のトレーニングを組み合わせてメニューを生成する。このとき、例えば図15に示すトレーニングメニュー画面が表示される。なお、目的に応じたメニューの生成処理は、図23を用いて後述する。   In step S106, when the generation unit 320 acquires the information indicating the purpose from the reception unit 312, the generation unit 320 refers to the training information illustrated in FIG. 9, and combines a predetermined number of trainings from among the trainings associated with the purpose to obtain a menu. To generate. At this time, for example, the training menu screen shown in FIG. 15 is displayed. The menu generation processing according to the purpose will be described later with reference to FIG.

ステップS108で、表示制御部322は、複数の他のアプリケーションを画面に表示し、ユーザに一のアプリケーションを選択させる。受付部312は、選択されたアプリケーションを受け付ける。例えば、ユーザにより、図19に示す「RUN」ボタンB30、又は「WALK」ボタンB32のどちらが押されたかを検知し、押下されたボタンに対応するアプケーションを示す情報を取得する。   In step S108, the display control unit 322 displays a plurality of other applications on the screen and prompts the user to select one application. The reception unit 312 receives the selected application. For example, it is detected which of the “RUN” button B30 and the “WALK” button B32 shown in FIG. 19 is pressed by the user, and the information indicating the application corresponding to the pressed button is acquired.

ステップS110で、生成部320は、アプリケーションを示す情報を受付部312から取得すると、URLスキームなどを用いて、そのアプリケーションから所定の部位を示す情報を取得する。このとき、図20に示すように、取得した所定の部位をユーザに通知してもよい。次に、生成部320は、図9に示すトレーニング情報を参照し、他のアプリケーションから取得した所定の部位に関連付けられたトレーニングの中から、所定数のトレーニングを組み合わせてメニューを生成する。このとき、例えば図21に示すトレーニングメニュー画面が表示される。なお、所定の部位に応じたメニューの生成処理は、図24を用いて後述する。   In step S110, when the generation unit 320 acquires the information indicating the application from the reception unit 312, the generation unit 320 acquires the information indicating the predetermined part from the application using the URL scheme or the like. At this time, as shown in FIG. 20, the acquired predetermined part may be notified to the user. Next, the generation unit 320 refers to the training information illustrated in FIG. 9 and generates a menu by combining a predetermined number of trainings from the trainings associated with the predetermined site acquired from another application. At this time, for example, the training menu screen shown in FIG. 21 is displayed. It should be noted that the process of generating a menu according to a predetermined part will be described later with reference to FIG.

ステップS112で、制御部306は、トレーニングが開始されたか否かを判定する。例えば、制御部306は、画面に表示されたトレーニングを始めるためのボタンがユーザにより押されたか否かを判定する。トレーニングが開始されれば(ステップS112−YES)、処理はステップS114に進み、トレーニングが開始されなければ(ステップS112−NO)、処理はステップS112に戻る。   In step S112, the control unit 306 determines whether training has started. For example, the control unit 306 determines whether or not the button for starting the training displayed on the screen has been pressed by the user. If the training is started (step S112-YES), the process proceeds to step S114, and if the training is not started (step S112-NO), the process returns to step S112.

ステップS114で、制御部306は、トレーニング処理を開始する。制御部306は、アイウエア30に搭載された6軸センサ206によりセンシングされた信号を用いて、トレーニング中の姿勢を評価する。このトレーニング処理は、図25を用いて後述する。   In step S114, the control unit 306 starts the training process. The control unit 306 evaluates the posture during training using the signals sensed by the 6-axis sensor 206 mounted on the eyewear 30. This training process will be described later with reference to FIG.

ステップS116で、表示制御部322は、トレーニング結果を画面に表示するよう制御する。このとき、例えば、図18に示すトレーニング結果画面が表示される。   In step S116, the display control unit 322 controls to display the training result on the screen. At this time, for example, the training result screen shown in FIG. 18 is displayed.

以上の処理によれば、体幹に関するトレーニング処理を実行する際に、トレーニングメニューを自動で生成し、ユーザに装着されたセンサからの信号を用いてトレーニングの結果を評価することで、適切な評価を行うことができる。   According to the above processing, when executing the training processing regarding the core, the training menu is automatically generated, and the result of the training is evaluated by using the signal from the sensor worn by the user, thereby performing an appropriate evaluation. It can be performed.

図23は、目的に応じたメニューの生成処理の一例を示すフローチャートである。図23に示すステップS202で、特定部314は、図9に示すトレーニング情報を参照し、受け付けられた目的に基づいて1又は複数のトレーニングを特定する。   FIG. 23 is a flowchart showing an example of a menu generation process according to the purpose. In step S202 illustrated in FIG. 23, the identifying unit 314 refers to the training information illustrated in FIG. 9 and identifies one or a plurality of trainings based on the accepted purpose.

ステップS204で、第1生成部3202は、特定されたトレーニングの種類に基づき、各種類の割合が所定の割合になるように、トレーニングを抽出する。例えば、トレーニングの種類がA、B、Cである場合、それぞれ1:1:1になるようにトレーニングをランダムに抽出する。所定の割合は、適宜設定可能である。   In step S204, the first generation unit 3202 extracts the training based on the identified training type so that the ratio of each type becomes a predetermined ratio. For example, when the types of training are A, B, and C, the training is randomly extracted so as to have a ratio of 1: 1: 1. The predetermined ratio can be set appropriately.

ステップS206で、第1生成部3202は、抽出されたトレーニングを組み合わせてメニューを生成する。例えば、第1生成部3202は、トレーニングの所要時間や、同じトレーニングの種類が続かないなどの所定基準に従って、トレーニングの順番を決めてもよい。   In step S206, the first generation unit 3202 combines the extracted trainings to generate a menu. For example, the first generation unit 3202 may determine the order of training according to a required time for training or a predetermined criterion such that the same type of training does not continue.

以上の処理によれば、ユーザは、自身が体幹を鍛える目的を選択するだけで、その目的に合ったトレーニングメニューを自動で生成することができる。また、同じ目的が繰り返し選択されても、トレーニングはランダム抽出されるため、毎回同じトレーニングメニューではなく、ユーザに飽きさせずにトレーニングを継続させることができる。   According to the above processing, the user can automatically generate a training menu suitable for the purpose only by selecting the purpose for training the core. Further, even if the same purpose is repeatedly selected, the training is randomly extracted, so that it is not the same training menu every time, and the training can be continued without the user getting tired.

図24は、所定の部位に応じたメニューの生成処理の一例を示すフローチャートである。図24に示すステップS302で、受付部312は、他のアプリケーションから、URLスキームなどを用いて、所定の部位を示す情報を取得する。   FIG. 24 is a flowchart showing an example of a menu generation process corresponding to a predetermined part. In step S302 illustrated in FIG. 24, the reception unit 312 acquires information indicating a predetermined part from another application using a URL scheme or the like.

ステップS314で、特定部314は、図9に示すトレーニング情報を参照し、受け付けられた所定の部位に基づいて1又は複数のトレーニングを特定する。例えば、特定部314は、所定の部位に対して効果が有るとして関連付けられたトレーニングを特定する。   In step S314, the identifying unit 314 refers to the training information illustrated in FIG. 9 and identifies one or a plurality of trainings based on the received predetermined part. For example, the identifying unit 314 identifies the training associated with the predetermined site as having an effect.

ステップS204で、第2生成部3204は、特定されたトレーニングの中から、所定数のトレーニングをランダムに抽出し、抽出されたトレーニングを組み合わせてメニューを生成する。例えば、第2生成部3204は、トレーニングの所要時間や、同じトレーニングの種類が続かないなどの所定基準に従って、トレーニングの順番を決めてもよい。   In step S204, the second generation unit 3204 randomly extracts a predetermined number of trainings from the identified trainings, and combines the extracted trainings to generate a menu. For example, the second generation unit 3204 may determine the order of training according to a required time for training, or a predetermined criterion such that the same type of training does not continue.

以上の処理によれば、他のアプリケーションから通知された所定の部位に合ったトレーニングメニューを自動で生成することができる。また、同じ部位が繰り返し通知されても、トレーニングはランダム抽出されるため、毎回同じトレーニングメニューではなく、ユーザに飽きさせずにトレーニングを継続させることができる。なお、他のアプリケーションから通知される以外にも、ユーザが鍛えたい部位を入力することで、図24に示す処理を実行させるようにしてもよい。   According to the above processing, it is possible to automatically generate a training menu suitable for a predetermined part notified from another application. Further, even if the same part is repeatedly notified, the training is randomly extracted, so that it is not the same training menu each time, and the training can be continued without the user getting tired. In addition to the notification from another application, the process shown in FIG. 24 may be executed by the user inputting a portion to be trained.

図25は、トレーニング処理の一例を示すフローチャートである。図25に示すステップS402で、表示制御部322は、ユーザに対してトレーニング前の姿勢(準備姿勢とも称す。)を促す画面を表示するよう制御する。このとき、評価部318は、センサからの信号に基づいて、準備姿勢についても評価してもよい。   FIG. 25 is a flowchart showing an example of the training process. In step S402 illustrated in FIG. 25, the display control unit 322 controls to display a screen that prompts the user to take a posture before training (also referred to as a preparation posture). At this time, the evaluation unit 318 may also evaluate the preparation posture based on the signal from the sensor.

ステップS404で、表示制御部322は、ユーザに対してトレーニング時の姿勢(静止姿勢とも称す。)を維持する画面を表示するよう制御する。このとき、評価部318は、センサからの信号に基づいて、静止姿勢について評価する。   In step S404, the display control unit 322 controls the user to display a screen for maintaining the posture during training (also referred to as a static posture). At this time, the evaluation unit 318 evaluates the static posture based on the signal from the sensor.

ステップS406で、スコア算出部3187は、トレーニング中の姿勢について、そのトレーニングに対する閾値を用いて採点を行い、スコアを算出する。また、そのトレーニングに応じた信号を用いることで、関連性が低い信号を用いた処理を省くことができ、省電力化に寄与することができる。   In step S406, the score calculation unit 3187 calculates the score for the posture during training by using the threshold for the training. Further, by using the signal according to the training, it is possible to omit the processing using the signal having low relevance, and it is possible to contribute to the power saving.

ステップS408で、制御部306は、全セットが終了したか否かを判定する。全セットが終了していれば(ステップS408−YES)、処理はステップS410に進み、全セット終了していなければ(ステップS408−NO)、処理はS402に戻る。   In step S408, the control unit 306 determines whether all the sets have been completed. If all sets have been completed (step S408-YES), the process proceeds to step S410, and if all sets have not been completed (step S408-NO), the process returns to step S402.

ステップS410で、スコア算出部3187は、各セットにおけるスコアを合計し、セット数で除算することで、平均点(平均スコア)を算出する。算出された平均点は、表示制御部322により画面に表示される。   In step S410, the score calculation unit 3187 calculates the average score (average score) by summing the scores in each set and dividing by the number of sets. The calculated average point is displayed on the screen by the display control unit 322.

以上の処理によれば、所定の姿勢を所定時間維持するトレーニングに対し、適切な評価を行うことができる。   According to the above processing, it is possible to perform an appropriate evaluation for training that maintains a predetermined posture for a predetermined time.

なお、図22〜24で説明した処理のフローに含まれる各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更して又は並列に実行することができるとともに、各処理ステップ間に他のステップを追加してもよい。また、便宜上1ステップとして記載されているステップは、複数ステップに分けて実行することができる一方、便宜上複数ステップに分けて記載されているものは、1ステップとして把握することができる。   22 to 24, the processing steps included in the processing flows described in FIGS. 22 to 24 can be arbitrarily changed in order or executed in parallel as long as the processing contents do not conflict with each other. Other steps may be added in between. Further, a step described as one step for convenience can be divided into a plurality of steps and executed, while a step described as a plurality of steps for convenience can be grasped as one step.

以上、実施例によれば、所定姿勢を所定時間維持するトレーニングにおけるユーザの姿勢について、適切な評価を行うことができる。また、実施例によれば、トレーニングごとに用いる信号値を変更することで、そのトレーニングに合った評価を行うことができ、さらに、無駄な処理を省くことで、省電力化に寄与することができる As described above, according to the embodiment, it is possible to appropriately evaluate the posture of the user in the training for maintaining the predetermined posture for the predetermined time. Further, according to the embodiment, by changing the signal value used for each training, it is possible to perform an evaluation suitable for the training, and further, it is possible to contribute to power saving by omitting useless processing. I can .

なお、実施例において、アイウエア30がメガネである場合について説明した。しかし、アイウエアはこれに限定されない。アイウエアは、眼に関連する装具であればよく、メガネ、サングラス、ゴーグル及びヘッドマウントディスプレイならびにこれらのフレームなどの顔面装着具又は頭部装着具であってよい。   In the embodiment, the case where the eyewear 30 is glasses has been described. However, the eyewear is not limited to this. The eyewear may be eye-related equipment, and may be face-wearing equipment or head-wearing equipment such as glasses, sunglasses, goggles and head mounted displays, and frames thereof.

実施例において、アイウエア30が生体電極を設けてもよいことを説明したが、この生体電極から取得できる眼電位信号に基づいて、視線移動や瞬目を検出してもよい。このとき、6軸センサ206から取得できる各データと、視線移動や瞬目とが関連付けて記憶されてもよい。これにより、運動時の瞬目や視線移動を分析することが可能になる。   Although it has been described in the embodiment that the eyewear 30 may be provided with the bioelectrode, the eye movement or the blink may be detected based on the electro-oculography signal acquired from the bioelectrode. At this time, each data that can be acquired from the 6-axis sensor 206 may be stored in association with the eye movement or the blink. This makes it possible to analyze blinks and eye movements during exercise.

なお、実施例において、アイウエア30に搭載された6軸センサ206からの検出データを用いて説明したが、情報処理装置10に搭載された6軸センサ111からの検出データを用いても、実施例において説明したアプリケーションを実行することが可能である。すなわち、6軸センサは、頭部だけではなく、人体のいずれかの位置に装着されていればよい。なお、6軸センサは、体幹部分に装着されることが好ましい。   In the embodiment, the detection data from the 6-axis sensor 206 mounted on the eyewear 30 is used, but the detection data from the 6-axis sensor 111 mounted on the information processing apparatus 10 may be used. It is possible to execute the application described in the example. That is, the 6-axis sensor may be attached not only to the head but also to any position on the human body. The 6-axis sensor is preferably attached to the trunk.

また、実施例では、多くのセンサをユーザが装着する必要がなく、少なくとも1つの6軸センサがあれば実装可能である。よって、ユーザにセンサ装着の煩わしさを感じさせることなく、体幹に関するトレーニング時の姿勢を評価することができる。   Further, in the embodiment, it is not necessary for the user to wear many sensors, and it is possible to implement it if there is at least one 6-axis sensor. Therefore, the posture at the time of training regarding the trunk can be evaluated without making the user feel uncomfortable with wearing the sensor.

また、実施例において、上述したアプリケーションを体幹トレーニングに適用する例を用いて説明したが、トレーニングごとに、有効なセンサ信号が異なる場合にも適用可能である。また、トレーニングメニューの生成については、体幹トレーニング以外にも、複数の種類があるトレーニングや、結果が異なる部位に効果的であるトレーニングについても適用可能である。   Further, in the embodiment, the example in which the above-described application is applied to the core training has been described, but it is also applicable to the case where the effective sensor signal is different for each training. Further, with respect to the generation of the training menu, in addition to the core training, the training having a plurality of types and the training that is effective for the parts having different results can be applied.

以上、本発明について実施例を用いて説明したが、本発明の技術的範囲は上記実施例に記載の範囲には限定されない。上記実施例に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various modifications and improvements can be added to the above embodiment. It is apparent from the description of the scope of claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

10 情報処理装置
20 処理装置
30 アイウエア
302 記憶部
304 通信部
306 制御部
312 受付部
314 特定部
316 取得部
318 評価部
320 生成部
322 表示制御部
10 information processing device 20 processing device 30 eyewear 302 storage unit 304 communication unit 306 control unit 312 reception unit 314 identification unit 316 acquisition unit 318 evaluation unit 320 generation unit 322 display control unit

Claims (11)

制御部及び記憶部を有するコンピュータが実行する情報処理方法であって、
前記制御部は、
所定姿勢を所定時間維持する所定のトレーニングを示す情報を受け付けること、
前記記憶部に記憶された閾値情報であって、所定姿勢を所定時間維持するトレーニングごとに閾値が関連付けられた前記閾値情報に基づき、前記所定のトレーニングに対する閾値を特定すること、
評価対象のユーザに装着されたセンサから検出される信号値を取得すること、
前記信号値に基づいて、評価対象のユーザが前記所定のトレーニング中であるか否かを判定することと、
前記信号値と前記閾値との比較結果、及び前記所定のトレーニング中であるか否かの判定結果に基づいて、前記ユーザの姿勢を評価すること、
を実行し、
前記評価することは、
前記所定のトレーニング中でないと判定された場合の前記姿勢の評価について、前記所定のトレーニング中であると判定された場合の前記姿勢の評価よりも低くなるように、評価を実行することを含む、情報処理方法。
An information processing method executed by a computer having a control unit and a storage unit,
The control unit is
Accepting information indicating a predetermined training for maintaining a predetermined posture for a predetermined time ,
The threshold information stored in the storage unit, based on the threshold information associated with a threshold for each training to maintain a predetermined posture for a predetermined time , to specify a threshold for the predetermined training,
To acquire the signal value detected from the sensor attached to the user to be evaluated,
Determining whether the user to be evaluated is in the predetermined training based on the signal value,
Evaluating the posture of the user based on a result of comparison between the signal value and the threshold value and a result of determination as to whether or not the predetermined training is being performed;
Run
The evaluation is
With respect to the evaluation of the posture when it is determined that the predetermined training is not being performed, including performing an evaluation so as to be lower than the evaluation of the posture when it is determined that the predetermined training is being performed, Information processing method.
前記特定することは、
前記トレーニングごとに、比較対象の1又は複数の信号及び該信号の閾値が関連付けられた前記閾値情報に基づき、前記所定のトレーニングに対する前記比較対象の信号及び閾値を特定し、
前記取得することは、
前記センサから、前記比較対象の信号の信号値を取得する、請求項1に記載の情報処理方法。
The identifying is
For each of the training, based on the threshold information associated with one or more signals to be compared and the threshold of the signal, specify the signal and the threshold of the comparison target for the predetermined training,
Acquiring is
The information processing method according to claim 1, wherein a signal value of the signal to be compared is acquired from the sensor.
前記評価することは、
前記信号値の絶対値が前記閾値未満であるか否かに基づいて、前記姿勢の安定性を評価する、請求項2に記載の情報処理方法。
The evaluation is
The information processing method according to claim 2, wherein the stability of the posture is evaluated based on whether the absolute value of the signal value is less than the threshold value.
前記特定することは、
前記トレーニングごとに、前記信号に関するピーク閾値がさらに関連付けられた前記閾値情報に基づき、前記所定のトレーニングに対する前記比較対象の信号のピーク閾値をさらに特定し、
前記取得することは、
前記比較対象の信号のピーク間の差値を算出することを含み、
前記評価することは、
前記差値の絶対値が前記ピーク閾値未満であるか否かにさらに基づいて、前記姿勢の安定性を評価する、請求項2に記載の情報処理方法。
The identifying is
For each of the training, based on the threshold information further associated with the peak threshold for the signal, further specify the peak threshold of the signal to be compared to the predetermined training,
Acquiring is
Comprising calculating a difference value between peaks of the signals to be compared,
The evaluation is
The information processing method according to claim 2, wherein the stability of the posture is evaluated further based on whether or not the absolute value of the difference value is less than the peak threshold value.
前記評価することは、
前記信号値の絶対値又は前記差値の絶対値が閾値以上となる回数に応じて、前記姿勢の安定性を示すスコアを算出することを含む、請求項4に記載の情報処理方法。
The evaluation is
The information processing method according to claim 4, further comprising calculating a score indicating the stability of the posture according to the number of times that the absolute value of the signal value or the absolute value of the difference value is equal to or more than a threshold value.
前記スコアを算出することは、
前記ユーザが前記所定のトレーニング中であるか否かの判定結果を、前記スコアに反映する、請求項5に記載の情報処理方法。
Calculating the score is
The information processing method according to claim 5, wherein a result of the determination as to whether the user is in the predetermined training is reflected in the score.
前記記憶部に記憶されたトレーニング情報であって、前記トレーニングごとに、1又は複数の属性が関連付けられた前記トレーニング情報に基づき、所定の属性に対する1又は複数のトレーニングを特定すること、
特定された1又は複数のトレーニングの中から、所定数のトレーニングを組み合わせてトレーニングのメニューを生成すること、
を前記制御部がさらに実行する、請求項1に記載の情報処理方法。
Specifying one or more trainings for a predetermined attribute based on the training information stored in the storage unit, wherein the training information is associated with one or more attributes for each training,
Generating a training menu by combining a predetermined number of trainings out of the identified one or more trainings;
The information processing method according to claim 1, wherein the control unit further executes.
前記受け付けることは、
前記トレーニングに関する所定の目的を示す情報を受け付け、
前記トレーニングを特定することは、
前記属性として、前記トレーニングに関する目的及び種類が関連付けられた前記トレーニング情報に基づき、前記所定の目的に対する複数のトレーニングを特定し、
前記生成することは、
特定された複数のトレーニングの中から、各種類の割合が所定の割合になるように当該各種類のトレーニングを抽出すること、
抽出された各種類のトレーニングを組み合わせてトレーニングのメニューを生成すること、を含む、
請求項7に記載の情報処理方法。
The acceptance is
Accepting information indicating the stated purpose of the training,
Identifying the training is
As the attribute, based on the training information associated with the purpose and type of the training, to identify a plurality of training for the predetermined purpose,
The generating is
Extracting each type of training so that the ratio of each type becomes a predetermined ratio from the identified plurality of trainings,
Combining each of the extracted types of training to generate a training menu,
The information processing method according to claim 7.
前記受け付けることは、
前記ユーザの体に関する所定の部位を示す情報を受け付け、
前記トレーニングを特定することは、
前記属性として、前記ユーザの体に関する1又は複数の部位が関連付けられた前記トレーニング情報に基づき、前記所定の部位に対する複数のトレーニングを特定し、
前記生成することは、
特定された複数のトレーニングの中から、所定数のトレーニングを組み合わせてトレーニングのメニューを生成する、請求項7に記載の情報処理方法。
The acceptance is
Accepting information indicating a predetermined part of the user's body,
Identifying the training is
As the attribute, based on the training information associated with one or more parts related to the body of the user, a plurality of training for the predetermined part is specified,
The generating is
The information processing method according to claim 7, wherein a training menu is generated by combining a predetermined number of trainings from the identified plurality of trainings.
所定姿勢を所定時間維持する所定のトレーニングを示す情報を受け付ける受付部と、
所定姿勢を所定時間維持するトレーニングごとに閾値が関連付けられた閾値情報を記憶する記憶部と、
前記閾値情報に基づき、前記所定のトレーニングに対する閾値を特定する特定部と、
評価対象のユーザに装着されたセンサから検出される信号値を取得する取得部と、
前記信号値に基づいて、評価対象のユーザが前記所定のトレーニング中であるか否かを判定する判定部と、
前記信号値と前記閾値との比較結果、及び前記判定部の判定結果に基づいて、前記ユーザの姿勢を評価する評価部と、
を備え、
前記評価部は、
前記所定のトレーニング中でないと判定された場合の前記姿勢の評価について、前記所定のトレーニング中であると判定された場合の前記姿勢の評価よりも低くなるように、評価を実行する、情報処理装置。
A reception unit that receives information indicating a predetermined training for maintaining a predetermined posture for a predetermined time ,
A storage unit that stores threshold information in which a threshold is associated with each training for maintaining a predetermined posture for a predetermined time ,
A specifying unit that specifies a threshold value for the predetermined training based on the threshold value information,
An acquisition unit that acquires a signal value detected from the sensor attached to the user to be evaluated,
Based on the signal value, a determination unit that determines whether the user to be evaluated is in the predetermined training,
Based on the comparison result of the signal value and the threshold value, and the determination result of the determination unit, an evaluation unit that evaluates the posture of the user,
Equipped with
The evaluation unit is
An information processing apparatus that performs evaluation so that the evaluation of the posture when it is determined that the predetermined training is not being performed is lower than the evaluation of the posture when it is determined that the predetermined training is being performed. .
コンピュータに、
所定姿勢を所定時間維持する所定のトレーニングを示す情報を受け付けること、
所定姿勢を所定時間維持するトレーニングごとに閾値が関連付けられた閾値情報に基づき、前記所定のトレーニングに対する閾値を特定すること、
評価対象のユーザに装着されたセンサから検出される信号値を取得すること、
前記信号値に基づいて、評価対象のユーザが前記所定のトレーニング中であるか否かを判定することと、
前記信号値と前記閾値との比較結果、及び前記所定のトレーニング中であるか否かの判定結果に基づいて、前記ユーザの姿勢を評価すること、
を実行させ、
前記評価することは、
前記所定のトレーニング中でないと判定された場合の前記姿勢の評価について、前記所定のトレーニング中であると判定された場合の前記姿勢の評価よりも低くなるように、評価を実行することを含む、プログラム。
On the computer,
Accepting information indicating a predetermined training for maintaining a predetermined posture for a predetermined time ,
Specifying a threshold for the predetermined training based on threshold information associated with a threshold for each training for maintaining a predetermined posture for a predetermined time ,
To acquire the signal value detected from the sensor attached to the user to be evaluated,
Determining whether the user to be evaluated is in the predetermined training based on the signal value,
Evaluating the posture of the user based on a result of comparison between the signal value and the threshold value and a result of determination as to whether or not the predetermined training is being performed;
Run
The evaluation is
With respect to the evaluation of the posture when it is determined that the predetermined training is not being performed, including performing an evaluation so as to be lower than the evaluation of the posture when it is determined that the predetermined training is being performed, program.
JP2017563464A 2016-01-27 2016-01-27 Information processing method, information processing apparatus, and program Active JP6689889B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/052397 WO2017130339A1 (en) 2016-01-27 2016-01-27 Information processing method, information processing device, and program

Publications (2)

Publication Number Publication Date
JPWO2017130339A1 JPWO2017130339A1 (en) 2018-11-22
JP6689889B2 true JP6689889B2 (en) 2020-04-28

Family

ID=59397684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017563464A Active JP6689889B2 (en) 2016-01-27 2016-01-27 Information processing method, information processing apparatus, and program

Country Status (2)

Country Link
JP (1) JP6689889B2 (en)
WO (1) WO2017130339A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6811349B1 (en) 2020-03-31 2021-01-13 株式会社三菱ケミカルホールディングス Information processing equipment, methods, programs
JP7150387B1 (en) 2022-01-13 2022-10-11 三菱ケミカルグループ株式会社 Programs, methods and electronics

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4854694B2 (en) * 2008-02-27 2012-01-18 株式会社エクシング Exercise support device, exercise support method, and computer program
JP2010005033A (en) * 2008-06-25 2010-01-14 Panasonic Electric Works Co Ltd Walking motion analyzer
JP2010175754A (en) * 2009-01-28 2010-08-12 Yamaha Corp Attitude evaluating device, attitude evaluating system and program
US9283429B2 (en) * 2010-11-05 2016-03-15 Nike, Inc. Method and system for automated personal training
JP5314224B1 (en) * 2012-02-29 2013-10-16 美津濃株式会社 Running form diagnostic system and method for scoring running form
WO2014091583A1 (en) * 2012-12-12 2014-06-19 富士通株式会社 Acceleration sensor output processing program, processing method, and processing device, and gait assessment program
US9226706B2 (en) * 2012-12-19 2016-01-05 Alert Core, Inc. System, apparatus, and method for promoting usage of core muscles and other applications
US10318708B2 (en) * 2013-03-14 2019-06-11 Nike, Inc. System and method for monitoring athletic activity from multiple body locations
JP6266270B2 (en) * 2013-05-20 2018-01-24 セイコーインスツル株式会社 Exercise form analysis apparatus and exercise form analysis method
JP2015160049A (en) * 2014-02-28 2015-09-07 株式会社東芝 Ultrasonic diagnostic device and ultrasonic diagnostic device user's posture evaluation notifying method

Also Published As

Publication number Publication date
JPWO2017130339A1 (en) 2018-11-22
WO2017130339A1 (en) 2017-08-03

Similar Documents

Publication Publication Date Title
US10671176B2 (en) Motion and gesture input from a wearable device
US8988372B2 (en) Obtaining physiological measurements using a portable device
TWI669681B (en) Electronic calculatiing apparatus, system, and method for providing body posture health information
KR101858116B1 (en) A postural balance training system
CN104023802B (en) Use the control of the electronic installation of neural analysis
CN106796452B (en) Head-mounted display apparatus and its control method, computer-readable medium
CN107789803B (en) Cerebral stroke upper limb rehabilitation training method and system
CN106705989B (en) step recording method, device and terminal
US9521202B2 (en) Method for matching multiple devices, and device and server system for enabling matching
EP2691954B1 (en) Method and apparatus for detecting facial changes
US11501552B2 (en) Control apparatus, information processing system, control method, and program
JP6689889B2 (en) Information processing method, information processing apparatus, and program
JP6535694B2 (en) INFORMATION PROCESSING METHOD, INFORMATION PROCESSING DEVICE, AND PROGRAM
JP6697300B2 (en) Information processing method, program, and information processing device
JP2017070602A (en) Information processing method, information processing device, and program
KR102390599B1 (en) Method and apparatus for training inner concentration
JP6067148B1 (en) Information processing method, information processing apparatus, and program
JP6670710B2 (en) Information processing method, information processing apparatus and program
JP6706958B2 (en) Information processing method, information processing apparatus, and program
CN108635805B (en) Motion reminding method and terminal equipment
JP6465419B2 (en) Measuring apparatus and measuring method
TWI762312B (en) Smart wearable device for controlling volume and method for controlling volume
JP6621134B2 (en) Information processing method, information processing apparatus, and program
WO2023037656A1 (en) Biofeedback system, biofeedback method, and control program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180720

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200408

R150 Certificate of patent or registration of utility model

Ref document number: 6689889

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250