JP6067148B1 - Information processing method, information processing apparatus, and program - Google Patents

Information processing method, information processing apparatus, and program Download PDF

Info

Publication number
JP6067148B1
JP6067148B1 JP2015557261A JP2015557261A JP6067148B1 JP 6067148 B1 JP6067148 B1 JP 6067148B1 JP 2015557261 A JP2015557261 A JP 2015557261A JP 2015557261 A JP2015557261 A JP 2015557261A JP 6067148 B1 JP6067148 B1 JP 6067148B1
Authority
JP
Japan
Prior art keywords
data
threshold
blur
reference object
human body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015557261A
Other languages
Japanese (ja)
Other versions
JPWO2017061005A1 (en
Inventor
晋 中村
晋 中村
健史 橋本
健史 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jin Co Ltd
Original Assignee
Jin Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jin Co Ltd filed Critical Jin Co Ltd
Application granted granted Critical
Publication of JP6067148B1 publication Critical patent/JP6067148B1/en
Publication of JPWO2017061005A1 publication Critical patent/JPWO2017061005A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Physiology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Biomedical Technology (AREA)
  • Dentistry (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)

Abstract

開示の技術における情報処理方法は、制御部及び記憶部を有するコンピュータが実行する情報処理方法であって、制御部は、人体に装着された加速度センサ及び角速度センサからの各検出データに基づく人体の前後のブレを示す第1データ、人体の左右のブレを示す第2データ、及び人体の体軸の傾きの方向と大きさを含む姿勢を示す第3データのうち少なくとも1つを取得すること、記憶部に記憶された前後のブレ、左右のブレ、及び姿勢の各閾値のうち、取得されたデータに対応する閾値に基づき形成される基準オブジェクトを、画面内の所定座標上に表示制御すること、取得されたデータに基づき形成される対象オブジェクトを、所定座標上に表示制御すること、を実行する。An information processing method in the disclosed technology is an information processing method executed by a computer having a control unit and a storage unit, and the control unit is configured to detect a human body based on each detection data from an acceleration sensor and an angular velocity sensor attached to the human body. Obtaining at least one of first data indicating back and forth blur, second data indicating left and right blur of a human body, and third data indicating a posture including a direction and a magnitude of a tilt of a human body axis, Display control of reference objects formed on the basis of threshold values corresponding to acquired data among the threshold values of front and rear blur, left and right blur, and posture stored in the storage unit on predetermined coordinates on the screen. The display control of the target object formed based on the acquired data is performed on predetermined coordinates.

Description

本発明は、情報処理方法、情報処理装置及びプログラムに関する。   The present invention relates to an information processing method, an information processing apparatus, and a program.

頭部加速度を示す信号から、被験者の歩行シグニチャを求める技術が知られている(例えば、特許文献1参照)。   A technique for obtaining a walking signature of a subject from a signal indicating head acceleration is known (see, for example, Patent Document 1).

米国特許出願公開第2009/0030350号明細書US Patent Application Publication No. 2009/0030350

しかしながら、加速度センサや角速度センサを含むモーションセンサを装着したユーザが、走行又は歩行した場合に、自身の走行又は歩行のフォームがどのような状態にあるのかを一見して容易に把握することができるものはない。   However, when a user wearing a motion sensor including an acceleration sensor and an angular velocity sensor travels or walks, it is possible to easily grasp at a glance what state the form of his / her travel or walk is in. There is nothing.

そこで、開示の技術は、走行又は歩行時のフォームの状態を容易に把握させることを目的とする。   Therefore, the disclosed technique aims to easily grasp the state of the form during running or walking.

開示の技術の一態様における情報処理方法は、制御部及び記憶部を有するコンピュータが実行する情報処理方法であって、前記制御部は、人体に装着された加速度センサ及び角速度センサからの各検出データに基づく前記人体の前後のブレを示す第1データ、前記人体の左右のブレを示す第2データ、及び前記人体の体軸の傾きの方向と大きさを含む姿勢を示す第3データのうち少なくとも1つを取得すること、前記記憶部に記憶された前記前後のブレ、前記左右のブレ、及び前記姿勢の各閾値のうち、取得されたデータに基づき形成される基準オブジェクトを、画面内の所定座標上に表示制御すること、取得されたデータに基づき形成される対象オブジェクトを、前記所定座標上に表示制御すること、を実行する。   An information processing method according to an aspect of the disclosed technology is an information processing method executed by a computer having a control unit and a storage unit, and the control unit detects each detection data from an acceleration sensor and an angular velocity sensor attached to a human body. At least one of the first data indicating the blur before and after the human body based on the second data, the second data indicating the left and right blur of the human body, and the third data indicating the posture including the direction and magnitude of the inclination of the body axis of the human body A reference object formed on the basis of the acquired data among the threshold values of the front and rear blur, the left and right blur, and the posture stored in the storage unit. Display control on the coordinates and display control of the target object formed based on the acquired data on the predetermined coordinates are executed.

開示の技術によれば、走行又は歩行時のフォームの状態を容易に把握させることができる。   According to the disclosed technology, it is possible to easily grasp the state of the foam during running or walking.

実施例における情報処理システムの一例を示す図である。It is a figure which shows an example of the information processing system in an Example. 実施例における情報処理装置のハードウェア構成を示す概略構成図である。It is a schematic block diagram which shows the hardware constitutions of the information processing apparatus in an Example. 実施例における処理装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the processing apparatus in an Example. 実施例における情報処理装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the information processing apparatus in an Example. 実施例における設定部の構成の一例を示す図である。It is a figure which shows an example of a structure of the setting part in an Example. 実施例における実行処理部の構成の一例を示す図である。It is a figure which shows an example of a structure of the execution process part in an Example. 実施例における後処理部の構成の一例を示す図である。It is a figure which shows an example of a structure of the post-processing part in an Example. 閾値のセット例を示す図である。It is a figure which shows the example of a set of a threshold value. モードAの場合に記録された各データの一例を示す図である。It is a figure which shows an example of each data recorded in the case of mode A. モードBの場合に記録された各データの一例を示す図である。It is a figure which shows an example of each data recorded in the case of mode B. サブクラスと点数との関係を示す図である。It is a figure which shows the relationship between a subclass and a score. 総合点とクラスとの関係を示す図である。It is a figure which shows the relationship between a comprehensive point and a class. トレーニング部位の情報の一例を示す図である。It is a figure which shows an example of the information of a training site | part. 設定画面の一例を示す図である。It is a figure which shows an example of a setting screen. ランニング中に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed during running. 右足のオブジェクトRFが表示される例を示す図である。It is a figure which shows the example by which the object RF of a right leg is displayed. 左足のオブジェクトLFが表示される例を示す図である。It is a figure which shows the example in which the object LF of a left foot is displayed. 右足のオブジェクトRFが表示される例を示す図である。It is a figure which shows the example by which the object RF of a right leg is displayed. 左足のオブジェクトLFが表示される例を示す図である。It is a figure which shows the example in which the object LF of a left foot is displayed. ランニングの結果である表の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of the table | surface which is a result of running. ランニングの結果であるルートの表示画面の一例を示す図である。It is a figure which shows an example of the display screen of the route which is the result of running. ルートの表示画面における下部の拡大図の一例を示す図である。It is a figure which shows an example of the enlarged view of the lower part in the display screen of a route. ルートの表示画面における下部の拡大図の他の例を示す図である。It is a figure which shows the other example of the enlarged view of the lower part in the display screen of a route. ランニングの結果であるマップの表示画面の一例を示す図である。It is a figure which shows an example of the display screen of the map which is a result of running. ランニングの結果であるグラフの表示画面の一例を示す図である。It is a figure which shows an example of the display screen of the graph which is a result of running. トレーニング部位を示す表示画面の一例を示す図である。It is a figure which shows an example of the display screen which shows a training site | part. 実施例におけるアプリケーションの全体処理の一例を示すフローチャートである。It is a flowchart which shows an example of the whole process of the application in an Example. 実施例における実行画面の表示制御処理の一例を示すフローチャートである。It is a flowchart which shows an example of the display control process of the execution screen in an Example. 実施例におけるブレイクポイントの判定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the determination process of the break point in an Example.

以下、図面を参照して本発明の実施の形態を説明する。ただし、以下に説明する実施形態は、あくまでも例示であり、以下に明示しない種々の変形や技術の適用を排除する意図はない。即ち、本発明は、その趣旨を逸脱しない範囲で種々変形して実施することができる。また、以下の図面の記載において、同一または類似の部分には同一または類似の符号を付して表している。図面は模式的なものであり、必ずしも実際の寸法や比率等とは一致しない。図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることがある。   Embodiments of the present invention will be described below with reference to the drawings. However, the embodiment described below is merely an example, and there is no intention to exclude various modifications and technical applications that are not explicitly described below. That is, the present invention can be implemented with various modifications without departing from the spirit of the present invention. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals. The drawings are schematic and do not necessarily match actual dimensions and ratios. In some cases, the dimensional relationships and ratios may be different between the drawings.

[実施例]
実施例では、加速度センサ及び角速度センサを搭載する対象として、アイウエアを例に挙げる。図1は、実施例における情報処理システム1の一例を示す図である。図1に示す情報処理システム1は、外部装置10とアイウエア30とを含み、外部装置10とアイウエア30は、ネットワークを介して接続され、データ通信可能になっている。
[Example]
In the embodiment, eyewear is taken as an example of an object on which an acceleration sensor and an angular velocity sensor are mounted. FIG. 1 is a diagram illustrating an example of an information processing system 1 in the embodiment. The information processing system 1 shown in FIG. 1 includes an external device 10 and eyewear 30, and the external device 10 and eyewear 30 are connected via a network so that data communication is possible.

アイウエア30は、例えばテンプル部分に処理装置20を搭載する。処理装置20は、3軸加速度センサ及び3軸角速度センサ(6軸センサでもよい)を含む。また、アイウエア30は、一対のノーズパッド及びブリッジ部分にそれぞれ生体電極31、33、35を有してもよい。アイウエア30に生体電極が設けられる場合、これらの生体電極から取得される眼電位信号は、処理装置20に送信される。   The eyewear 30 mounts the processing device 20 on a temple portion, for example. The processing device 20 includes a three-axis acceleration sensor and a three-axis angular velocity sensor (may be a six-axis sensor). The eyewear 30 may have bioelectrodes 31, 33, and 35 at the pair of nose pads and the bridge portion, respectively. When biological electrodes are provided on the eyewear 30, electrooculogram signals acquired from these biological electrodes are transmitted to the processing device 20.

処理装置20の設置位置は、必ずしもテンプルである必要はないが、アイウエア30が装着された際のバランスを考慮して位置決めされればよい。   The installation position of the processing apparatus 20 is not necessarily a temple, but may be positioned in consideration of the balance when the eyewear 30 is attached.

外部装置10は、通信機能を有する情報処理装置である。例えば、外部装置10は、ユーザが所持する携帯電話及びスマートフォン等の携帯通信端末やPC(Personal Computer)等である。外部装置10は、処理装置20から受信したセンサ信号等に基づいて、ユーザの走行又は歩行(以下、走行等やランニングとも称す。)時のフォームの状態を示すオブジェクトを表示する。このとき、理想や目標とするフォームの状態を示すオブジェクトを、現在のフォームを示すオブジェクトに重畳して表示することで、現在の自分のフォームがどのような状態にあるのかを容易に把握することができるようになる。以下、外部装置10は、情報処理装置10と称して説明する。   The external device 10 is an information processing device having a communication function. For example, the external device 10 is a mobile communication terminal such as a mobile phone and a smartphone possessed by the user, a PC (Personal Computer), or the like. The external device 10 displays an object indicating the state of the form when the user runs or walks (hereinafter also referred to as running or running) based on the sensor signal or the like received from the processing device 20. At this time, it is possible to easily grasp the current state of your own form by displaying an object indicating the ideal or target form state superimposed on the object indicating the current form. Will be able to. Hereinafter, the external device 10 will be described as the information processing device 10.

<情報処理装置10のハードウェア構成>
図2は、実施例における情報処理装置10のハードウェア構成を示す概略構成図である。情報処理装置10の典型的な一例は、スマートフォンなどの携帯電話機であるが、この他、ネットワークに無線又は有線接続可能な携帯端末、あるいはタブレット型端末のようなタッチパネルを搭載した電子機器など、ネットワークを使って通信しながらデータ処理しつつ画面表示可能な汎用機器なども実施形態における情報処理装置10に該当しうる。
<Hardware Configuration of Information Processing Apparatus 10>
FIG. 2 is a schematic configuration diagram illustrating a hardware configuration of the information processing apparatus 10 according to the embodiment. A typical example of the information processing apparatus 10 is a mobile phone such as a smartphone. In addition, a network such as a mobile terminal that can be wirelessly or wired connected to a network, or an electronic device that includes a touch panel such as a tablet terminal. A general-purpose device capable of displaying a screen while processing data while communicating using the information processing apparatus 10 may correspond to the information processing apparatus 10 in the embodiment.

実施形態における情報処理装置10は、例えば、図示しない矩形の薄形筐体を備え、その筐体の一方の面には、タッチパネル102が構成される。情報処理装置10では、各構成要素が主制御部150に接続されている。主制御部150は、例えばプロセッサである。   The information processing apparatus 10 according to the embodiment includes, for example, a rectangular thin housing (not shown), and a touch panel 102 is configured on one surface of the housing. In the information processing apparatus 10, each component is connected to the main control unit 150. The main control unit 150 is a processor, for example.

主制御部150には、移動体通信用アンテナ112、移動体通信部114、無線LAN通信用アンテナ116、無線LAN通信部118、記憶部120、スピーカ104、マイクロフォン106、ハードボタン108、ハードキー110及び6軸センサ111が接続されている。また、主制御部150には、さらに、タッチパネル102、カメラ130、及び外部インターフェース140が接続されている。外部インターフェース140は、音声出力端子142を含む。   The main control unit 150 includes a mobile communication antenna 112, a mobile communication unit 114, a wireless LAN communication antenna 116, a wireless LAN communication unit 118, a storage unit 120, a speaker 104, a microphone 106, a hard button 108, and a hard key 110. And the 6-axis sensor 111 is connected. The main control unit 150 is further connected with a touch panel 102, a camera 130, and an external interface 140. The external interface 140 includes an audio output terminal 142.

タッチパネル102は、表示装置及び入力装置の両方の機能を備え、表示機能を担うディスプレイ(表示画面)102Aと、入力機能を担うタッチセンサ102Bとで構成される。ディスプレイ102Aは、例えば、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイなどの一般的な表示デバイスにより構成される。タッチセンサ102Bは、ディスプレイ102Aの上面に配置された接触操作を検知するための素子及びその上に積層された透明な操作面を備えて構成される。タッチセンサ102Bの接触検知方式としては、静電容量式、抵抗膜式(感圧式)、電磁誘導式など既知の方式のうちの任意の方式を採用することができる。   The touch panel 102 has both functions of a display device and an input device, and includes a display (display screen) 102A that bears a display function and a touch sensor 102B that bears an input function. The display 102A is configured by a general display device such as a liquid crystal display or an organic EL (Electro Luminescence) display. The touch sensor 102B includes an element for detecting a contact operation disposed on the upper surface of the display 102A and a transparent operation surface stacked on the element. As a contact detection method of the touch sensor 102B, an arbitrary method among known methods such as a capacitance method, a resistance film method (pressure-sensitive method), and an electromagnetic induction method can be adopted.

表示装置としてのタッチパネル102は、主制御部150によるプログラム122の実行により生成されるアプリケーションの画像を表示する。入力装置としてのタッチパネル102は、操作面に対して接触する接触物(プレイヤの指やスタイラスなどを含む。以下、「指」である場合を代表例として説明する。)の動作を検知することで、操作入力を受け付け、その接触位置の情報を主制御部150に与える。指の動作は、接触点の位置または領域を示す座標情報として検知され、座標情報は、例えば、タッチパネル102の短辺方向及び長辺方向の二軸上の座標値として表される。   The touch panel 102 as a display device displays an application image generated by the execution of the program 122 by the main control unit 150. The touch panel 102 as an input device detects an action of a contact object (including a player's finger, stylus, and the like. Hereinafter, a case of a “finger” will be described as a representative example). The operation input is received, and information on the contact position is given to the main control unit 150. The movement of the finger is detected as coordinate information indicating the position or area of the contact point, and the coordinate information is represented as coordinate values on two axes of the short side direction and the long side direction of the touch panel 102, for example.

情報処理装置10は、移動体通信用アンテナ112や無線LAN通信用アンテナ116を通じてネットワークNに接続され、処理装置20との間でデータ通信をすることが可能である。なお、記憶部120は、プログラム122を記録し、また、記憶部120は、外部装置10と別体であってもよく、例えば、SDカードやCD−RAM等の記録媒体であってもよい。   The information processing apparatus 10 is connected to the network N through the mobile communication antenna 112 and the wireless LAN communication antenna 116, and can perform data communication with the processing apparatus 20. The storage unit 120 records the program 122, and the storage unit 120 may be separate from the external device 10, and may be a recording medium such as an SD card or a CD-RAM.

<処理装置20の構成>
図3は、実施例における処理装置20の構成の一例を示すブロック図である。図3に示すように、処理装置20は、処理部202、送信部204、6軸センサ206、及び電源部208を有する。また、各生体電極31、33、35は、例えば増幅部を介して電線を用いて処理部202に接続される。なお、処理装置20の各部は、一方のテンプルに設けられるのではなく、一対のテンプルに分散して設けられてもよい。
<Configuration of Processing Device 20>
FIG. 3 is a block diagram illustrating an example of the configuration of the processing device 20 according to the embodiment. As illustrated in FIG. 3, the processing device 20 includes a processing unit 202, a transmission unit 204, a 6-axis sensor 206, and a power supply unit 208. In addition, each of the bioelectrodes 31, 33, and 35 is connected to the processing unit 202 using an electric wire via an amplification unit, for example. In addition, each part of the processing apparatus 20 may be distributed in a pair of temples instead of being provided in one temple.

6軸センサ206は、3軸加速度センサ及び3軸角速度センサである。また、これらの各センサは別個に設けられてもよい。6軸センサ206は、検出したセンサ信号(又は検出データとも称す)を処理部202に出力する。   The 6-axis sensor 206 is a 3-axis acceleration sensor and a 3-axis angular velocity sensor. Each of these sensors may be provided separately. The 6-axis sensor 206 outputs the detected sensor signal (also referred to as detection data) to the processing unit 202.

処理部202は、例えばプロセッサであり、6軸センサ206から得られるセンサ信号を必要に応じて処理し、送信部204に出力する。例えば、処理部202は、6軸センサ206からのセンサ信号を用いて、ピッチ(Pitch)角を示す第1データ、ロール(Roll)角を示す第2データ、及び体軸の傾きの方向と大きさを含む姿勢を示す第3データを生成する。ピッチ角は、例えば頭の前後のブレを示し、ロール角は、例えば頭の左右のブレを示し、体軸の傾きの方向及び大きさは、例えば頭の傾きの方向及び大きさを示す。ピッチ角、ロール角、及び姿勢については、公知の技術を用いて算出すればよい。また、処理部202は、6軸センサ206から得られるセンサ信号を増幅等するだけでもよい。   The processing unit 202 is, for example, a processor, processes the sensor signal obtained from the 6-axis sensor 206 as necessary, and outputs the processed signal to the transmission unit 204. For example, the processing unit 202 uses the sensor signal from the 6-axis sensor 206 to perform the first data indicating the pitch angle, the second data indicating the roll angle, and the direction and magnitude of the inclination of the body axis. Third data indicating a posture including the height is generated. The pitch angle indicates, for example, blurring around the head, the roll angle indicates, for example, lateral blurring of the head, and the direction and magnitude of the body axis tilt indicate, for example, the direction and magnitude of the head tilt. The pitch angle, roll angle, and posture may be calculated using a known technique. Further, the processing unit 202 may only amplify the sensor signal obtained from the 6-axis sensor 206.

送信部204は、処理部201によって処理された第1データから第3データを含む各データを情報処理装置10に送信する。例えば、送信部204は、Bluetooth(登録商標)及び無線LAN等の無線通信、又は有線通信によってセンサ信号又は各データを情報処理装置10に送信する。電源部208は、処理部202、送信部204、6軸センサ206等に電力を供給する。   The transmission unit 204 transmits each data including the third data to the information processing apparatus 10 from the first data processed by the processing unit 201. For example, the transmission unit 204 transmits the sensor signal or each data to the information processing apparatus 10 by wireless communication such as Bluetooth (registered trademark) and wireless LAN, or wired communication. The power supply unit 208 supplies power to the processing unit 202, the transmission unit 204, the 6-axis sensor 206, and the like.

<情報処理装置10の構成>
次に、情報処理装置10の構成について説明する。図4は、実施例における情報処理装置10の構成の一例を示す図である。情報処理装置10は、記憶部302、通信部304、及び制御部306を有する。
<Configuration of Information Processing Apparatus 10>
Next, the configuration of the information processing apparatus 10 will be described. FIG. 4 is a diagram illustrating an example of the configuration of the information processing apparatus 10 according to the embodiment. The information processing apparatus 10 includes a storage unit 302, a communication unit 304, and a control unit 306.

記憶部302は、例えば、図2に示す記憶部120等により実現されうる。記憶部302は、実施例におけるランニングのアプリケーションに関するデータ、例えば、処理装置20から受信したデータや、画面に表示される画面情報等を記憶する。   The storage unit 302 can be realized by, for example, the storage unit 120 shown in FIG. The storage unit 302 stores data related to the running application in the embodiment, for example, data received from the processing device 20, screen information displayed on the screen, and the like.

通信部304は、例えば移動体通信部114や無線LAN通信部118等により実現されうる。通信部304は、例えば処理装置20からデータを受信する。また、通信部304は、情報処理装置10において処理されたデータをサーバ(不図示)に送信したりしてもよい。すなわち、通信部304は、送信部と受信部としての機能を有する。   The communication unit 304 can be realized by the mobile communication unit 114, the wireless LAN communication unit 118, and the like, for example. The communication unit 304 receives data from the processing device 20, for example. The communication unit 304 may transmit data processed in the information processing apparatus 10 to a server (not shown). That is, the communication unit 304 functions as a transmission unit and a reception unit.

制御部306は、例えば主制御部150等により実現されうる。制御部306は、ランニングのアプリケーションを実行する。実施例におけるランニングのアプリケーションは、通常のランニングのアプリケーションの機能に加え、ランナーのフォームの状態を容易に把握することができるような機能を有する。この機能を実現するため、制御部306は、取得部312、設定部314、実行処理部316、後処理部318、及び表示制御部320を有する。   The control unit 306 can be realized by the main control unit 150, for example. The control unit 306 executes a running application. The running application in the embodiment has a function that can easily grasp the state of the runner's form in addition to the function of the normal running application. In order to realize this function, the control unit 306 includes an acquisition unit 312, a setting unit 314, an execution processing unit 316, a post-processing unit 318, and a display control unit 320.

取得部312は、人体に装着された6軸センサ206からの検出データに基づく人体の前後のブレを示す第1データ、人体の左右のブレを示す第2データ、及び人体の体軸の傾きの方向と大きさを含む姿勢を示す第3データのうち少なくとも1つを取得する。人体に装着されたとは、直接的に装着されることだけではなく、アイウエア30等を含むウェアラブルデバイスを用いて間接的に装着されることを含む。   The acquisition unit 312 includes first data indicating blurring of the front and back of the human body based on detection data from the six-axis sensor 206 attached to the human body, second data indicating blurring of the human body, and inclination of the human body axis. At least one of the third data indicating the posture including the direction and the size is acquired. Wearing on the human body includes not only wearing directly but also wearing indirectly using a wearable device including the eyewear 30 and the like.

表示制御部320は、記憶部302に記憶された前後のブレ、左右のブレ、及び姿勢の各閾値のうち、取得された第1データ、第2データ及び/又は第3データに対応する閾値に基づき形成される基準オブジェクトを、画面内の所定座標上に表示制御する。各閾値は、予め記憶部302に記憶されていてもよいし、所定時間計測された第1データ、第2データ、及び/又は第3データから求められて記憶されてもよい。   The display control unit 320 sets the threshold corresponding to the acquired first data, second data, and / or third data among the front and rear blur, left and right blur, and posture thresholds stored in the storage unit 302. The reference object formed based on the display is controlled on a predetermined coordinate in the screen. Each threshold value may be stored in the storage unit 302 in advance, or may be obtained and stored from the first data, the second data, and / or the third data measured for a predetermined time.

表示制御部320は、取得部312により取得された第1データ、第2データ、及び/又は第3データに基づき形成される対象オブジェクトを、基準オブジェクトと同じ所定座標上に表示制御する。これにより、自身のフォームに対する理想や目標となる基準オブジェクトに対して、自身のランニング時に計測されたデータに基づく対象オブジェクトを重畳することができ、自身のフォームに対する客観的指標を容易にユーザに把握させることができる。また、基準オブジェクトに重畳されて自身のフォームの状態を示す対象オブジェクトが形成され、表示されるので、自身のフォームの状態の視認性を向上させることができる。なお、以下に示す例では、取得部312により第1データ、第2データ、及び第3データが取得されたとする。   The display control unit 320 controls the display of the target object formed based on the first data, the second data, and / or the third data acquired by the acquisition unit 312 on the same predetermined coordinates as the reference object. This makes it possible to superimpose the target object based on the data measured during your running on the ideal or target reference object for your own form, and you can easily grasp the objective indicators for your form. Can be made. In addition, since the target object indicating the state of its own form is formed and displayed superimposed on the reference object, the visibility of the state of its own form can be improved. In the example shown below, it is assumed that the acquisition unit 312 acquires the first data, the second data, and the third data.

また、表示制御部320は、画面内に表示された対象オブジェクトのうち、基準オブジェクトの外又は内の領域を識別可能にしてもよい。例えば、表示制御部320は、基準オブジェクトからはみ出た対象オブジェクトの部分を、もともとの色から他の色に変更したり、パターンを変更したりしてもよい。これにより、ユーザは、対象オブジェクトの閾値からはみ出た部分を容易に判別することができ、自身のフォームの悪いところを容易に把握することができ、さらには自分のフォームに反映させることも可能になる。   Further, the display control unit 320 may make it possible to identify an area outside or inside the reference object among the target objects displayed in the screen. For example, the display control unit 320 may change the part of the target object that protrudes from the reference object from the original color to another color, or change the pattern. As a result, the user can easily determine the part of the target object that protrudes from the threshold, can easily grasp the bad part of his / her form, and can also reflect it on his / her form. Become.

設定部314は、前後のブレ、左右のブレ、及び姿勢の各項目の閾値を設定する。例えば、設定部314は、ユーザにより設定された各項目に対応する閾値を、都度取得される各データの比較対象に設定する。より具体的には、設定部314は、ユーザの目標や走る場所に対応する閾値のセットを複数用意しておき、設定された目標や場所に応じてそれぞれの閾値を、都度取得される各データの比較対象に設定する。これにより、閾値の設定を可変にすることができ、ランナーのレベルや環境に合わせて、より適切な閾値を用いることができる。なお、設定部314の詳細は、図5を用いて後述する。   The setting unit 314 sets a threshold value for each item of front / rear blur, left / right blur, and posture. For example, the setting unit 314 sets a threshold corresponding to each item set by the user as a comparison target of each data acquired each time. More specifically, the setting unit 314 prepares a plurality of sets of thresholds corresponding to the user's target and the place where the user runs, and sets each threshold according to the set target and location as each data acquired. To be compared. Thereby, the setting of a threshold value can be made variable and a more suitable threshold value can be used according to a runner's level and environment. Details of the setting unit 314 will be described later with reference to FIG.

実行処理部316は、走行等の時に得られるデータを処理する機能を主に有する。実行処理部316は、例えば、走行等の時に得られるデータから、フォームの状態を示す対象オブジェクトを形成したり、怪我の可能性等を判定したり、安定した走行等ができなくなったとみなす時点を判定したりする。実行処理部316の詳細は図6を用いて後述する。   The execution processing unit 316 mainly has a function of processing data obtained at the time of traveling or the like. For example, the execution processing unit 316 forms a target object indicating the state of the form from the data obtained at the time of traveling, etc., determines the possibility of injury, and the time when it is considered that stable traveling or the like cannot be performed. Judgment. Details of the execution processing unit 316 will be described later with reference to FIG.

後処理部318は、走行等の結果等を処理する機能を主に有する。ここでいう結果とは、例えば、走行等のペースや走行等の距離、走行等の軌跡、時系列における走行等時のフォームの状態を集計した結果を示す。後処理部318は、図7を用いて後述する。   The post-processing unit 318 mainly has a function of processing results such as traveling. The result here refers to, for example, the result of totaling the pace of traveling, the distance of traveling, the trajectory of traveling, and the state of the form during traveling in time series. The post-processing unit 318 will be described later with reference to FIG.

表示制御部320は、タッチパネル102に表示される画面の表示を制御する。例えば、表示制御部320は、上述したように、ランニングのアプリケーションにおける画面情報を生成したり、この画面情報に基づく画面が表示されるように制御したりする。   The display control unit 320 controls display of a screen displayed on the touch panel 102. For example, as described above, the display control unit 320 generates screen information in a running application and controls the screen based on the screen information to be displayed.

≪設定部≫
図5は、実施例における設定部314の構成の一例を示す図である。図5に示す設定部314は、受付部3142及び基準設定部3144を有する。
≪Setting section≫
FIG. 5 is a diagram illustrating an example of the configuration of the setting unit 314 in the embodiment. The setting unit 314 illustrated in FIG. 5 includes a reception unit 3142 and a reference setting unit 3144.

受付部3142は、記憶部302に記憶された各閾値を含む複数のセットの中から、一のセットの選択を受け付ける。例えば、受付部3142は、ランニングのアプリケーションの設定画面において、目標とするペースや、走行等の場所(屋内又は屋外)などをユーザに選択させ、この選択結果を受け付ける。   The accepting unit 3142 accepts selection of one set from a plurality of sets including each threshold value stored in the storage unit 302. For example, the reception unit 3142 allows the user to select a target pace, a place such as running (indoor or outdoor), and the like on the setting screen of the running application, and receives the selection result.

基準設定部3144は、受け付けられたペースや走行等の場所に対応する一のセットを取得し、取得された一のセット内の各閾値に基づいて、基準オブジェクトのパラメータを設定する。例えば、基準設定部3144は、頭の前後のブレ、左右のブレ、姿勢の各閾値を、基準オブジェクトの縦幅、横幅、及び中心の範囲に重複しないように1対1に対応付けて設定する。これにより、ユーザにより設定された項目に応じて、適切な閾値を設定しておくことができる。   The reference setting unit 3144 acquires one set corresponding to the received pace, place such as running, and sets the parameters of the reference object based on each threshold value in the acquired one set. For example, the reference setting unit 3144 sets the threshold values of head shake, left and right shake, and posture in a one-to-one correspondence so as not to overlap with the vertical width, horizontal width, and center range of the reference object. . Thereby, an appropriate threshold value can be set according to the item set by the user.

≪実行処理部≫
図6は、実施例における実行処理部316の構成の一例を示す図である。実行処理部316は、第1形成部3162、第2形成部3164、識別部3166、及び判定部3168を有する。
≪Execution processing part≫
FIG. 6 is a diagram illustrating an example of the configuration of the execution processing unit 316 in the embodiment. The execution processing unit 316 includes a first formation unit 3162, a second formation unit 3164, an identification unit 3166, and a determination unit 3168.

第1形成部3162は、設定部314により設定された各閾値に基づく基準オブジェクトを形成する。例えば、頭の前後のブレ、左右のブレ、姿勢の各閾値は、基準オブジェクトの縦幅、横幅、及び中心の範囲に重複しないように1対1に対応付けて設定されている。これにより、ユーザの走行等の基準となるオブジェクトを、シンプルな形状を用いて形成しておくことができる。具体例として、頭の前後のブレの閾値は、直感的に対応する縦幅、左右のブレの閾値は、直感的に対応する横幅、姿勢の閾値は、直感的に対応する中心の幅に設定されるとよい。なお、閾値は範囲を有するものでもよい。   The first forming unit 3162 forms a reference object based on each threshold set by the setting unit 314. For example, the front and back blur, left and right blur, and posture threshold values are set in a one-to-one correspondence so as not to overlap with the vertical width, horizontal width, and center range of the reference object. Thereby, the object used as a standard of a user's run etc. can be formed using a simple shape. As a specific example, the blur threshold before and after the head is set to an intuitively corresponding vertical width, the left and right blur threshold is set to an intuitively corresponding horizontal width, and the posture threshold is set to an intuitively corresponding center width. It is good to be done. The threshold value may have a range.

第2形成部3164は、取得部312により取得された第1データ、第2データ、及び第3データそれぞれを、対象オブジェクトの縦幅、横幅、及び中心の範囲に対し、基準オブジェクトの対応関係に基づいて設定し、対象オブジェクトを形成する。形成された基準オブジェクトや対象オブジェクトは、画面内の同じ座標系を用いて表示される。これにより、オブジェクトのサイズや形状により、自身のフォームの状態をユーザに容易に把握させ、また、安定した走行等を判定するための閾値と容易に比較を行うことができる。   The second forming unit 3164 sets the first data, the second data, and the third data acquired by the acquiring unit 312 to correspond to the reference object with respect to the vertical width, horizontal width, and center range of the target object. Based on the setting, the target object is formed. The formed reference object and target object are displayed using the same coordinate system in the screen. Accordingly, the user can easily grasp the state of his / her form according to the size and shape of the object, and can easily be compared with a threshold value for determining stable running or the like.

また、取得部312は、加速度センサの鉛直方向の加速度データに基づく、左右の足の接地時のインパクト比を示す第4データをさらに取得してもよい。   In addition, the acquisition unit 312 may further acquire fourth data indicating an impact ratio when the left and right feet are touched based on acceleration data in the vertical direction of the acceleration sensor.

このとき、表示制御部320は、鉛直方向の加速度データ及びロール角を表す第2データに基づいて、左右の足のどちらが接地しているかを報知する画面を表示制御してもよい。例えば、表示制御部320は、左右の足を表す一対のオブジェクトを用いて、左右の足のどちらが接地しているかを報知するよう制御する。なお、制御部306が、鉛直方向の加速度データにより地面の接地を認識し、ロール角にて横方向の振れ幅を認識する。ロール角の知見として、右足の着地時には右に振れ、左足の着地時には左に振れることが分かっている。   At this time, the display control unit 320 may perform display control of a screen for informing which of the left and right feet is in contact with the ground based on the acceleration data in the vertical direction and the second data representing the roll angle. For example, the display control unit 320 controls to notify which of the left and right feet is grounded using a pair of objects representing the left and right feet. Note that the control unit 306 recognizes the ground contact based on the vertical acceleration data, and recognizes the lateral deflection width based on the roll angle. As the knowledge of the roll angle, it is known that the right foot swings to the right and the left foot landing to the left.

そこで、制御部306は、ロール角において右に振れることが認識できれば右足を接地したと判定し、左に振れることが認識できれば左足を接地したと判定する。これにより、足が地面に接地する場合の衝撃を認識し、ロール角でどちらの方向に傾いているかを判定すれば、いずれの足が地面に接地しているかを判定することができる。なお、ランニング中は交互に足を接地することが考えられるため、いずれの足が接地したかの判定は、間隔を空けて定期的に行われるようにしてもよい。これにより、省電力化を図ることができる。   Therefore, the control unit 306 determines that the right foot is grounded if it can be recognized that the user swings to the right at the roll angle, and determines that the left foot is grounded if the swing can be recognized to swing to the left. Accordingly, it is possible to determine which foot is in contact with the ground by recognizing the impact when the foot is in contact with the ground and determining in which direction the roll angle is inclined. Since it is conceivable that the feet are alternately grounded during running, the determination of which feet are grounded may be performed periodically at intervals. Thereby, power saving can be achieved.

識別部3166は、左右の足の接地時のインパクト比を示す第4データが怪我に関する所定条件を満たす場合、左右の足を表す一対のオブジェクトに対し、怪我の可能性がある方のオブジェクトを識別可能にする。オブジェクトは、例えば足跡や足裏の形状である。識別部3166は、怪我の可能性について、左右の足それぞれの鉛直方向の加速度データの比が、所定の範囲内であれば、怪我の可能性がないと判定する。例えば、識別部3166は、右の足の鉛直方向の加速度データの値/左の足の鉛直方向の加速度データの値が、0.95以上1.05以下であれば、怪我の可能性がないと判定し、0.95未満であれば、右足に怪我の可能性ありと判定し、1.05超であれば、左足に怪我の可能性ありと判定する。これは、怪我の可能性が有る足を庇って、怪我の可能性が有る足の接地時間が短くなるという知見に基づく。   When the fourth data indicating the impact ratio when the left and right feet touch the ground satisfies the predetermined condition regarding injury, the identifying unit 3166 identifies the object that is likely to be injured with respect to the pair of objects representing the left and right feet. to enable. The object is, for example, a footprint or a sole shape. The identification unit 3166 determines that there is no possibility of injury if the ratio of the acceleration data in the vertical direction of each of the left and right feet is within a predetermined range. For example, if the value of acceleration data in the vertical direction of the right foot / value of acceleration data in the vertical direction of the left foot is 0.95 or more and 1.05 or less, the identification unit 3166 has no possibility of injury. If it is less than 0.95, it is determined that there is a possibility of injury on the right foot, and if it exceeds 1.05, it is determined that there is a possibility of injury on the left foot. This is based on the finding that the contact time of a potentially injured foot is shortened by hitting the potentially injured foot.

識別部3166は、怪我の可能性ありと判定された方のオブジェクトについて、色やパターンなどを変更して強調することで、怪我の可能性があることをユーザに知らせる。すなわち、ユーザは、無意識のうちに、どちらの足を庇っているかなどを知ることができる。   The identification unit 3166 informs the user that there is a possibility of injury by changing the color or pattern of the object that has been determined to be injured and highlighting the object. That is, the user can know which foot is being crushed unconsciously.

また、取得部312は、加速度センサの鉛直方向の加速度データに基づく、左右の足の接地時のインパクト比を示す第4データ、及び/又はGPS(Global Positioning System)センサ又は加速度センサからの検出データに基づく、所定距離を移動するペースを示す第5データをさらに取得してもよい。   The acquisition unit 312 also includes fourth data indicating the impact ratio when the left and right feet are touched based on acceleration data in the vertical direction of the acceleration sensor, and / or detection data from a GPS (Global Positioning System) sensor or acceleration sensor. 5th data which shows the pace which moves the predetermined distance based on may be further acquired.

このとき、判定部3168は、例えば第1データから第5データまでの各データのうち少なくとも1つに基づいて、フォームの安定性に関する問題が発生した時点(以下、ブレイクポイントともいう。)を判定する。ブレイクポイントとは、安定したフォームで走行等することができなくなったとみなされる時点をいう。   At this time, the determination unit 3168 determines, for example, a point in time when a problem related to the stability of the form occurs (hereinafter also referred to as a breakpoint) based on at least one of the data from the first data to the fifth data. To do. The break point is a time point at which it is considered that it is no longer possible to travel in a stable form.

例えば、判定部3168は、第1データから第5データまでの各データについて、各データに対する閾値を超えたか否かを判定する。閾値を超えるデータがある場合は、判定部3168は、ブレイクポイントが発生したと判定してもよい。また、判定部3168は、第1データから第5データに関する条件に対し、条件が満たされた時にブレイクポイントの発生を判定してもよい。実施例におけるブレイクポイント発生条件については、図9や図10を用いて後述する。   For example, the determination unit 3168 determines whether or not each data from the first data to the fifth data has exceeded a threshold for each data. When there is data exceeding the threshold, the determination unit 3168 may determine that a breakpoint has occurred. In addition, the determination unit 3168 may determine the occurrence of a break point when the condition for the conditions regarding the first data to the fifth data is satisfied. Breakpoint generation conditions in the embodiment will be described later with reference to FIGS. 9 and 10.

ブレイクポイントが発生した場合、表示制御部320は、ブレイクポイントを示す情報を画面に表示するように制御する。なお、ブレイクポイントを示す情報は、画面に表示するだけではなく、音声等で報知されるようにしてもよい。これにより、ユーザは走行等の途中にブレイクポイントを把握することができ、どの時点で自分のフォームが崩れたのかを把握することができる。また、判定部3168は、ブレイクポイントが発生した場合、ブレイクポイントの地点、走行距離、走行時間、各データの値などを記憶部302に記憶するようにする。これにより、ユーザは、走行等の後に、ブレイクポイントの発生等について分析することができる。   When a breakpoint has occurred, the display control unit 320 controls to display information indicating the breakpoint on the screen. Note that the information indicating the breakpoint may be notified not only by displaying on the screen but also by voice or the like. Thereby, the user can grasp a break point in the middle of traveling or the like, and can grasp at which point his form has collapsed. In addition, when a break point occurs, the determination unit 3168 stores the break point location, travel distance, travel time, values of each data, and the like in the storage unit 302. Thereby, the user can analyze the occurrence of a break point after running or the like.

≪後処理部≫
図7は、実施例における後処理部318の構成の一例を示す図である。図7に示す例では、後処理部318は、結果収集部3182及びトレーニング取得部3184を有する。
≪Post-processing section≫
FIG. 7 is a diagram illustrating an example of the configuration of the post-processing unit 318 in the embodiment. In the example illustrated in FIG. 7, the post-processing unit 318 includes a result collection unit 3182 and a training acquisition unit 3184.

結果収集部3182は、走行等の結果データを収集する。結果収集部3182は、走行等の結果データに基づいて、走行等の評価を行う。評価結果は、画面に表示されたり、音声等でユーザに報知されたりする。   The result collection unit 3182 collects result data such as traveling. The result collection unit 3182 evaluates traveling and the like based on result data such as traveling. The evaluation result is displayed on the screen or notified to the user by voice or the like.

結果収集部3182は、結果画面においても、安定した走行等ができなくなったとみなされる時点(ブレイクポイント)を示す情報をユーザに知らせるようにする。ブレイクポイントを示す情報は、このブレイクポイントの発生に起因した主要なデータに関する情報を含む。これにより、主に何が原因でブレイクポイントが発生したのかをユーザに知らせることができる。   The result collection unit 3182 also informs the user of information indicating the time point (break point) at which it is considered that stable running or the like can no longer be performed on the result screen. The information indicating the break point includes information on main data resulting from the occurrence of the break point. As a result, the user can be informed mainly of what caused the breakpoint.

トレーニング取得部3184は、主要なデータに対応するトレーニング部位を、例えば記憶部302から取得する。第1データから第5データの各データに対して、トレーニング部位が1又は複数対応付けられていればよい。取得されたトレーニング部位に関する情報は、画面内に表示されるよう制御される。また、トレーニング部位は、音声等で報知されてもよい。これにより、ユーザは、実際に運動したことによって発見された自分の弱みに対するトレーニング部位を知ることができる。   The training acquisition unit 3184 acquires a training site corresponding to main data from the storage unit 302, for example. It is sufficient that one or more training sites are associated with each data of the first data to the fifth data. The acquired information on the training site is controlled to be displayed on the screen. In addition, the training site may be notified by voice or the like. Thereby, the user can know the training part with respect to his weakness discovered by actually exercising.

<データ例>
次に、実施例におけるランニングのアプリケーションに用いられる各種データの例について説明する。図8は、閾値のセット例を示す図である。図8に示す例では、例えば、横軸にフルマラソンの目標タイムが設定され、縦軸に走る場所が設定される。
<Data example>
Next, examples of various data used for the running application in the embodiment will be described. FIG. 8 is a diagram illustrating a set example of threshold values. In the example shown in FIG. 8, for example, the target time of the full marathon is set on the horizontal axis, and the place where the vehicle runs is set on the vertical axis.

横軸として、「Sub3」、「Sub4」、「Sub5」が設定され、それぞれ、フルマラソンに対して3時間以内、4時間以内、5時間以内を表す。縦軸として、「屋内」又は「屋外」は、走る場所を表す。   As the horizontal axis, “Sub3”, “Sub4”, and “Sub5” are set, which respectively represent within 3 hours, within 4 hours, and within 5 hours for the full marathon. On the vertical axis, “indoor” or “outdoor” represents a place to run.

このとき、閾値のセットは、頭の前後のブレ、頭の左右のブレ、姿勢(頭の傾きの方向及び大きさ)それぞれに対する閾値を含むとする。それぞれの閾値は、事前に各項目に対応するランナーにアイウエア30を装着して走ってもらい、その時に取得されたデータに基づいて設定される。   At this time, it is assumed that the threshold set includes threshold values for each of the shakes before and after the head, the left and right shakes of the head, and the posture (direction and magnitude of the tilt of the head). Each threshold is set based on data acquired at the time when the runner corresponding to each item wears the eyewear 30 and runs.

設定部314は、ランニングのアプリケーションの設定画面において、横軸の項目及び縦軸の項目を設定できるようにしておくとよい。なお、横軸については、フルマラソンの目標を設定しない項目(例えば「Free」)等を有してもよい。このとき、ランニング初期の所定時間や所定歩数で取得された各データに基づいて、閾値が設定されればよい。例えば、制御部306は、ランニング初期の所定時間や所定歩数で取得された各データ(特に第1データ、第2データ、及び第3データ)の平均を、閾値として設定する。   The setting unit 314 may be configured so that items on the horizontal axis and items on the vertical axis can be set on the setting screen of the running application. The horizontal axis may include an item (for example, “Free”) that does not set a full marathon goal. At this time, a threshold value may be set based on each data acquired at a predetermined time and the predetermined number of steps at the beginning of running. For example, the control unit 306 sets the average of each data (particularly, the first data, the second data, and the third data) acquired at a predetermined time and a predetermined number of steps at the beginning of running as a threshold value.

図8に示す例において、走る場所を屋内又は屋外で分けた理由は、屋内はトレッドミルを使って走る場合がほとんどであり、トレッドミルでは走る空間が限られているため、屋外を走るよりもフォームのブレが小さいことが分かっているからである。したがって、この違いを反映させるために、屋内か屋外かをユーザに選択させ、選択された項目に従って、適切な閾値が設定されるようにする。   In the example shown in FIG. 8, the reason why the place to run is divided indoors or outdoors is that the indoors are mostly run using a treadmill, and the treadmill has a limited space to run, so it is more than running outdoors. This is because the blur of the foam is known to be small. Therefore, in order to reflect this difference, the user is allowed to select indoor or outdoor, and an appropriate threshold value is set according to the selected item.

図9は、モードAの場合に記録された各データの一例を示す図である。図9に示すモードAは、例えば、予め設定されている閾値を用いない項目「Free」のモードであり、図9は、このときに記録されたデータ例を示す。図9に示す例では、判定区間ごとに、Pitch、Roll、左右バランス、ペース、姿勢、及び総合点が対応付けられる。   FIG. 9 is a diagram illustrating an example of each data recorded in the mode A. A mode A shown in FIG. 9 is, for example, an item “Free” mode that does not use a preset threshold value, and FIG. 9 shows an example of data recorded at this time. In the example shown in FIG. 9, Pitch, Roll, left / right balance, pace, posture, and total point are associated with each determination section.

図9に示す判定区間は、20歩で1つの判定区間を表す。Pitchは、ランニング中のフォームの前後のブレの振れ幅を表す。Rollは、ランニング中のフォームのブレの振れ幅を表す。左右バランスは、左右それぞれの足の接地時のインパクト(衝撃)の大きさの比を表す。ペースは、1キロにおける走行時間を表す。姿勢は、体軸の傾きの方向と大きさとを表す。   The determination section shown in FIG. 9 represents one determination section with 20 steps. “Pitch” represents the fluctuation width of the blur before and after the running form. Roll represents the runout width of the running foam. The left-right balance represents the ratio of the magnitude of impact (impact) when the left and right feet touch each other. The pace represents the running time in 1 kilometer. The posture represents the direction and magnitude of the inclination of the body axis.

図9に示すデータを用いて、判定部3168は、ブレイクポイントを判定する。まず、基本処理として、処理部202又は制御部306により、以下の処理がなされる。
・毎歩ごとにPitch、Roll、及び左右バランスの値を算出
・20歩分の値で、Pitch、Roll、及び左右バランスの平均値を算出し、また、20歩の距離と時間でペースタイムを算出
・20歩分の平均値を1判定区間とする
・姿勢のみ10判定区間(200歩)で算出
なお、1歩分が1秒以内に検出されないと、走行等していないと判定される。実行処理部316は、以下の流れで処理を行う。
Using the data shown in FIG. 9, the determination unit 3168 determines a breakpoint. First, as basic processing, the processing unit 202 or the control unit 306 performs the following processing.
・ Calculate Pitch, Roll, and left / right balance values for each step ・ Calculate the average value of Pitch, Roll, and left / right balance with the value for 20 steps, and calculate the pace time with distance and time of 20 steps Calculation • Average value for 20 steps is defined as one determination section. • Posture is calculated in 10 determination sections (200 steps). If one step is not detected within 1 second, it is determined that the vehicle is not running. The execution processing unit 316 performs processing according to the following flow.

(1)スタートから40判定区間(約1km)まで
スタートから800歩(40判定区間≒1km)は基準値作成区間のため、閾値判定はしない。基準値とは、ユーザの初期段階での走行等により求められる値であり、最初に形成される対象オブジェクトの基になる値である。また、実行処理部316は、作成された基準値に対して設定された閾値と、以降の判定区間での値とを比較する。なお、800歩が1kmに満たない場合、最初のフィードバックは1km到達時とする。なお、「Free」のモードの場合、閾値は、基準値に基づいて設定される。例えば、基準値が閾値として設定されてもよいし、基準値から所定の基準を用いて変更された値が閾値として設定されてもよい。
(1) From start to 40 determination section (about 1 km) Since 800 steps from start (40 determination section≈1 km) is a reference value creation section, threshold determination is not performed. The reference value is a value obtained by a user's running at an initial stage or the like, and is a value based on a target object that is formed first. In addition, the execution processing unit 316 compares the threshold set for the created reference value with the values in the subsequent determination sections. If 800 steps are less than 1 km, the first feedback is when 1 km is reached. In the “Free” mode, the threshold is set based on the reference value. For example, the reference value may be set as the threshold value, or a value changed from the reference value using a predetermined reference may be set as the threshold value.

(2)41判定区間以降
判定部3168は、判定区間ごとに算出された4項目(Pitch、Roll、左右バランス、及びペース)が閾値を越えていれば、項目ごとに加点する。
・Pitch:1点
・Roll:1点
・左右バランス:0.5点
・ペース1.5点
なお、姿勢は、計算周期が異なる。例えば、判定部3168は、10判定区間ごとに1回姿勢を判定し、閾値を超えていれば加点する。
・姿勢:0.5点
(2) After 41 determination sections If the four items (Pitch, Roll, left / right balance, and pace) calculated for each determination section exceed the threshold value, the determination unit 3168 adds points for each item.
・ Pitch: 1 point ・ Roll: 1 point ・ Left / Right balance: 0.5 point ・ Pace: 1.5 points Note that the posture has a different calculation cycle. For example, the determination unit 3168 determines the posture once every 10 determination sections, and adds points if the threshold is exceeded.
・ Attitude: 0.5 points

総合点は、対応する行の合計点を表す。判定部3168は、総合点が3区間連続して2.5点以上の場合、3区間目をブレイクポイントとして判定し、記録する。図9に示す場合、判定部3168は、53区間を、ブレイクポイントとして判定する。このとき、ブレイクポイントに対応付けて時間や、走行距離や、各種データが記憶部302に記録されてもよい。   The total point represents the total point of the corresponding row. The determining unit 3168 determines and records the third section as a break point when the total score is 2.5 points or more for three consecutive sections. In the case illustrated in FIG. 9, the determination unit 3168 determines 53 sections as break points. At this time, time, travel distance, and various data may be recorded in the storage unit 302 in association with the breakpoint.

なお、実行処理部316は、約1km(40区間の倍数)ごとに、ペースとフォームとをユーザにフィードバックしてもよい。ペースは、例えば音声でフィードバックされ、フォームは、例えばフォームの状態を示すオブジェクトを表示することでフィードバックされる。   Note that the execution processing unit 316 may feed back the pace and form to the user about every 1 km (multiple of 40 sections). The pace is fed back, for example, by voice, and the form is fed back, for example, by displaying an object indicating the state of the form.

図10は、モードBの場合に記録された各データの一例を示す図である。図10に示すモードBは、例えば、予め設定されている閾値を用いるモードであり、図10は、このときに記録されたデータ例を示す。図10に示す例では、判定区間ごとに、Pitch、Roll、左右バランス、ペース、姿勢、総合点、及びクラスが対応付けられる。基本処理は、図9で説明した基本処理と同じである。実行処理部316は、以下の流れで処理を行う。   FIG. 10 is a diagram illustrating an example of each data recorded in the mode B. A mode B shown in FIG. 10 is a mode using a preset threshold value, for example, and FIG. 10 shows an example of data recorded at this time. In the example shown in FIG. 10, Pitch, Roll, left / right balance, pace, posture, overall point, and class are associated with each determination section. The basic process is the same as the basic process described with reference to FIG. The execution processing unit 316 performs processing according to the following flow.

(1)サブクラス判定
判定部3168は、判定区間ごとに算出された4項目(Pitch、Roll、左右バランス、及びペース)がa〜dのどのサブクラスに該当するか判定する。例えば、判定部3168は、それぞれの因子ごとに定められた閾値に応じて、サブクラスa〜dを決定する。
(1) Subclass determination The determination unit 3168 determines which subclass of a to d corresponds to the four items (Pitch, Roll, left-right balance, and pace) calculated for each determination section. For example, the determination unit 3168 determines the subclasses a to d according to the threshold value determined for each factor.

(2)加点
判定部3168は、判定されたa〜dのサブクラスに応じ、加点する。図11は、サブクラスと点数との関係を示す図である。図11に示す例では、判定部3168は、Pitchのサブクラスがbの場合、0.5点を加点する。なお、姿勢は、計算周期が異なる。判定部3168は、10判定区間ごとに1回姿勢を判定し、(1)と同様にa〜dを判定し、加点する。
(2) Additional points The determination unit 3168 adds points according to the determined subclasses a to d. FIG. 11 is a diagram illustrating the relationship between subclasses and points. In the example illustrated in FIG. 11, the determination unit 3168 adds 0.5 points when the Pitch subclass is b. Note that the posture has a different calculation cycle. The determination unit 3168 determines the posture once every 10 determination sections, determines a to d similarly to (1), and adds points.

(3)総合点の算出
判定部3168は、判定区間ごとに総合点を算出し、クラスA〜Dの総合判定を行う。図12は、総合点とクラスとの関係を示す図である。図12に示す例では、判定部3168は、総合点が1.75の場合、クラスBと判定し、加点する。
(3) Calculation of total point The determination unit 3168 calculates a total point for each determination section, and performs a comprehensive determination on classes A to D. FIG. 12 is a diagram illustrating the relationship between the total score and the class. In the example illustrated in FIG. 12, when the total score is 1.75, the determination unit 3168 determines class B and adds points.

(4)ブレイクポイントの判定
判定部3168は、総合判定結果(クラス)がA→B、A→C、A→D、B→C、B→D、又はC→Dとダウンし、その状態からアップせずにダウンもしくは維持が3判定区間連続した場合、3区間目をブレイクポイントとして判定し、記録する。このとき、ブレイクポイントに対応付けて時間や、走行距離や、各種データが記憶部302に記録されてもよい。なお、図9又は図10に示すテーブルの各項目を縦方向の時間軸で見ていくと、その項目における異常の発生を検知することができる。
(4) Breakpoint determination The determination unit 3168 determines that the overall determination result (class) is A → B, A → C, A → D, B → C, B → D, or C → D, and from that state. If it continues down for 3 judgment sections without being up, the third section is judged as a breakpoint and recorded. At this time, time, travel distance, and various data may be recorded in the storage unit 302 in association with the breakpoint. When each item in the table shown in FIG. 9 or FIG. 10 is viewed on the time axis in the vertical direction, the occurrence of an abnormality in that item can be detected.

次に、ランニングの終了後に、画面に表示されるトレーニング部位の例について説明する。図13は、トレーニング部位の情報の一例を示す図である。図13に示す例では、ブレイクポイントの発生の有無によりトレーニング部位の提示が異なる。主要項目は、各項目の中で高得点の項目を示す。例えば図10に示す例の場合、各項目の平均点が一番高いRollが主要項目とみなされる。なお、主要項目は、平均点が一番高いものだけに限られない。   Next, an example of a training part displayed on the screen after the end of running will be described. FIG. 13 is a diagram illustrating an example of information on a training region. In the example shown in FIG. 13, the presentation of the training site differs depending on whether or not a breakpoint is generated. The main item indicates a high score item among the items. For example, in the example shown in FIG. 10, Roll with the highest average score of each item is regarded as the main item. The main items are not limited to those having the highest average score.

例えば、Rollが主要項目の場合、トレーニング部位は、腹横筋、腹斜筋、及びハムストリングスである。このとき、全ての部位が画面に表示されてもよいし、いずれか1つの部位が所定順又はランダムに選択されて画面に表示されてもよい。トレーニング部位が1つ選択される場合、主要項目が毎回同じになった場合でも、トレーニング部位が毎回同じにならないようにすることができる。   For example, when Roll is the main item, the training sites are the transversus abdominis, obliques, and hamstrings. At this time, all the parts may be displayed on the screen, or any one part may be selected in a predetermined order or randomly and displayed on the screen. When one training site is selected, it is possible to prevent the training site from being the same every time even if the main item is the same every time.

なお、コメントについては、ランニング終了後に表示画面内に表示される文章、又は出力される音声の内容である。   In addition, about a comment, it is the content of the text displayed on the display screen after completion | finish of a run, or the audio | voice output.

<画面例>
次に、実施例におけるランニングのアプリケーションの画面例について説明する。図14は、設定画面の一例を示す図である。図14に示す画面は、例えばアプリケーションの実行後の初期段階において表示される画面であり、目標(TARGET)と走る場所(LOCATION)とをユーザに選択させる画面である。
<Screen example>
Next, a screen example of a running application in the embodiment will be described. FIG. 14 is a diagram illustrating an example of the setting screen. The screen shown in FIG. 14 is a screen that is displayed at an initial stage after the execution of the application, for example, and is a screen that allows the user to select a target (TARGET) and a place to run (LOCATION).

例えば、設定部314は、例えば目標「Sub4」及び場所「屋外」が選択されると、図8に示すセット22を取得し、セット22に含まれる各閾値を、基準オブジェクトのパラメータとして設定する。図14に示す画面において、Startボタンが押されると、ランニングのための諸データの計測及び/又は記録が始まる。   For example, when the target “Sub4” and the place “outdoor” are selected, the setting unit 314 acquires the set 22 illustrated in FIG. 8 and sets each threshold included in the set 22 as a parameter of the reference object. In the screen shown in FIG. 14, when the Start button is pressed, measurement and / or recording of various data for running starts.

図15は、ランニング中に表示される画面の一例を示す図である。図15に示す例では、走行距離、平均ペース、及び消費カロリーなどの一般的なランニングアプリケーションにおいて表示される項目の他、ブレイクポイントが発生した地点やランニングフォームに関するオブジェクトなどが表示される。   FIG. 15 is a diagram illustrating an example of a screen displayed during running. In the example shown in FIG. 15, in addition to items displayed in a general running application such as a running distance, an average pace, and calorie consumption, a point where a break point has occurred, an object related to a running form, and the like are displayed.

図15に示す例において、表示制御部320は、第1形成部3162により生成された基準オブジェクトS10、及び第2形成部3164により生成された対象オブジェクトT10を同じ座標系を用いて画面に表示するよう制御する。対象オブジェクトT10の中心C10は、第3データを用いて求めることができる。   In the example shown in FIG. 15, the display control unit 320 displays the reference object S10 generated by the first forming unit 3162 and the target object T10 generated by the second forming unit 3164 on the screen using the same coordinate system. Control as follows. The center C10 of the target object T10 can be obtained using the third data.

各オブジェクトは、例えば円形状(楕円形状も含む)のオブジェクトで表され、各種オブジェクトの中心は体軸の中心を表し、横幅は、フォームの左右のブレ幅を表し、縦幅は、フォームの前後のブレ幅を表す。   Each object is represented by, for example, a circular (including elliptical) object. The center of each object represents the center of the body axis, the horizontal width represents the left and right blur width of the form, and the vertical width represents the front and rear of the form. Represents the blur width.

また、表示制御部320は、対象オブジェクトT10の領域内で、基準オブジェクトS10の外にある領域を、例えば色を変えるなどの強調表示を行うことにより、他の領域に対して識別可能にする。これにより、ユーザは、対象オブジェクトが強調表示されていなければ、目標を達成できる理想のフォームで走行することができていること、又は対象オブジェクトが強調表示されていれば、フォームのどこが悪いことにより、理想のフォームで走行することができていないことを一見して容易に把握することができる。   In addition, the display control unit 320 makes it possible to identify an area outside the reference object S10 within the area of the target object T10 with respect to other areas, for example, by performing highlighting such as changing the color. This allows the user to travel in the ideal form that can achieve the goal if the target object is not highlighted, or if the target object is highlighted, the part of the form is bad. You can easily grasp at a glance that you are not able to travel in the ideal form.

また、図15に示す画面には、対象オブジェクトT10の中心C10に基づいて、現在のユーザのフォームの姿勢の中心がどのような状態になっているのかを知らせることもできる。例えば、図15に示す場合、体が右前方に傾いていることが画面内に表示される。   Further, the screen shown in FIG. 15 can be informed of the state of the center of the form posture of the current user based on the center C10 of the target object T10. For example, in the case shown in FIG. 15, it is displayed on the screen that the body is tilted to the right front.

図16は、ランニング中に表示される画面の他の例を示す図である。図16に示す画面は、図15に示す画面と切替可能である。図16Aは、右足のオブジェクトRFが表示される例を示す図である。図16Bは、左足のオブジェクトLFが表示される例を示す図である。図16Bに示す画面は、図16Aに示す画面の次に表示される。   FIG. 16 is a diagram illustrating another example of a screen displayed during running. The screen shown in FIG. 16 can be switched to the screen shown in FIG. FIG. 16A is a diagram illustrating an example in which a right foot object RF is displayed. FIG. 16B is a diagram illustrating an example in which a left foot object LF is displayed. The screen shown in FIG. 16B is displayed next to the screen shown in FIG. 16A.

図16Cは、右足のオブジェクトRFが表示される例を示す図である。図16Cに示す画面は、図16Bに示す画面の次に表示される。図16Dは、左足のオブジェクトLFが表示される例を示す図である。図16Dに示す画面は、図16Cに示す画面の次に表示される。   FIG. 16C is a diagram illustrating an example in which a right foot object RF is displayed. The screen shown in FIG. 16C is displayed next to the screen shown in FIG. 16B. FIG. 16D is a diagram illustrating an example in which an object LF for the left foot is displayed. The screen shown in FIG. 16D is displayed next to the screen shown in FIG. 16C.

図16Dに示す例では、識別部3166は、左右の足のバランスの悪さを検出し、さらに、左足に怪我の可能性があることを判定したとする。この場合、識別部3166は、表示される左足のオブジェクトLFの色やパターンを変えるなどしてユーザに異常を知らせるようにする。これにより、ユーザ自身が気づいていないような足を庇う行為を迅速に判断し、ユーザに知らせることができるようになる。   In the example illustrated in FIG. 16D, it is assumed that the identification unit 3166 detects an imbalance between the left and right feet and further determines that the left foot may be injured. In this case, the identification unit 3166 notifies the user of the abnormality by changing the color or pattern of the displayed object LF for the left foot. As a result, it is possible to quickly determine an action of scolding a foot that the user himself / herself is not aware of and notify the user.

図17は、ランニングの結果である表の表示画面の一例を示す図である。図17に示す例では、1kmごとに、平均ペース、前後のブレ、及び左右のブレが表示される。図17に示す例では、7.2kmでブレイクポイントが発生したことを示す。また、図17に示すように、ブレイクポイントが発生した走行距離に関する項目を、識別可能な状態で表示するようにしてもよい。ブレイクポイントについては、記憶部302がブレイクポイントに対する各データを記録しているため、図17に示す表示が可能になる。   FIG. 17 is a diagram illustrating an example of a table display screen that is a result of running. In the example shown in FIG. 17, the average pace, front / rear blur, and left / right blur are displayed every 1 km. The example shown in FIG. 17 indicates that a breakpoint has occurred at 7.2 km. Moreover, as shown in FIG. 17, you may make it display the item regarding the travel distance which the breakpoint generate | occur | produced in the state which can be identified. With respect to the break point, since the storage unit 302 records each data for the break point, the display shown in FIG. 17 becomes possible.

図18は、ランニングの結果であるルートの表示画面の一例を示す図である。図18に示す画面下部を左や右にスライドさせることで、走行距離を変えつつ、そのときの平均ペースやフォームに対するオブジェクトの形状等を確認することができる。また、表示制御部320は、図18に示すように、ブレイクポイントの地点が分かるマークB10を表示するようにしてもよい。   FIG. 18 is a diagram illustrating an example of a display screen of a route that is a result of running. By sliding the lower part of the screen shown in FIG. 18 to the left or right, the average pace at that time, the shape of the object with respect to the form, and the like can be confirmed while changing the travel distance. Further, as shown in FIG. 18, the display control unit 320 may display a mark B10 in which the break point is known.

図19は、ルートの表示画面における下部の拡大図の一例を示す図である。図19に示す例では、マップボタンM10が表示される。このマップボタンM10が押されると、GPS機能を用いて取得されたランニングルートが表示される(図21参照)。   FIG. 19 is a diagram showing an example of an enlarged view of the lower part of the route display screen. In the example shown in FIG. 19, a map button M10 is displayed. When the map button M10 is pressed, the running route acquired using the GPS function is displayed (see FIG. 21).

図20は、ルートの表示画面における下部の拡大図の他の例を示す図である。図20に示す例では、ブレイクポイントを示すマークB10や、ブレイクポイントを消去するためのボタンD10が表示される。制御部306は、ボタンD10が押されたことを検知すると、記憶部302に記憶されたこの地点におけるブレイクポイントに関するデータを削除する。   FIG. 20 is a diagram illustrating another example of the enlarged view of the lower part of the route display screen. In the example shown in FIG. 20, a mark B10 indicating a breakpoint and a button D10 for erasing the breakpoint are displayed. When the control unit 306 detects that the button D10 has been pressed, the control unit 306 deletes the data related to the break point at this point stored in the storage unit 302.

図21は、ランニングの結果であるマップの表示画面の一例を示す図である。図21に示す例では、GPS機能やGPSセンサを用いて取得されたルートが、マップ上にランニングルートとして表示され、さらに、ブレイクポイントが発生した地点にピンB12が表示される。これにより、どの地点でブレイクポイントが発生したかが一目でわかるようになっている。   FIG. 21 is a diagram showing an example of a map display screen as a result of running. In the example shown in FIG. 21, a route acquired using a GPS function or a GPS sensor is displayed as a running route on the map, and a pin B12 is displayed at a point where a break point has occurred. As a result, it is possible to know at a glance at which point the break point has occurred.

図22は、ランニングの結果であるグラフの表示画面の一例を示す図である。図22に示す例では、前後ブレ、左右ブレ、左右バランス、及び走行ペースのそれぞれが、横軸を時間にした折れ線グラフにより表現されている。図22に示す例においても、ブレイクポイントを示すマークB10が表示される。これにより、各種データの値がどのようなときにブレイクポイントが発生したかが一目でわかるようになっている。   FIG. 22 is a diagram illustrating an example of a display screen of a graph that is a result of running. In the example shown in FIG. 22, each of front / rear blur, left / right blur, left / right balance, and running pace is represented by a line graph with the horizontal axis as time. Also in the example shown in FIG. 22, a mark B10 indicating a break point is displayed. As a result, it is possible to know at a glance when breakpoints occur when the values of various data are generated.

図23は、トレーニング部位を示す表示画面の一例を示す図である。図23に示す例では、ブレイクポイントの発生あり、主要項目として、姿勢(前)及びペースというランニング結果であったとする。このとき、トレーニング取得部3184は、姿勢(前)に対応する広背筋を取得し、さらに、ペースに対応する腹直筋を取得する。そして、画面に表示された人体オブジェクトの該当箇所に、取得された腹直筋及び広背筋が表示されるようにする。これは、人体オブジェクトの各部位に、各筋肉を示す情報を対応付けられていればよい。これにより、ユーザは、どの部位をトレーニングすればよいかを容易に把握することができるようになる。さらに、ユーザは、その部位を鍛えることにより、どのようなフォームで走ることができるかを認識することができ、積極的にトレーニングを促すことができる。   FIG. 23 is a diagram showing an example of a display screen showing training sites. In the example shown in FIG. 23, it is assumed that a breakpoint has occurred and the main items are running results of posture (front) and pace. At this time, the training acquisition unit 3184 acquires the latissimus dorsi muscle corresponding to the posture (front), and further acquires the rectus abdominis muscle corresponding to the pace. Then, the acquired rectus abdominis and latissimus dorsi muscles are displayed at the corresponding portions of the human body object displayed on the screen. It is sufficient that information indicating each muscle is associated with each part of the human body object. Thereby, the user can easily grasp which part should be trained. Furthermore, the user can recognize what form can be run by training the part, and can actively encourage training.

<動作>
次に、実施例における情報処理装置10の動作について説明する。図24は、実施例におけるアプリケーションの全体処理の一例を示すフローチャートである。図24に示すフローチャートは、ユーザがアイウエア30を装着して、情報処理装置10を操作し、上述したアプリケーションを起動するときに行われる処理である。なお、処理装置20と情報処理装置10との接続については、事前に行われていればよい。
<Operation>
Next, the operation of the information processing apparatus 10 in the embodiment will be described. FIG. 24 is a flowchart illustrating an example of overall processing of an application in the embodiment. The flowchart shown in FIG. 24 is a process performed when the user wears the eyewear 30, operates the information processing apparatus 10, and starts the above-described application. The connection between the processing device 20 and the information processing device 10 may be performed in advance.

図24に示すステップS102で、制御部306は、ユーザ操作に基づき、起動指示があるか否かを判定する。例えば、このアプリケーションのアイコンがタッチされたときに、起動指示ありと判定される。起動指示が有る場合(ステップS102−YES)、処理はステップS104に進み、起動指示がない場合(ステップS102−NO)、処理はステップS102に戻る。   In step S102 illustrated in FIG. 24, the control unit 306 determines whether there is a start instruction based on a user operation. For example, when the application icon is touched, it is determined that there is an activation instruction. If there is an activation instruction (step S102-YES), the process proceeds to step S104. If there is no activation instruction (step S102-NO), the process returns to step S102.

ステップS104で、設定部314は、設定画面を表示するよう表示制御部320に指示を出し、表示制御部320は、設定画面を表示するよう制御する(図14参照)。   In step S104, the setting unit 314 instructs the display control unit 320 to display the setting screen, and the display control unit 320 controls to display the setting screen (see FIG. 14).

ステップS106で、設定部314は、ターゲット(目標)の設定を受け付ける。例えば、設定部314は、図14において説明した設定画面に対するユーザ操作に基づいて、FreeやSub4などの項目の設定を受け付ける。   In step S106, the setting unit 314 receives a target (target) setting. For example, the setting unit 314 accepts setting of items such as Free and Sub4 based on a user operation on the setting screen described in FIG.

ステップS108で、設定部314は、ロケーション(走行等の場所)の設定を受け付ける。例えば、設定部314は、図14において説明した設定画面に対するユーザ操作に基づいて、屋内又は屋外の項目の設定を受け付ける。   In step S108, the setting unit 314 receives a setting of a location (location such as traveling). For example, the setting unit 314 accepts settings for indoor or outdoor items based on a user operation on the setting screen described in FIG.

ステップS110で、設定部314は、受け付けたターゲット及びロケーションに基づいて、基準オブジェクトを形成するための各閾値を設定する。設定部314は、例えば、図8において説明したテーブルを用いて各閾値のセットを取得し、取得した各閾値を設定する。   In step S110, the setting unit 314 sets each threshold value for forming the reference object based on the received target and location. For example, the setting unit 314 acquires each threshold set using the table described in FIG. 8 and sets each acquired threshold.

ステップS112で、制御部306は、走行等(以下、移動とも称する)が開始されたか否かを判定する。移動開始は、例えば、図14に示す画面に表示された「Start」ボタンが押されたか否かにより判定される。この「Start」ボタンが押されると、カウントダウンが始まり、カウントが0になると移動開始とする。移動が開始された場合(ステップS112−YES)、処理はステップS114に進み、移動が開始されていない場合(ステップS112−NO)、処理はステップS112に戻る。   In step S112, the control unit 306 determines whether traveling or the like (hereinafter also referred to as movement) has been started. The start of movement is determined, for example, by whether or not the “Start” button displayed on the screen shown in FIG. 14 has been pressed. When this “Start” button is pressed, the countdown starts, and when the count reaches 0, the movement starts. If movement has started (step S112—YES), the process proceeds to step S114. If movement has not started (step S112—NO), the process returns to step S112.

ステップS114で、実行処理部316は、移動中における各種データの取得、集計、処理等を行い、実行画面を適時表示するよう表示制御部320に指示する。表示制御部320は、指示された実行画面を表示するよう制御する(図15又は図16A〜D参照)。アプリケーション実行中の表示制御処理については、図25及び図26を用いて後述する。   In step S114, the execution processing unit 316 performs acquisition, aggregation, processing, and the like of various data during movement, and instructs the display control unit 320 to display the execution screen in a timely manner. The display control unit 320 controls to display the instructed execution screen (see FIG. 15 or FIGS. 16A to 16D). Display control processing during application execution will be described later with reference to FIGS. 25 and 26.

ステップS116で、制御部306は、移動が終了したか否かを判定する。移動の終了は、例えば、図15において表示される「スライドして一時停止」が実行された後に、移動の終了がユーザ操作により実行されたか否かにより判定される。移動が終了された場合(ステップS116−YES)、処理はステップS118に進み、移動が終了していない場合(ステップS116−NO)、処理はステップS114に戻る。   In step S116, the control unit 306 determines whether the movement has ended. The end of the movement is determined, for example, by whether or not the end of the movement has been executed by a user operation after the “slide and pause” displayed in FIG. 15 is executed. When the movement is finished (step S116-YES), the process proceeds to step S118, and when the movement is not finished (step S116-NO), the process returns to step S114.

ステップS118で、後処理部318は、移動後の各種データの集計、処理等を行い、結果画面を適時表示するよう表示制御部320に指示する。表示制御部320は、指示された実行画面を表示するよう制御する(図17〜23参照)。この後、アプリケーションの起動停止の指示により処理は終了する。   In step S118, the post-processing unit 318 performs aggregation and processing of various data after movement, and instructs the display control unit 320 to display the result screen in a timely manner. The display control unit 320 controls to display the designated execution screen (see FIGS. 17 to 23). Thereafter, the process is terminated by an instruction to stop and start the application.

図25は、実施例における実行画面の表示制御処理の一例を示すフローチャートである。図25に示すステップS202で、第1形成部3162は、設定部314により設定された閾値に基づいて、基準オブジェクトを形成する。例えば、基準オブジェクトは、図15に示すオブジェクトS10により表現されるが、この形状に限られない。   FIG. 25 is a flowchart illustrating an example of an execution screen display control process according to the embodiment. In step S202 illustrated in FIG. 25, the first forming unit 3162 forms a reference object based on the threshold set by the setting unit 314. For example, the reference object is represented by an object S10 shown in FIG. 15, but is not limited to this shape.

ステップS204で、表示制御部320は、第1形成部3162により形成された基準オブジェクトを所定の座標系を用いて画面に表示する。   In step S204, the display control unit 320 displays the reference object formed by the first forming unit 3162 on the screen using a predetermined coordinate system.

ステップS206で、取得部312は、6軸センサ206により計測された検出データに基づく、第1データ、第2データ及び第3データを少なくとも取得したか否かを判定する。この場合、取得部312は、所定歩数又は所定期間分の各種データを取得してもよい。データが取得された場合(ステップS206−YES)、処理はステップS208に進み、データが取得されていない場合(ステップS206−NO)、処理はステップS206に戻る。   In step S206, the acquisition unit 312 determines whether at least the first data, the second data, and the third data based on the detection data measured by the six-axis sensor 206 have been acquired. In this case, the acquisition unit 312 may acquire various data for a predetermined number of steps or a predetermined period. If data has been acquired (step S206—YES), the process proceeds to step S208. If data has not been acquired (step S206—NO), the process returns to step S206.

ステップS208で、第2形成部3164は、取得されたデータに基づいて、対象オブジェクトを形成する。例えば、対象オブジェクトは、図15に示すオブジェクトT10により表現されるが、この形状に限られない。この処理後、ステップS210以降の処理と、ステップS216以降の処理とが別々に実行される。   In step S208, the second forming unit 3164 forms a target object based on the acquired data. For example, the target object is represented by an object T10 shown in FIG. 15, but is not limited to this shape. After this processing, the processing after step S210 and the processing after step S216 are executed separately.

ステップS210で、識別部3166は、取得された各データ値のうち少なくとも1つが閾値以上であるか否かを判定する。例えば、識別部3166は、対象オブジェクトが基準オブジェクトの領域外にはみ出ているか否かを判定する。各データのうち少なくとも1つが閾値以上である場合(ステップS210−YES)、処理はステップS212に進み、各データ全てが閾値未満である場合(ステップS210−NO)、処理はステップS214に進む。   In step S210, the identification unit 3166 determines whether at least one of the acquired data values is equal to or greater than a threshold value. For example, the identifying unit 3166 determines whether or not the target object is outside the area of the reference object. If at least one of the data is greater than or equal to the threshold (step S210—YES), the process proceeds to step S212. If all the data is less than the threshold (step S210—NO), the process proceeds to step S214.

ステップS212で、表示制御部320は、対象オブジェクトのうち、基準オブジェクトよりも外側の領域を識別可能にして実行画面Aを表示するよう制御する。例えば、実行画面Aは、図15に示す画面である。   In step S212, the display control unit 320 controls to display the execution screen A while making it possible to identify an area outside the reference object among the target objects. For example, the execution screen A is the screen shown in FIG.

ステップS214で、表示制御部320は、基準オブジェクト内に対象オブジェクトが表示される実行画面Bを表示するよう制御する。   In step S214, the display control unit 320 controls to display the execution screen B in which the target object is displayed in the reference object.

ステップS216で、判定部3168は、ブレイクポイントが発生したか否かを判定する。例えば、判定部3168は、ブレイクポイントの発生について、図9や図10に示すデータを用いた処理でブレイクポイントの発生を判定する。ブレイクポイントが発生した場合(ステップS216−YES)、処理はステップS218に進み、ブレイクポイントが発生していない場合(ステップS216−NO)、処理はステップS116に進む。なお、ブレイクポイントの判定処理の詳細は、図26を用いて説明する。   In step S216, determination unit 3168 determines whether or not a breakpoint has occurred. For example, the determination unit 3168 determines the occurrence of a breakpoint by the processing using the data shown in FIG. 9 and FIG. If a breakpoint has occurred (step S216-YES), the process proceeds to step S218. If a breakpoint has not occurred (step S216-NO), the process proceeds to step S116. Details of the breakpoint determination process will be described with reference to FIG.

ステップS218で、表示制御部320は、ブレイクポイントが発生した旨を画面に表示するよう制御する。また、ブレイクポイントが発生したことは、画面表示の代わりに、音声で出力したりしてユーザに知らせてもよい。これにより、ユーザは、移動中に、自分のフォームの現在の状態を容易に知ることができる。   In step S218, display control unit 320 controls to display on the screen that a breakpoint has occurred. Further, the occurrence of the break point may be notified to the user by outputting it by voice instead of the screen display. As a result, the user can easily know the current state of his / her form while moving.

図26は、実施例におけるブレイクポイントの判定処理の一例を示すフローチャートである。図26に示すステップS302で、判定部3168は、所定歩から構成される判定区間を検出したか否かを判定する。所定歩は、例えば20歩である。所定歩の判定区間が検出された場合(ステップS302−YES)、処理はステップS304に進み、所定歩の判定区間が検出されない場合(ステップS302−NO)、処理はステップS302に戻る。   FIG. 26 is a flowchart illustrating an example of a breakpoint determination process in the embodiment. In step S302 shown in FIG. 26, the determination unit 3168 determines whether or not a determination section composed of predetermined steps has been detected. The predetermined step is 20 steps, for example. If the determination section for the predetermined step is detected (step S302—YES), the process proceeds to step S304. If the determination section for the predetermined step is not detected (step S302—NO), the process returns to step S302.

ステップS304で、判定部3168は、所定数の判定区間が経過したか否かを判定する。所定数は、例えば10である。所定数の判定区間が経過した場合(ステップS304−YES)、処理はステップS306に進み、所定数の判定区間が経過していなければ(ステップS304−NO)、処理はステップS310、S312、S314、S320に進む。   In step S304, the determination unit 3168 determines whether a predetermined number of determination sections have elapsed. The predetermined number is 10, for example. If the predetermined number of determination intervals have elapsed (step S304—YES), the process proceeds to step S306. If the predetermined number of determination intervals have not elapsed (step S304—NO), the processing proceeds to steps S310, S312, S314, Proceed to S320.

ステップS306で、判定部3168は、所定数の判定区間における姿勢を取得し、その平均を算出する。例えば、取得部312は、10判定区間における体軸の傾きの方向及び大きさの平均(姿勢)を算出する。   In step S306, the determination unit 3168 acquires postures in a predetermined number of determination sections, and calculates an average thereof. For example, the acquisition unit 312 calculates the average (posture) of the direction and magnitude of the inclination of the body axis in the 10 determination sections.

ステップS308で、判定部3168は、10判定区間における姿勢の平均に対応する姿勢点を算出する。姿勢点は、例えば図11に示すテーブルを用いて算出される。なお、算出後に判定区間のカウントがクリアされる結果、ステップS306及びS308は、10判定区間が経過する度に算出される。   In step S308, the determination unit 3168 calculates a posture point corresponding to the average posture in 10 determination sections. The posture point is calculated using, for example, a table shown in FIG. As a result of clearing the count of the determination section after the calculation, steps S306 and S308 are calculated every time 10 determination sections elapse.

ステップS310で、判定部3168は、1判定区間内に取得されたPitchの平均に対応するPitch点を算出する。Pitch点は、例えば図11に示すテーブルを用いて算出される。   In step S310, the determination unit 3168 calculates a Pitch point corresponding to the average of the pitches acquired in one determination section. The Pitch point is calculated using, for example, a table shown in FIG.

ステップS312で、判定部3168は、1判定区間内に取得されたRollの平均に対応するRoll点を算出する。Roll点は、例えば図11に示すテーブルを用いて算出される。   In step S312, the determination unit 3168 calculates a Roll point corresponding to the average of Rolls acquired in one determination section. The Roll point is calculated using, for example, a table shown in FIG.

ステップS314で、判定部3168は、着地した足が、左右どちらの足であるかを判定する。判定部3168は、上述したように、加速度データの鉛直方向の値により接地したことが分かり、Roll角において、どちらの足が接地したかを判定することができる。   In step S314, the determination unit 3168 determines which of the left and right feet the landed foot is. As described above, the determination unit 3168 can determine that the ground is grounded based on the vertical value of the acceleration data, and can determine which foot is grounded at the Roll angle.

ステップS316で、判定部3168は、1判定区間内の平均である左右のバランス値を算出する。左右のバランス値は、例えば右足のインパクト値(鉛直方向の加速度データ値)/左足のインパクト値の1判定区間内の平均を左右のバランス値とする。   In step S316, the determination unit 3168 calculates a left / right balance value that is an average in one determination section. For the left and right balance values, for example, the average of the impact value of the right foot (acceleration data value in the vertical direction) / the impact value of the left foot within one determination section is used as the left and right balance value.

ステップS318で、判定部3168は、左右のバランス値に対応する左右バランス点を算出する。左右バランス点は、例えば図11に示すテーブルを用いて算出される。   In step S318, the determination unit 3168 calculates a left / right balance point corresponding to the left / right balance value. The left / right balance point is calculated using, for example, a table shown in FIG.

ステップS320で、判定部3168は、ペースを算出する。ペースの算出については公知の方法を用いればよい。   In step S320, determination unit 3168 calculates the pace. A known method may be used for calculating the pace.

ステップS322で、判定部3168は、1判定区間内のペースの平均に対応するペース点を算出する。ペース点は、例えば図11に示すテーブルを用いて算出される。   In step S322, the determination unit 3168 calculates a pace point corresponding to the average of the paces in one determination section. The pace point is calculated using, for example, a table shown in FIG.

ステップS324で、判定部3168は、算出された各項目の点を記憶部302に記憶する。   In step S324, the determination unit 3168 stores the calculated points of the items in the storage unit 302.

ステップS326で、判定部3168は、各項目の点を合計し、総合点を算出する。   In step S326, the determination unit 3168 adds up the points of each item to calculate a total score.

ステップS328で、判定部3168は、所定回連続して総合点が閾値以上であるか否かを判定する。所定回は、例えば3回である。所定回連続して総合点が閾値以上である場合(ステップS328−YES)、処理はステップS218へ進み、所定回連続して総合点が閾値以上とはならない場合(ステップS328−NO)、処理はステップS116へ進む。   In step S328, the determination unit 3168 determines whether the total score is equal to or greater than the threshold value continuously for a predetermined number of times. For example, the predetermined number of times is three. If the total score is equal to or greater than the threshold for a predetermined number of times (step S328-YES), the process proceeds to step S218. If the total score is not equal to or greater than the threshold for a predetermined number of times (step S328-NO), the process is performed. Proceed to step S116.

なお、図24〜26で説明した処理のフローに含まれる各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更して又は並列に実行することができるとともに、各処理ステップ間に他のステップを追加してもよい。また、便宜上1ステップとして記載されているステップは、複数ステップに分けて実行することができる一方、便宜上複数ステップに分けて記載されているものは、1ステップとして把握することができる。   Note that the processing steps included in the processing flow described with reference to FIGS. 24 to 26 can be executed in any order or in parallel as long as the processing contents do not contradict each other. Other steps may be added in between. Further, a step described as one step for convenience can be executed by being divided into a plurality of steps, while a step described as being divided into a plurality of steps for convenience can be grasped as one step.

以上、実施例によれば、走行又は歩行時のフォームの状態をユーザに容易に把握させることができる。また、実施例によれば、フォーム判定の基準となる閾値を、屋内と屋外とで別々に設けることで、より適切な閾値を設定することが可能になる。また、実施例によれば、左右のバランス値に基づき、怪我の可能性がある足を迅速に判断し、ユーザに報知することができる。また、実施例によれば、安定した走行等ができなくなった時点(ブレイクポイント)を判定することにより、どの時点でフォームが崩れたのかを容易に把握することができる。また、実施例によれば、ブレイクポイントにおいて、フォームが崩れた主要因を特定し、その主要因を鍛える部位を提示することができる。   As described above, according to the embodiment, the user can easily grasp the state of the form during traveling or walking. Further, according to the embodiment, it is possible to set a more appropriate threshold value by separately providing a threshold value as a reference for form determination for indoor and outdoor. Moreover, according to the Example, based on the left and right balance values, it is possible to quickly determine a foot that may be injured and notify the user. Further, according to the embodiment, it is possible to easily grasp at which point the form has collapsed by determining the time point (break point) at which stable running or the like cannot be performed. In addition, according to the embodiment, it is possible to identify a main factor whose form has collapsed at a breakpoint and present a part for training the main factor.

なお、実施例において、アイウエア30がメガネである場合について説明した。しかし、アイウエアはこれに限定されない。アイウエアは、眼に関連する装具であればよく、メガネ、サングラス、ゴーグル及びヘッドマウントディスプレイならびにこれらのフレームなどの顔面装着具又は頭部装着具であってよい。   In the embodiment, the case where the eyewear 30 is glasses has been described. However, eyewear is not limited to this. The eyewear may be any device related to the eye, and may be a face wearing device or a head wearing device such as glasses, sunglasses, goggles and a head mounted display and their frames.

実施例において、アイウエア30が生体電極を設けてもよいことを説明したが、この生体電極から取得できる眼電位信号に基づいて、視線移動や瞬目を検出してもよい。このとき、6軸センサ206から取得できる各データと、視線移動や瞬目とが関連付けて記憶されてもよい。これにより、運動時の瞬目や視線移動を分析することが可能になる。   In the embodiment, it has been described that the eyewear 30 may be provided with a biological electrode. However, based on an electrooculogram signal that can be acquired from the biological electrode, eye movement or blink may be detected. At this time, each data that can be acquired from the 6-axis sensor 206 may be stored in association with the line-of-sight movement and the blink. This makes it possible to analyze blinks and line-of-sight movement during exercise.

なお、実施例において、アイウエア30に搭載された6軸センサ206からの検出データを用いて説明したが、情報処理装置10に搭載された6軸センサ111からの検出データを用いても、実施例において説明したアプリケーションを実行することが可能である。すなわち、6軸センサは頭部だけではなく、人体のいずれかの位置に装着されていればよい。   In the embodiment, the detection data from the six-axis sensor 206 mounted on the eyewear 30 has been described. However, the detection data from the six-axis sensor 111 mounted on the information processing apparatus 10 may be used. It is possible to execute the application described in the example. That is, the 6-axis sensor may be mounted not only on the head but also on any position of the human body.

以上、本発明について実施例を用いて説明したが、本発明の技術的範囲は上記実施例に記載の範囲には限定されない。上記実施例に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using the Example, the technical scope of this invention is not limited to the range as described in the said Example. It will be apparent to those skilled in the art that various modifications and improvements can be made to the above-described embodiments. It is apparent from the description of the scope of claims that embodiments with such changes or improvements can be included in the technical scope of the present invention.

以下、実施例に関し、さらに以下の付記を開示する。
[付記1]
記憶部及び制御部を有するコンピュータが実行する情報処理方法であって、
前記制御部は、
屋内又は屋外の選択を受け付けること、
前記記憶部に記憶された、人体の前後のブレ、前記人体の左右のブレ、及び前記人体の傾きの方向と大きさとを含む姿勢の各閾値を含む複数のセットの中から、受け付けられた屋内又は屋外に対応する一のセットの取得すること、
取得された一のセット内の各閾値を、人体に装着された加速度センサ及び角速度センサからの検出データに基づく前記人体の前後のブレを示す第1データ、前記人体の左右のブレを示す第2データ、及び前記人体の姿勢を示す第3データの比較対象に設定すること、
を実行する情報処理方法。
[付記2]
制御部を有するコンピュータが実行する情報処理方法であって、
前記制御部は、
人体に装着された加速度センサ及び角速度センサからの検出データに基づく前記人体の前後のブレを示す第1データ、前記人体の左右のブレを示す第2データ、前記人体の傾きの方向と大きさとを含む姿勢を示す第3データ、前記加速度センサの鉛直方向の加速度データに基づく、左右の脚の接地時のインパクト比を示す第4データ、及び/又はGPSセンサ又は前記加速度センサからの検出データに基づく、所定距離を移動するペースを示す第5データを取得すること、
前記第1データから前記第5データまでの各データのうちの少なくとも1つに基づいて、前記ペース又は移動時のフォームの安定性に関する問題が発生した時点を判定すること、
前記時点を示す情報を画面に表示制御すること、
を実行する情報処理方法。
[付記3]
制御部を有するコンピュータが実行する情報処理方法であって、
前記制御部は、
鉛直方向の加速度データ、人体の左右のブレを示す第2データ、及び加速度センサの鉛直方向の加速度データに基づく、左右の脚の接地時のインパクト比を示す第4データを取得すること、
前記加速度データ及び前記第2データに基づいて、左右の脚に対応する一対のオブジェクトに対し、どちらが接地しているかを報知する画面を表示制御すること、
前記第4データが怪我に関する所定条件を満たす場合、前記一対のオブジェクトに対し、怪我の可能性がある方のオブジェクトを識別可能にすること、
を実行する情報処理方法。
Hereinafter, the following additional notes will be disclosed regarding the examples.
[Appendix 1]
An information processing method executed by a computer having a storage unit and a control unit,
The controller is
Accepting indoor or outdoor choices,
Indoors received from a plurality of sets including each threshold value of posture including front and back blur of the human body, left and right blur of the human body, and the direction and magnitude of the tilt of the human body, stored in the storage unit Or to get one set corresponding to the outdoors,
Each threshold value in the acquired one set includes first data indicating blurring before and after the human body based on detection data from an acceleration sensor and an angular velocity sensor mounted on the human body, and second data indicating left and right blurring of the human body. Setting the comparison target of the data and the third data indicating the posture of the human body,
Information processing method to execute.
[Appendix 2]
An information processing method executed by a computer having a control unit,
The controller is
First data indicating front / rear blur of the human body based on detection data from an acceleration sensor and an angular velocity sensor attached to the human body, second data indicating left / right blur of the human body, and the direction and magnitude of the tilt of the human body. Based on third data indicating posture including, fourth data indicating impact ratio when the left and right legs are in contact with ground based on vertical acceleration data of the acceleration sensor, and / or based on detection data from the GPS sensor or the acceleration sensor Obtaining fifth data indicating a pace of moving a predetermined distance;
Determining when a problem relating to stability of the pace or the form at the time of movement occurs based on at least one of each data from the first data to the fifth data;
Controlling display of information indicating the time point on a screen;
Information processing method to execute.
[Appendix 3]
An information processing method executed by a computer having a control unit,
The controller is
Obtaining fourth data indicating the impact ratio of the left and right legs when touching the ground based on the acceleration data in the vertical direction, the second data indicating the lateral blur of the human body, and the acceleration data in the vertical direction of the acceleration sensor;
Based on the acceleration data and the second data, display control of a screen for informing which of the pair of objects corresponding to the left and right legs is grounded;
When the fourth data satisfies a predetermined condition regarding injury, the object having the possibility of injury can be identified with respect to the pair of objects.
Information processing method to execute.

10 情報処理装置
20 処理装置
30 アイウエア
302 記憶部
304 通信部
306 制御部
312 取得部
314 設定部
316 実行処理部
318 後処理部
320 表示制御部
DESCRIPTION OF SYMBOLS 10 Information processing apparatus 20 Processing apparatus 30 Eyewear 302 Storage part 304 Communication part 306 Control part 312 Acquisition part 314 Setting part 316 Execution process part 318 Post-processing part 320 Display control part

Claims (9)

制御部及び記憶部を有するコンピュータが実行する情報処理方法であって、
前記制御部は、
人体に装着された加速度センサ及び角速度センサからの各検出データに基づく前記人体の前後のブレを示す第1データ、前記人体の左右のブレを示す第2データ、及び前記人体の体軸の傾きの方向と大きさを含む姿勢を示す第3データを取得すること、
前記記憶部に記憶された前記前後のブレ、前記左右のブレ、及び前記姿勢の各閾値のうち、取得されたデータに対応する閾値に基づき形成される基準オブジェクトであって、前記前後のブレの閾値及び前記左右のブレの閾値に基づき形状が設定され、前記姿勢の閾値に基づき中心の範囲が設定される基準オブジェクトを、画面内の所定座標上に表示制御すること、
前記第1データ及び前記第2データに基づく形状の対象オブジェクトを、前記第3データに基づく前記所定座標上の位置を前記対象オブジェクトの中心として、前記前後のブレの閾値及び前記左右のブレの閾値と前記基準オブジェクトの形状との関係が、前記第1データ及び前記第2データと前記対象オブジェクトの形状との関係に一致するように、表示制御すること、
を実行する情報処理方法。
An information processing method executed by a computer having a control unit and a storage unit,
The controller is
First data indicating blurring of the front and rear of the human body based on detection data from an acceleration sensor and an angular velocity sensor attached to the human body, second data indicating left and right blurring of the human body, and inclination of the body axis of the human body Obtaining third data indicating a posture including direction and size;
A reference object formed based on a threshold corresponding to acquired data among the threshold values of the front and rear blur, the left and right blur, and the posture stored in the storage unit, A reference object having a shape set based on a threshold value and a left / right blur threshold value and a center range set based on the posture threshold value is displayed and controlled on a predetermined coordinate in the screen;
The target object having a shape based on the first data and the second data, and the position of the target object on the predetermined coordinate based on the third data is the center of the target object. Display control so that the relationship between the shape of the reference object and the shape of the reference object matches the relationship between the first data, the second data, and the shape of the target object ,
Information processing method to execute.
前記制御部は、
前記画面内に表示された前記対象オブジェクトのうち、前記基準オブジェクトの外にある領域を強調表示すること、
をさらに実行する、請求項1に記載の情報処理方法。
The controller is
Highlighting an area outside the reference object among the target objects displayed in the screen;
The information processing method according to claim 1, further executing.
前記制御部は、
前記前後のブレの閾値、前記左右のブレの閾値、及び前記姿勢の閾値それぞれを、前記基準オブジェクトの縦幅、横幅、及び中心の範囲に重複しないように1対1に対応付けて設定し、前記基準オブジェクトを形成すること、
取得された前記第1データ、前記第2データ、及び前記第3データそれぞれを、前記対象オブジェクトの縦幅、横幅、及び中心の範囲に対し、前記基準オブジェクトの対応関係に基づいて設定し、前記対象オブジェクトを形成すること、
をさらに実行する、請求項1又は2に記載の情報処理方法。
The controller is
The front and rear blur threshold, the left and right blur threshold, and the posture threshold are set in a one-to-one correspondence so as not to overlap with the vertical width, horizontal width, and center range of the reference object, Forming the reference object;
The acquired first data, the second data, and the third data are set based on the correspondence relationship of the reference object with respect to the vertical width, horizontal width, and center range of the target object, Forming a target object,
The information processing method according to claim 1 or 2, further executing:
人体に装着された加速度センサ及び角速度センサからの検出データに基づく前記人体の前後のブレを示す第1データ、前記人体の左右のブレを示す第2データ、及び前記人体の体軸の傾きの方向と大きさとを含む姿勢を示す第3データを取得する取得部と、
前記前後のブレ、前記左右のブレ、及び前記姿勢の各閾値を記憶する記憶部と、
前記記憶部に記憶された各閾値のうち、前記取得部に取得されたデータに対応する閾値に基づき形成される基準オブジェクトであって、前記前後のブレの閾値及び前記左右のブレの閾値に基づき形状が設定され、前記姿勢の閾値に基づき中心の範囲が設定される基準オブジェクトを画面内の所定座標上に表示制御し、前記第1データ及び前記第2データに基づく形状の対象オブジェクトを、前記第3データに基づく前記所定座標上の位置を前記対象オブジェクトの中心として、前記前後のブレの閾値及び前記左右のブレの閾値と前記基準オブジェクトの形状との関係が、前記第1データ及び前記第2データと前記対象オブジェクトの形状との関係に一致するように、表示制御する表示制御部と、
を備える情報処理装置。
First data indicating blurring of the front and rear of the human body based on detection data from an acceleration sensor and an angular velocity sensor attached to the human body, second data indicating left and right blurring of the human body, and a direction of inclination of the body axis of the human body And an acquisition unit for acquiring third data indicating a posture including the size,
A storage unit that stores threshold values of the front and rear blur, the left and right blur, and the posture;
Among the threshold values stored in the storage unit, the reference object is formed based on the threshold value corresponding to the data acquired by the acquisition unit, and is based on the front and rear blur threshold and the left and right blur threshold. A reference object in which a shape is set and a center range is set based on the threshold of the posture is displayed on predetermined coordinates on the screen, and a target object having a shape based on the first data and the second data is With the position on the predetermined coordinate based on the third data as the center of the target object, the relationship between the front and rear blur threshold and the left and right blur threshold and the shape of the reference object is the first data and the first object. A display control unit that performs display control so as to match the relationship between the two data and the shape of the target object ;
An information processing apparatus comprising:
前記表示制御部は、
前記画面内に表示された前記対象オブジェクトのうち、前記基準オブジェクトの外にある領域を強調表示する、請求項4に記載の情報処理装置。
The display control unit
The information processing apparatus according to claim 4, wherein an area outside the reference object among the target objects displayed in the screen is highlighted.
前記前後のブレの閾値、前記左右のブレの閾値、及び前記姿勢の閾値それぞれを、前記基準オブジェクトの縦幅、横幅、及び中心の範囲に重複しないように1対1に対応付けて設定し、前記基準オブジェクトを形成する第1形成部と、
取得された前記第1データ、前記第2データ、及び前記第3データそれぞれを、前記対象オブジェクトの縦幅、横幅、及び中心の範囲に対し、前記基準オブジェクトの対応関係に基づいて設定し、前記対象オブジェクトを形成する第2形成部と、
をさらに備える、請求項4又は5に記載の情報処理装置。
The front and rear blur threshold, the left and right blur threshold, and the posture threshold are set in a one-to-one correspondence so as not to overlap with the vertical width, horizontal width, and center range of the reference object, A first forming part for forming the reference object;
The acquired first data, the second data, and the third data are set based on the correspondence relationship of the reference object with respect to the vertical width, horizontal width, and center range of the target object, A second forming unit for forming a target object;
The information processing apparatus according to claim 4, further comprising:
コンピュータに、
人体に装着された加速度センサ及び角速度センサからの検出データに基づく前記人体の前後のブレを示す第1データ、前記人体の左右のブレを示す第2データ、及び前記人体の傾きの方向と大きさとを含む姿勢を示す第3データを取得すること、
前記前後のブレ、前記左右のブレ、及び前記姿勢の各閾値のうち、取得されたデータに対応する閾値に基づき形成される基準オブジェクトであって、前記前後のブレの閾値及び前記左右のブレの閾値に基づき形状が設定され、前記姿勢の閾値に基づき中心の範囲が設定される基準オブジェクトを、画面内の所定座標上に表示制御すること、
前記第1データ及び前記第2データに基づく形状の対象オブジェクトを、前記第3データに基づく前記所定座標上の位置を前記対象オブジェクトの中心として、前記前後のブレの閾値及び前記左右のブレの閾値と前記基準オブジェクトの形状との関係が、前記第1データ及び前記第2データと前記対象オブジェクトの形状との関係に一致するように、表示制御すること、
を実行させるプログラム。
On the computer,
First data indicating front and back blur of the human body based on detection data from an acceleration sensor and an angular velocity sensor attached to the human body, second data indicating left and right blur of the human body, and the direction and magnitude of the tilt of the human body Obtaining third data indicating posture including
A reference object formed based on a threshold value corresponding to acquired data among the threshold values of the front / rear blur, the left / right blur, and the posture, wherein the front / rear blur threshold and the left / right blur threshold Controlling the display of a reference object on which a shape is set based on a threshold value and a center range is set based on the posture threshold value on a predetermined coordinate in the screen;
The target object having a shape based on the first data and the second data, and the position of the target object on the predetermined coordinate based on the third data is the center of the target object. Display control so that the relationship between the shape of the reference object and the shape of the reference object matches the relationship between the first data, the second data, and the shape of the target object ,
A program that executes
前記コンピュータに、
前記画面内に表示された前記対象オブジェクトのうち、前記基準オブジェクトの外にある領域を強調表示すること、
をさらに実行させる、請求項7に記載のプログラム。
In the computer,
Highlighting an area outside the reference object among the target objects displayed in the screen;
The program according to claim 7, further executing.
前記コンピュータに、
前記前後のブレの閾値、前記左右のブレの閾値、及び前記姿勢の閾値それぞれを、前記基準オブジェクトの縦幅、横幅、及び中心の範囲に重複しないように1対1に対応付けて設定し、前記基準オブジェクトを形成すること、
取得された前記第1データ、前記第2データ、及び前記第3データそれぞれを、前記対象オブジェクトの縦幅、横幅、及び中心の範囲に対し、前記基準オブジェクトの対応関係に基づいて設定し、前記対象オブジェクトを形成すること、
をさらに実行させる、請求項7又は8に記載のプログラム。
In the computer,
The front and rear blur threshold, the left and right blur threshold, and the posture threshold are set in a one-to-one correspondence so as not to overlap with the vertical width, horizontal width, and center range of the reference object, Forming the reference object;
The acquired first data, the second data, and the third data are set based on the correspondence relationship of the reference object with respect to the vertical width, horizontal width, and center range of the target object, Forming a target object,
The program according to claim 7 or 8, wherein the program is further executed.
JP2015557261A 2015-10-08 2015-10-08 Information processing method, information processing apparatus, and program Active JP6067148B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/078627 WO2017061005A1 (en) 2015-10-08 2015-10-08 Information processing method, information processing device and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016173853A Division JP6670710B2 (en) 2016-09-06 2016-09-06 Information processing method, information processing apparatus and program

Publications (2)

Publication Number Publication Date
JP6067148B1 true JP6067148B1 (en) 2017-01-25
JPWO2017061005A1 JPWO2017061005A1 (en) 2017-10-05

Family

ID=57890441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015557261A Active JP6067148B1 (en) 2015-10-08 2015-10-08 Information processing method, information processing apparatus, and program

Country Status (2)

Country Link
JP (1) JP6067148B1 (en)
WO (1) WO2017061005A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6697300B2 (en) * 2016-03-25 2020-05-20 株式会社ジンズホールディングス Information processing method, program, and information processing device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009040948A1 (en) * 2007-09-28 2009-04-02 Panasonic Electric Works Co., Ltd. Exercise system
JP2015058096A (en) * 2013-09-18 2015-03-30 カシオ計算機株式会社 Exercise support device, exercise support method, and exercise support program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012024275A (en) * 2010-07-22 2012-02-09 Omron Healthcare Co Ltd Walking posture determination device
JP5912807B2 (en) * 2012-04-25 2016-04-27 アニマ株式会社 Load measurement system
JP6103350B2 (en) * 2012-12-18 2017-03-29 カシオ計算機株式会社 Exercise support device, exercise support method, and exercise support program
JP6075198B2 (en) * 2013-05-10 2017-02-08 オムロンヘルスケア株式会社 Walking posture meter and program
JP6111837B2 (en) * 2013-05-10 2017-04-12 オムロンヘルスケア株式会社 Walking posture meter and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009040948A1 (en) * 2007-09-28 2009-04-02 Panasonic Electric Works Co., Ltd. Exercise system
JP2015058096A (en) * 2013-09-18 2015-03-30 カシオ計算機株式会社 Exercise support device, exercise support method, and exercise support program

Also Published As

Publication number Publication date
WO2017061005A1 (en) 2017-04-13
JPWO2017061005A1 (en) 2017-10-05

Similar Documents

Publication Publication Date Title
US11861073B2 (en) Gesture recognition
US10684304B2 (en) Foot exercise motion analysis device during moving exercise
KR101858116B1 (en) A postural balance training system
KR101797421B1 (en) Method and apparatus for identifying activities
US9149212B2 (en) Walking posture determination apparatus
US20220346490A1 (en) Enhancing Exercise Through Augmented Reality
US20150081061A1 (en) Exercise support device, exercise support method, and exercise support program
TWI638280B (en) Method, electronic apparatus and recording medium for automatically configuring sensors
US10694980B2 (en) Exercise support device, exercise support method and exercise support program
WO2015027132A1 (en) Energy expenditure device
EP3036669A1 (en) Energy expenditure device
US10471305B2 (en) Modification of an exercise plan
JP2012024275A (en) Walking posture determination device
US9706962B1 (en) Apparatus and method for teaching and algorithms for identifying qualifying movements
JP6621133B2 (en) Information processing method, information processing apparatus, and program
JP6697300B2 (en) Information processing method, program, and information processing device
JP6067148B1 (en) Information processing method, information processing apparatus, and program
JP6670710B2 (en) Information processing method, information processing apparatus and program
WO2017130339A1 (en) Information processing method, information processing device, and program
KR101587263B1 (en) Sensing device and screen shooting simulation system having thesame
JP6621134B2 (en) Information processing method, information processing apparatus, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161220

R150 Certificate of patent or registration of utility model

Ref document number: 6067148

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250