JP2017221350A - Support information provision device, support information provision system, support information provision method, and support information provision program - Google Patents

Support information provision device, support information provision system, support information provision method, and support information provision program Download PDF

Info

Publication number
JP2017221350A
JP2017221350A JP2016118382A JP2016118382A JP2017221350A JP 2017221350 A JP2017221350 A JP 2017221350A JP 2016118382 A JP2016118382 A JP 2016118382A JP 2016118382 A JP2016118382 A JP 2016118382A JP 2017221350 A JP2017221350 A JP 2017221350A
Authority
JP
Japan
Prior art keywords
support information
information
unit
person
supported
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016118382A
Other languages
Japanese (ja)
Inventor
順子 任
Junko Nin
順子 任
貴穂 岡田
Takao Okada
貴穂 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2016118382A priority Critical patent/JP2017221350A/en
Publication of JP2017221350A publication Critical patent/JP2017221350A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide support information on a physical exercise with a content suitable for a current state of a person to be supported that performs a physical exercise.SOLUTION: A support information provision device (10) includes a detection result acquisition part (11), a support information creation part (11), and an output part (11). The detection result acquisition part acquires a detection result of a motion sensor (1) mounted on a person to be supported for detecting a motion of the person to be supported, and a detection result of a biological sensor (2) mounted on the person to be supported for detecting biological information on the person to be supported. The support information creation part creates support information on a physical exercise of the person to be supported based on each detection result of the motion sensor and the biological sensor acquired by the detection result acquisition part. The output part outputs the support information created by the support information creation part.SELECTED DRAWING: Figure 1

Description

本発明は、身体運動に関する支援情報を提供する技術に関する。   The present invention relates to a technique for providing support information related to physical exercise.

近年、人々の健康志向が高まっており、ランニング、トレッキング、ゴルフなどのスポーツに取り組む人が増加している。また、スポーツに取り組んでいない人であっても日常生活において様々な身体運動を実行している。日常生活において実行される身体運動としては、例えば、掃除等の家事に伴う諸動作、通勤等に伴う歩行等を挙げることができる。   In recent years, people's health consciousness is increasing, and the number of people who are engaged in sports such as running, trekking, and golf is increasing. Even people who are not engaged in sports perform various physical exercises in daily life. Examples of physical exercises performed in daily life include various actions associated with housework such as cleaning, walking associated with commuting, and the like.

国際公開2006/098096号International Publication No. 2006/098096

一般的に体を動かすことは健康にとって良いと考えられている。ところが、悪いフォームで身体運動を行った場合、或いは、過度に身体運動を行った場合には、体に故障が生じるおそれがあり、むしろ健康に良くない。   In general, moving your body is considered good for your health. However, when physical exercise is performed in a bad form, or when physical exercise is performed excessively, there is a risk that the body may break down, which is rather unhealthy.

適正なフォーム及び適正な運動量は、身体運動を行う人の筋肉の付き方、心肺機能等によって異なる。そして、不都合なことに、筋肉の付き方、心肺機能等は個人個人で異なっている。また、同一人物であっても身体運動を行う際の体調によって適正なフォーム及び適正量が異なる。   An appropriate form and an appropriate amount of exercise differ depending on how the muscles of a person performing physical exercise are attached, cardiopulmonary function, and the like. Unfortunately, muscle attachment, cardiopulmonary function, etc. are different for each individual. Moreover, even if it is the same person, an appropriate form and an appropriate amount differ depending on the physical condition when performing physical exercise.

特許文献1では、身体運動に関する支援情報を提供する技術として、教習者(被支援者)の動作と指導者の動作とを2画面動作解析ツール上で比較しながら指導者からインターネットを介してアドバスを受けることができるインターネットレッスンシステムが提案されている。   In Patent Document 1, as a technique for providing support information related to physical exercise, the instructor (advanced person) and the instructor's operation are compared on the two-screen motion analysis tool while the instructor advises via the Internet. An internet lesson system that can be used has been proposed.

特許文献1で提案されているシステムは、動作解析の結果及び指導者の力量のみに依存したアドバイスを提供している。すなわち、特許文献1で提案されているシステムは、教習者(被支援者)の筋肉の付き方、心肺機能、体調等を考慮したアドバイスを提供していない。このため、特許文献1で提案されているシステムによって提供されるアドバイスに従っても、体に故障が生じるおそれがあった。   The system proposed in Patent Document 1 provides advice that depends only on the results of motion analysis and the ability of the instructor. That is, the system proposed in Patent Document 1 does not provide advice that takes into consideration the muscles, cardiopulmonary function, physical condition, etc. of the teacher (supported person). For this reason, even if the advice provided by the system proposed in Patent Document 1 is followed, there is a risk that the body will fail.

本発明は、上記の課題に鑑み、身体運動を行う被支援者の現在の状態に適した内容の身体運動に関する支援情報を提供する技術を提供することを目的とする。   An object of this invention is to provide the technique which provides the assistance information regarding the physical exercise | movement of the content suitable for the to-be-supported person who performs a physical exercise | movement in view of said subject.

本発明に係る支援情報提供装置は、被支援者に装着され前記被支援者の動きを検出するモーションセンサの検出結果、及び、前記被支援者に装着され前記被支援者の生体情報を検出する生体センサの検出結果を取得する検出結果取得部と、前記検出結果取得部によって取得された前記モーションセンサ及び前記生体センサの各検出結果に基づき、前記被支援者の身体運動に関する支援情報を作成する支援情報作成部と、前記支援情報作成部によって作成された前記支援情報を出力する出力部と、を備える構成(第1の構成)である。   The support information providing apparatus according to the present invention detects a detection result of a motion sensor that detects a movement of the supported person that is attached to the supported person, and biometric information of the supported person that is attached to the supported person. A detection result acquisition unit that acquires a detection result of the biosensor, and support information related to the body movement of the supportee is created based on the detection results of the motion sensor and the biosensor acquired by the detection result acquisition unit. A configuration (first configuration) includes a support information creation unit and an output unit that outputs the support information created by the support information creation unit.

また、上記第1の構成の支援情報提供装置において、前記支援情報の対象となる前記身体運動の種類を選択する選択部を備え、前記出力部は、前記選択部の選択結果に応じた前記モーションセンサの装着位置に関する情報も出力する構成(第2の構成)であることが望ましい。   The support information providing apparatus having the first configuration further includes a selection unit that selects a type of the physical exercise that is a target of the support information, and the output unit performs the motion according to a selection result of the selection unit. It is desirable to have a configuration (second configuration) that also outputs information related to the mounting position of the sensor.

また、上記第1又は第2の構成の支援情報提供装置において、前記被支援者のセンサ装着部位を含む撮影画像を取得する撮影画像取得部と、前記撮影画像取得部によって取得された前記撮影画像にセンサ装着位置を示す情報を重畳させた拡張現実画像を生成する拡張現実画像生成部と、を備え、前記出力部は、前記拡張現実画像も出力する構成(第3の構成)であることが望ましい。   Further, in the support information providing apparatus having the first or second configuration, the captured image acquisition unit that acquires a captured image including a sensor wearing part of the supportee, and the captured image acquired by the captured image acquisition unit. An augmented reality image generating unit that generates an augmented reality image in which information indicating a sensor mounting position is superimposed on the output unit, and the output unit is configured to output the augmented reality image (third configuration). desirable.

また、上記第1〜第3いずれかの構成の支援情報提供装置において、前記モーションセンサを含むセンサパッケージに付された情報コードから前記モーションセンサの装着位置に関する情報を読み取る情報読取部を備え、前記出力部は、前記情報読取部によって読み取られた前記モーションセンサの装着位置に関する情報も出力する構成(第4の構成)であることが望ましい。   Further, in the support information providing apparatus having any one of the first to third configurations, an information reading unit that reads information on a mounting position of the motion sensor from an information code attached to a sensor package including the motion sensor, It is desirable that the output unit has a configuration (fourth configuration) that also outputs information regarding the mounting position of the motion sensor read by the information reading unit.

また、上記第1〜第4いずれかの構成の支援情報提供装置において、前記モーションセンサの検出結果に基づいて前記被支援者のフォーム画像を生成するフォーム画像生成部と、参照フォーム画像を取得する参照フォーム画像取得部と、前記フォーム画像生成部によって生成された前記フォーム画像と前記参照フォーム画像取得部によって取得された前記参照フォーム画像とに基づく合成画像を生成する合成画像生成部と、を備え、前記支援情報は前記合成画像を含む構成(第5の構成)であることが望ましい。   In the support information providing apparatus having any one of the first to fourth configurations, a form image generation unit that generates a form image of the supportee based on a detection result of the motion sensor, and a reference form image are acquired. A reference form image acquisition unit; and a composite image generation unit that generates a composite image based on the form image generated by the form image generation unit and the reference form image acquired by the reference form image acquisition unit. It is preferable that the support information has a configuration (fifth configuration) including the composite image.

また、上記第5の構成の支援情報提供装置において、前記支援情報は、前記フォーム画像に関する前記被支援者の生体情報に基づく情報、及び、前記参照フォーム画像に関する前記被支援者の生体情報に基づく情報を含む構成(第6の構成)であることが望ましい。   In the support information providing apparatus of the fifth configuration, the support information is based on information on the supported person's biometric information regarding the form image and on the supportee's biometric information regarding the reference form image. It is desirable that the configuration includes information (sixth configuration).

また、上記第1〜第6いずれかの構成の支援情報提供装置において、前記モーションセンサの検出結果に基づいて筋肉の活動量に関する情報を生成する活動量情報生成部を備え、前記支援情報は、前記活動量情報生成部によって生成された前記筋肉の活動量に関する情報を含む構成(第7の構成)であることが望ましい。   Further, in the support information providing device having any one of the first to sixth configurations, the support information providing device includes an activity amount information generating unit that generates information on the amount of muscle activity based on the detection result of the motion sensor, and the support information includes: A configuration (seventh configuration) including information on the activity amount of the muscle generated by the activity amount information generation unit is desirable.

また、上記第1〜第7いずれかの構成の支援情報提供装置において、前記被支援者の位置情報を取得する位置情報取得部と、前記位置情報に基づいて、前記被支援者が位置する周辺の地図情報を取得する地図情報取得部と、を備え、前記支援情報作成部は、前記地図情報取得部によって取得された前記地図情報に基づいて前記支援情報を作成する構成(第8の構成)であることが望ましい。   Further, in the support information providing apparatus having any one of the first to seventh configurations, a position information acquisition unit that acquires the position information of the supported person, and a periphery where the supported person is located based on the position information A map information acquisition unit for acquiring the map information, wherein the support information creation unit creates the support information based on the map information acquired by the map information acquisition unit (eighth configuration) It is desirable that

また、上記第1〜第8いずれかの構成の支援情報提供装置において、前記支援情報は、前記被支援者が身体運動を行うときに用いる用具に関する情報を含む構成(第9の構成)であることが望ましい。   Further, in the support information providing device having any one of the first to eighth configurations, the support information includes a configuration (ninth configuration) including information on tools used when the supported person performs physical exercise. It is desirable.

また、上記第1〜第9いずれかの構成の支援情報提供装置において、前記被支援者が身体運動を行う目的に関する情報を取得する目的情報取得部を備え、前記支援情報作成部は、前記目的情報取得部によって取得された情報に基づいて前記支援情報を作成する構成(第10の構成)であることが望ましい。   The support information providing apparatus having any one of the first to ninth configurations further includes a purpose information acquisition unit that acquires information about a purpose of the person to be supported to perform physical exercise, and the support information creation unit includes the purpose It is desirable that the support information be created based on information acquired by the information acquisition unit (tenth configuration).

本発明に係る支援情報提供システムは、被支援者に装着され前記被支援者の動きを検出するモーションセンサと、前記被支援者に装着され前記被支援者の生体情報を検出する生体センサと、上記第1〜第10いずれかの構成の支援情報提供装置と、前記支援情報提供装置の出力に基づく報知を行う報知装置と、を備える構成(第11の構成)である。   A support information providing system according to the present invention includes a motion sensor that is attached to a supported person and detects the movement of the supported person, a biological sensor that is attached to the supported person and detects biological information of the supported person, It is a structure (11th structure) provided with the assistance information provision apparatus of the said any one of the said 1st-10th structure, and the alerting | reporting apparatus which performs alerting | reporting based on the output of the said assistance information provision apparatus.

本発明に係る支援情報提供方法は、被支援者に装着され前記被支援者の動きを検出するモーションセンサの検出結果、及び、前記被支援者に装着され前記被支援者の生体情報を検出する生体センサの検出結果を取得する検出結果取得工程と、前記検出結果取得工程によって取得された前記モーションセンサ及び前記生体センサの各検出結果に基づき、前記被支援者の身体運動に関する支援情報を作成する支援情報作成工程と、前記支援情報作成工程によって作成された前記支援情報を出力する出力工程と、を備える構成(第12の構成)である。   The support information providing method according to the present invention detects a detection result of a motion sensor that detects a movement of the supported person attached to the supported person, and biometric information of the supported person that is attached to the supported person. Based on a detection result acquisition step of acquiring a detection result of the biosensor, and each detection result of the motion sensor and the biosensor acquired by the detection result acquisition step, support information related to the body movement of the supportee is created. It is a structure (12th structure) provided with a support information creation process and the output process which outputs the said support information created by the said support information creation process.

本発明に係る支援情報提供プログラムは、コンピュータを、被支援者に装着され前記被支援者の動きを検出するモーションセンサの検出結果と、前記被支援者に装着され前記被支援者の生体情報を検出する生体センサの検出結果と、を取得する検出結果取得部、前記検出結果取得部によって取得された前記モーションセンサ及び前記生体センサの各検出結果に基づき、前記被支援者の身体運動に関する支援情報を作成する支援情報作成部、及び、前記支援情報作成部によって作成された前記支援情報を出力する出力部、として機能させる構成(第13の構成)である。   The support information providing program according to the present invention uses a detection result of a motion sensor that detects a movement of the supported person attached to the supported person and a biological information of the supported person attached to the supported person. A detection result acquisition unit for acquiring a detection result of the biosensor to be detected; support information related to the body movement of the supportee based on the detection results of the motion sensor and the biosensor acquired by the detection result acquisition unit; This is a configuration (a thirteenth configuration) that functions as a support information generation unit that generates the information and an output unit that outputs the support information generated by the support information generation unit.

本発明によれば、被支援者の動きを検出するモーションセンサの検出結果のみならず、被支援者の生体情報を検出する生体センサの検出結果にも基づいて、被支援者の身体運動に関する支援情報が作成されるので、身体運動を行う被支援者の現在の状態に適した内容の身体運動に関する支援情報を提供することができる。   According to the present invention, not only the detection result of the motion sensor that detects the movement of the supportee, but also the support related to the physical movement of the supportee based on the detection result of the biosensor that detects the biological information of the supportee. Since the information is created, it is possible to provide support information related to physical exercise with content suitable for the current state of the supportee performing physical exercise.

支援情報提供システムの一構成例を示す図The figure which shows one structural example of a support information provision system センサパッケージの装着ガイド機能に関するスマートフォンの動作例を示すフローチャートThe flowchart which shows the operation example of the smart phone regarding the mounting guide function of the sensor package 表示画面の表示例を示す図Figure showing a display example of the display screen 表示画面の表示例を示す図Figure showing a display example of the display screen 表示画面の表示例を示す図Figure showing a display example of the display screen 表示画面の表示例を示す図Figure showing a display example of the display screen 表示画面の表示例を示す図Figure showing a display example of the display screen 表示画面の表示例を示す図Figure showing a display example of the display screen 表示画面の表示例を示す図Figure showing a display example of the display screen 支援情報を作成するスマートフォンの動作例を示すフローチャートThe flowchart which shows the operation example of the smart phone which creates support information 支援情報を作成するスマートフォンの他の動作例を示すフローチャートThe flowchart which shows the other operation example of the smart phone which creates support information 被支援者のフォーム画像と参照フォーム画像との合成画像を示す図The figure which shows the composite image of the form image of the supportee and the reference form image

以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。
<1.支援情報提供システムの構成>
図1は、本発明に係る支援情報提供システムの一構成例を示す図である。図1に示す支援情報提供システムは、センサパッケージP1〜P3と、スマートフォン10と、を備えている。
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings.
<1. Configuration of support information provision system>
FIG. 1 is a diagram showing a configuration example of a support information providing system according to the present invention. The support information providing system illustrated in FIG. 1 includes sensor packages P1 to P3 and a smartphone 10.

まず初めにセンサパッケージP1〜P3について説明する。センサパッケージP1〜P3は、被支援者の各部に装着されるウェアラブル装置である。装着手法は特に限定されないが、例えばセンサパッケージP1〜P3が粘着性ゲル材を有し、その粘着性ゲル材を装着面として利用する手法が挙げられる。他の装着手法としては、センサパッケージP1〜P3が巻き付け部材を有し、その巻き付け部材で被支援者のセンサ装着部位を巻き付けてセンサパッケージP1〜P3を被支援者のセンサ装着部位に固定する手法が挙げられる。   First, the sensor packages P1 to P3 will be described. The sensor packages P <b> 1 to P <b> 3 are wearable devices that are attached to each part of the person being supported. Although the mounting method is not particularly limited, for example, there is a method in which the sensor packages P1 to P3 have an adhesive gel material and the adhesive gel material is used as a mounting surface. As another mounting method, the sensor packages P1 to P3 have a winding member, and the sensor mounting portion of the supportee is wound around the winding member and the sensor packages P1 to P3 are fixed to the sensor mounting portion of the supportee. Is mentioned.

センサパッケージP1は、モーションセンサ1と、生体センサ2と、無線通信部3と、電源部4と、を備えている。   The sensor package P <b> 1 includes a motion sensor 1, a biological sensor 2, a wireless communication unit 3, and a power supply unit 4.

モーションセンサ1は、被支援者の動きを検出するセンサである。例えば、公知のジャイロセンサ、地磁気センサ、加速度センサ等をモーションセンサ1として利用することができる。モーションセンサ1によって検出される被支援者の動きとしては、例えば、被支援者のセンサ装着部位に関する運動軌道、運動方向、運動速度等が挙げられる。モーションセンサ1は、これらの例示した要素全てを必ずしも検出する必要はなく、また例示した要素以外の被支援者の動きを検出してもよい。   The motion sensor 1 is a sensor that detects the movement of the person being supported. For example, a known gyro sensor, geomagnetic sensor, acceleration sensor, or the like can be used as the motion sensor 1. Examples of the movement of the supportee detected by the motion sensor 1 include a motion trajectory, a motion direction, a motion speed, and the like related to the sensor wearing part of the supportee. The motion sensor 1 does not necessarily need to detect all of these exemplified elements, and may detect the movement of a supportee other than the exemplified elements.

生体センサ2は、被支援者の生体情報を検出するセンサである。例えば、公知の温度センサ、脈波センサ、非侵襲型血糖値センサ、発汗量センサ、非侵襲型血中乳酸値濃度センサ等を生体センサ2として利用することができる。生体センサ2によって検出される被支援者の生体情報としては、例えば、被支援者のセンサ装着部位に関する体温、心拍数、血糖値、発汗量、血中乳酸値濃度等が挙げられる。なお、心拍数に関しては被支援者のセンサ装着部位が異なっても略同一検出値になる。生体センサ2は、これらの例示した要素全てを必ずしも検出する必要はなく、また例示した要素以外の被支援者の生体情報を検出してもよい。   The biosensor 2 is a sensor that detects biometric information of the person being supported. For example, a known temperature sensor, pulse wave sensor, non-invasive blood sugar level sensor, sweating amount sensor, non-invasive blood lactate concentration sensor, or the like can be used as the biosensor 2. Examples of the biometric information of the supportee detected by the biosensor 2 include body temperature, heart rate, blood sugar level, sweating amount, blood lactate concentration, and the like related to the supporter's sensor wearing part. It should be noted that the heart rate is substantially the same detection value even if the supporter's sensor mounting site is different. The biometric sensor 2 does not necessarily need to detect all of these exemplified elements, and may detect biometric information of a supportee other than the exemplified elements.

無線通信部3は、モーションセンサ1及び生体センサ2の検出結果を所定周期でA/D変換してサンプリングし、サンプリングしたモーションセンサ1及び生体センサ2の各検出結果を無線信号でスマートフォン10に送信する。なお、当該無線信号は、センサの検出結果以外にセンサの固有識別情報も含んでいる。無線通信部3における通信形式は特に限定されないが、例えばWi−Fi(登録商標)通信を利用することができる。   The wireless communication unit 3 A / D-converts and samples the detection results of the motion sensor 1 and the biological sensor 2 at a predetermined cycle, and transmits the sampled detection results of the motion sensor 1 and the biological sensor 2 to the smartphone 10 by wireless signals. To do. In addition, the said radio signal contains the specific identification information of a sensor besides the detection result of a sensor. Although the communication format in the wireless communication part 3 is not specifically limited, For example, Wi-Fi (trademark) communication can be utilized.

電源部4は、モーションセンサ1と、生体センサ2と、無線通信部3とに駆動電力を供給する。電源部4は、バッテリ等の蓄電素子を備える形態、太陽電池等の環境発電素子を備える形態、蓄電素子及び環境発電素子の両方を備える形態のいずれであってもよい。   The power supply unit 4 supplies driving power to the motion sensor 1, the biological sensor 2, and the wireless communication unit 3. The power supply unit 4 may be in any form including a power storage element such as a battery, a form including an environmental power generation element such as a solar cell, or a form including both the power storage element and the environmental power generation element.

センサパッケージP2はセンサパッケージP1から生体センサ2を取り除いた構成である。センサパッケージP3はセンサパッケージP1からモーションセンサ1を取り除いた構成である。図1では3種類のセンサパッケージP1〜P3をそれぞれ一つ図示しているが、本実施形態に係る支援情報提供システムが備えるセンサパッケージの種類数及び個数はこれに限定されない。ただし、本実施形態に係る支援情報提供システムは、少なくとも一つのモーションセンサ1と、少なくとも一つの生体センサ2と、を備える構成であることが望ましい。   The sensor package P2 has a configuration in which the biosensor 2 is removed from the sensor package P1. The sensor package P3 has a configuration in which the motion sensor 1 is removed from the sensor package P1. In FIG. 1, three types of sensor packages P <b> 1 to P <b> 3 are illustrated, but the number and types of sensor packages provided in the support information providing system according to the present embodiment are not limited to this. However, it is desirable that the support information providing system according to the present embodiment has a configuration including at least one motion sensor 1 and at least one biological sensor 2.

次にスマートフォン10の概略について説明する。スマートフォン10は、制御部11と、記憶部12と、無線通信部13と、撮影部14と、表示部15と、音声出力部16と、操作部17と、電源部18と、を備えている。   Next, the outline of the smartphone 10 will be described. The smartphone 10 includes a control unit 11, a storage unit 12, a wireless communication unit 13, a photographing unit 14, a display unit 15, an audio output unit 16, an operation unit 17, and a power supply unit 18. .

制御部11は、スマートフォン10全体を制御する。   The control unit 11 controls the entire smartphone 10.

記憶部12は、制御部11によって実行される各種プログラム、制御部11によって用いられる各種データ等を記憶する。記憶部12は、アプリケーションソフトウェアの一つである支援情報提供プログラムを不揮発的に記憶する。   The storage unit 12 stores various programs executed by the control unit 11 and various data used by the control unit 11. The storage unit 12 stores a support information providing program that is one of application software in a nonvolatile manner.

無線通信部13は外部機器との間で無線通信を行う。無線通信部13は例えばWi−Fi通信によってセンサパッケージP1〜P3と無線通信を行う。無線通信部13は、例えばWi−Fi通信によって無線LAN(Local Area Network)アクセスポイント(不図示)と無線通信を行い、当該無線LANアクセスポイント及びインターネットを経由して、データベース20と通信する。無線通信部13は、例えばWi−Fi通信によって無線LANアクセスポイント(不図示)と無線通信を行い、当該無線LANアクセスポイントを経由して、当該無線LANアクセスポイントに無線接続又は有線接続されているパーソナルコンピュータ30と通信する。無線通信部13は例えばBluetooth(登録商標)通信によってワイヤレスイヤホン40と無線通信を行う。   The wireless communication unit 13 performs wireless communication with an external device. For example, the wireless communication unit 13 performs wireless communication with the sensor packages P1 to P3 by Wi-Fi communication. The wireless communication unit 13 performs wireless communication with a wireless local area network (LAN) access point (not shown) by Wi-Fi communication, for example, and communicates with the database 20 via the wireless LAN access point and the Internet. The wireless communication unit 13 performs wireless communication with a wireless LAN access point (not shown) by, for example, Wi-Fi communication, and is wirelessly connected or wired to the wireless LAN access point via the wireless LAN access point. It communicates with the personal computer 30. The wireless communication unit 13 performs wireless communication with the wireless earphone 40 by, for example, Bluetooth (registered trademark) communication.

撮影部14は、例えばCMOS(Complementary Metal Oxide Semiconductor)カメラ、CCD(Charge Coupled Device)カメラ等のデジタルカメラである。撮影部14によって生成される撮影画像のデータは制御部11に送られる。本実施形態において、撮影部14の光学レンズ部分はスマートフォン10の背面に配置される。   The imaging unit 14 is a digital camera such as a CMOS (Complementary Metal Oxide Semiconductor) camera or a CCD (Charge Coupled Device) camera. Data of the captured image generated by the imaging unit 14 is sent to the control unit 11. In the present embodiment, the optical lens portion of the photographing unit 14 is disposed on the back surface of the smartphone 10.

表示部15は、例えば液晶表示装置、有機EL(Electro Luminescence)表示装置等の薄型表示装置である。表示部15は、制御部11から送られてくる画像データに基づく表示を行う。本実施形態において、表示部15の表示画面はスマートフォン10の正面に配置される。   The display unit 15 is a thin display device such as a liquid crystal display device or an organic EL (Electro Luminescence) display device. The display unit 15 performs display based on the image data sent from the control unit 11. In the present embodiment, the display screen of the display unit 15 is arranged in front of the smartphone 10.

音声出力部16は、例えばスピーカである。音声出力部16は、制御部11から送られてくる音声データに基づく音声を発する。   The audio output unit 16 is a speaker, for example. The sound output unit 16 emits sound based on the sound data sent from the control unit 11.

操作部17は、例えばタッチパネル、操作キー等である。操作部17は、スマートフォン10の使用者が操作部17に対して行った操作の内容に基づいて操作信号を生成し、生成した操作信号を制御部11に送る。本実施形態において、タッチパネルが操作部17として用いられ、当該タッチパネルが表示部15の表示画面上に配置される。   The operation unit 17 is, for example, a touch panel, an operation key, or the like. The operation unit 17 generates an operation signal based on the content of the operation performed on the operation unit 17 by the user of the smartphone 10 and sends the generated operation signal to the control unit 11. In the present embodiment, a touch panel is used as the operation unit 17, and the touch panel is disposed on the display screen of the display unit 15.

電源部18はスマートフォン10の各部に駆動電力を供給する。電源部18は、バッテリを備えており、当該バッテリの残容量に関する情報を制御部11に送る。   The power supply unit 18 supplies driving power to each unit of the smartphone 10. The power supply unit 18 includes a battery, and sends information related to the remaining capacity of the battery to the control unit 11.

制御部11は、データの読み取り先として記憶部12の代わりにデータベース20又はパーソナルコンピュータ30を選択することができる。データの読み取り先としてデータベース20又はパーソナルコンピュータ30を選択した場合、制御部11は、無線通信部13を用いてデータの読み取りを実行する。   The control unit 11 can select the database 20 or the personal computer 30 instead of the storage unit 12 as a data reading destination. When the database 20 or the personal computer 30 is selected as the data reading destination, the control unit 11 executes data reading using the wireless communication unit 13.

制御部11は、データの書き込み先として記憶部12の代わりにデータベース20又はパーソナルコンピュータ30を選択することができる。データの書き込み先としてデータベース20又はパーソナルコンピュータ30を選択した場合、制御部11は、無線通信部13を用いてデータの書き込みを実行する。   The control unit 11 can select the database 20 or the personal computer 30 instead of the storage unit 12 as a data write destination. When the database 20 or the personal computer 30 is selected as the data writing destination, the control unit 11 executes data writing using the wireless communication unit 13.

制御部11は、画像の表示先として表示部15の代わりにパーソナルコンピュータ30を選択することができる。画像の表示先としてパーソナルコンピュータ30を選択した場合、制御部11は、無線通信部13を用いて画像データの送信を実行する。   The control unit 11 can select the personal computer 30 instead of the display unit 15 as an image display destination. When the personal computer 30 is selected as the image display destination, the control unit 11 transmits image data using the wireless communication unit 13.

制御部11は、音声の出力先として音声出力部16の代わりにワイヤレスイヤホン40を選択することができる。音声の出力先としてワイヤレスイヤホン40を選択した場合、制御部11は、無線通信部13を用いて音声データの送信を実行する。
<2.センサパッケージの装着ガイド>
次に、センサパッケージの装着ガイド機能について説明する。図2は、センサパッケージの装着ガイド機能に関するスマートフォンの動作例を示すフローチャートである。
The control unit 11 can select the wireless earphone 40 instead of the audio output unit 16 as an audio output destination. When the wireless earphone 40 is selected as the audio output destination, the control unit 11 performs transmission of audio data using the wireless communication unit 13.
<2. Sensor package mounting guide>
Next, a sensor package mounting guide function will be described. FIG. 2 is a flowchart showing an operation example of the smartphone related to the sensor package mounting guide function.

操作部17に対して支援情報提供プログラムを起動させるための操作が行われると、制御部11は、操作部17から送られてくる操作信号に従って、支援情報提供プログラムを起動させる。   When an operation for starting the support information providing program is performed on the operation unit 17, the control unit 11 starts the support information providing program according to the operation signal transmitted from the operation unit 17.

支援情報提供プログラムの起動が完了すると、スマートフォン10は支援情報提供プログラムに従って図2のフローチャートに示す動作を開始する。支援情報提供プログラムはスマートフォン10を支援情報提供装置として機能させる。   When the activation of the support information providing program is completed, the smartphone 10 starts the operation shown in the flowchart of FIG. 2 according to the support information providing program. The support information providing program causes the smartphone 10 to function as a support information providing apparatus.

まず制御部11は、支援情報の対象となる身体運動の種類を選択肢とする選択画面画像を生成して表示部15に出力し、選択画面画像を表示部15に表示させる(ステップS1)。その結果、表示部15の表示画面15Aは図3に示すような表示になる。   First, the control part 11 produces | generates the selection screen image which makes the choice the kind of physical exercise used as the object of assistance information, outputs it to the display part 15, and displays the selection screen image on the display part 15 (step S1). As a result, the display screen 15A of the display unit 15 is displayed as shown in FIG.

図3に示す表示状態において、いずれかの選択肢の表示領域がタップされると、制御部11は、操作部17から送られてくる操作信号に基づいて、タップされた選択肢に対応する身体運動を支援情報の対象として選択する。以下、ゴルフが支援情報の対象として選択された場合を例に挙げて説明する。   In the display state shown in FIG. 3, when any option display area is tapped, the control unit 11 performs physical exercise corresponding to the tapped option based on the operation signal sent from the operation unit 17. Select as support information target. Hereinafter, a case where golf is selected as an object of support information will be described as an example.

支援情報提供プログラムは、支援情報の対象となる身体運動の種類と、センサの装着位置との関係を示すデータを含んでいる。なお、モーションセンサ1の装着位置は、主として関節部分であるが、腰などの非関節部分であってもよい。   The support information providing program includes data indicating the relationship between the type of physical motion that is the target of the support information and the mounting position of the sensor. The mounting position of the motion sensor 1 is mainly a joint part, but may be a non-joint part such as a waist.

制御部11は、ゴルフを支援情報の対象として選択すると、ゴルフに対応するセンサの装着位置に関する情報を表示部15に出力する。表示部15は、制御部11から送られてくる情報に基づく表示を行う(ステップS2)。その結果、表示部15の表示画面15Aは図4に示すような表示になる。   When golf is selected as the target of support information, the control unit 11 outputs information related to the mounting position of the sensor corresponding to golf to the display unit 15. The display unit 15 performs display based on information sent from the control unit 11 (step S2). As a result, the display screen 15A of the display unit 15 is displayed as shown in FIG.

支援情報を作成するために被支援者のどのような動きを検出する必要があるかは、支援情報の対象となる身体運動の種類によって異なっている。このような専門知識を有していない者であっても、図4に示す表示を参考にすることで容易且つ確実にモーションセンサ1を適切な位置に装着することができる。その結果、モーションセンサ1の検出結果の正確性を向上させることができる。   What kind of movement of the person to be supported needs to be detected in order to create support information differs depending on the type of physical motion that is the target of the support information. Even a person who does not have such specialized knowledge can easily and surely attach the motion sensor 1 to an appropriate position by referring to the display shown in FIG. As a result, the accuracy of the detection result of the motion sensor 1 can be improved.

なお、制御部11が、図4に示すように、使用されるべきセンサパッケージの外観に関する特徴を表示部15に表示させることで、不適切なセンサパッケージが使用されることを抑制することができる。   In addition, as shown in FIG. 4, the control part 11 can suppress that an inappropriate sensor package is used by displaying on the display part 15 the characteristic regarding the external appearance of the sensor package which should be used. .

図4に示す表示状態において、「次へ」と表示されている領域がタップされると、制御部11は、撮影部14を起動させ(ステップS3)、撮影されるべきセンサ装着部位を示唆する情報を表示部15に表示させる(ステップS4)。その結果、表示部15の表示画面15Aは図5に示すような表示になる。   In the display state shown in FIG. 4, when an area displayed as “next” is tapped, the control unit 11 activates the imaging unit 14 (step S <b> 3) and suggests a sensor mounting site to be imaged. Information is displayed on the display unit 15 (step S4). As a result, the display screen 15A of the display unit 15 is displayed as shown in FIG.

ステップS4に続くステップS5において、制御部11は、撮影部14から送られてくる撮影画像を用いて、ステップS4で示唆したセンサ装着部位(図5に示す例では左手首)が画像認識されたか否かを判定する。   In step S5 following step S4, the control unit 11 uses the captured image sent from the imaging unit 14 to recognize the image of the sensor attachment site suggested in step S4 (the left wrist in the example shown in FIG. 5). Determine whether or not.

制御部11は、ステップS4で示唆したセンサ装着部位が画像認識された場合(ステップS5のYES)、撮影部14から送られてくる撮影画像を「被支援者のセンサ装着部位を含む撮影画像」として取得し、その取得した撮影画像にカーソル画像C1を重畳させた拡張現実画像を生成して表示部15に出力し、拡張現実画像を表示部15に表示させる(ステップS6)。ここで、カーソル画像C1は、ステップS4で示唆したセンサ装着部位に対応するセンサ装着位置を示す画像である。その結果、表示部15の表示画面15Aは図6に示すような表示になる。   When the sensor attachment site suggested in step S4 is recognized as an image (YES in step S5), the control unit 11 displays the captured image sent from the imaging unit 14 as “a captured image including the sensor installation region of the supportee”. The augmented reality image obtained by superimposing the cursor image C1 on the obtained captured image is generated and output to the display unit 15, and the augmented reality image is displayed on the display unit 15 (step S6). Here, the cursor image C1 is an image indicating the sensor mounting position corresponding to the sensor mounting site suggested in step S4. As a result, the display screen 15A of the display unit 15 is displayed as shown in FIG.

専門知識を有していない者であっても、図6に示す表示を参考にすることでモーションセンサ1の適切な位置を直観的に把握することができるので、より一層容易且つより一層確実にモーションセンサ1を適切な位置に装着することができる。その結果、モーションセンサ1の検出結果の正確性をより一層向上させることができる。   Even those who do not have specialized knowledge can intuitively grasp the appropriate position of the motion sensor 1 by referring to the display shown in FIG. 6, making it easier and more reliable. The motion sensor 1 can be mounted at an appropriate position. As a result, the accuracy of the detection result of the motion sensor 1 can be further improved.

ステップS6に続くステップS7において、制御部11は、撮影部14から送られてくる撮影画像を用いて、センサパッケージP1が適切な位置に装着されている状態が画像認識されたか否かを判定する。   In step S7 subsequent to step S6, the control unit 11 uses the captured image sent from the imaging unit 14 to determine whether or not the state in which the sensor package P1 is mounted at an appropriate position has been recognized. .

制御部11は、センサパッケージP1が適切な位置に装着されている状態が画像認識された場合(ステップS7のYES)、センサの装着が完了したことを示す表示を拡張現実画像に重ねて表示部15に表示させる(ステップS7)。その結果、表示部15の表示画面15Aは図7に示すような表示になる。   When the state in which the sensor package P1 is mounted at an appropriate position is recognized (YES in step S7), the control unit 11 superimposes a display indicating that the mounting of the sensor is completed on the augmented reality image. 15 is displayed (step S7). As a result, the display screen 15A of the display unit 15 is displayed as shown in FIG.

図7に示す表示状態において、「次へ」と表示されている領域がタップされると、制御部11は、ゴルフを支援情報の対象としたときに使用される7個のセンサパッケージP1全ての装着が完了しているか否かをステップS7の判定結果履歴に基づいて判定する(ステップS9)。   In the display state shown in FIG. 7, when an area displayed as “next” is tapped, the control unit 11 controls all seven sensor packages P1 used when golf is targeted for support information. It is determined whether or not the mounting is completed based on the determination result history in step S7 (step S9).

7個のセンサパッケージP1の装着が完了していない場合(ステップS9のNO)、ステップS4に戻り、制御部11は、残っている撮影されるべきセンサ装着部位を示唆する情報を表示部15に表示させる。一方、7個のセンサパッケージP1の装着が完了している場合(ステップS9のYES)、制御部11は、装着ガイドに関する動作を終了する。   When the mounting of the seven sensor packages P1 has not been completed (NO in step S9), the process returns to step S4, and the control unit 11 displays information indicating the remaining sensor mounting site to be photographed on the display unit 15. Display. On the other hand, when the mounting of the seven sensor packages P1 has been completed (YES in step S9), the control unit 11 ends the operation relating to the mounting guide.

上述した図2に示すフローチャートの動作は、被支援者によっては、どのセンサパッケージを使用し、どのセンサパッケージをどの位置に装着すれば良いかが分かり難い場合がある。   In the operation of the flowchart shown in FIG. 2 described above, depending on the person to be supported, it may be difficult to know which sensor package is used and which sensor package should be mounted at which position.

このため、モーションセンサ1を含むセンサパッケージに情報コード(例えば二次元情報コード)を付し、図2に示すフローチャートのステップS4の代わりに次のような処理が実行されるようにしてもよい。   For this reason, an information code (for example, a two-dimensional information code) may be attached to the sensor package including the motion sensor 1, and the following processing may be executed instead of step S4 in the flowchart shown in FIG.

撮影部14によって情報コードが撮影されると、制御部11は、撮影部14から送られてくる撮影データを用いて情報コードを認識し、情報コードからモーションセンサ1の装着位置に関する情報を読み取り、読み取った情報を表示部15に出力する。表示部15は、制御部11から送られてくる情報に基づく表示を行う。その結果、表示部15の表示画面15Aは例えば図8又は図9に示すような表示になる。なお、情報コードから読み取られるモーションセンサ1の装着位置に関する情報は、例えば支援情報の対象となる身体運動の種類毎にセンサ使用の有無が設定されており、センサを使用する場合には支援情報の対象となる身体運動の種類毎にセンサ装着位置が設定されている情報にすればよい。また、図8に示す表示状態において、「次へ」と表示されている領域がタップされると、制御部11は、ステップS5の処理を実行する。一方、図9に示す表示状態において、「次へ」と表示されている領域がタップされると、制御部11は、他のセンサパッケージに付されている情報コードの認識処理待ちの状態になる。   When the information code is photographed by the photographing unit 14, the control unit 11 recognizes the information code using the photographing data sent from the photographing unit 14, reads information on the mounting position of the motion sensor 1 from the information code, The read information is output to the display unit 15. The display unit 15 performs display based on information sent from the control unit 11. As a result, the display screen 15A of the display unit 15 is displayed as shown in FIG. 8 or FIG. 9, for example. In addition, the information regarding the mounting position of the motion sensor 1 read from the information code includes, for example, whether or not the sensor is used for each type of physical motion that is the target of the support information. What is necessary is just to set it as the information by which the sensor mounting position is set for every kind of physical exercise used as object. Further, in the display state shown in FIG. 8, when an area displayed as “next” is tapped, the control unit 11 executes the process of step S <b> 5. On the other hand, in the display state shown in FIG. 9, when an area displayed as “next” is tapped, the control unit 11 enters a state of waiting for recognition processing of information codes attached to other sensor packages. .

上述した情報コードの利用によって、どのセンサパッケージを使用し、どのセンサパッケージをどの位置に装着すれば良いかが分かり易くなる。これにより、利便性が向上する。   By using the information code described above, it becomes easy to understand which sensor package is used and which sensor package should be mounted at which position. This improves convenience.

なお、上述したセンサパッケージの装着ガイド機能は、主としてモーションセンサ1の装着位置をガイドすることを目的としているが、生体センサ2の装着位置をガイドするためにも応用できるため、センサパッケージP1及びP2のみならずセンサパッケージP3も装着ガイドの対象に加えてもよい。また、図2に示すフローチャートでは適切な操作が実行されなければフローの進行が滞るので、所定時間が経過しても次のステップに進まない場合はエラー表示を行うタイムアウト機能を設けてもよい。また、情報コードの読み取り方法としては、撮影部による認識に限るものではなく、例えば、情報コードを有するマイクロチップをセンサパッケージに埋め込み、近距離通信等の無線により情報コードを読み取るようにしてもよい。
<3.支援情報>
次に、支援情報について説明する。支援情報は、装着ガイドに関する動作を終了しており尚且つ支援情報提供プログラムを実行中であるスマートフォン10によって作成される。
The sensor package mounting guide function described above is mainly intended to guide the mounting position of the motion sensor 1, but can also be applied to guide the mounting position of the biosensor 2, so that the sensor packages P1 and P2 Not only the sensor package P3 but also the target of the mounting guide may be added. In addition, in the flowchart shown in FIG. 2, if the appropriate operation is not executed, the flow progresses. Therefore, a time-out function for displaying an error may be provided if the process does not proceed to the next step even after a predetermined time has elapsed. The method for reading the information code is not limited to recognition by the photographing unit. For example, a microchip having the information code may be embedded in the sensor package, and the information code may be read wirelessly such as near field communication. .
<3. Support information>
Next, support information will be described. The support information is created by the smartphone 10 that has finished the operation related to the wearing guide and is executing the support information providing program.

図10は、支援情報を作成するスマートフォンの動作例を示すフローチャートである。操作部17に対して所定の操作(支援情報の作成開始を指示する操作)が行われると、制御部11は、操作部17から送られてくる操作信号に従って図10のフローチャートに示す動作を開始する。   FIG. 10 is a flowchart illustrating an operation example of the smartphone that creates support information. When a predetermined operation (operation for instructing the start of creation of support information) is performed on the operation unit 17, the control unit 11 starts the operation illustrated in the flowchart of FIG. 10 according to the operation signal sent from the operation unit 17. To do.

制御部11は、センサパッケージから送信され無線通信部13によって受信された無線信号から、モーションセンサ1及び生体センサ2の各検出結果を抽出して取得する(ステップS11)。制御部11は、取得したモーションセンサ1及び生体センサ2の各検出結果を記憶部12又はデータベース20に記憶させる。   The control part 11 extracts and acquires each detection result of the motion sensor 1 and the biosensor 2 from the wireless signal transmitted from the sensor package and received by the wireless communication part 13 (step S11). The control unit 11 stores the acquired detection results of the motion sensor 1 and the biological sensor 2 in the storage unit 12 or the database 20.

モーションセンサ1及び生体センサ2の各検出結果を長期間に渡ってライフログとして保存することが望ましい。この場合、データベース20に記憶させることが望ましい。データベース20が、被支援者の属性(性別、年齢、取り組んでいるスポーツの種目、取り組んでいるスポーツの習熟度、故障発生頻度など)とともに、モーションセンサ1及び生体センサ2の各検出結果を記憶することで、所謂ビックデータとしての活用が可能になる。なお、後述するステップS12でのデータ分析の際にビッグデータを活用してもよい。   It is desirable to store the detection results of the motion sensor 1 and the biosensor 2 as a life log over a long period of time. In this case, it is desirable to store in the database 20. The database 20 stores the detection results of the motion sensor 1 and the biosensor 2 together with the attributes of the supportee (gender, age, sport type, sport proficiency level, failure occurrence frequency, etc.). Thus, it can be used as so-called big data. Big data may be used for data analysis in step S12 described later.

次に制御部11は、取得したモーションセンサ1及び生体センサ2の各検出結果がデータ分析に必要なサンプル数だけ蓄積できた段階で、データ分析によって支援情報を作成する(ステップS12)。   Next, the control unit 11 creates support information by data analysis at a stage where the acquired detection results of the motion sensor 1 and the biosensor 2 can be accumulated by the number of samples necessary for data analysis (step S12).

そして制御部11は、作成した支援情報を表示部15、パーソナルコンピュータ30、音声出力部16、又はワイヤレスイヤホン40に出力する(ステップS13)。また、表示部15、パーソナルコンピュータ30、音声出力部16、又はワイヤレスイヤホン40への出力に替えて或いは加えて、記憶部12又はデータベース20に出力し、記憶部12又はデータベース20に支援情報を記憶させてもよい。   Then, the control unit 11 outputs the created support information to the display unit 15, the personal computer 30, the audio output unit 16, or the wireless earphone 40 (step S13). Further, instead of or in addition to the output to the display unit 15, the personal computer 30, the audio output unit 16, or the wireless earphone 40, the data is output to the storage unit 12 or the database 20 and the support information is stored in the storage unit 12 or the database 20. You may let them.

制御部11は、ステップS13の処理後にステップS11に戻り、取得するモーションセンサ1及び生体センサ2の各検出結果を追加する。この追加取得されたモーションセンサ1及び生体センサ2の各検出結果によって支援情報が更新される。操作部17に対して所定の操作(支援情報の作成終了を指示する操作)が行われると、制御部11は、操作部17から送られてくる操作信号に従って図10のフローチャートに示す動作を終了する。   The control part 11 returns to step S11 after the process of step S13, and adds each detection result of the motion sensor 1 and the biosensor 2 to acquire. The support information is updated with the detection results of the additionally acquired motion sensor 1 and biosensor 2. When a predetermined operation (operation for instructing the end of creation of support information) is performed on the operation unit 17, the control unit 11 ends the operation illustrated in the flowchart of FIG. 10 according to the operation signal sent from the operation unit 17. To do.

ここで、支援情報の例について説明する。例えば、支援情報の対象となる身体運動がランニングであって、右肘の温度及び血中乳酸菌濃度が異常に高い場合に、右肘を少し伸ばすようにアドバイスすることを支援情報に含める。この支援情報は、例えば被支援者が身に着けているワイヤレスイヤホン40を利用して、音声出力の形態でリアルタイムに被支援者に伝えることができる。また、例えば心拍数が異常に高い場合に、身体運動を中止又は中断するようにアドバイスすることを支援情報に含めることもできる。また、例えば発汗量が異常に多い場合に、直ちに水分補給を行うようにアドバイスすることを支援情報に含めることもできる。また、例えば被支援者が車両を運転しているときに、制御部11は、モーションセンサ1及び生体センサ2の各検出結果から被支援者の疲労度を求め、疲労度が高い場合に休憩を促す等の支援情報を作成してもよい。モーションセンサ1及び生体センサ2の各検出結果から被支援者の疲労度を求めることにより、いずれか一方のみから被支援者の疲労度を求める場合と比較して、被支援者の疲労度を求める際の精度向上が期待できる。   Here, an example of support information will be described. For example, when the physical motion that is the target of the support information is running, and the temperature of the right elbow and the concentration of lactic acid bacteria in the blood are abnormally high, advice to extend the right elbow a little is included in the support information. This support information can be conveyed to the supportee in real time in the form of audio output using the wireless earphone 40 worn by the supportee, for example. In addition, for example, when the heart rate is abnormally high, advice to stop or interrupt physical exercise can be included in the support information. Further, for example, when the amount of sweating is abnormally large, it is possible to include in the support information advice to immediately perform hydration. Further, for example, when the supported person is driving the vehicle, the control unit 11 obtains the degree of fatigue of the supported person from the detection results of the motion sensor 1 and the biological sensor 2, and takes a break when the degree of fatigue is high. Support information such as prompting may be created. By determining the degree of fatigue of the supported person from each detection result of the motion sensor 1 and the biological sensor 2, the degree of fatigue of the supported person is obtained as compared to the case of obtaining the degree of fatigue of the supported person from only one of them. The improvement in accuracy can be expected.

スマートフォン10は、モーションセンサ1及び生体センサ2の各検出結果に基づいて被支援者の身体運動に関する支援情報を作成しているので、身体運動を行う被支援者の現在の状態に適した内容の身体運動に関する支援情報を提供することができる。これにより、被支援者の体に故障が生じる可能性を著しく低減することができる。   Since the smartphone 10 creates support information related to the physical motion of the supportee based on the detection results of the motion sensor 1 and the biological sensor 2, the content of the content suitable for the current state of the supportee who performs the physical motion Support information on physical exercise can be provided. Thereby, possibility that a failure will occur in a supportee's body can be reduced remarkably.

また、特許文献1で提案されているシステムでは、被支援者の動作を撮影することによってデータを収集するので、長時間に渡る身体運動に関する支援情報を作成することは困難である。これに対して、図1に示す支援情報提供システムでは、ウェアラブル装置によって被支援者の動作及び生体情報のデータを収集することができるので、長時間に渡る身体運動に関する支援情報を作成することが容易である。したがって、例えば日常生活での諸動作に関する支援情報を作成することができ、体に良い影響を与えるように日常生活を改善できることが期待できる。   In addition, in the system proposed in Patent Document 1, data is collected by photographing the supportee's motion, so it is difficult to create support information related to physical exercise over a long period of time. On the other hand, in the support information providing system shown in FIG. 1, since the wearable device can collect the data of the supportee's motion and biological information, it is possible to create support information related to physical exercise over a long period of time. Easy. Therefore, for example, it is possible to create support information regarding various actions in daily life, and it can be expected that daily life can be improved so as to have a positive effect on the body.

図11は、支援情報を作成するスマートフォンの他の動作例を示すフローチャートである。操作部17に対して所定の操作(合成画像の作成開始を指示する操作)が行われると、制御部11は、操作部17から送られてくる操作信号に従って図11のフローチャートに示す動作を開始する。   FIG. 11 is a flowchart illustrating another operation example of the smartphone that creates support information. When a predetermined operation (operation for instructing the start of composite image creation) is performed on the operation unit 17, the control unit 11 starts the operation illustrated in the flowchart of FIG. 11 in accordance with the operation signal sent from the operation unit 17. To do.

制御部11は、各センサパッケージから送信され無線通信部13によって受信された無線信号から、複数のモーションセンサ1の検出結果を抽出して取得する。制御部11は、取得したモーションセンサ1の検出結果に基づいて被支援者のフォーム画像を生成する(ステップS21)。   The control unit 11 extracts and acquires the detection results of the plurality of motion sensors 1 from the wireless signal transmitted from each sensor package and received by the wireless communication unit 13. The control part 11 produces | generates a to-be-supported person's form image based on the detection result of the acquired motion sensor 1 (step S21).

次に制御部11は、記憶部12又はデータベース20に記憶されている参照フォーム画像のデータを取得する(ステップS22)。参照フォームとしては、例えば、有名選手のフォーム、モーションセンサ1及び生体センサ2の各検出結果から推測される被支援者の運動能力を考慮した被支援者にとっての理想のフォーム、被支援者自身の過去のフォーム等を挙げることができる。制御部11は、モーションセンサ1及び生体センサ2の各検出結果から推測される被支援者の運動能力を考慮し、多数の有名選手の中から被支援者が手本にするのに適した選手を抽出するようにしてもよい。   Next, the control part 11 acquires the data of the reference form image memorize | stored in the memory | storage part 12 or the database 20 (step S22). As a reference form, for example, a form of a famous player, an ideal form for a supported person in consideration of the athletic ability of the supported person estimated from the detection results of the motion sensor 1 and the biological sensor 2, a supported person's own form List past forms. The control unit 11 takes into consideration the athletic ability of the supportee estimated from the detection results of the motion sensor 1 and the biological sensor 2, and is a player suitable for the supportee to model from among a number of famous players. May be extracted.

そして制御部11は、被支援者のフォーム画像と、参照フォーム画像とに基づく合成画像を生成し、生成した合成画像を支援情報の一部として表示部15又はパーソナルコンピュータ30に出力する(ステップS23)。また、表示部15又はパーソナルコンピュータ30への出力に加えて、記憶部12又はデータベース20に出力し、記憶部12又はデータベース20に合成画像のデータを記憶させることが望ましい。操作部17に対して所定の操作(合成画像の表示終了を指示する操作)が行われると、制御部11は、表示部15又はパーソナルコンピュータ30に合成画像の表示を停止させ、図11のフローチャートに示す動作を終了する。   Then, the control unit 11 generates a composite image based on the form image of the supportee and the reference form image, and outputs the generated composite image to the display unit 15 or the personal computer 30 as part of the support information (step S23). ). In addition to the output to the display unit 15 or the personal computer 30, it is desirable to output the data to the storage unit 12 or the database 20 and store the composite image data in the storage unit 12 or the database 20. When a predetermined operation (operation for instructing to end display of the composite image) is performed on the operation unit 17, the control unit 11 causes the display unit 15 or the personal computer 30 to stop displaying the composite image, and the flowchart of FIG. The operation shown in FIG.

合成画像を参照することによって、被支援者はフォームに関して改善すべき点或いは上達した点を容易に把握することができる。なお、合成画像は、図12に示すように被支援者のフォーム画像と参照フォーム画像とを重ね合わせて合成した画像であることが望ましい。重ね合わせて合成することによって被支援者のフォーム(現在のフォーム)と参照フォームとの相違点を把握することが容易になる。   By referring to the composite image, the supportee can easily grasp the points to be improved or improved regarding the form. The composite image is desirably an image obtained by superimposing the form image of the supportee and the reference form image as shown in FIG. By superimposing and synthesizing, it becomes easy to grasp the difference between the form of the supportee (current form) and the reference form.

さらに、図12に示すように、被支援者のフォーム(現在のフォーム)に関する疲労度と、参照フォームに関する疲労度も支援情報に含めることが望ましい。制御部11は、被支援者のフォーム(現在のフォーム)に関する疲労度及び参照フォームに関する疲労度を、生体センサ2の検出結果に基づいて求める。参照フォームに関する疲労度は、被支援者の体において参照フォームで身体運動を行った場合の疲労度を制御部111が推定したものである。図12において実線で示したランニングフォームが被支援者のフォーム(現在のフォーム)であり、図12において破線で示したランニングフォームが参照フォームである。被支援者のフォーム(現在のフォーム)は前傾姿勢になり過ぎているため疲労度が大きく、仮に参照フォームにフォームを矯正することができれば飛躍的に疲労度を改善することが図12の表示から一目瞭然である。このため、フォーム矯正の大きな動機付けとなる。なお、ここでは疲労度を例に挙げたが、他の生体情報に基づく情報(例えば故障の危険度など)であってもよい。また、合成画像としては、参照フォーム画像以外の画像を被支援者のフォーム画像に重畳表示するものであってもよい。例えば、被支援者のフォーム画像と参照フォーム画像とを比較して、腕を少し上げた方が良いフォームになる場合には、被支援者のフォーム画像に腕を少し上げる指示を示す図(方向と量を示す矢印等)を重畳表示するなど、体をどの方向にどの量だけ動かせばよいかを示す画像と被支援者のフォーム画像とを合成したものであってもよい。   Furthermore, as shown in FIG. 12, it is desirable that the support information includes the fatigue level related to the form (current form) of the supportee and the fatigue level related to the reference form. The control unit 11 obtains the fatigue level related to the form (current form) of the supportee and the fatigue level related to the reference form based on the detection result of the biological sensor 2. The degree of fatigue related to the reference form is obtained by the control unit 111 estimating the degree of fatigue when physical exercise is performed on the body of the supportee using the reference form. The running form indicated by the solid line in FIG. 12 is the form of the supportee (current form), and the running form indicated by the broken line in FIG. 12 is the reference form. The form of the person being supported (current form) is too leaning forward, so the degree of fatigue is large. If the form can be corrected to the reference form, the degree of fatigue will be dramatically improved as shown in FIG. It is obvious at a glance. For this reason, it becomes a big motivation of form correction. Here, the fatigue level is taken as an example, but information based on other biological information (for example, the risk of failure) may be used. Further, as the composite image, an image other than the reference form image may be superimposed and displayed on the form image of the supportee. For example, when the form image of the supportee is compared with the reference form image and the form is better when the arm is raised slightly, a diagram (direction) showing an instruction to raise the arm slightly on the form image of the supportee And an image indicating how much the body should be moved in which direction and the form image of the supportee may be combined.

また、制御部11が、モーションセンサ1の検出結果に基づいて筋肉の活動量に関する情報を含む支援情報を作成するようにしてもよい。例えば、制御部11は、所定の身体運動を行っている期間又は所定単位期間において、活動量が過度であった筋肉、活動量が適切であった筋肉、活動量が不足していた筋肉を、モーションセンサ1の検出結果に基づいて抽出し、抽出結果を支援情報に含めるようにする。これにより、被支援者は、体全体の単位では無く、体の部位単位で運動の過多又は不足を把握することできる。また、どのような身体運動を行えば活動量が不足していた筋肉の不足分を補えるかに関する情報を支援情報に含めることが望ましい。   Further, the control unit 11 may create support information including information related to the amount of muscle activity based on the detection result of the motion sensor 1. For example, in the period during which a predetermined physical exercise is performed or in a predetermined unit period, the control unit 11 is a muscle having an excessive amount of activity, a muscle having an appropriate amount of activity, and a muscle having an insufficient amount of activity. Extraction is performed based on the detection result of the motion sensor 1, and the extraction result is included in the support information. Thereby, the person to be supported can grasp the excess or deficiency of the exercise in the body part unit, not in the whole body unit. In addition, it is desirable to include in the support information information regarding what kind of physical exercise can be performed to compensate for the shortage of muscles for which the amount of activity was insufficient.

また、制御部11が、被支援者の位置情報を取得し、取得した位置情報に基づいて、被支援者が位置する周辺の地図情報を取得し、その地図情報に基づいて支援情報を作成するようにしてもよい。例えば、スマートフォン10がGPS(Global Positioning System)信号を受信するGPS受信部を備え、被支援者がスマートフォン10を携帯すれば、制御部11は、GPS受信部での受信結果に基づいて被支援者の位置情報を取得することができる。また、例えば、制御部11は、記憶部12又はデータベース20に記憶されている地図データにアクセスすることで、被支援者が位置する周辺の地図情報を取得することができる。例えば、被支援者がランニングコースを決めようとする際に、制御部11が、起伏などのコース状況も考慮した上で身体運動実行中の被支援者の状態に適した推奨コースを支援情報として提供することができる。また、例えば、車両運転を運動と捕らえ、被支援者が車両を運転しているときに、制御部11は、被支援者の位置情報から被支援者の移動速度(=車両の速度)を求め、地図情報から道路の形状(例えばコーナー形状)を抽出し、車両の速度及び道路の形状、被支援者の状態に基づいて被支援者の運転動作(ハンドリングのタイミング、角度など)やシート位置を含む運転姿勢に関する支援情報を作成するようにしてもよい。また、車両を運転しているときに、単に、被支援者の状態に適したシート位置を含む運転姿勢に関する支援情報を作成するようにしてもよい。   In addition, the control unit 11 acquires the position information of the supportee, acquires the map information around the supportee based on the acquired position information, and creates support information based on the map information. You may do it. For example, if the smartphone 10 includes a GPS receiving unit that receives a GPS (Global Positioning System) signal and the supported person carries the smartphone 10, the control unit 11 determines that the supported person is based on the reception result of the GPS receiving unit. Position information can be acquired. In addition, for example, the control unit 11 can acquire map information around the location of the supportee by accessing the map data stored in the storage unit 12 or the database 20. For example, when the supportee tries to determine a running course, the control unit 11 considers a course situation such as undulations, and uses a recommended course suitable for the state of the supportee who is performing physical exercise as support information. Can be provided. In addition, for example, when driving a vehicle is regarded as a motion, and the supported person is driving the vehicle, the control unit 11 obtains the moving speed (= vehicle speed) of the supported person from the position information of the supported person. The road shape (eg corner shape) is extracted from the map information, and the driving action (handling timing, angle, etc.) and seat position of the supportee are determined based on the vehicle speed, road shape, and the supportee status. You may make it produce the support information regarding the driving posture including. Further, when driving the vehicle, the support information related to the driving posture including the seat position suitable for the state of the supportee may be created.

また、制御部11が、被支援者が身体運動を行うときに用いる用具に関する情報を含む支援情報を作成するようにしてもよい。例えば、制御部11が、用具の製造会社及び品番の入力を促す表示を表示部15に行わせ、入力操作に応じて操作部17から送られてくる操作信号から用具を特定し、特定した用具に適した体の動きをアドバイスすることを支援情報に含めるようにすればよい。また、制御部11が、モーションセンサ1及び生体センサ2の各検出結果から推測される被支援者の運動能力を考慮し、特定した用具を使用する際に不足している運動能力を改善するのに適した運動メニュー等を含む支援情報を提供するようにしてもよい。また、被支援者の運動能力に応じた推奨用具およびその製造会社、品番(複数可)を支援情報として提供するようにしてもよい。このように用具に関する情報を支援情報に含めることにより、被支援者が用具を上手く使いこなせるようになることが期待でき、身体運動に関する被支援者の技能向上につながる。   Moreover, you may make it the control part 11 produce the assistance information containing the information regarding the tool used when a to-be-supported person performs a physical exercise. For example, the control unit 11 causes the display unit 15 to display the device manufacturer and the product number, and identifies the device from the operation signal sent from the operation unit 17 in response to the input operation. It is sufficient to include in the support information advice on body movements suitable for the person. In addition, the control unit 11 takes into account the athletic ability of the supportee estimated from the detection results of the motion sensor 1 and the biosensor 2, and improves the athletic ability that is insufficient when using the specified equipment. Support information including an exercise menu suitable for the event may be provided. Moreover, you may make it provide the recommended tool according to the athletic ability of a supportee, its manufacturing company, and article number (s) as support information. Thus, it can be expected that the supportee can use the tool well by including the information on the tool in the support information, which leads to improvement of the skill of the supportee regarding the physical exercise.

また、制御部11が、被支援者が身体運動を行う目的の入力を促す表示を表示部15に行わせ、入力操作に応じて操作部17から送られてくる操作信号から、被支援者が身体運動を行う目的に関する情報を取得するようにしてもよい。そして、被支援者が身体運動を行う目的に適した運動メニュー等を含む支援情報を制御部11が作成するようにすればよい。被支援者が身体運動を行う目的に適した運動メニュー等を含む支援情報を提供することで、被支援者の支援情報に対する満足度が向上し、被支援者が支援情報を利用した身体運動を継続していくことが期待できる。   In addition, the control unit 11 causes the display unit 15 to display a display for urging the supportee to perform physical exercises, and the supportee receives the operation signal sent from the operation unit 17 in response to the input operation. You may make it acquire the information regarding the purpose of performing a physical exercise. Then, the control unit 11 may create support information including an exercise menu and the like suitable for the purpose of the supportee performing physical exercise. By providing support information including exercise menus suitable for the purpose of the person being supported, the support person's satisfaction with the support information is improved, and the support person can use the support information for physical exercise. It can be expected to continue.

なお、被支援者が身体運動を行う目的としては、例えば、ダイエット、持久力の向上、瞬発力の向上、上半身の筋力アップ等を挙げることができる。被支援者が身体運動を行う目的の入力を促す表示は、いわゆる自由記入方式での入力ではなく、複数の選択肢の中からの選択入力を採用することが望ましい。
<4.留意点>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。
Examples of the purpose of the supportee to perform physical exercise include diet, improvement of endurance, improvement of instantaneous power, and improvement of upper body strength. It is desirable that the display prompting the supportee to input for the purpose of physical exercise adopts a selection input from a plurality of options instead of a so-called free entry method.
<4. Points to remember>
Various technical features disclosed in the present specification can be variously modified within the scope of the technical creation in addition to the above-described embodiment.

例えば、上記実施形態ではスマートフォンが支援情報提供装置であったが、パーソナルコンピュータ等の他の電子機器が支援情報提供装置であってもよい。   For example, in the above embodiment, the smartphone is the support information providing apparatus, but other electronic devices such as a personal computer may be the support information providing apparatus.

また、リアルタイムでのデータ収集はできなくなるが、センサパッケージを被支援者から取り外した後、TransferJet(商標)等の近接無線転送技術を用いてセンサパッケージから支援情報提供装置にデータを転送するようにしてもよい。   In addition, although data cannot be collected in real time, after the sensor package is removed from the supportee, the data is transferred from the sensor package to the support information providing apparatus using a proximity wireless transfer technology such as TransferJet (trademark). May be.

すなわち、上記実施形態は、全ての点で例示であって、制限的なものではないと考えられるべきであり、本発明の技術的範囲は、上記実施形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲と均等の意味及び範囲内に属する全ての変更が含まれると理解されるべきである。   That is, the above-described embodiment is an example in all respects and should not be considered as limiting, and the technical scope of the present invention is not the description of the above-described embodiment, but the claims. It should be understood that all modifications that come within the meaning and range of equivalents of the claims are included.

1 モーションセンサ
2 生体センサ
3、13 無線通信部
4、18 電源部
10 スマートフォン
11 制御部
12 記憶部
14 撮影部
15 表示部
15A 表示画面
16 音声出力部
17 操作部
20 データベース
30 パーソナルコンピュータ
40 ワイヤレスイヤホン
C1 カーソル画像
P1〜P3 センサパッケージ
DESCRIPTION OF SYMBOLS 1 Motion sensor 2 Biometric sensor 3, 13 Wireless communication part 4, 18 Power supply part 10 Smartphone 11 Control part 12 Memory | storage part 14 Image | photographing part 15 Display part 15A Display screen 16 Audio | voice output part 17 Operation part 20 Database 30 Personal computer 40 Wireless earphone C1 Cursor image P1-P3 Sensor package

Claims (13)

被支援者に装着され前記被支援者の動きを検出するモーションセンサの検出結果、及び、前記被支援者に装着され前記被支援者の生体情報を検出する生体センサの検出結果を取得する検出結果取得部と、
前記検出結果取得部によって取得された前記モーションセンサ及び前記生体センサの各検出結果に基づき、前記被支援者の身体運動に関する支援情報を作成する支援情報作成部と、
前記支援情報作成部によって作成された前記支援情報を出力する出力部と、を備えることを特徴とする支援情報提供装置。
A detection result of a motion sensor that detects the movement of the supported person attached to the person being supported and a detection result of a biological sensor that detects the biological information of the person to be supported attached to the person to be supported An acquisition unit;
A support information creation unit that creates support information related to the body movement of the supported person based on the detection results of the motion sensor and the biosensor acquired by the detection result acquisition unit;
An output unit that outputs the support information created by the support information creation unit.
前記支援情報の対象となる前記身体運動の種類を選択する選択部を備え、
前記出力部は、前記選択部の選択結果に応じた前記モーションセンサの装着位置に関する情報も出力することを特徴とする請求項1に記載の支援情報提供装置。
A selection unit for selecting a type of the physical exercise to be the target of the support information;
The support information providing apparatus according to claim 1, wherein the output unit also outputs information related to a mounting position of the motion sensor according to a selection result of the selection unit.
前記被支援者のセンサ装着部位を含む撮影画像を取得する撮影画像取得部と、
前記撮影画像取得部によって取得された前記撮影画像にセンサ装着位置を示す情報を重畳させた拡張現実画像を生成する拡張現実画像生成部と、を備え、
前記出力部は、前記拡張現実画像も出力することを特徴とする請求項1又は請求項2に記載の支援情報提供装置。
A captured image acquisition unit that acquires a captured image including a sensor-mounted portion of the supportee;
An augmented reality image generating unit that generates an augmented reality image in which information indicating a sensor mounting position is superimposed on the captured image acquired by the captured image acquisition unit, and
The support information providing apparatus according to claim 1, wherein the output unit also outputs the augmented reality image.
前記モーションセンサを含むセンサパッケージに付された情報コードから前記モーションセンサの装着位置に関する情報を読み取る情報読取部を備え、
前記出力部は、前記情報読取部によって読み取られた前記モーションセンサの装着位置に関する情報も出力することを特徴とする請求項1〜3のいずれか一項に記載の支援情報提供装置。
An information reading unit that reads information about a mounting position of the motion sensor from an information code attached to a sensor package including the motion sensor;
The said output part outputs the information regarding the mounting position of the said motion sensor read by the said information reading part, The assistance information provision apparatus as described in any one of Claims 1-3 characterized by the above-mentioned.
前記モーションセンサの検出結果に基づいて前記被支援者のフォーム画像を生成するフォーム画像生成部と、
参照フォーム画像を取得する参照フォーム画像取得部と、
前記フォーム画像生成部によって生成された前記フォーム画像と前記参照フォーム画像取得部によって取得された前記参照フォーム画像とに基づく合成画像を生成する合成画像生成部と、を備え、
前記支援情報は前記合成画像を含むことを特徴とする請求項1〜4のいずれか一項に記載の支援情報提供装置。
A form image generation unit that generates a form image of the supportee based on the detection result of the motion sensor;
A reference form image acquisition unit for acquiring a reference form image;
A composite image generation unit that generates a composite image based on the form image generated by the form image generation unit and the reference form image acquired by the reference form image acquisition unit;
The support information providing apparatus according to claim 1, wherein the support information includes the composite image.
前記支援情報は、前記フォーム画像に関する前記被支援者の生体情報に基づく情報、及び、前記参照フォーム画像に関する前記被支援者の生体情報に基づく情報を含むことを特徴とする請求項5に記載の支援情報提供装置。   6. The support information according to claim 5, wherein the support information includes information based on the biometric information of the supported person regarding the form image and information based on the biometric information of the supported person regarding the reference form image. Support information providing device. 前記モーションセンサの検出結果に基づいて筋肉の活動量に関する情報を生成する活動量情報生成部を備え、
前記支援情報は、前記活動量情報生成部によって生成された前記筋肉の活動量に関する情報を含むことを特徴とする請求項1〜6のいずれか一項に記載の支援情報提供装置。
An activity amount information generating unit for generating information on the amount of muscle activity based on the detection result of the motion sensor;
The support information providing apparatus according to any one of claims 1 to 6, wherein the support information includes information related to an activity amount of the muscle generated by the activity amount information generation unit.
前記被支援者の位置情報を取得する位置情報取得部と、
前記位置情報に基づいて、前記被支援者が位置する周辺の地図情報を取得する地図情報取得部と、を備え、
前記支援情報作成部は、前記地図情報取得部によって取得された前記地図情報に基づいて前記支援情報を作成することを特徴とする請求項1〜7のいずれか一項に記載の支援情報提供装置。
A position information acquisition unit for acquiring position information of the supportee;
A map information acquisition unit that acquires map information around the location where the supportee is located based on the position information;
8. The support information providing apparatus according to claim 1, wherein the support information creation unit creates the support information based on the map information acquired by the map information acquisition unit. 9. .
前記支援情報は、前記被支援者が身体運動を行うときに用いる用具に関する情報を含むことを特徴とする請求項1〜8のいずれか一項に記載の支援情報提供装置。   The support information providing apparatus according to any one of claims 1 to 8, wherein the support information includes information on tools used when the supportee performs physical exercise. 前記被支援者が身体運動を行う目的に関する情報を取得する目的情報取得部を備え、
前記支援情報作成部は、前記目的情報取得部によって取得された情報に基づいて前記支援情報を作成することを特徴とする請求項1〜9のいずれか一項に記載の支援情報提供装置。
A purpose information acquisition unit for acquiring information related to the purpose of the supported person performing physical exercise,
The support information providing apparatus according to claim 1, wherein the support information creating unit creates the support information based on information acquired by the purpose information acquiring unit.
被支援者に装着され前記被支援者の動きを検出するモーションセンサと、
前記被支援者に装着され前記被支援者の生体情報を検出する生体センサと、
請求項1〜10のいずれか一項に記載の支援情報提供装置と、
前記支援情報提供装置の出力に基づく報知を行う報知装置と、を備えることを特徴とする支援情報提供システム。
A motion sensor that is attached to the supported person and detects the movement of the supported person;
A biological sensor that is mounted on the supported person and detects biological information of the supported person;
The support information providing apparatus according to any one of claims 1 to 10,
A support information providing system comprising: a notification device that performs notification based on an output of the support information providing device.
被支援者に装着され前記被支援者の動きを検出するモーションセンサの検出結果、及び、前記被支援者に装着され前記被支援者の生体情報を検出する生体センサの検出結果を取得する検出結果取得工程と、
前記検出結果取得工程によって取得された前記モーションセンサ及び前記生体センサの各検出結果に基づき、前記被支援者の身体運動に関する支援情報を作成する支援情報作成工程と、
前記支援情報作成工程によって作成された前記支援情報を出力する出力工程と、を備えることを特徴とする支援情報提供方法。
A detection result of a motion sensor that detects the movement of the supported person attached to the person being supported and a detection result of a biological sensor that detects the biological information of the person to be supported attached to the person to be supported Acquisition process;
A support information creation step of creating support information related to the body movement of the supportee based on the detection results of the motion sensor and the biosensor acquired by the detection result acquisition step;
An output step of outputting the support information created by the support information creation step.
コンピュータを、
被支援者に装着され前記被支援者の動きを検出するモーションセンサの検出結果と、前記被支援者に装着され前記被支援者の生体情報を検出する生体センサの検出結果と、を取得する検出結果取得部、
前記検出結果取得部によって取得された前記モーションセンサ及び前記生体センサの各検出結果に基づき、前記被支援者の身体運動に関する支援情報を作成する支援情報作成部、及び、
前記支援情報作成部によって作成された前記支援情報を出力する出力部、として機能させることを特徴とする支援情報提供プログラム。
Computer
Detection that obtains a detection result of a motion sensor that is mounted on a supported person and detects the movement of the supported person, and a detection result of a biological sensor that is worn on the supported person and detects biological information of the supported person Result acquisition unit,
Based on the detection results of the motion sensor and the biosensor acquired by the detection result acquisition unit, a support information creation unit that creates support information related to the physical movement of the supportee, and
A support information providing program that functions as an output unit that outputs the support information created by the support information creating unit.
JP2016118382A 2016-06-14 2016-06-14 Support information provision device, support information provision system, support information provision method, and support information provision program Pending JP2017221350A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016118382A JP2017221350A (en) 2016-06-14 2016-06-14 Support information provision device, support information provision system, support information provision method, and support information provision program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016118382A JP2017221350A (en) 2016-06-14 2016-06-14 Support information provision device, support information provision system, support information provision method, and support information provision program

Publications (1)

Publication Number Publication Date
JP2017221350A true JP2017221350A (en) 2017-12-21

Family

ID=60687417

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016118382A Pending JP2017221350A (en) 2016-06-14 2016-06-14 Support information provision device, support information provision system, support information provision method, and support information provision program

Country Status (1)

Country Link
JP (1) JP2017221350A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020048827A (en) * 2018-09-26 2020-04-02 Kddi株式会社 Information processing device, support method, and support system
WO2022230603A1 (en) * 2021-04-30 2022-11-03 株式会社村田製作所 Biological data measurement system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020048827A (en) * 2018-09-26 2020-04-02 Kddi株式会社 Information processing device, support method, and support system
WO2022230603A1 (en) * 2021-04-30 2022-11-03 株式会社村田製作所 Biological data measurement system

Similar Documents

Publication Publication Date Title
JP5811360B2 (en) Exercise information display system, exercise information display method, and exercise information display program
JP6122482B2 (en) Housing, activity monitoring system and computer apparatus
DK179222B1 (en) PHYSICAL ACTIVITY AND EXERCISE MONITOR
CN106923839B (en) Exercise assisting device, exercise assisting method, and recording medium
JP2020078556A (en) Multi-functional smart mobility aid devices and methods of use
US20170136296A1 (en) System and method for physical rehabilitation and motion training
JP6143793B2 (en) Activity identification
JP5896240B2 (en) Exercise support device, exercise support method, and exercise support program
CN104126184A (en) Method and system for automated personal training that includes training programs
JP5998780B2 (en) Biometric information notification device, biometric information notification method, and biometric information notification program
CN107427665A (en) Wearable device for auxiliary of sleeping
JP2015058096A (en) Exercise support device, exercise support method, and exercise support program
JP2016112108A (en) Exercise information display system, exercise information display method, and exercise information display program
JP6742380B2 (en) Electronic device
US10765345B2 (en) Method and system for determining a length of an object using an electronic device
JP2015119833A (en) Exercise support system, exercise support method, and exercise support program
CN111213145B (en) Authentication device, authentication system, authentication method, and program
US11896872B2 (en) Automatic trimming and classification of activity data
KR20170076379A (en) Wearable device and user terminal device connectable with wearable device
TW201909058A (en) Activity support method, program, activity support system
CN110622252A (en) Heart rate tracking technology
JP6365031B2 (en) Activity amount measuring device, activity amount measuring method, activity amount measuring program
JP2017221350A (en) Support information provision device, support information provision system, support information provision method, and support information provision program
JP2009106374A (en) Display system for gait information
KR101992113B1 (en) Fitness monitoring system

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170425