JP2016002109A - Activity evaluation apparatus, evaluation processing equipment, and program - Google Patents

Activity evaluation apparatus, evaluation processing equipment, and program Download PDF

Info

Publication number
JP2016002109A
JP2016002109A JP2014122297A JP2014122297A JP2016002109A JP 2016002109 A JP2016002109 A JP 2016002109A JP 2014122297 A JP2014122297 A JP 2014122297A JP 2014122297 A JP2014122297 A JP 2014122297A JP 2016002109 A JP2016002109 A JP 2016002109A
Authority
JP
Japan
Prior art keywords
user
activity
evaluation
degree
presentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014122297A
Other languages
Japanese (ja)
Inventor
紀芳 清水
Noriyoshi Shimizu
紀芳 清水
智彦 藤田
Tomohiko Fujita
智彦 藤田
はるか 天沼
Haruka Amanuma
はるか 天沼
透 中村
Toru Nakamura
透 中村
隆博 塀内
Takahiro Heiuchi
隆博 塀内
松村 吉浩
Yoshihiro Matsumura
吉浩 松村
西山 高史
Takashi Nishiyama
高史 西山
柏木 正徳
Masanori Kashiwagi
正徳 柏木
百合子 上垣
Yuriko Kamigaki
百合子 上垣
了治 仲島
Ryoji Nakajima
了治 仲島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2014122297A priority Critical patent/JP2016002109A/en
Priority to PCT/JP2015/002578 priority patent/WO2015190042A1/en
Publication of JP2016002109A publication Critical patent/JP2016002109A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices

Abstract

PROBLEM TO BE SOLVED: To provide an activity evaluation apparatus enabling a user having no expert knowledge to utilize presentation information.SOLUTION: An activity evaluation apparatus 30 comprises a measuring device 20 and a processing part 11. The measuring device 20 measures the physical activity or the mental activity of a user. The processing part 11 creates evaluation information on the physical activity or mental activity of the user by using the output of the measuring device 20, and creates presentation information to be presented to the user, on the basis of the evaluation information.

Description

本発明は、利用者の活動を評価する活動評価装置、この活動評価装置に用いる評価処理装置、コンピュータをこの評価処理装置として機能させるためのプログラムに関する。   The present invention relates to an activity evaluation apparatus for evaluating a user's activity, an evaluation processing apparatus used in the activity evaluation apparatus, and a program for causing a computer to function as the evaluation processing apparatus.

従来、利用者の活動を評価する技術が種々提案されている。たとえば、利用者の身体に装着した加速度センサの出力を用いて利用者の歩容を推定することが記載され、さらに、リハビリテーションにおいて、歩容の差異を評価することが提案されている(特許文献1参照)。また、特許文献1には、計測した歩容を参照用の歩容と比較することが記載されている。   Conventionally, various techniques for evaluating user activities have been proposed. For example, it is described that the gait of a user is estimated using the output of an acceleration sensor attached to the user's body, and further, it is proposed to evaluate a difference in gait in rehabilitation (Patent Literature). 1). Patent Document 1 describes that a measured gait is compared with a reference gait.

特開2014−33739号公報JP 2014-33739 A

しかしながら、特許文献1に記載された技術は、リハビリテーションの担当者などの専門家が利用することを想定した技術であり、活動した利用者自身が結果を利用することは難しい。   However, the technique described in Patent Document 1 is a technique that is assumed to be used by experts such as rehabilitation personnel, and it is difficult for the active user to use the result.

本発明は、活動した利用者自身が、活動に対する評価結果を知ることができるようにした活動評価装置を提供することを目的とする。さらに、本発明は、この活動評価装置に用いる評価処理装置を提供し、コンピュータをこの評価処理装置として機能させるためのプログラムを提供することを目的とする。   An object of the present invention is to provide an activity evaluation apparatus that enables an active user to know the evaluation result for the activity. Furthermore, an object of the present invention is to provide an evaluation processing apparatus used for the activity evaluation apparatus, and to provide a program for causing a computer to function as the evaluation processing apparatus.

本発明に係る活動評価装置は、利用者の身体活動または精神活動を計測する計測装置と、前記計測装置の出力を用いて前記利用者の身体活動または精神活動に関する評価情報を生成し、かつ前記評価情報に基づいて前記利用者に提示する提示情報を生成する処理部とを備えることを特徴とする。   An activity evaluation device according to the present invention generates a measurement device that measures a user's physical activity or mental activity, and uses the output of the measurement device to generate evaluation information related to the user's physical activity or mental activity, and And a processing unit that generates presentation information to be presented to the user based on the evaluation information.

本発明に係る評価処理装置は、利用者の身体活動または精神活動を計測する計測装置の出力を受け取る入力部と、前記入力部に入力された前記計測装置の出力を用いて前記利用者の身体活動または精神活動に関する評価情報を生成し、かつ前記評価情報に基づいて前記利用者に提示する提示情報を生成する処理部とを備えることを特徴とする。   An evaluation processing apparatus according to the present invention includes an input unit that receives an output of a measurement device that measures a user's physical activity or mental activity, and an output of the measurement device that is input to the input unit. And a processing unit that generates evaluation information related to an activity or mental activity and generates presentation information to be presented to the user based on the evaluation information.

本発明に係るプログラムは、コンピュータを、評価処理装置として機能させるためのものである。   The program according to the present invention is for causing a computer to function as an evaluation processing device.

本発明の構成によれば、利用者の身体活動または精神活動に関する評価情報を生成し、この評価情報に基づいて利用者に提示する提示情報を生成している。したがって、専門知識のない利用者であっても、提示情報を利用できるという利点を有する。   According to the structure of this invention, the evaluation information regarding a user's physical activity or mental activity is produced | generated, and the presentation information shown to a user based on this evaluation information is produced | generated. Therefore, even a user without specialized knowledge has an advantage that the presented information can be used.

実施形態1を示すブロック図である。1 is a block diagram illustrating a first embodiment. 実施形態1の使用例を示す斜視図である。FIG. 3 is a perspective view illustrating an example of use of the first embodiment. 実施形態1に用いるアバターの表示例を示す図である。It is a figure which shows the example of a display of the avatar used for Embodiment 1. FIG. 実施形態1における提示装置への表示例を示す図である。6 is a diagram illustrating a display example on a presentation device according to Embodiment 1. FIG. 実施形態2を示すブロック図である。FIG. 6 is a block diagram illustrating a second embodiment. 実施形態2の動作例を示す図である。10 is a diagram illustrating an operation example of Embodiment 2. FIG. 実施形態2における提示装置への表示例を示す図である。10 is a diagram illustrating a display example on a presentation device according to Embodiment 2. FIG. 実施形態2における提示装置への表示例を示す図である。10 is a diagram illustrating a display example on a presentation device according to Embodiment 2. FIG. 実施形態3を示すブロック図である。FIG. 6 is a block diagram illustrating a third embodiment. 実施形態4を示すブロック図である。FIG. 10 is a block diagram illustrating a fourth embodiment. 実施形態4における提示装置への表示例を示す図である。FIG. 10 is a diagram illustrating a display example on a presentation device according to a fourth embodiment. 実施形態4における提示装置への表示例を示す図である。FIG. 10 is a diagram illustrating a display example on a presentation device according to a fourth embodiment. 実施形態4における提示装置への表示例を示す図である。FIG. 10 is a diagram illustrating a display example on a presentation device according to a fourth embodiment. 実施形態4における提示装置への表示例を示す図である。FIG. 10 is a diagram illustrating a display example on a presentation device according to a fourth embodiment. 実施形態4における提示装置への表示例を示す図である。FIG. 10 is a diagram illustrating a display example on a presentation device according to a fourth embodiment. 実施形態4における提示装置への表示例を示す図である。FIG. 10 is a diagram illustrating a display example on a presentation device according to a fourth embodiment. 実施形態5を示すブロック図である。FIG. 10 is a block diagram illustrating a fifth embodiment. 実施形態5に用いる計測装置を示す概略構成図である。FIG. 10 is a schematic configuration diagram illustrating a measurement device used in a fifth embodiment. 実施形態5の動作例を示す図である。FIG. 10 is a diagram illustrating an operation example of the fifth embodiment. 実施形態6の使用例を示す概略図である。10 is a schematic diagram illustrating an example of use of Embodiment 6. FIG.

以下に説明する活動評価装置30は、図1に示すように、計測装置20と評価処理装置10とを備える。評価処理装置10は、プログラムに従って動作するデバイスを備える。この種のデバイスは、メモリをプロセッサと一体に備えるマイコン(Microcontroller)のほか、メモリがプロセッサとは別に設けられるCPU(Central Processing Unit)などから選択される。このデバイスは、評価処理装置10において処理部11を構成する。また、評価処理装置10は、利用者の身体活動または精神活動を計測する計測装置20からの出力を受け取るためにインターフェイス部として機能するデバイスを備える。このデバイスは、計測装置20の出力を受け取る入力部12を構成する。   The activity evaluation device 30 described below includes a measurement device 20 and an evaluation processing device 10 as shown in FIG. The evaluation processing apparatus 10 includes a device that operates according to a program. This type of device is selected from a microcomputer (Microcontroller) having a memory integrated with a processor, a CPU (Central Processing Unit) in which the memory is provided separately from the processor, and the like. This device constitutes a processing unit 11 in the evaluation processing apparatus 10. Moreover, the evaluation processing apparatus 10 includes a device that functions as an interface unit in order to receive an output from the measurement apparatus 20 that measures a user's physical activity or mental activity. This device constitutes an input unit 12 that receives the output of the measuring apparatus 20.

評価処理装置10は、汎用のパーソナルコンピュータで以下に説明するプログラムを実行することによって実現することが可能である。また、電子ゲーム用のゲーム機、スマートフォン、タブレット端末などの製品は、プログラムに従って動作するデバイスを備えているから、この種の製品を評価処理装置10として用いてもよい。   The evaluation processing apparatus 10 can be realized by executing a program described below on a general-purpose personal computer. In addition, since products such as game machines for electronic games, smartphones, and tablet terminals include devices that operate according to a program, this type of product may be used as the evaluation processing apparatus 10.

この種の製品を評価処理装置10として用いた場合、パーソナルコンピュータを用いる場合よりも、取り出してから使用可能になるまでの時間を短縮できる可能性がある。また、後述するように、この種の製品が内蔵しているセンサを用いて利用者の活動を計測できる場合があるから、これらの製品で動作するプログラムを提供すれば、活動評価装置30を簡単に構築することができる。   When this type of product is used as the evaluation processing apparatus 10, there is a possibility that the time until it can be used after being taken out can be shortened compared with the case where a personal computer is used. In addition, as will be described later, there are cases where the activity of the user can be measured using a sensor built in this type of product. Therefore, if a program that operates on these products is provided, the activity evaluation device 30 can be simplified. Can be built.

評価処理装置10は、提示装置40に提示情報を出力する出力部13を備える。提示装置40は、たとえば動画像を表示することが可能なディスプレイ装置が用いられる。提示装置40は、ディスプレイ装置ではなく音声を出力する構成であってもよい。提示装置40がディスプレイ装置である場合、提示装置40に提示される提示情報の形式として、利用者のアバターを含む場合がある。利用者のアバターが提示装置40に表示されると、利用者は、自身に関する評価を客観的に知ることが可能になる。   The evaluation processing device 10 includes an output unit 13 that outputs presentation information to the presentation device 40. As the presentation device 40, for example, a display device capable of displaying a moving image is used. The presentation device 40 may be configured to output audio instead of a display device. When the presentation device 40 is a display device, the form of presentation information presented to the presentation device 40 may include a user's avatar. When the user's avatar is displayed on the presentation device 40, the user can objectively know the evaluation regarding himself / herself.

以上のように、活動評価装置30は、計測装置20と処理部11とを備える。計測装置20は、利用者の身体活動または精神活動を計測する。処理部11は、計測装置20の出力を用いて利用者の身体活動または精神活動に関する評価情報を生成し、かつ評価情報に基づいて利用者に提示する提示情報を生成する。   As described above, the activity evaluation device 30 includes the measurement device 20 and the processing unit 11. The measuring device 20 measures a user's physical activity or mental activity. The processing unit 11 uses the output of the measuring device 20 to generate evaluation information related to the user's physical activity or mental activity, and generates presentation information to be presented to the user based on the evaluation information.

また、評価処理装置10は、入力部12と処理部11とを備える。入力部12は、利用者の身体活動または精神活動を計測する計測装置20の出力を受け取る。処理部11は、入力部12に入力された計測装置20の出力を用いて利用者の身体活動または精神活動に関する評価情報を生成する。さらに、処理部11は、評価情報に基づいて利用者に提示する提示情報を生成する。   The evaluation processing apparatus 10 includes an input unit 12 and a processing unit 11. The input unit 12 receives the output of the measuring device 20 that measures the physical activity or mental activity of the user. The processing unit 11 uses the output of the measuring device 20 input to the input unit 12 to generate evaluation information related to the user's physical activity or mental activity. Further, the processing unit 11 generates presentation information to be presented to the user based on the evaluation information.

評価処理装置10および活動評価装置30は、利用者の身体活動または精神活動を評価し、評価に応じた提示情報を生成するから、利用者は自信の身体活動または精神活動に関する客観的な評価を知ることができる。   Since the evaluation processing device 10 and the activity evaluation device 30 evaluate the physical activity or mental activity of the user and generate presentation information corresponding to the evaluation, the user performs an objective evaluation on the physical activity or mental activity of confidence. I can know.

以下に説明する構成例では、計測装置20が評価処理装置10とは別体に設けられている場合を例として説明する。ただし、ゲーム機、スマートフォン、タブレット端末などから選択される製品が評価処理装置10として用いられる場合、計測装置20は評価処理装置10と一体に設けられる場合もある。   In the configuration example described below, a case where the measurement device 20 is provided separately from the evaluation processing device 10 will be described as an example. However, when a product selected from a game machine, a smartphone, a tablet terminal, or the like is used as the evaluation processing device 10, the measurement device 20 may be provided integrally with the evaluation processing device 10.

(実施形態1)
本実施形態は、図1のように、計測装置20の出力を用いて利用者の身体活動の一種である歩容を評価し、評価の結果を利用者に提示する活動評価装置30について説明する。計測装置20は、利用者の身体に装着される3軸加速度センサ211を備える。3軸加速度センサ211は、互いに直交する3方向の加速度を計測することが可能である。なお、計測装置20は、3軸加速度センサ211に加えてジャイロセンサを備えていてもよい。
(Embodiment 1)
In the present embodiment, as shown in FIG. 1, an activity evaluation apparatus 30 that evaluates a gait, which is a kind of physical activity of a user, using the output of the measurement apparatus 20 and presents the result of the evaluation to the user will be described. . The measuring device 20 includes a three-axis acceleration sensor 211 that is worn on the user's body. The triaxial acceleration sensor 211 can measure accelerations in three directions orthogonal to each other. Note that the measurement device 20 may include a gyro sensor in addition to the triaxial acceleration sensor 211.

本実施形態において、計測装置20を構成する3軸加速度センサ211は、図2のように利用者M1の腰または腹に巻くベルト201に取り付けたケース200に収納される。ケース200には、3軸加速度センサ211の出力を、評価処理装置10に通知するために、送信部22も収納される。送信部22は、評価処理装置10の入力部12と有線で接続される構成を採用することが可能であるが、入力部12との間で電波を伝送媒体とする無線通信を行う構成であることが望ましい。   In the present embodiment, the triaxial acceleration sensor 211 constituting the measuring device 20 is housed in a case 200 attached to a belt 201 wound around the waist or abdomen of the user M1 as shown in FIG. The case 200 also houses the transmitter 22 in order to notify the evaluation processing apparatus 10 of the output of the triaxial acceleration sensor 211. The transmission unit 22 can adopt a configuration in which the transmission unit 22 is connected to the input unit 12 of the evaluation processing device 10 by wire, but is configured to perform wireless communication with the input unit 12 using radio waves as a transmission medium. It is desirable.

計測装置20は、利用者の腰部または腹部において左右方向の中央付近に装着されることが望ましい。ただし、計測装置20が、歩数計と同様に、ポケットあるいは鞄に入れる構成であっても、3軸加速度センサ211の出力に含まれる成分を分析することにより、腰部または腹部における左右方向の中央付近に計測装置20を装着した場合と同様の解析が可能である。   The measuring device 20 is preferably mounted near the center in the left-right direction on the user's waist or abdomen. However, even if the measuring device 20 is configured to be put in a pocket or a bag, like the pedometer, by analyzing the components included in the output of the three-axis acceleration sensor 211, the vicinity of the center in the left-right direction in the waist or abdomen The same analysis as that when the measuring device 20 is mounted on is possible.

評価処理装置10に設けられた処理部11は、計測装置20から入力部12が受け取った3軸加速度センサ211の出力を用いて利用者の歩容を解析する。処理部11は、3軸加速度センサ211から出力される軸ごとの信号から特徴量を抽出する解析部111を備える。解析部111は、軸ごとの信号について着目する周波数の信号を抽出する。   The processing unit 11 provided in the evaluation processing device 10 analyzes the gait of the user using the output of the triaxial acceleration sensor 211 received by the input unit 12 from the measurement device 20. The processing unit 11 includes an analysis unit 111 that extracts a feature amount from a signal for each axis output from the triaxial acceleration sensor 211. The analysis unit 111 extracts a signal having a frequency of interest for the signal for each axis.

たとえば、歩行の速度に相当する周波数の範囲である信号成分は、歩行に伴う腰部の前後、左右、上下の動きを表しており、脚の運びと体幹の動きとを反映している。また、この成分よりも高い周波数の信号成分の一部は、歩行に伴って屈伸される関節の動きを反映する成分を含む。   For example, a signal component that is a frequency range corresponding to the walking speed represents front / back, left / right, and up / down movements of the waist accompanying walking, and reflects the movement of the legs and the movement of the trunk. Moreover, a part of signal component of a frequency higher than this component contains the component reflecting the motion of the joint bent and stretched with walking.

さらに、複数の信号成分を組み合わせると、体幹の傾きなどの成分を検出することが可能である。たとえば、歩行に伴う腰部の前後の動きと左右の動きとを2軸に持つ2次元平面に、2軸の信号成分を組み合わせてプロットすると、リサジュ図形に似た形式の図形が得られる。この図形の特徴量を抽出すれば、歩行時に左右の重心移動が均衡しているか不均衡であるかを判断することが可能である。   Furthermore, by combining a plurality of signal components, it is possible to detect components such as the trunk inclination. For example, if a two-axis signal component is combined and plotted on a two-dimensional plane having two axes of the back and forth movement of the waist associated with walking, a figure similar to a Lissajous figure can be obtained. If the feature amount of this figure is extracted, it is possible to determine whether the left and right center-of-gravity movement is balanced or unbalanced during walking.

処理部11は、解析部111が抽出した特徴量を、既知の歩容における特徴量と照合する比較部112を備える。既知の歩容における特徴量は、歩容記憶部113にあらかじめ格納されている。歩容記憶部113は、歩容だけではなく、年齢層、性別、職業などの項目で分類された特徴量を記憶しており、操作器50を用いて項目が指示されると、該当する項目の特徴量が選択される。評価処理装置10が、ゲーム機、スマートフォン、タブレット端末などから選択される製品で構成される場合、操作器50は、この種の製品に付設されたタッチパネルで実現される。   The processing unit 11 includes a comparison unit 112 that collates the feature amount extracted by the analysis unit 111 with the feature amount in a known gait. A feature amount in a known gait is stored in advance in the gait storage unit 113. The gait storage unit 113 stores not only gaits but also feature quantities classified by items such as age group, gender, and occupation. When an item is instructed using the operation unit 50, the corresponding item is stored. Is selected. When the evaluation processing device 10 is configured by a product selected from a game machine, a smartphone, a tablet terminal, or the like, the operation device 50 is realized by a touch panel attached to this type of product.

歩容記憶部113に格納された歩容の分類には、ゆっくりと地面を踏みつける歩容(擬態語で言えば、のっしのっし)、裸足で歩くような歩容(擬態語で言えば、ぺたぺた)などがある。歩容の分類は、これらの2例のほか、ひたひた、ぱたぱた、すたすたなどと形容される歩容を含んでいてもよい。   The gait classification stored in the gait storage unit 113 includes a gait that slowly steps on the ground (in terms of mimetic words, nocturnal), a gait that walks barefoot (in terms of mimetic words, petapeta), and the like. . In addition to these two examples, the gait classification may include a gait described as snatching, flapping, stinging, etc.

歩容記憶部113に格納された歩容を分類する項目のうちの職業は、トップモデル、忍者、武士、力士のように、特徴的な歩容の種別に名称を付与するために、分類の項目に含めている。これらの名称を用いて歩容記憶部113に格納されている歩容の特徴量を選択した場合、利用者の歩容の特徴量と、これらの名称で選択した歩容の特徴量とを比較することが可能になる。すなわち、比較部112は、解析部111が抽出した利用者の歩容に関する特徴量を、歩容記憶部113から選択した歩容の特徴量と比較する。   Occupations among items that classify gaits stored in the gait storage unit 113 are classified in order to give names to characteristic gait types such as top model, ninja, samurai, and wrestler. It is included in the item. When the gait feature quantity stored in the gait storage unit 113 is selected using these names, the user's gait feature quantity is compared with the gait feature quantity selected by these names. It becomes possible to do. That is, the comparison unit 112 compares the feature amount related to the user's gait extracted by the analysis unit 111 with the feature amount of the gait selected from the gait storage unit 113.

ところで、処理部11は判断部114を備え、判断部114は、操作器50からの指示に応じて、利用者の歩容の種類を判別する第1の動作と、利用者の歩容と歩容記憶部113から選択した歩容との相違の程度を評価する第2の動作とを選択する。   By the way, the processing unit 11 includes a determination unit 114, and the determination unit 114 performs a first operation for determining the type of the user's gait, a user's gait, and a gait according to an instruction from the operation device 50. The second operation for evaluating the degree of difference from the gait selected from the content storage unit 113 is selected.

第1の動作では、判断部114は、解析部111が抽出した特徴量を、歩容記憶部113に記憶されている複数種類の歩容の特徴量と比較するように比較部112に指示する。ここに、解析部111が抽出した特徴量は、原則として、歩容記憶部113が記憶しているすべての歩容の特徴量と比較される。   In the first operation, the determination unit 114 instructs the comparison unit 112 to compare the feature amounts extracted by the analysis unit 111 with the feature amounts of a plurality of types of gaits stored in the gait storage unit 113. . Here, the feature amount extracted by the analysis unit 111 is compared with the feature amount of all gaits stored in the gait storage unit 113 in principle.

判断部114は、歩容記憶部113に格納された歩容の特徴量のうち、解析部111が抽出した歩容の特徴量との類似度がもっとも高い歩容を抽出する。類似度の評価は、ユークリッド距離あるいはマハラビノス距離などを用いて行う。すなわち、判断部114は、利用者の歩容が、歩容記憶部113に記憶されている歩容の種類のうちのどれに近いかという評価情報を生成する。判断部114から出力された評価情報は、提示制御部115に入力され、提示装置40に提示する提示情報が生成される。この提示情報は、出力部13を通して提示装置40に提示される。   The determination unit 114 extracts a gait having the highest similarity with the gait feature amount extracted by the analysis unit 111 from the gait feature amounts stored in the gait storage unit 113. The similarity is evaluated using the Euclidean distance or the Mahalanobis distance. That is, the determination unit 114 generates evaluation information indicating which of the types of gaits stored in the gait storage unit 113 is the user's gait. The evaluation information output from the determination unit 114 is input to the presentation control unit 115, and the presentation information to be presented to the presentation device 40 is generated. This presentation information is presented to the presentation device 40 through the output unit 13.

提示情報は、単に歩容の種類の名称を提示するだけではなく、提示装置40の画面に表示する利用者のアバターが、利用者の歩容を模擬するように生成されることが望ましい。つまり、提示制御部115は、判断部114が判断した歩容を、提示装置40の画面に利用者のアバターによる動画として表示させるための提示情報を生成する。このように第1の動作では、利用者がアバターを通して自身の歩容を確認することができる。また、歩容の種類に関して、年齢と性別とを提示すれば、利用者の歩容に対応した年齢や性別と実年齢や性別との差異が生じると、利用者が歩行練習を行う動機付けになる。   It is desirable that the presentation information is generated so that the user's avatar displayed on the screen of the presentation device 40 simulates the user's gait, instead of simply presenting the name of the type of gait. That is, the presentation control unit 115 generates presentation information for causing the gait determined by the determination unit 114 to be displayed on the screen of the presentation device 40 as a moving image by the user's avatar. Thus, in the first operation, the user can confirm his / her gait through the avatar. In addition, if age and gender are presented regarding the type of gait, if there is a difference between the age or gender corresponding to the user's gait and the actual age or gender, the user will be motivated to practice walking Become.

一方、第2の動作では、判断部114は、解析部111が抽出した特徴量と、操作器50を用いて歩容記憶部113から選択された1種類の歩容の特徴量と比較するように比較部112に指示する。判断部114は、比較部112が比較した歩容の特徴量について類似度を評価情報として求める。提示制御部115は、評価情報から提示装置40に提示する提示情報を生成する。また、提示情報は、利用者の歩容を模擬させる利用者のアバターと、歩容記憶部113から選択した歩容を模擬するダミーのアバターとを並べて提示するように生成される。   On the other hand, in the second operation, the determination unit 114 compares the feature amount extracted by the analysis unit 111 with the feature amount of one type of gait selected from the gait storage unit 113 using the operation device 50. The comparison unit 112 is instructed. The determination unit 114 obtains similarity as evaluation information for the gait feature quantities compared by the comparison unit 112. The presentation control unit 115 generates presentation information to be presented to the presentation device 40 from the evaluation information. The presentation information is generated so that the user's avatar that simulates the user's gait and the dummy avatar that simulates the gait selected from the gait storage unit 113 are presented side by side.

第2の動作では、操作器50から職業を指定できるようにしておけば、利用者は、様々な職業の歩容を選択することが可能になり、自身の歩容と選択した職業の歩容とを比較することが可能になる。たとえば、トップモデルの歩容と利用者の歩容とを提示装置40において比較可能に提示すれば、利用者がトップモデルの歩容を真似するように練習することが可能になる。ここで、判断部114は、歩容の類似度を評価した評価情報を生成しているから、類似度を評価情報として提示装置40の画面に表示することが望ましい。利用者は、操作器50から選択した職業の歩容との類似度を確認することができ、より類似度を高めるように歩容の工夫をすることで、エンターテインメント性を持たせながら、利用者に歩行練習を行わせることが可能になる。   In the second operation, if the occupation can be designated from the controller 50, the user can select various gaits of profession, and his gait and the gait of the selected occupation. Can be compared. For example, when the gait of the top model and the gait of the user are presented in the presentation device 40 so as to be comparable, the user can practice to imitate the gait of the top model. Here, since the determination unit 114 generates evaluation information that evaluates the similarity of gaits, it is desirable to display the similarity as evaluation information on the screen of the presentation device 40. The user can confirm the degree of similarity with the gait of the occupation selected from the operation device 50, and the user can devise the gait so as to further increase the degree of similarity, thereby providing the user with entertainment. Can be practiced walking.

なお、提示装置40は、利用者が歩行している間に見ることができるように、比較的大型の画面を備えたテレビジョン受像機のようなディスプレイ装置を採用することが望ましい。また、提示装置40は、画面が小型でよければ、腕時計型のディスプレイ装置、スマートフォン、タブレット端末などから選択してもよい。   The presentation device 40 is preferably a display device such as a television receiver having a relatively large screen so that the presentation device 40 can be seen while walking. The presentation device 40 may be selected from a wristwatch-type display device, a smartphone, a tablet terminal, or the like if the screen is small.

上述した構成例において、判断部114は、利用者の歩容と歩容記憶部113が記憶している理想的な歩容との類似度を評価している。これに対して、判断部114は、歩容記憶部113が記憶している理想的な歩容に対する利用者の歩容の相違の程度を評価してもよい。   In the configuration example described above, the determination unit 114 evaluates the degree of similarity between the user's gait and the ideal gait stored in the gait storage unit 113. On the other hand, the determination unit 114 may evaluate the degree of difference in the user's gait with respect to the ideal gait stored in the gait storage unit 113.

たとえば、利用者の年齢と性別とを操作器50から入力することによって、該当する歩容の特徴量を、歩容記憶部113から選択すればよい。この構成では、判断部114は、歩容記憶部113から選択した特徴量と、利用者から得られた実際の特徴量との相違の程度を表す評価情報を生成する。相違の程度を表す評価情報は、上述した類似度を用いればよい。ただし、類似度の評価に用いる値を、相違の程度の評価情報に用いる。言い換えると、類似度が低い場合に、相違の程度が大きいことになる。類似度と相違の程度とはどちらを評価情報に用いてもよい。   For example, the feature amount of the corresponding gait may be selected from the gait storage unit 113 by inputting the age and sex of the user from the operation device 50. In this configuration, the determination unit 114 generates evaluation information indicating the degree of difference between the feature amount selected from the gait storage unit 113 and the actual feature amount obtained from the user. As the evaluation information representing the degree of difference, the above-described similarity may be used. However, a value used for similarity evaluation is used for evaluation information of the degree of difference. In other words, when the degree of similarity is low, the degree of difference is large. Either the degree of similarity or the degree of difference may be used for the evaluation information.

ところで、理想的な歩容が設定され、理想的な歩容と利用者の歩容とが相違している場合に、判断部114は、利用者の健康度に関する指標となる評価情報を生成してもよい。たとえば、上述のようにリサジュ図形に似た形式の図形を生成し、この図形の特徴量に着目すると、利用者の左右の重心移動が均衡しているか不均衡であるかを判断することができる。また、計測装置20に3軸加速度センサ211を用いているから、重心移動だけではなく、左右の足の移動時間、左右の足の踏み込む力、歩幅なども推定することが可能である。さらに、これらの情報について、時間経過に伴う推移を求めると、利用者の持久力に関する情報が得られる。   By the way, when an ideal gait is set and the ideal gait is different from the user's gait, the determination unit 114 generates evaluation information that serves as an index related to the health level of the user. May be. For example, by generating a graphic similar to the Lissajous figure as described above and paying attention to the feature amount of this graphic, it is possible to determine whether the right and left centroid movement of the user is balanced or unbalanced. . Further, since the three-axis acceleration sensor 211 is used in the measuring device 20, it is possible to estimate not only the center of gravity movement but also the movement time of the left and right feet, the stepping force of the left and right feet, and the stride. Further, regarding these pieces of information, when the transition with the passage of time is obtained, information about the endurance of the user can be obtained.

この種の情報を組み合わせると、利用者の歩容の健全性、利用者の体力のレベルなどの指標が得られる。すなわち、判断部114は、利用者に関して、歩容の健全性、体力のレベルなどを示す指標を求める。以下では、これらの指標を健康度という。ここに、健康度は、歩容の健全性、体力のレベルを用いて判断部114が数値と状態とで表すことを想定する。   When this kind of information is combined, indicators such as the health of the user's gait and the level of physical strength of the user can be obtained. That is, the determination unit 114 obtains an index indicating the gait soundness, the level of physical strength, and the like regarding the user. Below, these indicators are referred to as health levels. Here, it is assumed that the degree of health is expressed by the determination unit 114 as a numerical value and a state using the health of the gait and the level of physical strength.

判断部114が健康度を求める場合、提示制御部115は、提示装置40に提示するアバターを、健康度に見合う姿勢で表現するように提示情報を生成することが望ましい。図3は健康度に対応したアバターA1の姿勢の例であって、図3Aは健康度の数値が所定の基準値以上である場合、図3Bは健康度の状態において腰が悪い場合、図3Cは健康度が所定の基準値未満である場合の例を示している。なお、図3Aに対応する基準値と図3Cに対応する基準値とは異なっていてもよい。図3に示す姿勢は一例であり、また、健康度に関する区分も3種類に限らない。   When the determination unit 114 obtains the health level, the presentation control unit 115 desirably generates the presentation information so that the avatar to be presented to the presentation device 40 is expressed in a posture corresponding to the health level. FIG. 3 is an example of the posture of the avatar A1 corresponding to the health level. FIG. 3A shows a case where the health level is greater than or equal to a predetermined reference value, and FIG. Shows an example in which the health level is less than a predetermined reference value. Note that the reference value corresponding to FIG. 3A and the reference value corresponding to FIG. 3C may be different. The posture shown in FIG. 3 is an example, and the categories related to the health level are not limited to three.

このようにアバターA1の姿勢によって健康度を表すと、健康度が数値で表される場合よりも、利用者に対して直感的な刺激を与えることができる。すなわち、利用者は、健康度を意識しやすくなる。また、アバターA1を用いて健康度を利用者に提示し、利用者はゲーム感覚で健康管理を行うから、健康管理に対する利用者のモチベーションの向上につながる。   In this way, when the health level is expressed by the posture of the avatar A1, an intuitive stimulus can be given to the user, compared to the case where the health level is expressed by a numerical value. That is, the user can easily be aware of the health level. Further, since the health level is presented to the user using the avatar A1 and the user performs health management in a game sense, the user's motivation for health management is improved.

ここに、複数台の活動評価装置30が、インターネットあるいは移動体通信網のような電気通信回線を通して通信するように構成されている場合、他の利用者の健康度をアバターA1の姿勢で確認することが可能になる。   Here, when the plurality of activity evaluation devices 30 are configured to communicate through an electric communication line such as the Internet or a mobile communication network, the health level of other users is confirmed by the posture of the avatar A1. It becomes possible.

たとえば、家族の構成員がそれぞれ活動評価装置30を保有し、家族の構成員が保有する活動評価装置30の間で相互に通信を行うことを可能にしておけば、他の家族のアバターを確認することが可能になる。したがって、利用者が自身の健康度を確認するだけではなく、同居する家族、遠方に住む家族、高齢者の家族などについて健康度を確認することが可能になる。このように他の利用者の健康度を確認すれば、他人の健康度を思いやることにつながり、また、家族の見守りにも用いることができる。   For example, if each member of the family owns the activity evaluation device 30 and can communicate with each other between the activity evaluation devices 30 owned by the family members, the avatars of other families can be confirmed. It becomes possible to do. Therefore, it is possible for the user not only to check his / her own health level but also to check the health level of a family living together, a family living far away, an elderly family, and the like. If the health level of other users is confirmed in this way, it can lead to consideration of the health level of others and can also be used to watch over the family.

また、医者あるいは健康に関する助言者などが、評価処理装置10から出力される提示情報を受け取る提示装置40を保有し、評価処理装置10の利用者に関する健康管理に利用してもよい。   In addition, a doctor or a health advisor may have a presentation device 40 that receives presentation information output from the evaluation processing device 10 and may be used for health management related to the user of the evaluation processing device 10.

計測装置20の出力には、筋力の状態および関節の状態に関する情報も含まれるから、判断部114は、これらの情報から健康度に関する評価情報を抽出することが望ましい。また、3軸加速度センサ211の出力だけではなく、操作器50を用いて利用者の身長、体重などの情報を申告させることが望ましい。これらの情報が得られている場合、提示制御部115は、利用者の健康の状態に適した食事内容あるいは食事のレシピを提示情報として生成する構成であってもよい。   Since the output of the measuring device 20 includes information on the state of muscular strength and the state of the joint, it is desirable that the determination unit 114 extracts the evaluation information on the health level from these pieces of information. In addition to the output of the three-axis acceleration sensor 211, it is desirable to report information such as the height and weight of the user using the operation device 50. When such information is obtained, the presentation control unit 115 may be configured to generate meal content or a meal recipe suitable for the health condition of the user as the presentation information.

提示制御部115が生成する提示情報は、評価処理装置10が個々に保有していてもよいが、この種の情報は複数の評価処理装置10で共有することが可能である。そのため、提示制御部115は、インターネットのような電気通信回線を通して、健康の状態に適した食事内容あるいは食事のレシピを、ウェブサーバから取得することが望ましい。ウェブサーバは、単独のコンピュータではなく複数台のコンピュータで構成されていてもよく、また、クラウドコンピューティングシステムであってもよい。   The presentation information generated by the presentation control unit 115 may be individually held by the evaluation processing device 10, but this kind of information can be shared by a plurality of evaluation processing devices 10. For this reason, it is desirable that the presentation control unit 115 acquires meal contents or meal recipes suitable for the health condition from the web server through an electric communication line such as the Internet. The web server may be composed of a plurality of computers instead of a single computer, and may be a cloud computing system.

ところで、本実施形態は、歩行練習あるいは歩容の真似をする練習のために用いることが可能である。したがって、このような練習のエンターテインメント性をより向上させるために、練習に対して様々な報酬を与えてもよい。   By the way, this embodiment can be used for walking practice or practice of imitating a gait. Therefore, various rewards may be given to practice in order to further improve the entertainment characteristics of such practice.

この種の報酬としては、たとえば、仮想空間で使用可能なポイントの付与、仮想空間で行動可能な範囲の拡張、他ゲームにおいて優位性を向上させるツールの付与などがある。たとえば、利用者のアバターが仮想空間の住人である場合に、仮想空間での商品あるいはサービスと交換できるポイントを、健康度の向上に伴って付与すればよい。一例として、仮想空間におけるアバターの住居、あるいは仮想空間におけるアバターのファッションなどに関する商品またはサービスが、ポイントと交換できる場合、ポイントを貯めることは健康度を向上させる動機付けになる。   Examples of this type of reward include giving points that can be used in a virtual space, expanding a range in which action can be performed in a virtual space, and giving a tool that improves superiority in other games. For example, when the user's avatar is a resident of a virtual space, a point that can be exchanged for a product or service in the virtual space may be given as the health level improves. As an example, if a product or service related to the avatar's dwelling in the virtual space or the avatar's fashion in the virtual space can be exchanged for points, storing points is a motivation to improve health.

たとえば、ある健康度に対して100ポイントを付与し、住居に取り付けるポストを2000ポイントなどに設定する。また、ファッションに関しては、スカートを500ポイント、ジャケットを800ポイント、髪型をショートカットにするサービスを500ポイントなどに設定する。   For example, 100 points are given for a certain health level, and a post attached to a residence is set to 2000 points. For fashion, 500 points for a skirt, 500 points for a jacket, 500 points for a hairstyle shortcut, etc. are set.

仮想空間で商品あるいはサービスを受けるのに必要なポイントと、健康度に応じたポイントの付与との関係は適切に設定されている必要がある。つまり、健康度を向上させる努力の程度と、商品あるいはサービスに対する欲求の程度とを適切に整合させると、利用者に健康度を向上させるためのモチベーションを維持させることが可能になる。   The relationship between the points necessary for receiving goods or services in the virtual space and the provision of points according to the degree of health needs to be set appropriately. That is, if the degree of effort to improve the health level is appropriately matched with the level of desire for goods or services, it becomes possible for the user to maintain motivation to improve the health level.

また、筋力が衰えた利用者あるいは膝関節が不調である利用者などは、仮想空間において行動できる範囲を狭くしておき、健康度の向上に伴って仮想空間において行動できる範囲を広げるようにしてもよい。この場合、現状の行動範囲に対して外側である仮想空間に関する情報を利用者に意識付けするように、現状の行動範囲に対して外側である仮想空間に関する情報を提示情報に含めておくことが望ましい。   Also, for users with weak muscle strength or those with poor knee joints, the range in which they can act in the virtual space is narrowed, and the range in which they can act in the virtual space is increased as the health level increases. Also good. In this case, information related to the virtual space that is outside the current action range may be included in the presentation information so as to make the user aware of information about the virtual space that is outside the current action range. desirable.

たとえば、仮想空間において、現状の行動範囲の外側に存在する店舗の看板などを提示情報に含めておくと、利用者に対して該当する店舗への誘導が行われ、結果として現状の行動範囲の外側に行動範囲を広げる動機付けになる。このように、健康度の向上に伴って仮想空間における行動範囲が広がることにより、より健康度を高めようとしてモチベーションが高まることになる。   For example, if the presentation information includes a signboard of a store that exists outside the current action range in the virtual space, the user is directed to the corresponding store, and as a result, the current action range Motivate to expand the range of action outside. As described above, the action range in the virtual space is expanded with the improvement of the health level, so that the motivation is increased to further increase the health level.

ポイントは、健康度が向上した程度に応じて定めることが可能であるが、健康度を向上させる運動を行うように指示し、指示した内容の達成時に所定のポイントを付与するか、あるいは、指示した内容の達成度に応じてポイントを付与してもよい。たとえば、3km以上のランニングという指示を与え、この運動を利用者が達成したときに、200ポイントを利用者に付与すればよい。   Points can be determined according to the degree of improvement in health level, but instructions are given to exercise to improve health levels, and given points are given when the specified content is achieved, or instructions are given. Points may be awarded according to the degree of achievement of the contents. For example, when an instruction of running of 3 km or more is given and the user achieves this exercise, 200 points may be given to the user.

なお、ランニングした距離を利用者が申告する構成であると、運動をしたことが証明されないから、運動の内容は、計測装置20の出力を用いて定量的に評価されることが望ましい。また、指示した運動が達成されていない場合でも、達成度に応じた割合でポイントが付与されるようにしてもよい。   Note that if the user reports the running distance, it is not proved that the user has exercised. Therefore, it is desirable to quantitatively evaluate the content of the exercise using the output of the measuring device 20. Further, even when the instructed exercise has not been achieved, points may be given at a rate according to the degree of achievement.

上述した動作は、アバターの行動する仮想空間に健康度を関連付けている。これに対して、提示制御部115は、ポイントの積算値に関する順位を提示装置40に示すように提示情報を生成することが可能であり、また、対戦型ゲームにおいて、戦闘能力を向上させるためにポイントを使用したり、戦闘能力を向上させる武器とポイントを交換できるようにしてもよい。ここに戦闘能力は、攻撃力と防御力とのどちらであってもよい。なお、ゲームの規則および内容は、ゲーム部14において定められている。したがって、ゲームにおいて使用されるキャラクタ、キャラクタの動きなどはゲーム部14に定められる。   The above-described operation associates the health level with the virtual space in which the avatar acts. On the other hand, the presentation control unit 115 can generate the presentation information as shown in the presentation device 40 in the order related to the integrated value of points, and in order to improve the fighting ability in the competitive game. You may be able to exchange points with weapons that use points or improve your combat ability. Here, the fighting ability may be either attack power or defense power. Note that the rules and contents of the game are defined in the game unit 14. Therefore, characters used in the game, character movements, and the like are determined in the game unit 14.

ポイントの積算値の順位を提示情報とする場合、活動評価装置30は、インターネットのような電気通信回線を通してサーバと通信するように構成され、サーバにおいてポイントの積算値に関する順位が求められる。また、ポイントの積算値は、期限を定めなければ活動評価装置30を使用している時間が長いほど大きくなる可能性があるから、過去の所定期間(たとえば、3ヶ月、6ヶ月などから選択される)における順位を示すことが望ましい。   When the ranking of the accumulated point value is used as the presentation information, the activity evaluation apparatus 30 is configured to communicate with the server through an electric communication line such as the Internet, and the rank regarding the accumulated point value is obtained in the server. In addition, since the accumulated value of points may increase as the time during which the activity evaluation device 30 is used, unless a time limit is set, it is selected from a past predetermined period (for example, 3 months, 6 months, etc.). It is desirable to show the ranking in

対戦型ゲームに関連付けてポイントを使用する場合、ポイントと交換する戦闘能力はポイントに応じて加減することが望ましい。たとえば、ポイントを武器と交換する場合に、武器が剣である場合に200ポイントと交換し、武器が盾である場合に500ポイントと交換するなどと定める。この場合、剣よりも盾のほうが戦闘能力は高いことになる。   When points are used in association with a competitive game, it is desirable to increase or decrease the battle ability exchanged for points according to the points. For example, when a point is exchanged with a weapon, it is determined that 200 points are exchanged when the weapon is a sword, and 500 points are exchanged when the weapon is a shield. In this case, the shield has a higher combat ability than the sword.

利用者の歩行動作を関連付けるゲームは、対戦型ゲームに限らない。たとえば、提示装置40の画面上でボードゲームを模擬するようなゲームに歩行動作を関連付けるようにしてもよい。図4に示す構成例は、提示装置40の画面にマス目LTが表示され、利用者が所定歩数の歩行を行うと、1マス進むことができるように構成されている。利用者の向きも考慮され、利用者が向きを変えると、該当する向きのマス目に進むことができる。   A game that associates a user's walking motion is not limited to a competitive game. For example, the walking motion may be associated with a game that simulates a board game on the screen of the presentation device 40. The configuration example illustrated in FIG. 4 is configured such that a square LT is displayed on the screen of the presentation device 40 and the user can move forward by one square when the user walks a predetermined number of steps. The direction of the user is also taken into consideration, and if the user changes the direction, the user can proceed to the grid in the corresponding direction.

提示装置40の画面には、利用者のアバターA1(あるいは、適宜のキャラクタでもよい)も表示され、アバターA1は利用者の歩容に合わせて動作する。つまり、利用者が低速で歩けばアバターA1も低速で進む動作を行い、利用者が走ればアバターA1も走る動作を行う。マス目LTには、アバターA1の現在位置(P1)とゴールの位置(P2)とが示されている。利用者は、現在位置(P1)からゴールの位置(P2)に移動するように歩行を行うことによって、ゲームが成立する。   The screen of the presentation device 40 also displays the user's avatar A1 (or an appropriate character), and the avatar A1 operates according to the user's gait. That is, if the user walks at a low speed, the avatar A1 also moves at a low speed, and if the user runs, the avatar A1 also runs. In the grid LT, the current position (P1) of the avatar A1 and the goal position (P2) are shown. The game is established by the user walking so as to move from the current position (P1) to the goal position (P2).

なお、本実施形態の構成において、利用者が歩行を行うことは、必ずしも歩行によって前進することを意味しておらず、同じ位置で足踏みを行うことも歩行に含まれる。また、提示装置40が可搬型である場合、利用者は、屋外などで実際に歩行を行ってもよいのはもちろんのことである。   In the configuration of the present embodiment, when the user walks does not necessarily mean that the user moves forward by walking, and stepping at the same position is also included in the walking. Of course, when the presentation device 40 is portable, the user may actually walk outdoors.

なお、ゲーム機あるいはスマートフォンが3軸加速度センサを内蔵している場合、この種の製品に内蔵された3軸加速度センサを、歩容の検出のために用いてもよい。つまり、この種の製品において、評価処理装置10として機能させるプログラム(スマートフォンであれば、いわゆるアプリ)を実行させ、製品に内蔵されている3軸加速度センサの出力を分析するように構成することが可能である。   In addition, when a game machine or a smart phone has a built-in triaxial acceleration sensor, a triaxial acceleration sensor built in this type of product may be used for detecting a gait. That is, in this type of product, it is possible to execute a program (so-called application if it is a smartphone) that functions as the evaluation processing device 10 and analyze the output of the three-axis acceleration sensor built in the product. Is possible.

ゲーム機あるいはスマートフォンを評価処理装置10として用いる場合、利用者の腰または腹に巻くベルトに、ゲーム機あるいはスマートフォンを固定する取付具が設けられる。したがって、このようなベルトと、上述したプログラムとを提供することによって、ゲーム機あるいはスマートフォンを評価処理装置10として用いることが可能になる。   When a game machine or a smartphone is used as the evaluation processing apparatus 10, a fixture for fixing the game machine or the smartphone is provided on a belt that is wound around the user's waist or stomach. Therefore, by providing such a belt and the above-described program, a game machine or a smartphone can be used as the evaluation processing device 10.

上述した活動評価装置30では、計測装置20は、利用者の身体に装着される3軸加速度センサ211を備える。また、処理部11は、3軸加速度センサ211の出力を用いて利用者の歩容に関する評価情報を生成する。したがって、利用者は、自身の歩容に関する評価を客観的に知ることができる。   In the activity evaluation apparatus 30 described above, the measurement apparatus 20 includes a three-axis acceleration sensor 211 that is worn on the user's body. In addition, the processing unit 11 uses the output of the triaxial acceleration sensor 211 to generate evaluation information related to the user's gait. Therefore, the user can know objectively the evaluation regarding his gait.

(実施形態2)
本実施形態では、図5に示すように、計測装置20が睡眠センサ212を備え、計測装置20の出力が評価処理装置10に与えられる。睡眠センサ212は、たとえば3軸加速度センサが用いられる。この構成では、計測装置20は寝具の上に置かれ、利用者の体動による振動成分が抽出される。この振動が解析されることにより利用者の睡眠状態が推定される。
(Embodiment 2)
In the present embodiment, as illustrated in FIG. 5, the measurement device 20 includes a sleep sensor 212, and the output of the measurement device 20 is given to the evaluation processing device 10. As the sleep sensor 212, for example, a three-axis acceleration sensor is used. In this configuration, the measuring device 20 is placed on the bedding, and the vibration component due to the user's body movement is extracted. The user's sleep state is estimated by analyzing this vibration.

本実施形態の計測装置20は利用者が身につけて持ち運ぶように構成されていることが望ましい。この構成では、計測装置20は、利用者の活動時における活動量の計測にも利用可能になる。そのため、本実施形態の計測装置20は、実施形態1と同様に、腰に巻くベルト201に取り付けられるケース200(図2参照)を備えるか、あるいは、腕時計型のケース200、ペンダント型のケース200などを用いることも可能である。   It is desirable that the measurement device 20 of the present embodiment is configured to be carried by a user. In this configuration, the measuring device 20 can also be used for measuring the amount of activity when the user is active. Therefore, the measurement apparatus 20 of the present embodiment includes a case 200 (see FIG. 2) attached to the belt 201 wound around the waist, as in the first embodiment, or a wristwatch-type case 200 and a pendant-type case 200. Etc. can also be used.

睡眠センサ212から出力される利用者の体動に関する振動成分は、たとえば図6Aに示すように、振幅が比較的大きい期間と振幅が比較的小さい期間とを含んでいる。一般に、睡眠が深くなると体動が減少し、睡眠が浅くなると体動が増加することが知られている。このことから、図6Aのような体動の振動成分を用いると、睡眠深度の時間変化は図6Bのようになることが推定される。   The vibration component related to the user's body movement output from the sleep sensor 212 includes a period in which the amplitude is relatively large and a period in which the amplitude is relatively small, as shown in FIG. 6A, for example. In general, it is known that body movement decreases when sleep deepens, and body movement increases when sleep becomes shallow. From this, when the vibration component of body motion as shown in FIG. 6A is used, it is estimated that the time change of the sleep depth becomes as shown in FIG. 6B.

本実施形態の処理部11は、計測装置20から出力された振動成分の振幅を抽出し、入眠から起床までの時間経過と振動成分の振幅とに基づいて睡眠深度を推定する解析部116を備える。入眠は、就床してから睡眠深度が最初に極大になった時点を意味し、起床は睡眠深度が最後に極小になる時点を意味する。   The processing unit 11 of the present embodiment includes an analysis unit 116 that extracts the amplitude of the vibration component output from the measurement device 20 and estimates the sleep depth based on the time elapsed from falling asleep to waking up and the amplitude of the vibration component. . Sleeping means the time when the sleep depth first becomes maximum after going to bed, and waking up means the time when the sleep depth finally becomes minimum.

処理部11は、解析部116が推定した利用者の睡眠深度の時間変化を、図6Cに示す理想的な睡眠深度の時間変化と比較する比較部117を備える。比較部117は、利用者の睡眠深度の時間変化と理想的な睡眠深度の時間変化との相関係数を求め、相関係数を点数化する機能を有する。この点数を「睡眠点数」と呼ぶ。また、比較部117は、就床から入眠までの時間および起床時の睡眠深度の立ち上がり特性についても、利用者の睡眠深度の時間変化と理想的な睡眠深度の時間変化との比較によって点数化する。   The processing unit 11 includes a comparison unit 117 that compares the time change of the user's sleep depth estimated by the analysis unit 116 with the time change of the ideal sleep depth shown in FIG. 6C. The comparison unit 117 has a function of obtaining a correlation coefficient between the time change of the user's sleep depth and the time change of the ideal sleep depth and scoring the correlation coefficient. This score is called “sleep score”. The comparison unit 117 also scores the time from bedtime to falling asleep and the rising characteristics of sleep depth when waking up by comparing the time change of the user's sleep depth with the time change of the ideal sleep depth. .

これらの点数を、それぞれ「寝付き点数」「寝起き点数」と呼ぶ。睡眠点数、寝付き点数、寝起き点数は、いずれも100点満点であり、高得点であるほど睡眠の質がよいことを表す。たとえば、睡眠点数は85点、寝付き点数は60点、寝起き点数は45点などと計算される。これらの点数は評価情報として生成される。   These scores are referred to as “sleeping score” and “sleeping score”, respectively. The sleeping score, sleeping score, and waking up score are all 100 points, and the higher the score, the better the quality of sleep. For example, the sleeping score is calculated as 85, the sleeping score is 60, and the sleeping score is 45. These scores are generated as evaluation information.

比較部117が生成した評価情報は、提示制御部118に与えられ、出力部13を通して提示装置40に提示される。上述した構成では、評価情報は、睡眠点数、寝付き点数、寝起き点数として数値化されているから、提示制御部118は、これらの数値を提示情報として提示装置40に提示する。   The evaluation information generated by the comparison unit 117 is given to the presentation control unit 118 and presented to the presentation device 40 through the output unit 13. In the above-described configuration, the evaluation information is digitized as the number of sleep points, the number of sleeping points, and the number of sleeping points, so the presentation control unit 118 presents these numerical values to the presentation device 40 as presentation information.

ところで、評価処理装置10は、処理部11が求めた点数をサーバに送信するための通信部15を備える。比較部117が求めた点数は、インターネットあるいは移動体電話網のような電気通信回線を通してサーバ(図示せず)に送信される。サーバは、実施形態1と同様に、1台のコンピュータで構成されるとは限らず、複数台のコンピュータで構成されていてもよく、また、クラウドコンピューティングシステムであってもよい。   By the way, the evaluation processing apparatus 10 includes a communication unit 15 for transmitting the score obtained by the processing unit 11 to the server. The score obtained by the comparison unit 117 is transmitted to a server (not shown) through an electric communication line such as the Internet or a mobile telephone network. As in the first embodiment, the server is not necessarily configured by a single computer, but may be configured by a plurality of computers, or may be a cloud computing system.

サーバは、複数台の評価処理装置10から点数を受け取り、受け取った睡眠点数と寝付き点数と寝起き点数とのそれぞれを高得点から降順に並べ、表1のように、順位を付与する。表1では、参加者全員の点数を用いて順位を付与しているが、参加者のクラスタリングを行って複数のグループに分け、グループ内で順位を付与してもよい。クラスタリングを行う場合、点数だけではなく、年齢層、性別などの他の属性も用いることが望ましい。   The server receives the scores from the plurality of evaluation processing devices 10 and arranges the received sleep score, the score of falling asleep, and the score of waking up in descending order from the highest score, and assigns ranks as shown in Table 1. In Table 1, the ranking is given using the scores of all the participants, but the clustering of the participants may be performed to be divided into a plurality of groups, and the ranking may be given within the group. When performing clustering, it is desirable to use not only the score but also other attributes such as age group and gender.

Figure 2016002109
上述したように、解析部116は、計測装置20が出力した振動成分を解析するから、睡眠深度の時間変化を推定するだけではなく、寝返り、いびきなどの情報も抽出することが可能である。解析部116が抽出したこれらの情報を評価情報に用いることによって、利用者の睡眠状態を利用者に知らせることが可能になる。この種の情報を評価情報に用いる場合、提示制御部118は、睡眠状態を表すアバターA1(あるいは、キャラクタ)を生成し、評価情報に応じてアバターA1姿勢が変わるように提示情報を生成する。
Figure 2016002109
As described above, since the analysis unit 116 analyzes the vibration component output from the measurement device 20, it can not only estimate the temporal change in the sleep depth but also extract information such as turning over and snoring. By using these pieces of information extracted by the analysis unit 116 as evaluation information, the user's sleep state can be notified to the user. When this type of information is used for the evaluation information, the presentation control unit 118 generates an avatar A1 (or character) representing the sleep state and generates the presentation information so that the avatar A1 posture changes according to the evaluation information.

たとえば、図7Aは、睡眠深度が深い状態、図7Bは、いびきをかいている状態、図7Cは、睡眠深度が浅く、寝返りをうっている状態を表す。これらの状態は、睡眠中の時間経過に伴って変化するから、提示制御部118は、アバターA1の動作を動画で表現する。つまり、利用者は、睡眠中の時刻と睡眠状態との関係を知ることが可能になる。この動画は、操作器50を操作することにより、再生方法を変化させることが可能である。操作器50は、たとえば、0.8倍速再生、1.3倍速再生、早送りなどを選択することが可能である。   For example, FIG. 7A shows a deep sleep state, FIG. 7B shows a snoring state, and FIG. 7C shows a shallow sleep depth and a state of turning over. Since these states change with the passage of time during sleep, the presentation control unit 118 expresses the motion of the avatar A1 as a moving image. That is, the user can know the relationship between the sleeping time and the sleeping state. It is possible to change the reproduction method of this moving image by operating the operation unit 50. The operation device 50 can select, for example, 0.8 × speed playback, 1.3 × speed playback, fast forward, and the like.

このように、アバターA1を用いて利用者の睡眠状態を表すことによって、利用者は時間経過に伴う睡眠状態の変化を認識することが可能になる。とくに、利用者が睡眠状態を認識することによって、睡眠時無呼吸症候群の可能性を知り、また、いびきをかいている状態を家族に見せられることによって、いびきが家族の迷惑になっていることを知ることになる。   Thus, by representing the sleep state of the user using the avatar A1, the user can recognize the change in the sleep state over time. In particular, the user is aware of the sleep state, knows the possibility of sleep apnea syndrome, and is able to show the snoring state to the family, snoring has become a nuisance to the family Will know.

また、寝返りは、ノンレム睡眠からレム睡眠に移行する期間、あるいはレム睡眠からノンレム睡眠に移行する期間に生じることが知られている。したがって、寝返りが生じている時間帯を抽出することにより、睡眠の質の評価に利用することができる。   In addition, it is known that turning over occurs in a period during which transition from non-REM sleep to REM sleep or a period during which transition from REM sleep to non-REM sleep occurs. Therefore, by extracting the time zone in which the turn is occurring, it can be used for the evaluation of sleep quality.

ところで、本実施形態で用いている計測装置20の睡眠センサ212は、上述のように、活動量の計測にも用いることが可能である。解析部116は、計測装置20の出力に基づいて、睡眠量と活動量とを推定する機能も有する。解析部116は、睡眠量については睡眠時間と睡眠深度とをパラメータに用いて算出する。また、活動量については、加速度の積算値に基づいて算出する。   By the way, as described above, the sleep sensor 212 of the measurement device 20 used in the present embodiment can also be used for measuring the amount of activity. The analysis unit 116 also has a function of estimating the amount of sleep and the amount of activity based on the output of the measurement device 20. The analysis unit 116 calculates the sleep amount using the sleep time and the sleep depth as parameters. The amount of activity is calculated based on the integrated value of acceleration.

比較部117は、睡眠量と活動量とをそれぞれについて設定された所定の基準値と比較する。また、比較部117は、睡眠量と活動量とがともに基準値以上であると健康、睡眠量と活動量とがともに基準値未満であると不健康と評価し、さらに、活動量が基準値以上であっても睡眠量が基準値未満であると睡眠不足と評価する。なお、活動量は過剰であると睡眠を妨げる可能性があるから、活動量には上限を設定しておくことが望ましい。さらに、活動量が大きくなる時間帯も睡眠の質に影響するから、活動量の時間変化も睡眠の評価に用いることが望ましい。   The comparison unit 117 compares the amount of sleep and the amount of activity with a predetermined reference value set for each. Further, the comparison unit 117 evaluates that the sleep amount and the activity amount are both equal to or greater than the reference value, and that the sleep amount and the activity amount are both less than the reference value, and the activity amount is equal to or greater than the reference value. Even so, if the amount of sleep is less than the reference value, it is evaluated that sleep is insufficient. In addition, since there is a possibility of disturbing sleep if the amount of activity is excessive, it is desirable to set an upper limit for the amount of activity. Furthermore, since the time period during which the amount of activity increases also affects the quality of sleep, it is desirable to use the time change of the activity amount for sleep evaluation.

提示制御部118は、比較部117の評価結果を用いて、図8のように、利用者のアバターA1(または、適宜のキャラクタ)を用いた提示情報を生成し、この提示情報を提示装置40に提示する。図8Aは初期状態、図8Bは健康状態、図8Cは不健康状態、図8Dは睡眠不足状態を示す。図示する表示例は、一例であって、分類の種類、表示の形態は適宜に変更することが可能である。   The presentation control unit 118 uses the evaluation result of the comparison unit 117 to generate presentation information using the user's avatar A1 (or an appropriate character) as shown in FIG. To present. 8A shows an initial state, FIG. 8B shows a healthy state, FIG. 8C shows an unhealthy state, and FIG. 8D shows an insufficient sleep state. The display example shown in the figure is an example, and the type of classification and the form of display can be changed as appropriate.

また、処理部11はサーバ(図示せず)と通信するから、提示制御部118が生成したアバターA1(あるいは、比較部117の評価結果)をサーバに送信することにより、活動評価装置30を利用する複数人でアバターA1を見ることが可能になる。たとえば、遠隔地に住む高齢者の家族について、アバターA1によって健康状態を見守るという用途に利用することができる。   Further, since the processing unit 11 communicates with a server (not shown), the activity evaluation apparatus 30 is used by transmitting the avatar A1 (or the evaluation result of the comparison unit 117) generated by the presentation control unit 118 to the server. The avatar A1 can be viewed by a plurality of people. For example, it can be used for the purpose of watching the health of an elderly family living in a remote place with an avatar A1.

本実施形態は、利用者の睡眠状態を計測する目的で計測装置20を利用するから、計測装置20は加速度以外の情報を用いて睡眠状態を推定する構成であってもよい。加速度以外の情報を用いて睡眠状態を推定する技術としては、寝具に圧力センサが設けられ利用者の体動が計測される構成、利用者の睡眠中の動画像を撮像するカメラが用いられ利用者の動きが計測される構成などを計測装置20として採用可能である。また、利用者の睡眠中の呼吸音などから睡眠状態を推定する技術を計測装置20に採用してもよい。   Since this embodiment uses the measuring device 20 for the purpose of measuring the user's sleep state, the measurement device 20 may be configured to estimate the sleep state using information other than acceleration. As a technique for estimating a sleep state using information other than acceleration, a configuration in which a pressure sensor is provided in a bedding and a user's body movement is measured, and a camera that captures a moving image of the user during sleep is used and used. A configuration in which a person's movement is measured can be adopted as the measuring device 20. Moreover, you may employ | adopt for the measuring apparatus 20 the technique which estimates a sleep state from the breathing sound etc. during a user's sleep.

本実施形態の活動評価装置30において、計測装置20は、利用者の睡眠状態を計測する睡眠センサ212を備える。また、処理部11は、睡眠センサ212の出力を用いて利用者の睡眠の質に関する評価情報を生成する。この構成によれば、利用者は自信の睡眠の状態を客観的に知ることができる。   In the activity evaluation device 30 of the present embodiment, the measurement device 20 includes a sleep sensor 212 that measures the sleep state of the user. Moreover, the process part 11 produces | generates the evaluation information regarding a user's sleep quality using the output of the sleep sensor 212. FIG. According to this configuration, the user can objectively know the state of sleep with confidence.

他の構成および動作は実施形態1と同様であり、実施形態1と同符号を付した構成は、同様の機能を有する。   Other configurations and operations are the same as those of the first embodiment, and the configurations denoted by the same reference numerals as those of the first embodiment have the same functions.

(実施形態3)
本実施形態の活動評価装置30は、計測装置20の出力を用いて利用者の集中度を評価し、集中度の低下が検出されたときに、利用者の集中度を回復(つまり、リフレッシュ)させる構成を提案する。すなわち、本実施形態の計測装置20は、利用者の精神活動を計測する。
(Embodiment 3)
The activity evaluation device 30 according to the present embodiment evaluates the user's concentration using the output of the measuring device 20, and recovers the user's concentration when a decrease in the concentration is detected (that is, refresh). We propose a configuration to be used. That is, the measuring device 20 of this embodiment measures a user's mental activity.

集中度を計測するには、利用者を撮像するカメラの画像から特徴量を抽出する技術、利用者の脳活動を監視する技術などが考えられるが、本実施形態では、利用者の体動と呼吸を監視することによって利用者の集中度の変化を検出する技術を用いる。すなわち、計測装置20は、図9に示すように、利用者の体動と呼吸を監視する3軸加速度センサ213を備える。   In order to measure the degree of concentration, a technique for extracting a feature amount from an image of a camera that captures a user, a technique for monitoring a user's brain activity, and the like can be considered. A technique is used to detect changes in the user's concentration by monitoring respiration. That is, the measuring device 20 includes a three-axis acceleration sensor 213 that monitors a user's body movement and respiration as shown in FIG.

また、計測装置20は、利用者の体動および呼吸を監視するために、利用者の胴部に取り付けられるように構成されている。すなわち、実施形態1と同様に利用者の腰部に装着する構成、あるいは利用者の胸部に装着する構成などが採用される。   The measuring device 20 is configured to be attached to the user's trunk in order to monitor the user's body movement and respiration. That is, a configuration that is worn on the user's lower back, a configuration that is worn on the user's chest, or the like is employed as in the first embodiment.

一般に、利用者が集中しているときは、体動(とくに、体幹部の動き)が小さくなり、利用者が集中していないときは、体動が大きくなることが知られている。ただし、利用者の覚醒度が低下しても(つまり、眠くなっても)体幹部の動きは小さくなるから、集中している状態と覚醒度が低下している状態とを区別しなければならない。   In general, it is known that when the user is concentrated, the body movement (particularly, the movement of the trunk) is reduced, and when the user is not concentrated, the body movement is increased. However, even if the user's arousal level decreases (that is, even if he / she becomes sleepy), the movement of the trunk will be small, so it is necessary to distinguish between a concentrated state and a state where the arousal level is low .

そのため、利用者の呼吸についても併せて監視している。利用者の覚醒度が低下している状態では、呼吸のリズムが規則的になるのに対して、利用者の覚醒度が高い状態では、呼吸のリズムが不規則であることが知られている。すなわち、利用者の体動に加えて呼吸を監視することによって、利用者が集中している状態か、集中していない状態かを判別することが可能になる。なお、ここでは集中度が低下した状態は、疲労度が高まった状態と解釈する。   Therefore, the user's breathing is also monitored. It is known that when the user's arousal level is low, the respiratory rhythm is regular, whereas when the user's arousal level is high, the respiratory rhythm is irregular. . That is, by monitoring respiration in addition to the user's body movement, it is possible to determine whether the user is concentrated or not. Here, a state in which the degree of concentration is reduced is interpreted as a state in which the degree of fatigue has increased.

計測装置20の出力は、図9に示すように、入力部12を通して処理部11に与えられる。処理部11は、3軸加速度センサ213が出力した振動成分から利用者の体動と呼吸とに対応する成分を分離する解析部161を備える。さらに、処理部11は、解析部161により分離された体動の成分と呼吸の成分とを用いて利用者が集中している状態か否かを判定する判断部162を備える。   The output of the measuring device 20 is given to the processing unit 11 through the input unit 12 as shown in FIG. The processing unit 11 includes an analysis unit 161 that separates a component corresponding to the user's body movement and respiration from the vibration component output by the three-axis acceleration sensor 213. Further, the processing unit 11 includes a determination unit 162 that determines whether or not the user is concentrated using the body movement component and the respiration component separated by the analysis unit 161.

判断部162は、上述したように、体動の程度と呼吸のリズムとについて判定を行う。すなわち、判断部162は、呼吸のリズムが不規則であると判定される期間で、体動の振幅が所定の基準値よりも小さい状態から大きい状態に移行し、この状態が所定時間に亘って継続すると集中度が高い状態から、集中度が低下した状態に移行したと判定する。この判定結果が、利用者の精神活動に関する評価情報になる。   As described above, the determination unit 162 determines the degree of body movement and the rhythm of breathing. That is, the determination unit 162 shifts from a state where the amplitude of body motion is smaller than a predetermined reference value to a large state during a period in which it is determined that the breathing rhythm is irregular, and this state continues for a predetermined time. If it continues, it will determine with having shifted from the state with a high concentration degree to the state where the concentration degree fell. This determination result becomes evaluation information regarding the mental activity of the user.

処理部11に設けられた提示制御部163は、利用者の集中度が低下したことを示す評価情報を判断部162から受け取ると、利用者をリフレッシュさせるための提示情報を生成する。提示装置40は、視覚刺激、聴覚刺激、嗅覚刺激、冷刺激などを提供する装置が用いられる。   When the presentation control unit 163 provided in the processing unit 11 receives evaluation information indicating that the user's concentration level has decreased from the determination unit 162, the presentation control unit 163 generates presentation information for refreshing the user. As the presentation device 40, a device that provides visual stimulation, auditory stimulation, olfactory stimulation, cold stimulation, or the like is used.

たとえば、視覚刺激を与えるには、調光および調色が可能な照明装置を提示装置40として用いればよい。集中度が低下した状態に対して、提示情報は、照度を低下させ、かつ緑、青、紫のように神経を沈静化するような色調を実現するように生成される。また、提示情報は、この状態で所定時間が経過した後に、照度を高め、赤、黄のように神経を興奮させるような色調を実現するように生成される。照明装置を提示装置40として用いる場合、出力部13は照明装置を制御するリモコン装置と同様の光ワイヤレス信号を出力するように構成される。   For example, in order to give a visual stimulus, a lighting device capable of light control and color adjustment may be used as the presentation device 40. In the state where the degree of concentration is lowered, the presentation information is generated so as to realize a color tone that reduces the illuminance and calms the nerve such as green, blue, and purple. In addition, the presentation information is generated so as to realize a color tone that increases the illuminance and excites the nerve like red and yellow after a predetermined time has passed in this state. When the lighting device is used as the presentation device 40, the output unit 13 is configured to output an optical wireless signal similar to that of the remote control device that controls the lighting device.

また、視覚刺激は、テレビジョン受像機、パーソナルコンピュータのディスプレイ装置、映像を投影するプロジェクタのように、映像を表示する装置によって与えることも可能である。この場合、提示情報は、照明装置を制御する場合と同様に、利用者をリラックスさせた後に神経を興奮させるように映像を表示するように生成される。あるいはまた、集中度が低下した利用者を別室に誘導する場合、提示情報は、別室において利用者に若干のストレスを与えるような映像を表示するように生成される。ストレスを与える映像は、スキーで滑降するかのような映像、ジェットコースターに乗っているかのような映像など、アドレナリンが分泌されるような映像を意味する。   The visual stimulus can also be given by a device that displays an image, such as a television receiver, a display device of a personal computer, or a projector that projects an image. In this case, the presentation information is generated so as to display an image so as to excite the nerve after relaxing the user, as in the case of controlling the lighting device. Alternatively, when a user whose degree of concentration has been lowered is guided to another room, the presentation information is generated so as to display an image that gives a slight stress to the user in the separate room. An image that gives stress means an image in which adrenaline is secreted, such as an image as if skiing down or a roller coaster.

視覚刺激を利用者に与えるには、簡易型プラネタリウムを提示装置40として用いてもよい。簡易型プラネタリウムには、星空を投影する機能に加えて、静止画あるいは動画の投影が可能な構成も知られており、この種の提示装置40を用いると、リフレッシュ効果が期待できる。   In order to give a visual stimulus to the user, a simple planetarium may be used as the presentation device 40. In addition to the function of projecting a starry sky, the simple planetarium is known to have a configuration capable of projecting a still image or a moving image. When this type of presentation device 40 is used, a refresh effect can be expected.

聴覚刺激、嗅覚刺激、冷刺激は、単独で用いることが可能であるが、他の刺激と組み合わせるとより効果が高まる。   Auditory stimuli, olfactory stimuli, and cold stimuli can be used alone, but the effect is enhanced when combined with other stimuli.

上述した活動評価装置30では、計測装置20は、利用者の身体に装着される3軸加速度センサ213を備える。処理部11は、3軸加速度センサ213の出力を用いて利用者の集中度または疲労度に関する評価情報を生成する。この構成によれば、利用者は、精神活動である集中度または疲労度を客観的に知ることができる。   In the activity evaluation apparatus 30 described above, the measurement apparatus 20 includes a three-axis acceleration sensor 213 that is worn on the user's body. The processing unit 11 uses the output of the triaxial acceleration sensor 213 to generate evaluation information related to the user's concentration level or fatigue level. According to this configuration, the user can objectively know the concentration level or the fatigue level, which is a mental activity.

他の構成および動作は実施形態1と同様であり、実施形態1と同符号を付した構成は同様の機能を有する。   Other configurations and operations are the same as those of the first embodiment, and configurations having the same reference numerals as those of the first embodiment have the same functions.

(実施形態4)
本実施形態の活動評価装置30は、精神活動としての感情の状態を推定するように構成される。計測装置20は、図10に示すように、脳活動センサ214を備える。脳活動センサ214は、利用者の頭部に巻き付ける構成あるいは被せる構造であって、脳の電気活動を検出する電極を備えるか、脳の血流を計測する構成が採用される。
(Embodiment 4)
The activity evaluation device 30 of the present embodiment is configured to estimate the state of emotion as mental activity. As shown in FIG. 10, the measurement device 20 includes a brain activity sensor 214. The brain activity sensor 214 is configured to be wrapped around or put on the user's head, and may be configured to include an electrode for detecting electrical activity of the brain or to measure blood flow in the brain.

本実施形態において、感情の状態は、快適の程度と覚醒の程度とを組み合わせることによって分類される。感情の状態は、たとえば表2のように分類される。   In the present embodiment, emotional states are classified by combining the degree of comfort and the degree of arousal. The state of emotion is classified as shown in Table 2, for example.

Figure 2016002109
感情の状態を表2に示すように分類するために、処理部11は、脳活動センサ214の出力を用いて、快適の程度と、覚醒の程度とを推定する。すなわち、処理部11は、入力部12を通して受け取った脳活動センサ214の出力から脳活動に関する複数種類の生理指標を抽出する解析部164を備える。生理指標は、脳の部位ごとに脳活動の状態として抽出される。
Figure 2016002109
In order to classify the emotional states as shown in Table 2, the processing unit 11 uses the output of the brain activity sensor 214 to estimate the degree of comfort and the degree of arousal. That is, the processing unit 11 includes an analysis unit 164 that extracts a plurality of types of physiological indices related to brain activity from the output of the brain activity sensor 214 received through the input unit 12. The physiological index is extracted as a state of brain activity for each part of the brain.

解析部164が抽出した生理指標は、推定部165に与えられる。推定部165は、状態記憶部166が記憶しているデータと、解析部164が抽出した複数種類の生理指標とを対照し、利用者の快適の程度および覚醒の程度を推定する。状態記憶部166は、快適の程度および覚醒の程度と、生理指標との対応関係を記憶している。したがって、推定部165は、解析部164が抽出した生理指標と状態記憶部166が記憶しているデータとを用いて利用者の快適の程度および覚醒の程度を評価情報として推定する。   The physiological index extracted by the analysis unit 164 is given to the estimation unit 165. The estimation unit 165 compares the data stored in the state storage unit 166 with the multiple types of physiological indices extracted by the analysis unit 164, and estimates the degree of comfort and arousal of the user. The state storage unit 166 stores a correspondence relationship between the degree of comfort and the degree of arousal and the physiological index. Therefore, the estimation unit 165 estimates the degree of comfort and arousal of the user as evaluation information using the physiological index extracted by the analysis unit 164 and the data stored in the state storage unit 166.

推定部165が推定した利用者に関する快適の程度および覚醒の程度は、提示制御部167に与えられる。提示制御部167は、図11に示すように、快適の程度と覚醒の程度とからを2軸に持つ平面上に、推定部165が推定した快適の程度と覚醒の程度との組み合わせをプロットした提示情報を生成する。プロットした位置は、平面上に黒丸印で表してある。平面上には、感情の状態が示されており、プロットされた位置と、感情の状態との位置関係によって、利用者の感情の状態が示されることになる。   The degree of comfort and the degree of arousal related to the user estimated by the estimation unit 165 are given to the presentation control unit 167. As shown in FIG. 11, the presentation control unit 167 plots the combination of the degree of comfort and the degree of arousal estimated by the estimation unit 165 on a plane having two levels of the degree of comfort and the degree of arousal. Generate presentation information. The plotted position is represented by a black circle on the plane. An emotional state is shown on the plane, and the emotional state of the user is indicated by the positional relationship between the plotted position and the emotional state.

図11に示す例では、3人の利用者に関して快適の程度と覚醒の程度との組み合わせをプロットしている。このように複数人について快適の程度と覚醒の程度との組み合わせを同じ平面上にプロットするために、提示制御部167は、1人ずつの感情の状態を記憶しておき、複数人の感情の状態を同時に表示する機能を有している。なお、処理部11が、複数台の計測装置20の出力を受け取り、個々の計測装置20の出力に対応する感情の状態を推定するように構成されていてもよい。この構成を採用しても複数人の感情の状態を同じ平面上に同時に表示することが可能になる。   In the example shown in FIG. 11, the combinations of the degree of comfort and the degree of arousal are plotted for three users. Thus, in order to plot the combination of the degree of comfort and the degree of arousal for a plurality of people on the same plane, the presentation control unit 167 stores the emotional state of each person, It has a function to display the status at the same time. Note that the processing unit 11 may be configured to receive the outputs of the plurality of measuring devices 20 and estimate the emotional state corresponding to the outputs of the individual measuring devices 20. Even if this configuration is adopted, the emotional states of a plurality of persons can be displayed simultaneously on the same plane.

処理部11は、利用者の顔の画像を登録する機能を有していてもよい。この場合、処理部11は、利用者の平時における顔の画像を用いて、利用者の感情の状態に応じた表情を自動的に生成する機能を有していることが望ましい。たとえば、処理部11は、利用者の顔の画像から所定の部位に関する寸法を抽出し、抽出した寸法の関係を感情の状態に応じて調節する画像処理を行うことで、感情の状態に対応する表情を生成する。   The processing unit 11 may have a function of registering a user's face image. In this case, it is desirable that the processing unit 11 has a function of automatically generating a facial expression corresponding to the emotional state of the user using the facial image of the user during normal times. For example, the processing unit 11 extracts a dimension relating to a predetermined part from the user's face image, and performs image processing for adjusting the relationship of the extracted dimension according to the emotional state, thereby corresponding to the emotional state. Generate facial expressions.

提示制御部167は、提示装置40において感情の状態を表す平面を表示する画面に、感情の状態に応じた表情を表示させる。ただし、提示制御部167は、感情の状態を表す平面を表示する画面と、感情の状態に応じた表情を表示する画面とを別画面とするように提示情報を生成してもよい。   The presentation control unit 167 causes the presentation device 40 to display an expression corresponding to the emotional state on a screen that displays a plane representing the emotional state. However, the presentation control unit 167 may generate the presentation information so that the screen that displays the plane representing the emotional state and the screen that displays the facial expression corresponding to the emotional state are separate screens.

上述のように、本実施形態は、脳活動センサ214の出力を用いて感情の状態を推定するから、様々な人の感情の状態を推定することによって、実施形態3のように、集中度あるいは疲労度に関連付けることが可能であるほか、ゲーム感覚で利用することも可能である。たとえば、家族、友人、同僚のような関係の人について、感情の状態を比較すれば、話題を提供するコミュニケーションツールとして利用することが可能である。   As described above, since the present embodiment estimates the emotional state using the output of the brain activity sensor 214, the degree of concentration or the like as in the third embodiment can be estimated by estimating the emotional state of various people. In addition to being able to relate to the degree of fatigue, it can also be used as a game. For example, by comparing emotional states of people such as family members, friends, and colleagues, it can be used as a communication tool that provides a topic.

ところで、学習あるいは仕事などの知的作業に対するやる気も感情の状態として表すことが可能である。表2および図11では、やる気を、快適の程度が比較的高く、覚醒の程度が高い状態に位置付けている。やる気が、快適の程度と覚醒の程度との組み合わせで定量的に表されるから、処理部11は、快適の程度と覚醒の程度とをパラメータとしてやる気の程度を求める。たとえば、図12に示す例では、覚醒度(覚醒の程度)が73%、快適度(快適の程度)が88%と表され、両者をパラメータとして、やる気の程度を78%と求めている。   By the way, motivation for intellectual work such as learning or work can be expressed as an emotional state. In Table 2 and FIG. 11, motivation is positioned in a state where the degree of comfort is relatively high and the degree of arousal is high. Since the motivation is quantitatively represented by a combination of the degree of comfort and the degree of awakening, the processing unit 11 obtains the degree of motivation using the degree of comfort and the degree of awakening as parameters. For example, in the example shown in FIG. 12, the degree of arousal (degree of arousal) is 73% and the degree of comfort (degree of comfort) is 88%, and the degree of motivation is determined to be 78% using both as parameters.

図13では、推定したやる気の程度を提示装置40の画面に表示した例を示している。このように、やる気を定量化しているから、やる気の程度に対して閾値を設定することができる。図示例において、閾値は50%などに設定されており、やる気が41%に低下しているから、やる気を向上させるためのプログラムが提示装置40に示されている。すなわち、図示例では、やる気を向上させるプログラムの種類として、「音楽」「映像」「瞑想」「お楽しみ」を選択するためのアイコンC1〜C4が示されている。利用者は所望のアイコンC1〜C4を選択すると、やる気を向上させるプログラムを選択することができる。なお、瞑想が選択されると、たとえば、呼吸誘導のリズム音が出力される。   FIG. 13 shows an example in which the estimated degree of motivation is displayed on the screen of the presentation device 40. Thus, since the motivation is quantified, a threshold can be set for the degree of motivation. In the illustrated example, the threshold is set to 50% or the like, and the motivation is reduced to 41%. Therefore, a program for improving the motivation is shown in the presentation device 40. That is, in the illustrated example, icons C <b> 1 to C <b> 4 for selecting “music”, “video”, “meditation”, and “enjoyment” are shown as the types of programs that improve motivation. When the user selects desired icons C1 to C4, the user can select a program that improves motivation. Note that when meditation is selected, for example, a breath-inducing rhythm sound is output.

また、図示する画面では、時間の設定が可能になっている。時間は、アイコンC1〜C4で選択したプログラムを利用する時間であって、プログラムを使用する時間、あるいはプログラムを終了させる時刻のいずれかを設定することが可能になっている。やる気を向上させるプログラムの種類を選択し、選択したプログラムを利用する時間を設定した後にスタート釦Bsを操作すると、該当するプログラムの種類の中で、利用する時間に応じた内容が選択される。   Also, on the screen shown in the figure, the time can be set. The time is the time for using the program selected by the icons C1 to C4, and it is possible to set either the time for using the program or the time for ending the program. When the type of program that improves the motivation is selected and the start button Bs is operated after setting the time to use the selected program, the content corresponding to the time to be used is selected from the corresponding program types.

やる気を向上させるプログラムを実行した場合、やる気が向上したか否かを検証してもよい。提示装置40において、やる気の向上を検証する画面は、たとえば、図14のように構成される。図示する画面は、プログラムを実行した後に求めたやる気の程度を上部に示し、プログラムの実行前後におけるやる気の程度の変化を下部に示している。ここに、処理部11は、やる気の変化の程度を評価する機能を有する。   When a program that improves motivation is executed, it may be verified whether or not the motivation has improved. In the presentation device 40, a screen for verifying the improvement in motivation is configured as shown in FIG. 14, for example. The screen shown in the figure shows the degree of motivation obtained after executing the program in the upper part, and shows the change in the degree of motivation before and after the execution of the program in the lower part. Here, the processing unit 11 has a function of evaluating the degree of change in motivation.

たとえば、処理部11は、やる気の程度が20%上昇した場合、あるいはやる気の程度が80%以上になった場合などの条件を設定し、この条件が満たされると、利用者の脳に対する報酬を与える情報を提示装置40の画面に表示する。この情報は、たとえば、利用者を賞賛するような言葉や図形で示せばよい。また、やる気の程度が上昇した場合に、たとえば、図15に示すように、上昇の程度が高い順、あるいは、プログラムの実行後におけるやる気の程度が高い順に、ランキングを表示するようにしてもよい。   For example, the processing unit 11 sets conditions such as when the degree of motivation increases by 20% or when the degree of motivation becomes 80% or more, and when this condition is satisfied, the reward for the user's brain is paid. The given information is displayed on the screen of the presentation device 40. This information may be shown in words or figures that praise the user, for example. Further, when the degree of motivation increases, for example, as shown in FIG. 15, the rankings may be displayed in order of increasing degree or in order of increasing motivation after execution of the program. .

この種の情報を提示装置40に提示することによって、利用者のモチベーションを高めることが可能になり、やる気を向上させるプログラムを実行する動機付けになる。また、処理部11は、利用者が実行したプログラムごとに、やる気の上昇の程度を記録し、記録したデータを分析することによって、利用者にとってやる気の上昇の程度が高いプログラムを抽出してもよい。この構成では、該当する利用者にとって、やる気の上昇の程度が高いプログラムを優先的に提示することが可能になる。   Presenting this type of information to the presentation device 40 makes it possible to increase the motivation of the user and motivate the execution of a program that improves motivation. Further, the processing unit 11 records the degree of increase in motivation for each program executed by the user, and extracts a program having a high degree of increase in motivation for the user by analyzing the recorded data. Good. With this configuration, it is possible to preferentially present a program with a high degree of motivation for the corresponding user.

上述した構成例では、覚醒の程度と快適の程度とをパラメータとして、やる気の程度を求めた。これに対して、脳活動センサ214の出力から求められる生理指標に基づいて、覚醒の程度、快適の程度ではない、他のパラメータを推定すれば、他のパラメータを用いてやる気の程度を求めることが可能である。たとえば、3種類以上のパラメータを用いてやる気の程度を求めることも可能である。   In the configuration example described above, the degree of motivation was obtained using the degree of arousal and the degree of comfort as parameters. On the other hand, if other parameters that are not the degree of arousal and the degree of comfort are estimated based on the physiological index obtained from the output of the brain activity sensor 214, the degree of motivation is obtained using the other parameters. Is possible. For example, the degree of motivation can be obtained using three or more parameters.

また、処理部11は、脳活動センサ214から出力される生理指標に基づいて、覚醒の程度、快適の程度ではなく、ストレスの程度を推定してもよい。この場合、状態記憶部166は、解析部164が抽出した生理指標とストレスの程度とを対応付けたデータを記憶する。推定部165は、解析部164が抽出した生理指標と、状態記憶部166が記憶しているデータとを対照し、利用者のストレスの程度を推定する。   The processing unit 11 may estimate the degree of stress instead of the degree of arousal and comfort based on the physiological index output from the brain activity sensor 214. In this case, the state storage unit 166 stores data in which the physiological index extracted by the analysis unit 164 is associated with the degree of stress. The estimation unit 165 compares the physiological index extracted by the analysis unit 164 with the data stored in the state storage unit 166, and estimates the degree of user stress.

このように利用者のストレスの程度を推定した場合、提示制御部167は、たとえば、ストレスの程度を表す表情が提示装置40の画面に表示されるように提示情報を生成すればよい。図16に示す例は、このような提示情報により提示装置40に表示される表情である。図示例では、利用者のアバター、または適宜のキャラクタであるが、利用者の顔を写した写真を用い、画像処理によって種々の表情を生成してもよい。   When the degree of stress of the user is estimated in this way, the presentation control unit 167 may generate the presentation information so that a facial expression representing the degree of stress is displayed on the screen of the presentation device 40, for example. The example shown in FIG. 16 is a facial expression displayed on the presentation device 40 by such presentation information. In the illustrated example, the user avatar or an appropriate character is used, but various facial expressions may be generated by image processing using a photograph of the user's face.

本実施形態の活動評価装置30では、計測装置20は、利用者の脳活動を計測する脳活動センサ214を備える。処理部11は、脳活動センサ214の出力を用いて快適の程度と覚醒の程度とに関する評価情報を生成し、評価情報である快適の程度と覚醒の程度とを組み合わせることにより、利用者の感情の状態を提示情報として生成する。この構成によれば、利用者は、精神活動である脳活動に基づいて自身の感情の状態を客観的に知ることができる。   In the activity evaluation device 30 of the present embodiment, the measurement device 20 includes a brain activity sensor 214 that measures the brain activity of the user. The processing unit 11 uses the output of the brain activity sensor 214 to generate evaluation information related to the degree of comfort and the degree of arousal, and combines the degree of comfort and the degree of arousal, which are evaluation information, to thereby provide user emotions. Is generated as presentation information. According to this configuration, the user can objectively know the state of his / her emotion based on the brain activity which is a mental activity.

他の構成および動作は実施形態1と同様であり、実施形態1と同符号を付した構成は同様の機能を有する。   Other configurations and operations are the same as those of the first embodiment, and configurations having the same reference numerals as those of the first embodiment have the same functions.

(実施形態5)
本実施形態は、図17に示すように、利用者の目に関する生理指標を計測するセンサ215を計測装置20が備え、評価処理装置10は、目に関する生理指標を用いて、利用者の疲労度と、脳機能の老化度とに関する評価情報を生成する。疲労度は、脳と目との両方の疲労度を含む。
(Embodiment 5)
In the present embodiment, as shown in FIG. 17, the measuring device 20 includes a sensor 215 that measures a physiological index related to the user's eyes, and the evaluation processing device 10 uses the physiological index related to the eyes to determine the degree of fatigue of the user. And evaluation information on the aging degree of the brain function. The fatigue level includes fatigue levels of both the brain and eyes.

センサ215は、ヘッドマウントディスプレイのように眼鏡型に形成されており、図18に示すように、利用者に映像を提示する表示装置23と、利用者の目E1を撮像するカメラ24とを備える。この構成では、表示装置23の表示内容と、カメラ24が撮像する利用者の目E1の状態とを用いることにより、処理部11は、利用者の疲労度と老化度とに関する評価情報を生成することが可能になる。   The sensor 215 is formed in a glasses shape like a head-mounted display, and includes a display device 23 that presents video to the user and a camera 24 that captures the user's eyes E1 as shown in FIG. . In this configuration, by using the display content of the display device 23 and the state of the user's eyes E1 captured by the camera 24, the processing unit 11 generates evaluation information relating to the fatigue level and the aging level of the user. It becomes possible.

本実施形態では、表示装置23に指標を表示し、処理部11は、カメラ24が撮像した画像を用いて利用者の瞳孔径のような目に関する情報を抽出する画像処理部171を備える。本実施形態において、瞳孔径は、瞳孔の左右方向の幅寸法を用いる。また、処理部11は、表示装置23に映像を表示するための映像情報を生成する映像制御部172を備える。   In the present embodiment, an index is displayed on the display device 23, and the processing unit 11 includes an image processing unit 171 that extracts information about the eyes such as the pupil diameter of the user using an image captured by the camera 24. In this embodiment, the pupil diameter uses a width dimension in the left-right direction of the pupil. In addition, the processing unit 11 includes a video control unit 172 that generates video information for displaying video on the display device 23.

図示する処理部11は、映像制御部172が所定の明るさの指標を表示装置23に提示したときに、画像処理部171が計測した瞳孔径の変化を観測する解析部173を備えている。解析部173は、図19に示すような瞳孔径の時間変化を用いて、瞳孔の収縮率(縮瞳率)、収縮の速度あるいは加速度、瞳孔の位置のゆらぎなどの情報を抽出する。図19において、時間T1は、指標を提示している期間を表す。   The illustrated processing unit 11 includes an analysis unit 173 that observes a change in pupil diameter measured by the image processing unit 171 when the video control unit 172 presents a predetermined brightness index on the display device 23. The analysis unit 173 extracts information such as pupil contraction rate (pupil contraction rate), contraction speed or acceleration, pupil position fluctuation, and the like using the temporal change in pupil diameter as shown in FIG. In FIG. 19, time T1 represents the period during which the index is presented.

処理部11は、比較部174と状態記憶部175とを備える。状態記憶部175は、縮瞳率、収縮の速度あるいは加速度、瞳孔の位置の揺らぎなどと、疲労度および老化度を対応付けたデータを記憶している。比較部174は、解析部173が求めた縮瞳率、収縮の速度あるいは加速度、瞳孔の位置の揺らぎなどの情報を、状態記憶部175が記憶するデータと対照し、疲労度および老化度を推定する。   The processing unit 11 includes a comparison unit 174 and a state storage unit 175. The state storage unit 175 stores data in which the miosis rate, the contraction speed or acceleration, the fluctuation of the pupil position, and the like are associated with the fatigue level and the aging level. The comparison unit 174 estimates the degree of fatigue and aging by comparing information such as the miosis rate, contraction speed or acceleration, and pupil position fluctuation obtained by the analysis unit 173 with the data stored in the state storage unit 175. To do.

比較部174が推定した疲労度および老化度は、実施形態1において健康度を示したアバターA1(図3参照)と同様に、アバターあるいは適宜のキャラクタを用いて提示装置40に提示される。すなわち、提示制御部176は、疲労度および老化度に応じた姿勢のアバター(あるいはキャラクタ)を提示できるように提示情報を生成する。なお、疲労度と老化度とは、一方のみを推定するようにしてもよい。また、提示制御部176は、疲労度に応じて、食事内容あるいは食事のレシピを提示情報として生成する機能を有していてもよい。   The fatigue level and the aging level estimated by the comparison unit 174 are presented to the presentation device 40 using an avatar or an appropriate character in the same manner as the avatar A1 (see FIG. 3) showing the health level in the first embodiment. That is, the presentation control unit 176 generates presentation information so that an avatar (or character) with a posture corresponding to the degree of fatigue and the degree of aging can be presented. Only one of the fatigue level and the aging level may be estimated. In addition, the presentation control unit 176 may have a function of generating meal content or a meal recipe as presentation information according to the degree of fatigue.

上述した構成例では、所定の明るさの指標を表示装置23に提示したときの瞳孔径の変化を用いて疲労度および老化度を抽出しているが、表示装置23に表示する映像は、所定の明るさの指標に限らず、様々なパターンが採用可能であり、また、表示する時間、明るさも適宜に設定することが可能である。また、カメラ24で撮像した画像を用いて抽出する目に関する情報は、瞳孔径に限らず、視線の方向、瞬目などの情報も併せて抽出すれば、利用者の疲労度および老化度の推定を、より精度よく行うことが可能になる。   In the configuration example described above, the degree of fatigue and the degree of aging are extracted using changes in the pupil diameter when an indicator of a predetermined brightness is presented on the display device 23, but the video displayed on the display device 23 is a predetermined image. In addition to the brightness index, various patterns can be adopted, and the display time and brightness can be set as appropriate. In addition, the information about the eyes extracted using the image captured by the camera 24 is not limited to the pupil diameter, and if information such as the direction of the line of sight and blinks is also extracted, the fatigue level and the aging level of the user are estimated. Can be performed with higher accuracy.

また、本実施形態において眼鏡型のセンサ215を用いているが、人の目との相対位置を固定できる場合には、表示装置23とカメラ24とは、スマートフォン、タブレット端末、ゲーム機などから選択される装置に付属する表示装置およびカメラを流用することが可能である。   In the present embodiment, the eyeglass-type sensor 215 is used. When the relative position with respect to the human eye can be fixed, the display device 23 and the camera 24 are selected from a smartphone, a tablet terminal, a game machine, or the like. It is possible to divert the display device and camera attached to the device to be used.

本実施形態の活動評価装置では、計測装置20は、利用者の目に関する生理指標を計測するセンサ215を備える。処理部11は、センサ215の出力を用いて利用者の疲労度および老化度に関する評価情報を生成する。この構成によれば、利用者は、疲労度および老化度を客観的に知ることができる。   In the activity evaluation apparatus of this embodiment, the measurement apparatus 20 includes a sensor 215 that measures a physiological index related to the user's eyes. The processing unit 11 uses the output of the sensor 215 to generate evaluation information related to the user's fatigue level and aging level. According to this configuration, the user can objectively know the fatigue level and the aging level.

他の構成および動作は実施形態1と同様であり、実施形態1と同符号を付した構成は同様の機能を有する。   Other configurations and operations are the same as those of the first embodiment, and configurations having the same reference numerals as those of the first embodiment have the same functions.

(実施形態6)
実施形態3において、テレビジョン受像機、ディスプレイ装置、プロジェクタのような提示装置40を用いて集中度を回復させる映像を表示する例を示した。本実施形態では、図20に示すように、利用者M1の頭部に装着されるヘッドマウントディスプレイ41と、利用者M1が手に持っている状態で手が引っ張られる感覚を付与する感覚提示装置42とを提示装置40に用いる例を説明する。
(Embodiment 6)
In Embodiment 3, the example which displays the image | video which restores a concentration degree using the presentation apparatus 40 like a television receiver, a display apparatus, and a projector was shown. In this embodiment, as shown in FIG. 20, a head-mounted display 41 that is worn on the head of the user M1, and a sensation presentation device that gives a sensation of the hand being pulled by the user M1. 42 is used for the presentation device 40.

ヘッドマウントディスプレイ41は透視型を想定している。つまり、ヘッドマウントディスプレイは40は、提示装置40に表示された画像が見えるだけではなく、ヘッドマウントディスプレイ41を通して周囲も見えるように構成されている。一方、感覚提示装置42は、仮想的に力覚を与える錘を備えたアクチュエータを内蔵している。   The head mounted display 41 is assumed to be a see-through type. That is, the head mounted display 40 is configured so that not only the image displayed on the presentation device 40 can be seen but also the surroundings can be seen through the head mounted display 41. On the other hand, the sensory presentation device 42 incorporates an actuator including a weight that virtually gives a force sense.

処理部11は、動物を散歩させる状態を、ヘッドマウントディスプレイ41と感覚提示装置42とによって模擬する提示情報を生成する。すなわち、ヘッドマウントディスプレイ41に仮想の動物A2の姿を表示し、ヘッドマウントディスプレイ41に表示されている仮想の動物A2の動きに応じて感覚提示装置42に引っ張られている力覚が生じるように、提示情報が生成される。   The processing unit 11 generates presentation information that simulates the state in which the animal is walked by the head mounted display 41 and the sensory presentation device 42. In other words, the appearance of the virtual animal A2 is displayed on the head mounted display 41, and a force sense pulled by the sensory presentation device 42 is generated according to the movement of the virtual animal A2 displayed on the head mounted display 41. Presentation information is generated.

上述した提示装置40および提示情報によって、動物を散歩させる状態を模擬すれば、エンタテインメント性を付与して、利用者M1に運動を実施させることが可能になる。たとえば、睡眠状態の改善のために利用者の活動量を増加させることが望ましい場合、あるいはリフレッシュのために体を動かすことが望ましい場合に、本実施形態を採用することができる。   If the state where the animal is walked is simulated by the presentation device 40 and the presentation information described above, it is possible to impart entertainment properties and allow the user M1 to exercise. For example, the present embodiment can be adopted when it is desirable to increase the amount of activity of the user for improving the sleep state or when it is desirable to move the body for refreshing.

本実施形態では、ペットを散歩させる状態を模擬するから、利用者が単独で散歩するよりも、散歩に対するモチベーションを高めることになる。散歩させる動物の種類は、任意に選択することができ、ライオンのように一般には飼うことができない動物でも散歩させることが可能であり、また、時に応じて散歩させる動物を変更することも可能である。仮想的な動物であるから、サイズ、性格なども選択可能である。たとえば、サイズが大きい動物であれば、感覚提示装置42から伝達される力覚を大きくするように提示情報が生成される。また、性格がおとなしければ、ゆっくりと引っ張られるように提示情報が生成され、活発な性格であれば、勢いよく引っ張られるように提示情報が生成される。   In the present embodiment, since a state in which a pet is walked is simulated, the user is more motivated than taking a walk alone. The kind of animals to be walked can be arbitrarily selected, and even animals that cannot be kept generally such as lions can be walked, and the animals to be walked can be changed depending on the situation. is there. Since it is a virtual animal, size, personality, etc. can be selected. For example, in the case of an animal having a large size, the presentation information is generated so as to increase the force sense transmitted from the sensory presentation device 42. Also, if the personality is not enough, the presentation information is generated so as to be pulled slowly, and if the personality is active, the presentation information is generated so as to be pulled vigorously.

さらに、他の利用者の活動評価装置30と無線通信によって、相互に他の利用者が散歩させている動物を見ることができるようにすれば、よりエンタテインメント性を高めることができる。また、複数人の利用者が、専用の施設で仮想的な散歩を行うように本実施形態の活動評価装置30を利用してもよい。本実施形態は、上述した実施形態と適宜に組み合わせて利用すればよい。   Furthermore, if it is possible to see animals that other users are taking a walk with each other by wireless communication with the activity evaluation apparatus 30 of other users, the entertainment property can be further enhanced. Moreover, you may utilize the activity evaluation apparatus 30 of this embodiment so that a plurality of users may perform a virtual walk in a dedicated facility. This embodiment may be used in appropriate combination with the above-described embodiment.

本実施形態の活動評価装置30では、処理部11は、利用者の頭部に装着されるヘッドマウントディスプレイ41に表示する画像を提示情報として生成する。そして、提示情報は散歩させる動物を模擬するように生成される。この構成によれば、利用者は動物の散歩を仮想的に行うことが可能になり、利用者のリフレッシュに寄与する。   In the activity evaluation apparatus 30 of the present embodiment, the processing unit 11 generates an image to be displayed on the head mounted display 41 attached to the user's head as presentation information. The presentation information is generated so as to simulate an animal to be walked. According to this configuration, the user can virtually walk the animal, which contributes to refreshing the user.

他の構成および動作は上述した実施形態と同様であり、上述した実施形態と同符号を付した構成は同様の機能を有する。   Other configurations and operations are the same as those of the above-described embodiment, and configurations having the same reference numerals as those of the above-described embodiment have the same functions.

なお、上述した実施形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることはもちろんのことである。   The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and various modifications can be made according to design and the like as long as the technical idea according to the present invention is not deviated from this embodiment. Of course, it can be changed.

10 評価処理装置
11 処理部
12 入力部
20 計測装置
30 活動評価装置
41 ヘッドマウントディスプレイ
211 3軸加速度センサ
212 睡眠センサ
213 3軸加速度センサ
214 脳活動センサ
215 センサ
DESCRIPTION OF SYMBOLS 10 Evaluation processing apparatus 11 Processing part 12 Input part 20 Measuring apparatus 30 Activity evaluation apparatus 41 Head mounted display 211 3-axis acceleration sensor 212 Sleep sensor 213 3-axis acceleration sensor 214 Brain activity sensor 215 sensor

Claims (9)

利用者の身体活動または精神活動を計測する計測装置と、
前記計測装置の出力を用いて前記利用者の身体活動または精神活動に関する評価情報を生成し、かつ前記評価情報に基づいて前記利用者に提示する提示情報を生成する処理部とを備える
ことを特徴とする活動評価装置。
A measuring device for measuring a user's physical activity or mental activity;
A processing unit that generates evaluation information related to the physical activity or mental activity of the user using the output of the measuring device, and generates presentation information to be presented to the user based on the evaluation information. An activity evaluation device.
前記計測装置は、前記利用者の身体に装着される3軸加速度センサを備え、
前記処理部は、前記3軸加速度センサの出力を用いて前記利用者の歩容に関する前記評価情報を生成する
請求項1記載の活動評価装置。
The measurement device includes a three-axis acceleration sensor attached to the user's body,
The activity evaluation apparatus according to claim 1, wherein the processing unit generates the evaluation information related to the gait of the user using an output of the triaxial acceleration sensor.
前記計測装置は、前記利用者の睡眠状態を計測する睡眠センサを備え、
前記処理部は、前記睡眠センサの出力を用いて前記利用者の睡眠の質に関する前記評価情報を生成する
請求項1記載の活動評価装置。
The measurement device includes a sleep sensor that measures the sleep state of the user,
The activity evaluation apparatus according to claim 1, wherein the processing unit generates the evaluation information related to a quality of sleep of the user using an output of the sleep sensor.
前記計測装置は、前記利用者の身体に装着される3軸加速度センサを備え、
前記処理部は、前記3軸加速度センサの出力を用いて前記利用者の集中度または疲労度に関する前記評価情報を生成する
請求項1記載の活動評価装置。
The measurement device includes a three-axis acceleration sensor attached to the user's body,
The activity evaluation apparatus according to claim 1, wherein the processing unit generates the evaluation information related to the degree of concentration or fatigue of the user using an output of the three-axis acceleration sensor.
前記計測装置は、前記利用者の脳活動を計測する脳活動センサを備え、
前記処理部は、前記脳活動センサの出力を用いて快適の程度と覚醒の程度とに関する前記評価情報を生成し、前記評価情報である快適の程度と覚醒の程度とを組み合わせることにより、前記利用者の感情の状態を前記提示情報として生成する
請求項1記載の活動評価装置。
The measuring device includes a brain activity sensor that measures the brain activity of the user,
The processing unit generates the evaluation information about the degree of comfort and the degree of arousal using the output of the brain activity sensor, and combines the degree of comfort and the degree of arousal, which are the evaluation information, to The activity evaluation device according to claim 1, wherein the emotional state of the person is generated as the presentation information.
前記計測装置は、前記利用者の目に関する生理指標を計測するセンサを備え、
前記処理部は、前記センサの出力を用いて前記利用者の疲労度または老化度に関する前記評価情報を生成する
請求項1記載の活動評価装置。
The measurement device includes a sensor that measures a physiological index related to the user's eyes,
The activity evaluation apparatus according to claim 1, wherein the processing unit generates the evaluation information related to a fatigue level or an aging level of the user using an output of the sensor.
前記処理部は、前記利用者の頭部に装着されるヘッドマウントディスプレイに表示する画像を前記提示情報として生成し、前記提示情報は散歩させる動物を模擬する
請求項1記載の活動評価装置。
The activity evaluation apparatus according to claim 1, wherein the processing unit generates an image to be displayed on a head-mounted display attached to the user's head as the presentation information, and the presentation information simulates an animal for a walk.
利用者の身体活動または精神活動を計測する計測装置の出力を受け取る入力部と、
前記入力部に入力された前記計測装置の出力を用いて前記利用者の身体活動または精神活動に関する評価情報を生成し、かつ前記評価情報に基づいて前記利用者に提示する提示情報を生成する処理部とを備える
ことを特徴とする評価処理装置。
An input unit for receiving an output of a measuring device for measuring a user's physical activity or mental activity;
Processing for generating evaluation information related to the physical activity or mental activity of the user using the output of the measuring device input to the input unit, and generating presentation information to be presented to the user based on the evaluation information An evaluation processing device comprising: a section.
コンピュータを、請求項8記載の評価処理装置として機能させるためのプログラム。   A program for causing a computer to function as the evaluation processing apparatus according to claim 8.
JP2014122297A 2014-06-13 2014-06-13 Activity evaluation apparatus, evaluation processing equipment, and program Pending JP2016002109A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014122297A JP2016002109A (en) 2014-06-13 2014-06-13 Activity evaluation apparatus, evaluation processing equipment, and program
PCT/JP2015/002578 WO2015190042A1 (en) 2014-06-13 2015-05-22 Activity evaluation device, evaluation processing device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014122297A JP2016002109A (en) 2014-06-13 2014-06-13 Activity evaluation apparatus, evaluation processing equipment, and program

Publications (1)

Publication Number Publication Date
JP2016002109A true JP2016002109A (en) 2016-01-12

Family

ID=54833160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014122297A Pending JP2016002109A (en) 2014-06-13 2014-06-13 Activity evaluation apparatus, evaluation processing equipment, and program

Country Status (2)

Country Link
JP (1) JP2016002109A (en)
WO (1) WO2015190042A1 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016042914A (en) * 2014-08-20 2016-04-04 株式会社北電子 Sleep information display control program, sleep information display device, and sleep information display method
JP2018136729A (en) * 2017-02-22 2018-08-30 日新ビジネス開発株式会社 Virtual currency granting system
JP2018195043A (en) * 2017-05-17 2018-12-06 パナソニックIpマネジメント株式会社 Content providing method, content providing device, and content providing program
JP2019079100A (en) * 2017-10-20 2019-05-23 まくら株式会社 Sleep improvement support program and method thereof
JP2020519381A (en) * 2017-05-08 2020-07-02 マドナニ, アカーシュMADNANI, Akash System and method for observing human performance
JP2020124595A (en) * 2020-05-14 2020-08-20 株式会社ノーニューフォークスタジオ Walking teaching system and walking teaching method
JP2021176545A (en) * 2020-10-19 2021-11-11 株式会社ポケモン Game server, program, method, game system, and information processing terminal
WO2022107288A1 (en) * 2020-11-19 2022-05-27 日本電信電話株式会社 Estimation device, estimation method, and estimation program
JP7401264B2 (en) 2019-11-05 2023-12-19 株式会社ハピネスプラネット Psychological state measurement system and method for measuring psychological state
JP7402370B1 (en) 2023-04-25 2023-12-20 株式会社ポケモン Program, method, information processing device, system
US11933974B2 (en) 2019-02-22 2024-03-19 Semiconductor Energy Laboratory Co., Ltd. Glasses-type electronic device

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6439729B2 (en) * 2016-03-24 2018-12-19 トヨタ自動車株式会社 Sleep state estimation device
WO2022244222A1 (en) * 2021-05-21 2022-11-24 日本電気株式会社 Estimation device, estimation system, estimation method, and recording medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5724237B2 (en) * 2010-07-27 2015-05-27 オムロンヘルスケア株式会社 Walking change judgment device
JP2012050759A (en) * 2010-09-03 2012-03-15 Hitachi Ltd Detector of visual fatigue degree, controller of visual fatigue degree, and detecting method of visual fatigue degree
JP5828111B2 (en) * 2011-07-28 2015-12-02 パナソニックIpマネジメント株式会社 Psychological state evaluation device, psychological state evaluation system, and program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016042914A (en) * 2014-08-20 2016-04-04 株式会社北電子 Sleep information display control program, sleep information display device, and sleep information display method
JP2018136729A (en) * 2017-02-22 2018-08-30 日新ビジネス開発株式会社 Virtual currency granting system
JP2020519381A (en) * 2017-05-08 2020-07-02 マドナニ, アカーシュMADNANI, Akash System and method for observing human performance
US10853414B2 (en) 2017-05-17 2020-12-01 Panasonic Intellectual Property Management Co., Ltd. Computer-implemented method for providing content in accordance with emotional state that user is to reach
JP2018195043A (en) * 2017-05-17 2018-12-06 パナソニックIpマネジメント株式会社 Content providing method, content providing device, and content providing program
JP2019079100A (en) * 2017-10-20 2019-05-23 まくら株式会社 Sleep improvement support program and method thereof
US11933974B2 (en) 2019-02-22 2024-03-19 Semiconductor Energy Laboratory Co., Ltd. Glasses-type electronic device
JP7401264B2 (en) 2019-11-05 2023-12-19 株式会社ハピネスプラネット Psychological state measurement system and method for measuring psychological state
JP2020124595A (en) * 2020-05-14 2020-08-20 株式会社ノーニューフォークスタジオ Walking teaching system and walking teaching method
JP2021176545A (en) * 2020-10-19 2021-11-11 株式会社ポケモン Game server, program, method, game system, and information processing terminal
JP7281508B2 (en) 2020-10-19 2023-05-25 株式会社ポケモン Game server, program, method, game system and information processing terminal
WO2022107288A1 (en) * 2020-11-19 2022-05-27 日本電信電話株式会社 Estimation device, estimation method, and estimation program
JP7402370B1 (en) 2023-04-25 2023-12-20 株式会社ポケモン Program, method, information processing device, system

Also Published As

Publication number Publication date
WO2015190042A1 (en) 2015-12-17

Similar Documents

Publication Publication Date Title
WO2015190042A1 (en) Activity evaluation device, evaluation processing device, and program
US10300371B2 (en) Method and system for interacting with a virtual environment
US11832971B2 (en) Wearable device utilizing flexible electronics
KR102649074B1 (en) Social interaction application for detection of neurophysiological states
US20200389711A1 (en) System and method communicating biofeedback to a user through a wearable device
US9292935B2 (en) Sensor-based evaluation and feedback of exercise performance
US9364714B2 (en) Fuzzy logic-based evaluation and feedback of exercise performance
JP3931889B2 (en) Image display system, image display apparatus, and image display method
JP6429946B2 (en) User interface and fitness meter for remote collaborative workout sessions
JP2019155078A (en) Posture and deep respiration improvement device, system and method
US20230218947A1 (en) System and method for targeted neurological therapy using brainwave entrainment with passive treatment
Hänsel et al. Wearable computing for health and fitness: exploring the relationship between data and human behaviour
US20240082535A1 (en) Cloud-based gaming platform with health-related data collection
US11951355B2 (en) Health-related data collection system for healthcare diagnostics and treatment platforms
US11791026B2 (en) Cloud-based healthcare diagnostics and treatment platform
US11771955B2 (en) System and method for neurological function analysis and treatment using virtual reality systems
US20240001193A1 (en) System and method for targeted neurological therapy using brainwave entrainment with passive treatment
CN108597575A (en) Yoga sports method, apparatus and computer readable storage medium
KR102543337B1 (en) System And Method For Providing User-Customized Color Healing Content Based On Biometric Information Of A User Who has Created An Avatar
US20240122551A1 (en) Wearable device utilizing flexible electronics
Oh Exploring Design Opportunities for Technology-Supported Yoga Practices at Home
Chickella et al. 1.2. PERVASIVE AND PERSUASIVE TECHNOLOGIES IN MOTIVATING PEOPLE TO PHYSICAL ACTIVITIES OUTDOOR IN FITNESS PARKS
Sposaro Performance Gains Through Sensory Systems: A Dissertation
Moro et al. Narrative Approach to Assess Fear of Heights in Virtual Environments
Yumak et al. Survey of sensor-based wellness applications

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20170215