JP7445728B2 - rating system - Google Patents

rating system Download PDF

Info

Publication number
JP7445728B2
JP7445728B2 JP2022180658A JP2022180658A JP7445728B2 JP 7445728 B2 JP7445728 B2 JP 7445728B2 JP 2022180658 A JP2022180658 A JP 2022180658A JP 2022180658 A JP2022180658 A JP 2022180658A JP 7445728 B2 JP7445728 B2 JP 7445728B2
Authority
JP
Japan
Prior art keywords
user
information
detector
evaluation
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022180658A
Other languages
Japanese (ja)
Other versions
JP2023025703A (en
Inventor
隆史 石川
浩 堀口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Paramount Bed Co Ltd
Original Assignee
Paramount Bed Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Paramount Bed Co Ltd filed Critical Paramount Bed Co Ltd
Priority to JP2022180658A priority Critical patent/JP7445728B2/en
Publication of JP2023025703A publication Critical patent/JP2023025703A/en
Application granted granted Critical
Publication of JP7445728B2 publication Critical patent/JP7445728B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

実施形態は、評価システムに関する。 Embodiments relate to evaluation systems.

身体に装着するウェアラブルデバイスが開発されている。 Wearable devices that are attached to the body have been developed.

特開2016-103275号公報Japanese Patent Application Publication No. 2016-103275 特許第4759633号公報Patent No. 4759633

実施形態は、使用者の情報をより有効に利用できる評価システムを提供する。 Embodiments provide an evaluation system that can more effectively utilize user information.

実施形態の評価システムは、第1~第3システムを含む。前記第1システムは、第1検出器と、第2検出器と、前記第1検出器及び前記第2検出器のそれぞれと通信可能な通信端末と、を含む。前記第2システムは、前記第1検出器及び前記第2検出器のいずれとも異なる検出器を含む。前記第3システムは、前記第1システム及び前記第2システムと通信可能である。前記第3システムは、前記第1検出器から取得した第1生体情報、及び、前記第2検出器から取得され前記第1生体情報と同種の第2生体情報に基づいて基準情報に変換し、前記第2システムに含まれる前記検出器から取得した第2生体情報を前記基準情報と比較する。 The evaluation system of the embodiment includes first to third systems. The first system includes a first detector, a second detector, and a communication terminal that can communicate with each of the first detector and the second detector. The second system includes a detector different from either the first detector or the second detector. The third system is capable of communicating with the first system and the second system. The third system converts into reference information based on the first biological information acquired from the first detector and the second biological information of the same type as the first biological information acquired from the second detector, Second biological information acquired from the detector included in the second system is compared with the reference information.

実施形態は、使用者の情報をより有効に利用できる評価システムを提供できる。 Embodiments can provide an evaluation system that can use user information more effectively.

図1(a)~図1(c)は、第1実施形態に係る評価システムを例示する模式図である。FIGS. 1(a) to 1(c) are schematic diagrams illustrating the evaluation system according to the first embodiment. 第1実施形態に係る評価システムの評価方法を示すフローチャートである。3 is a flowchart showing an evaluation method of the evaluation system according to the first embodiment. 第1実施形態に係る評価システムにおける評価結果を例示する模式図である。FIG. 2 is a schematic diagram illustrating evaluation results in the evaluation system according to the first embodiment. 第2実施形態に係る評価システムを例示する模式図である。FIG. 2 is a schematic diagram illustrating an evaluation system according to a second embodiment. 第2実施形態に係る評価システムを例示する模式図である。FIG. 2 is a schematic diagram illustrating an evaluation system according to a second embodiment. 第2実施形態に係る評価システムの評価方法を示すフローチャートである。It is a flow chart which shows the evaluation method of the evaluation system concerning a 2nd embodiment. 実施形態に係る評価システムにおける動作を示すフローチャートである。It is a flow chart showing operation in an evaluation system concerning an embodiment. 実施形態に係る評価システムを例示する模式図である。FIG. 1 is a schematic diagram illustrating an evaluation system according to an embodiment. 図9(a)~図9(c)は、第3実施形態に係る評価システムにおける情報を例示する模式図である。FIGS. 9(a) to 9(c) are schematic diagrams illustrating information in the evaluation system according to the third embodiment. 図10(a)~図10(c)は、第3実施形態に係る評価結果情報を例示する模式図である。FIGS. 10(a) to 10(c) are schematic diagrams illustrating evaluation result information according to the third embodiment. 実施形態に係る保険を例示する模式図である。FIG. 1 is a schematic diagram illustrating insurance according to an embodiment.

以下に、本発明の実施形態について図面を参照しつつ説明する。本願明細書と各図において、既出の図に関して前述したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。 Embodiments of the present invention will be described below with reference to the drawings. In the specification of this application and each figure, the same elements as those described above with respect to the existing figures are given the same reference numerals, and detailed explanations are omitted as appropriate.

(第1実施形態)
第1実施形態に係る評価システムについて、図1(a)~図1(c)に示す例を用いて説明する。
(First embodiment)
The evaluation system according to the first embodiment will be explained using examples shown in FIGS. 1(a) to 1(c).

(1 評価システム110の全体構成)
図1(a)~図1(c)は、第1実施形態に係る評価システムを例示する模式図である。
評価システム110は、第1ユーザシステム10(第1システム)と、第2ユーザシステム20(第2システム)と、演算システム30(第3システム)と、を含む。
(1 Overall configuration of evaluation system 110)
FIGS. 1(a) to 1(c) are schematic diagrams illustrating the evaluation system according to the first embodiment.
Evaluation system 110 includes a first user system 10 (first system), a second user system 20 (second system), and an arithmetic system 30 (third system).

評価システム110は、複数のユーザシステムから得られた生体情報等に基づいて、使用者の状態を評価する。例えば、評価システム110は、運転しているときの使用者の生体情報を取得する。評価システム110は、その生体情報を、従前に複数のユーザシステムから得られた生体情報等と比較して、運転しているときの使用者の状態を評価する。具体的には、評価システム110は、あるタイミングで運転している使用者の状態が、他のタイミングで運転している使用者の状態、または運転している状態に近い状態の場合の使用者の状態に対してどれほど相違するかを評価する。 The evaluation system 110 evaluates the user's condition based on biological information etc. obtained from a plurality of user systems. For example, the evaluation system 110 acquires biometric information of the user while driving. The evaluation system 110 evaluates the user's condition while driving by comparing the biometric information with biometric information previously obtained from a plurality of user systems. Specifically, the evaluation system 110 evaluates the user when the state of the user who is driving at a certain timing is the state of the user who is driving at another timing or the state that is close to the state where the user is driving. Evaluate how much it differs from the state of

本実施形態は、使用者が運転している場合に限定して適用されない。実施形態は、使用者が1つまたは複数の処理を含む一連の作業を行う場合に適用できる。 This embodiment is not limited to the case where the user is driving. Embodiments are applicable when a user performs a series of tasks that include one or more operations.

第1ユーザシステム10は、検出器SN(例えばセンサ)と、通信端末11と、を含む。検出器SNは、例えば、第1~第n検出器(nは2以上の自然数であり、本実施形態では第1~第6検出器SN1~SN6)を含む。検出器SNの数は任意である。検出器SN(第i検出器SNi)は、使用者の生体情報、及び、使用者の行動に関する情報の少なくともいずれかを検出する。検出器SN(第1~第6検出器SN1~SN6など)の例については、後述する。 The first user system 10 includes a detector SN (for example, a sensor) and a communication terminal 11. The detector SN includes, for example, first to nth detectors (n is a natural number of 2 or more, and in this embodiment, first to sixth detectors SN1 to SN6). The number of detectors SN is arbitrary. The detector SN (i-th detector SNi) detects at least one of the user's biological information and the information regarding the user's behavior. Examples of the detectors SN (first to sixth detectors SN1 to SN6, etc.) will be described later.

例えば、検出器SNのそれぞれ(例えば第i検出器SNi)は、通信端末11と有線または無線で通信できる。第1~第6検出器SN1~SN6は、取得した使用者の生体情報及び行動に関する情報を、第1ユーザシステム10内の図示せぬメモリに一時的に保存できる。 For example, each of the detectors SN (for example, the i-th detector SNi) can communicate with the communication terminal 11 by wire or wirelessly. The first to sixth detectors SN1 to SN6 can temporarily store the acquired biological information and behavior information of the user in a memory (not shown) in the first user system 10.

第1ユーザシステム10は、通信端末11を介して、有線または無線で演算システム30と通信できる。例えば、演算システム30の要求に応じて、第1ユーザシステム10は、取得した、使用者の生体情報及び使用者の行動に関する情報を、演算システム30に、通信端末11を介して送信する。 The first user system 10 can communicate with the arithmetic system 30 via the communication terminal 11 in a wired or wireless manner. For example, in response to a request from the computing system 30, the first user system 10 transmits the acquired biometric information of the user and information regarding the user's behavior to the computing system 30 via the communication terminal 11.

通信端末11は、例えば、コンピュータを含む。通信端末11は、例えばスマートフォンを含む。通信端末11は、例えば、電気回路を含む。 Communication terminal 11 includes, for example, a computer. Communication terminal 11 includes, for example, a smartphone. Communication terminal 11 includes, for example, an electric circuit.

第2ユーザシステム20は、例えば乗り物28(移動体)に設けられる。乗り物28は、例えば、自動車などである。第2ユーザシステム20は、検出器SN(第i検出器SNi、この例では、第7検出器SN7)を含む。第7検出器SN7は、例えば、乗り物28の座席27に設けられる。例えば、第7検出器SN7は、座席27に座った使用者81の生体情報を検出する。第7検出器SN7は、使用者81の体(例えば顔などの頭部)を撮像しても良い。撮像結果に基づく情報が、使用者81に関する情報の少なくとも一部となっても良い。この場合、第7検出器SN7は、乗り物28のウインドシールド部に設けられても良い。 The second user system 20 is provided, for example, in a vehicle 28 (mobile body). Vehicle 28 is, for example, a car. The second user system 20 includes a detector SN (i-th detector SNi, in this example, seventh detector SN7). The seventh detector SN7 is provided, for example, on the seat 27 of the vehicle 28. For example, the seventh detector SN7 detects biological information of the user 81 sitting on the seat 27. The seventh detector SN7 may image the body (for example, the head such as the face) of the user 81. Information based on the imaging results may be at least part of the information regarding the user 81. In this case, the seventh detector SN7 may be provided in the windshield portion of the vehicle 28.

図1(a)の例では、第2ユーザシステム20に1つの検出器SN(第i検出器SNi、この例では、第7検出器SN7)が設けられている。実施形態において、第2ユーザシステム20に設けられる検出器SNの数は、任意である。1つの例において、第2ユーザシステム20に設けられる検出器SNは、第1ユーザシステム10に設けられる複数の検出器SNのいずれとも異なる。 In the example of FIG. 1A, the second user system 20 is provided with one detector SN (the i-th detector SNi, in this example, the seventh detector SN7). In the embodiment, the number of detectors SN provided in the second user system 20 is arbitrary. In one example, the detector SN provided in the second user system 20 is different from any of the plurality of detectors SN provided in the first user system 10.

第2ユーザシステム20は、例えば、乗り物28を運転している者の呼気に含まれるアルコール濃度を検出する検出器SNを含んでも良い。 The second user system 20 may include, for example, a detector SN that detects the alcohol concentration contained in the breath of the person driving the vehicle 28.

第2ユーザシステム20は、例えば、乗り物28に関する情報(乗り物28の移動状況/運転状況を示す情報)を検出する検出器を含んでも良い。第2ユーザシステム20は、例えば、乗り物28の角速度を検出する検出器を含んでも良い。 The second user system 20 may include, for example, a detector that detects information regarding the vehicle 28 (information indicating the movement/driving status of the vehicle 28). The second user system 20 may include a detector that detects the angular velocity of the vehicle 28, for example.

第2ユーザシステム20は、通信部21及びサーバ22を含んでも良い。第2ユーザシステム20は、例えば、図示せぬ制御部を含んでも良い。第2ユーザシステム20は、通信部21を介して、有線または無線で演算システム30と通信できる。制御部は、第7検出器SN7で取得された使用者81の生体情報を、通信部21を介して、演算システム30に送信する。サーバ22は、コンピュータを含んでも良い。サーバ22は、メモリを含んでも良い。サーバ22は、例えば、電気回路を含む。 The second user system 20 may include a communication unit 21 and a server 22. The second user system 20 may include, for example, a control unit (not shown). The second user system 20 can communicate with the computing system 30 via the communication unit 21 in a wired or wireless manner. The control unit transmits the biometric information of the user 81 acquired by the seventh detector SN7 to the calculation system 30 via the communication unit 21. Server 22 may include a computer. Server 22 may include memory. Server 22 includes, for example, an electric circuit.

第1ユーザシステム10及び第2ユーザシステム20により、使用者81の生体情報等が取得される。演算システム30は、使用者81の生体情報等を、第1ユーザシステム10及び第2ユーザシステムから取得して、乗り物28を運転しているときの使用者81を評価する。 The first user system 10 and the second user system 20 acquire biometric information and the like of the user 81. The calculation system 30 acquires biometric information and the like of the user 81 from the first user system 10 and the second user system, and evaluates the user 81 while driving the vehicle 28 .

演算システム30は、例えば、通信部31、サーバ32及び制御部33を含む。通信部31は、第1ユーザシステム10及び第2ユーザシステム20の少なくともいずれかからデータを受け取る。データは、使用者81の生体情報または使用者81の行動情報を含む。通信部31は、第1ユーザシステム10及び第2ユーザシステム20と通信できる。例えば、通信部31は、必要に応じて制御信号を送信し、データを授受してもよい。制御部33は、例えば、通信部31及びサーバ32の動作を制御する。例えば、制御部33は、サーバ32などに演算プログラムを実行させる。制御部33は、例えば、演算システム30に設けられるRAM34に演算プログラムを設定させても良い。 The calculation system 30 includes, for example, a communication section 31, a server 32, and a control section 33. The communication unit 31 receives data from at least one of the first user system 10 and the second user system 20. The data includes biometric information of the user 81 or behavioral information of the user 81. The communication unit 31 can communicate with the first user system 10 and the second user system 20. For example, the communication unit 31 may transmit control signals and exchange data as necessary. The control unit 33 controls the operations of the communication unit 31 and the server 32, for example. For example, the control unit 33 causes the server 32 or the like to execute an arithmetic program. For example, the control unit 33 may cause the RAM 34 provided in the calculation system 30 to set the calculation program.

この演算プログラムは、第1ユーザシステム10から取得した使用者81の生体情報または使用者81行動に関する情報から、使用者81の生体情報を、使用者81の状態ごとに分類する。演算プログラムは、例えば、乗り物28を運転しているときの使用者81の状態に対応する使用者81の生体情報を抽出する。演算プログラムは、抽出された使用者81の生体情報を基に、基準分布(または基準データ)を生成する。演算プログラムは、第2ユーザシステム20から取得した使用者81の生体情報が基準分布に対してどのような相対的な関係にあるかを評価して、使用者81を評価する。 This calculation program classifies the biometric information of the user 81 according to the state of the user 81 from the biometric information of the user 81 or information regarding the behavior of the user 81 acquired from the first user system 10 . The calculation program extracts biometric information of the user 81 corresponding to the state of the user 81 while driving the vehicle 28, for example. The calculation program generates a reference distribution (or reference data) based on the extracted biometric information of the user 81. The calculation program evaluates the user 81 by evaluating the relative relationship between the biometric information of the user 81 acquired from the second user system 20 and the reference distribution.

図1(b)及び図1(c)は、検出器SNを例示している。
図1(b)に示すように、第1検出器SN1は、例えば、ベッド70に設けられる。ベッド70は、例えば、ボトム71及びマットレス60を含む。第1検出器SN1は、例えば、ボトム71とマットレス60との間に設けられる。第1検出器SN1に、マットレス60を介して、使用者81による力(圧力及び音波の少なくともいずれか)が加わる。例えば、第1検出器SN1で検出された力に基づく信号は、生体情報及び行動情報の少なくとも一部を含む。信号(力)の大きさ及び信号(力)の大きさの時間的な変化の少なくともいずれかに基づいて、第1検出器SN1は、使用者81の生体情報や行動に関する情報を検出する。例えば、使用者81の状態に応じた振動が、第1検出器SN1に加わる。振動は、例えば、使用者81の体動に応じている。振動が、第1検出器SN1において検出される。振動は、音を含んでも良い。
FIGS. 1(b) and 1(c) illustrate the detector SN.
As shown in FIG. 1(b), the first detector SN1 is provided on the bed 70, for example. Bed 70 includes, for example, a bottom 71 and a mattress 60. The first detector SN1 is provided between the bottom 71 and the mattress 60, for example. Force (at least one of pressure and sound waves) by the user 81 is applied to the first detector SN1 via the mattress 60. For example, the signal based on the force detected by the first detector SN1 includes at least part of biological information and behavioral information. The first detector SN1 detects biological information and information regarding the behavior of the user 81 based on at least one of the magnitude of the signal (force) and the temporal change in the magnitude of the signal (force). For example, vibrations depending on the state of the user 81 are applied to the first detector SN1. The vibrations correspond to the body movements of the user 81, for example. Vibrations are detected at the first detector SN1. The vibrations may include sound.

第1検出器SN1は、例えば、心拍、脈拍、呼吸、体温、体重、睡眠、覚醒、入眠、離床、起上り及び端座位(例えば離床準備状態)の少なくとも1つを検出できる。例えば、第1検出器SN1で検出された力及び力の時間的な変化の少なくともいずれかに基づいて、使用者81の状態が推定されても良い。 The first detector SN1 can detect, for example, at least one of heartbeat, pulse, respiration, body temperature, weight, sleep, wakefulness, falling asleep, getting out of bed, getting up, and edge sitting position (for example, getting ready to get out of bed). For example, the state of the user 81 may be estimated based on at least one of the force and the temporal change in force detected by the first detector SN1.

図1(b)に示すように、第2検出器SN2は、使用者81の体(この例では、腕)に取り付けられる。第2検出器SN2は、例えば、腕時計型のウェアラブルデバイスである。第2検出器SN2は、例えば、使用者81の、脈拍、筋電図(心電図を含む)、及び、血中酸素濃度の少なくとも1つを含む生体情報を取得できる。第2検出器SN2は、例えば、使用者81の心拍を検出可能でも良い。第2検出器SN2は、例えば、使用者81の、睡眠、覚醒、入眠、立位、座位、臥位、歩行及び運動の少なくともいずれかを含む行動情報を取得できても良い。 As shown in FIG. 1(b), the second detector SN2 is attached to the body (in this example, the arm) of the user 81. The second detector SN2 is, for example, a wristwatch-type wearable device. The second detector SN2 can acquire biological information including at least one of the user's 81 pulse, electromyogram (including electrocardiogram), and blood oxygen concentration, for example. The second detector SN2 may be able to detect the heartbeat of the user 81, for example. The second detector SN2 may be able to acquire behavioral information of the user 81, including at least one of sleep, wakefulness, falling asleep, standing position, sitting position, lying position, walking, and exercise, for example.

図1(b)に示すように、第3検出器SN3は、枕72などに設けられる。使用者81の状態に応じた振動が、第3検出器SN3に加わる。振動は、例えば、使用者81の体動に応じている。第3検出器SN3は、例えば、使用者81の、心拍、脈拍、呼吸、体温、筋電図(心電図を含む)、脳波、血圧、及び、血中酸素濃度(例えば、経皮的動脈血酸素飽和度を含む)の少なくとも1つを含む生体情報を取得できても良い。 As shown in FIG. 1(b), the third detector SN3 is provided on the pillow 72 or the like. Vibrations depending on the state of the user 81 are applied to the third detector SN3. The vibrations correspond to the body movements of the user 81, for example. The third detector SN3 detects, for example, heart rate, pulse, respiration, body temperature, electromyogram (including electrocardiogram), electroencephalogram, blood pressure, and blood oxygen concentration (for example, percutaneous arterial oxygen saturation) of the user 81. It may also be possible to obtain biometric information including at least one of the following:

図1(c)に示すように、第4検出器SN4は、例えば、使用者81の頭部に取り付けることが可能である。第4検出器SN4は、例えば、使用者81の脈拍、体温、及び、脳波の少なくとも1つを含む生体情報を取得できる。第4検出器SN4は、使用者81の、睡眠、覚醒、立位、座位、臥位、歩行及び運動の少なくともいずれかを含む行動情報を取得できても良い。 As shown in FIG. 1(c), the fourth detector SN4 can be attached to the head of the user 81, for example. The fourth detector SN4 can acquire biological information including at least one of the user's 81 pulse, body temperature, and brain waves, for example. The fourth detector SN4 may be able to acquire behavioral information of the user 81 including at least one of sleep, wakefulness, standing position, sitting position, lying position, walking, and exercise.

図1(c)に示すように、第5検出器SN5は、例えば、眼鏡形状のウェアラブルデバイスである。使用者81は、例えば、第5検出器SN5を眼鏡と同様に装着して使用する。第5検出器SN5は、例えば、使用者81の、脈拍、体温及び血中酸素濃度の少なくとも1つを含む生体情報を取得できる。第5検出器SN5は、睡眠、覚醒、立位、座位、臥位、歩行及び運動の少なくともいずれかを含む行動情報を取得できても良い。 As shown in FIG. 1(c), the fifth detector SN5 is, for example, a wearable device shaped like glasses. The user 81 uses the fifth detector SN5, for example, by wearing it in the same way as glasses. The fifth detector SN5 can acquire biological information of the user 81, including at least one of pulse, body temperature, and blood oxygen concentration, for example. The fifth detector SN5 may be able to acquire behavioral information including at least one of sleep, wakefulness, standing position, sitting position, lying position, walking, and exercise.

図1(c)に示すように、第6検出器SN6は、使用者81の足部に取り付けられる。第6検出器SN6は、例えば、使用者81の靴に設けられても良い。第6検出器SN6は、例えば、使用者81の、体重を含む生体情報を取得できる。第6検出器SN6は、使用者81の、歩行及び運動の少なくともいずれかを含む行動情報を取得できても良い。 As shown in FIG. 1(c), the sixth detector SN6 is attached to the foot of the user 81. The sixth detector SN6 may be provided on the user's 81 shoe, for example. The sixth detector SN6 can acquire biological information including the weight of the user 81, for example. The sixth detector SN6 may be able to acquire behavior information of the user 81, including at least one of walking and exercise.

例えば、使用者81の生体情報は、心拍、脈拍、呼吸、体温、体重、脈拍、筋電図(心電図を含む)、脳波、及び、血中酸素濃度(例えば、経皮的動脈血酸素飽和度を含む)に分類できる。
例えば、使用者81の行動情報は、睡眠、覚醒、入眠、離床、起上り、端座位(例えば離床準備状態)、立位、座位、臥位、歩行及び運動に分類できる。
例えば、使用者81の状態は、寝ている状態、座っている状態、立っている状態、歩いている状態、走っている状態、食事中の状態、食後の状態、排泄中の状態、排泄後の状態、入浴中の状態、入浴後の状態、喫煙中の状態、及び、喫煙後の状態に分類できる。
For example, the biological information of the user 81 includes heart rate, pulse, respiration, body temperature, weight, pulse, electromyogram (including electrocardiogram), brain waves, and blood oxygen concentration (for example, percutaneous arterial oxygen saturation). (including).
For example, the behavior information of the user 81 can be classified into sleep, wakefulness, falling asleep, getting out of bed, getting up, sitting position (for example, ready to get out of bed), standing position, sitting position, lying position, walking, and exercise.
For example, the state of the user 81 is sleeping, sitting, standing, walking, running, eating, after eating, while excreting, and after excreting. The state can be classified into the state during bathing, the state after bathing, the state while smoking, and the state after smoking.

(2 評価システムにおける評価方法)
以下、図2を用いて、評価システム110における評価方法を説明する。以下の例では、評価システム110は、乗り物28を運転しているときの使用者81を評価する。
(2 Evaluation method in evaluation system)
The evaluation method in the evaluation system 110 will be described below using FIG. 2. In the example below, rating system 110 rates user 81 while driving vehicle 28 .

図2は、第1実施形態に係る評価システムの評価方法を示すフローチャートである。
乗り物28を運転しているときの使用者81を評価するときには、例えば、事故等のリスクの可能性が高いかどうかが評価される。運転しているときの使用者81において、例えば、体調が優れない、または、興奮状態にある、または、注意が散漫である、などの状況がある。このような状況において、事故等のリスクの可能性が高いかどうかが評価される。
FIG. 2 is a flowchart showing the evaluation method of the evaluation system according to the first embodiment.
When evaluating the user 81 while driving the vehicle 28, for example, it is evaluated whether there is a high possibility of risk such as an accident. For example, the user 81 may be unwell, excited, or distracted while driving. In such situations, it is assessed whether there is a high possibility of risk such as an accident.

評価システム110は、複数の検出器SN(第1~第6検出器SN1~SN6)から、使用者81の生体情報または使用者81の行動に関する情報を取得する。評価システム110は、これらの情報に基づいて、使用者81を評価する。例えば、自動車保険事業者等の金融機関は、使用者81の評価結果に基づいて、例えば保険料を算定する。 The evaluation system 110 acquires biological information of the user 81 or information regarding the behavior of the user 81 from a plurality of detectors SN (first to sixth detectors SN1 to SN6). Evaluation system 110 evaluates user 81 based on this information. For example, a financial institution such as an automobile insurance company calculates the insurance premium based on the evaluation result of the user 81.

複数の検出器SN(第1~第6検出器SN1~SN6など)のそれぞれは、例えば、使用者81(及び衣服なども含む)と接触する部分を有する。複数の検出器SN(第1~第6検出器SN1~SN6)のそれぞれにおいて、使用者81の異なる位置から生体情報が取得される場合がある。 Each of the plurality of detectors SN (first to sixth detectors SN1 to SN6, etc.) has, for example, a portion that comes into contact with the user 81 (and includes clothing, etc.). Biological information may be acquired from different positions of the user 81 in each of the plurality of detectors SN (first to sixth detectors SN1 to SN6).

使用者81が、複数の検出器SN(第1~第6検出器SN1~SN6など)を使用しているときに、取得できる生体情報の種類が、互いに異なる場合がある。例えば、1つの検出器SN(例えば第1検出器SN1)は、脈拍を取得できる。他の検出器SN(例えば第6検出器SN6)は、脈拍を取得できない場合がある。 When the user 81 uses a plurality of detectors SN (first to sixth detectors SN1 to SN6, etc.), the types of biometric information that can be acquired may differ from each other. For example, one detector SN (eg, the first detector SN1) can acquire pulses. Other detectors SN (for example, the sixth detector SN6) may not be able to acquire pulses.

例えば、使用者81が複数の検出器SN(第1~第6検出器SN1~SN6など)を同時に使用していない場合がある。例えば、1つの検出器SNは、朝に装着され、夜に外される。別の検出器SNが、夜に装着される場合がある。複数の検出器(第1~第6検出器SN1~SN6など)が取得する生体情報の精度が、互いに異なる場合もある。 For example, the user 81 may not use a plurality of detectors SN (first to sixth detectors SN1 to SN6, etc.) at the same time. For example, one detector SN is worn in the morning and removed at night. Another detector SN may be worn at night. The accuracy of biological information acquired by a plurality of detectors (first to sixth detectors SN1 to SN6, etc.) may differ from each other.

例えば、乗り物28を運転しているときの使用者81の生体情報を検出器SN7で取得して使用者81を評価する場合に、複数の検出器SN(第1~第6検出器SN1~SN6など)で取得した生体情報を利用する。例えば、複数の検出器SN(第1~第6検出器SN1~SN6など)で取得した生体情報を用いて、保険料の算定の基礎となる基準データ(または基準分布)が作成される。これにより、例えば、正確な保険料を算定できる。 For example, when the detector SN7 acquires biological information of the user 81 while driving the vehicle 28 and evaluates the user 81, a plurality of detectors SN (the first to sixth detectors SN1 to SN6 etc.). For example, reference data (or reference distribution) that is the basis for calculating insurance premiums is created using biometric information acquired by a plurality of detectors SN (first to sixth detectors SN1 to SN6, etc.). This allows, for example, to calculate accurate insurance premiums.

例えば、使用者81が運転している1つの期間(評価期間、タイミング)において、使用者81の生体情報が検出器SN7で取得される。一方、例えば、複数の検出器SN(第1~第6検出器SN1~SN6など)は、この評価期間とは別の、運転している期間(非評価期間)に、使用者81の生体情報を取得する。例えば、複数の検出器SN(第1~第6検出器SN1~SN6など)は、非評価期間に使用者81が運転しているときに生体情報を取得する。例えば、評価システム110は、複数の検出器SN(第1~第6検出器SN1~SN6など)が取得した生体情報から、非評価期間の生体情報を抽出する。評価システム110は、抽出された生体情報に基づいて、基準データ(または基準分布)を導出する。 For example, during one period (evaluation period, timing) when the user 81 is driving, the biometric information of the user 81 is acquired by the detector SN7. On the other hand, for example, a plurality of detectors SN (first to sixth detectors SN1 to SN6, etc.) collect biological information of the user 81 during a driving period (non-evaluation period) that is different from this evaluation period. get. For example, the plurality of detectors SN (first to sixth detectors SN1 to SN6, etc.) acquire biological information when the user 81 is driving during the non-evaluation period. For example, the evaluation system 110 extracts biological information of a non-evaluation period from the biological information acquired by a plurality of detectors SN (first to sixth detectors SN1 to SN6, etc.). Evaluation system 110 derives reference data (or reference distribution) based on the extracted biological information.

評価システム110における評価方法の具体的なフローの例を、以下説明する。評価システム110における評価方法は、例えば人工知能AI(Artificial Intelligence)で実現してもよい。 A specific flow example of the evaluation method in the evaluation system 110 will be described below. The evaluation method in the evaluation system 110 may be realized by, for example, artificial intelligence (AI).

説明の便宜上、使用者81の脈拍(生体情報)は、第1検出器SN1、第2検出器SN2、第3検出器SN3及び第7検出器SN7で取得できるものとする。以下の例では、使用者81の脈拍に基づいて評価が行われる。実施形態において、他の生体情報(例えば血圧など)に基づいて評価が行われても良い。評価システム110が評価する前に、複数の検出器SN(例えば第1~第3検出器SN1~SN3)により、使用者81の脈拍(生体情報)、及び、使用者81の行動に関する情報が取得される。取得された情報は、評価システム110のサーバ32に既に保持されている。使用者81は、例えば、第2検出器SN2を実質的に常時使用している。使用者81は、例えば、第1検出器SN1及び第3検出器SN3を、就寝中に使用する。 For convenience of explanation, it is assumed that the pulse (biological information) of the user 81 can be acquired by the first detector SN1, the second detector SN2, the third detector SN3, and the seventh detector SN7. In the example below, evaluation is performed based on the pulse of the user 81. In embodiments, evaluation may be performed based on other biological information (eg, blood pressure, etc.). Before the evaluation system 110 performs the evaluation, a plurality of detectors SN (for example, first to third detectors SN1 to SN3) acquire the pulse rate (biological information) of the user 81 and information regarding the behavior of the user 81. be done. The acquired information is already held in the server 32 of the evaluation system 110. For example, the user 81 uses the second detector SN2 substantially all the time. For example, the user 81 uses the first detector SN1 and the third detector SN3 while sleeping.

(ステップS1)
演算システム30は、使用者81の評価を開始するときに、評価を開始する指示を第2ユーザシステム20に送信する。具体的には、制御部33は、通信部31を介してコマンドCMDを送信する。第2ユーザシステム20の制御部は、通信部21を介して、このコマンドCMDを受信する。第2ユーザシステム20の制御部は、第7検出器SN7をアクティブにする。
(Step S1)
When starting the evaluation of the user 81, the calculation system 30 transmits an instruction to start the evaluation to the second user system 20. Specifically, the control unit 33 transmits the command CMD via the communication unit 31. The control unit of the second user system 20 receives this command CMD via the communication unit 21. The control unit of the second user system 20 activates the seventh detector SN7.

(ステップS2)
第2ユーザシステム20は、第7検出器SN7で、使用者81の生体情報、使用者81の行動に関する情報、及び、その他の情報を取得する。第2ユーザシステム20は、これらの情報を、例えばサーバ22に保持する。
(Step S2)
The second user system 20 acquires biological information of the user 81, information regarding the behavior of the user 81, and other information using the seventh detector SN7. The second user system 20 holds this information in the server 22, for example.

(ステップS3)
第2ユーザシステム20は、通信部21を介して、ステップS2で取得した情報を演算システム30に送信する。例えば、第2ユーザシステム20は、一定期間の生体情報等を検出した後に、検出結果を演算システム30に送信してもよい。例えば、第2ユーザシステム20は、生体情報等を検出しながら、検出結果を、任意の時に、演算システム30に送信してもよい。例えば、これらの情報を含むデータDATA1が、第2ユーザシステム20から演算システム30に送信される。
(Step S3)
The second user system 20 transmits the information acquired in step S2 to the calculation system 30 via the communication unit 21. For example, the second user system 20 may transmit the detection results to the calculation system 30 after detecting biological information and the like for a certain period of time. For example, the second user system 20 may transmit the detection result to the calculation system 30 at any time while detecting biological information or the like. For example, data DATA1 including this information is transmitted from the second user system 20 to the computing system 30.

(ステップS4)
演算システム30は、第7検出器SN7で取得された使用者81の生体情報(例えば脈拍を含む)、使用者81の行動に関する情報、及び、その他の情報を取得する。
(Step S4)
The calculation system 30 acquires biological information (including, for example, pulse rate) of the user 81 acquired by the seventh detector SN7, information regarding the behavior of the user 81, and other information.

(ステップS5)
演算システム30は、ステップS4で取得した情報から、使用者81の状態を特定する。具体的には、制御部33は、ステップS4で取得した情報から、例えば、第7検出器SN7が、乗り物28(車)の座席27(運転席)に設けられた検出器であることのフラグを読み取る。制御部33は、例えば、使用者81が運転している状態であることを特定する。
(Step S5)
The calculation system 30 identifies the state of the user 81 from the information acquired in step S4. Specifically, from the information acquired in step S4, the control unit 33 sets, for example, a flag indicating that the seventh detector SN7 is a detector provided in the seat 27 (driver's seat) of the vehicle 28 (car). Read. For example, the control unit 33 identifies that the user 81 is driving.

(ステップS6)
制御部33は、使用者81が、評価中の運転している状態と、同じ状態であるときのデータ(生体情報及び行動に関する情報)を、サーバ32から抽出する。
(Step S6)
The control unit 33 extracts from the server 32 data (biological information and information regarding behavior) when the user 81 is in the same state as the driving state under evaluation.

サーバ32は、複数の検出器SN(第1~第3検出器SN1~SN3)から取得した生体情報等を保持している。サーバ32に、これらの生体情報が、使用者81の状態とともに保持されている。使用者81の状態は、例えば、寝ている状態か否か、座位(座っているか)か否か、起立している(立っている)状態か否か、歩いているか否か、走っているか否か、食事中か否か、食後か否か、排泄中か否か、排泄後か否か、入浴中か否か、入浴後か否か、喫煙中か否か、または、喫煙後か否か等によって、分類される。 The server 32 holds biological information etc. acquired from a plurality of detectors SN (first to third detectors SN1 to SN3). The server 32 holds this biometric information together with the user's 81 status. The state of the user 81 may be, for example, whether or not he is sleeping, sitting (sitting), standing (standing), walking or not, and running. Whether or not you are eating or not, whether you are after eating or not, whether you are defecating or not, whether you are after defecation, whether you are taking a bath or not, whether you are after bathing, whether you are smoking or not, or whether you are after smoking. It is classified according to

例えば、使用者81の状態St0は、使用者が寝ている状態に対応する。使用者81の状態St1は、使用者81が座っている状態であることに対応する。使用者81の状態St2は、使用者81が立っている状態であることに対応する。 For example, the state St0 of the user 81 corresponds to a state in which the user is sleeping. The state St1 of the user 81 corresponds to the state in which the user 81 is sitting. The state St2 of the user 81 corresponds to the user 81 standing.

制御部33が使用者81の「同じ状態」のデータを抽出することの例について説明する。制御部33は、使用者81がある行動をした場合に、使用者81の状態がサーバ32に保存された上記のいずれの分類に該当するか判定する。サーバ32に保存された分類は、有限である。制御部33は、使用者81の状態がサーバ32に保存された分類に該当しない場合には、サーバ32に保存された分類の中で、使用者81の状態に近い状態を「同じ状態」として選ぶ。例えば、サーバ32に保存されている使用者81の状態の分類には、「運転をしている状態」は含まれない。例えば、制御部33は、使用者81が運転しているときに使用者81が乗り物28の座席27に座っていると判断して、使用者81が座っている状態St1が、使用者81が運転している状態と「同じ状態」とする。その結果、制御部33は、使用者81の状態St1のデータをステップS6で抽出する。 An example in which the control unit 33 extracts data of the user 81 in the "same state" will be described. When the user 81 performs a certain action, the control unit 33 determines which of the above categories stored in the server 32 the state of the user 81 corresponds to. The classifications stored in server 32 are finite. When the state of the user 81 does not correspond to the classification stored in the server 32, the control unit 33 selects a state close to the state of the user 81 among the classifications stored in the server 32 as "same state". choose. For example, the classification of the state of the user 81 stored in the server 32 does not include "driving state." For example, the control unit 33 determines that the user 81 is sitting on the seat 27 of the vehicle 28 while the user 81 is driving, and the state St1 in which the user 81 is sitting is It is assumed to be in the same state as when driving. As a result, the control unit 33 extracts the data of the state St1 of the user 81 in step S6.

図1(b)に示すベッド70に、重量センサまたは角度センサが設けられる場合がある。この場合、これらのセンサを用いて取得された情報に基づいて、使用者81が、状態St0または状態St1のいずれかであるか、が特定される。第1~第6検出器SN1~SN6、及び、その他の検出器SNから取得される情報に基づいて、使用者81の状態が認識できないとき、または、不明なときは、例えば、使用者81が自分の状態を通信端末などから入力してもよい。 The bed 70 shown in FIG. 1(b) may be provided with a weight sensor or an angle sensor. In this case, it is specified whether the user 81 is in either state St0 or St1 based on the information acquired using these sensors. When the state of the user 81 cannot be recognized or is unknown based on the information obtained from the first to sixth detectors SN1 to SN6 and other detectors SN, for example, the user 81 You may input your status from a communication terminal or the like.

制御部33は、例えば「運転している状態」は、使用者81の状態St1に該当すると判定する。そして、制御部33は、サーバ32に保持されている脈拍に関する情報から、使用者81の状態St1に該当する、脈拍に関する情報を抽出する。制御部33は、抽出された脈拍に関する情報を、RAM34に導入する。 For example, the control unit 33 determines that the "driving state" corresponds to the state St1 of the user 81. Then, the control unit 33 extracts information regarding the pulse that corresponds to the state St1 of the user 81 from the information regarding the pulse held in the server 32. The control unit 33 introduces the extracted information regarding the pulse into the RAM 34.

(ステップS7)
制御部33は、使用者81の状態に該当する「脈拍の情報」を複数の検出器SNごとに分類する。例えば、制御部33は、使用者81の状態に該当する「脈拍の情報」が、第1~第3検出器SN1~SN3のいずれで取得されたものかを分類する。そして、制御部33は、第1~第3検出器SN1~SN3ごとに、脈拍の分布を生成する。例えば、制御部33は、第1~第3検出器SN1~SN3で取得した脈拍の離散データから、脈拍の分布X[ei,t,σi,t](iは、検出器SNの番号、tは、時刻、または所定の時間)を作成する。脈拍の分布の平均は、「ei,t」である。脈拍の分布の分散は、「σi,t」である。
(Step S7)
The control unit 33 classifies "pulse information" corresponding to the state of the user 81 for each of the plurality of detectors SN. For example, the control unit 33 classifies which of the first to third detectors SN1 to SN3 has acquired the "pulse information" that corresponds to the state of the user 81. Then, the control unit 33 generates a pulse distribution for each of the first to third detectors SN1 to SN3. For example, the control unit 33 calculates the pulse distribution X[ ei,t , σi,t ] (i is the number of the detector SN, t (or a predetermined time). The average pulse distribution is "ei,t". The variance of the pulse distribution is "σi,t".

(ステップS8)
制御部33は、第1~第3検出器SN1~SN3の信頼性を考慮して、脈拍の基準分布(または基準データ)を生成する。制御部33は、第1~第3検出器SN1~SN3に対応した重み付け関数Fk,t(kは検出器の番号)を用いて、基準分布CS1tを生成する。重み付け関数Fk,tは、例えば、自然数である。または、重み付け関数Fk,tは、ある関数でもよい。基準分布CS1tは、以下の第1式で表される。
(Step S8)
The control unit 33 generates a pulse reference distribution (or reference data) in consideration of the reliability of the first to third detectors SN1 to SN3. The control unit 33 generates the reference distribution C S1t using weighting functions F k,t (k is the number of the detector) corresponding to the first to third detectors SN1 to SN3. The weighting function F k,t is, for example, a natural number. Alternatively, the weighting function F k,t may be a certain function. The reference distribution C S1t is expressed by the following first equation.

Figure 0007445728000001
Figure 0007445728000001

この例では、第1~検出器SN1~SN3が使用されているため、i及びkに、1~3が入力され、以下の第2式、第3式が得られる。 In this example, since the first to detectors SN1 to SN3 are used, 1 to 3 are input to i and k, and the following second and third equations are obtained.

Figure 0007445728000002
Figure 0007445728000002

Figure 0007445728000003
Figure 0007445728000003

第1~第3検出器SN1~SN3で取得される生体情報等が更新されるたびに、制御部33は、再計算してもよい。 The control unit 33 may recalculate each time the biological information etc. acquired by the first to third detectors SN1 to SN3 are updated.

以下、制御部33がある期間t1の基準分布CS1,t1を生成した後に、制御部33が別の期間t2における生体情報を取得して基準分布を更新する例について説明する。 An example will be described below in which, after the control unit 33 generates the reference distribution C S1,t1 for a certain period t1, the control unit 33 acquires biological information for another period t2 and updates the reference distribution.

このとき、制御部33は、期間t2の生体情報に基づいて、上記と同様のステップで基準分布CS1,t2を算出する。そして、制御部33は、期間「t1+t2」の基準分布を重み付け関数Gti(iは、期間の番号)を用いて更新する。基準分布CS1,t1+t2は、以下の第4式で表される。 At this time, the control unit 33 calculates the reference distribution C S1,t2 in the same steps as above based on the biological information of the period t2. Then, the control unit 33 updates the reference distribution for the period "t1+t2" using the weighting function G ti (i is the number of the period). The reference distribution C S1,t1+t2 is expressed by the following fourth equation.

Figure 0007445728000004
Figure 0007445728000004

重み付け関数Gtiは、例えば、複数の期間の間での重み付けのための関数である。この重み付け関数Gtiは、例えば、自然数でも良い。重み付け関数Gtiは、ある関数でもよい。 The weighting function G ti is, for example, a function for weighting between multiple periods. This weighting function G ti may be a natural number, for example. The weighting function G ti may be a certain function.

(ステップS9)
制御部33は、使用者81の評価を行う。具体的には、制御部33は、ステップS4で取得した脈拍の情報が、例えば、基準分布CSl,t1+t2の分布の±1σの範囲に属するものなのか、±2σの範囲に属するものなのか、±3σの範囲に属するものなのか、±3σの範囲に属しないものであるのか、などを判定する。その結果に基づいて、制御部33は、乗り物28を運転している使用者81のリスクを評価する。
(Step S9)
The control unit 33 evaluates the user 81. Specifically, the control unit 33 determines whether the pulse information acquired in step S4 belongs to the range of ±1σ or ±2σ of the standard distribution C Sl,t1+t2, for example. It is determined whether it is within the ±3σ range, whether it is within the ±3σ range, or whether it is not within the ±3σ range. Based on the results, the control unit 33 evaluates the risk of the user 81 driving the vehicle 28.

(3 自動車保険の保険料の算定)
図3は、第1実施形態に係る評価システムにおける評価結果を例示する模式図である。 図3に示すように、例えば、評価値Ev1の値(この例では1~9)に対応して、自動車保険の保険料の値Iv1が定められる。評価値Ev1は、使用者81のリスクに対応した分類である。
(3 Calculation of insurance premiums for automobile insurance)
FIG. 3 is a schematic diagram illustrating evaluation results in the evaluation system according to the first embodiment. As shown in FIG. 3, for example, the value Iv1 of the insurance premium for automobile insurance is determined corresponding to the value of the evaluation value Ev1 (1 to 9 in this example). The evaluation value Ev1 is a classification corresponding to the risk of the user 81.

制御部33は、図3に示すように、使用者81を使用者81のリスクに応じて分類分けして評価する。制御部33は、分類分けに応じて、使用者81の自動車保険の保険料を算定する。 As shown in FIG. 3, the control unit 33 classifies and evaluates the users 81 according to their risks. The control unit 33 calculates the automobile insurance premium of the user 81 according to the classification.

図3に示すように、例えば、複数の評価値Ev1のそれぞれに対応して、自動車保険の保険料の値Iv1が定められる。例えば、評価値Ev1が「1」のときの保険料の値Iv1は、11,000円である。例えば、評価値Ev1が「9」のときの保険料の値Iv1は、55,000円である。 As shown in FIG. 3, for example, an insurance premium value Iv1 of automobile insurance is determined corresponding to each of the plurality of evaluation values Ev1. For example, when the evaluation value Ev1 is "1", the insurance premium value Iv1 is 11,000 yen. For example, when the evaluation value Ev1 is "9", the insurance premium value Iv1 is 55,000 yen.

本実施形態に係る評価システム110では、運転している使用者81の生体情報と、その使用者81の状態と同じ状態にあったときの使用者81の生体情報と、を演算システム30が比較する。そして、評価システム110は、運転している使用者81のリスクを評価することで、使用者81を評価する。そして、その評価の結果に基づいて、保険料の値Iv1が出力される。実施形態においては、使用者81が作業を実施する際のリスクが、使用者81の情報(例えば生体情報)に基づいている。このため、使用者81を正確に評価できる。この使用者81の評価を使用することにより、使用者81の情報をより有効に利用して適切な自動車保険の保険料の算定ができる。 In the evaluation system 110 according to the present embodiment, the calculation system 30 compares the biometric information of the user 81 who is driving and the biometric information of the user 81 when the user 81 was in the same state as the user 81. do. The evaluation system 110 then evaluates the user 81 by evaluating the risk of the user 81 driving. Then, based on the result of the evaluation, the insurance premium value Iv1 is output. In the embodiment, the risk when the user 81 performs the work is based on the user's 81 information (for example, biometric information). Therefore, the user 81 can be evaluated accurately. By using the user's 81 evaluation, the user's 81 information can be used more effectively to calculate an appropriate car insurance premium.

使用者81の評価の結果は、使用者81の自動車保険料のランクを含んでも良い。 The user's 81 evaluation result may include the user's 81's automobile insurance premium rank.

(その他の例)
上記の例では、乗り物28を運転している使用者81が評価される。実施形態において、他の作業をしているときの使用者81が評価されてもよい。
(Other examples)
In the above example, user 81 driving vehicle 28 is evaluated. In embodiments, the user 81 may be evaluated while performing other tasks.

作業は、例えば、使用者81の仕事でも良い。仕事は、使用者81が生計を立てるために行うことを含む。 The work may be the work of the user 81, for example. Work includes what the user 81 does to earn a living.

制御部33が、例えば、立って行われる仕事であると判定した場合、制御部33は上記のステップS6で、使用者81の状態St2に対応する生体情報等を抽出する。その結果に基づいて、制御部33は、使用者81を評価する。これにより、仕事を実施しているときの使用者81のリスク(例えば、健康の阻害の可能など)が評価できる。作業が仕事である場合に、例えば、使用者81の将来の健康のリスクが予測できる。これらの評価の結果は、例えば、生命保険及び医療保険料の少なくともいずれかの条件(例えばランク)を含んでも良い。 For example, if the control unit 33 determines that the work is performed while standing, the control unit 33 extracts biometric information and the like corresponding to the state St2 of the user 81 in step S6 described above. Based on the results, the control unit 33 evaluates the user 81. This allows the user 81's risk (for example, possible health impairment) to be evaluated while performing the job. For example, if the work is work, the future health risks of the user 81 can be predicted. The results of these evaluations may include, for example, conditions (for example, rank) for at least one of life insurance and medical insurance premiums.

このように、実施形態によれば、使用者81の将来のリスクをより正確に評価できる。この結果を用いて、例えば、保険の条件を提示することで、より正確な保険の条件を定めることができる。 In this manner, according to the embodiment, future risks of the user 81 can be evaluated more accurately. For example, by presenting insurance conditions using this result, more accurate insurance conditions can be determined.

さらに、実施形態は、使用者81が将来に「ある作業」を実施したときの状態を予測できる。例えば、「ある作業」を実際に実施したときにおける使用者81の状態だけではなく、その使用者81が「ある作業」を将来実施したときに生じやすい状態(症状)を予測できる。この予測は、評価結果情報に含まれても良い。 Furthermore, the embodiment can predict the state when the user 81 performs a "certain task" in the future. For example, it is possible to predict not only the state of the user 81 when actually performing a "certain task" but also the state (symptoms) that will likely occur when the user 81 performs a "certain task" in the future. This prediction may be included in the evaluation result information.

この予測に基づいて、使用者81が適切な変更を行うことで、将来のリスクを減らすことができる。演算システム30(及び評価システム110など)は、使用者81の訓練システムとして用いることができる。 Based on this prediction, the user 81 can reduce future risks by making appropriate changes. The calculation system 30 (and the evaluation system 110, etc.) can be used as a training system for the user 81.

実施形態において、作業は、例えば、乗り物28の運転、仕事、または、スポーツなどを含んでも良い。 In embodiments, work may include, for example, driving a vehicle 28, working, or playing sports.

(第2実施形態)
図4は、第2実施形態に係る評価システムを例示する模式図である。
図4に示すように、第2実施形態に係る評価システム111は、第1実施形態の評価システム110に対して出力システム40をさらに追加した点で相違し、その他の構成は第1実施形態と同様である。第1実施形態では、制御部33が、図3に示すような保険料の算定を行う。第2実施形態では、制御部33は使用者81がいずれの評価値Ev1に該当するかを判定する。第2実施形態においては、制御部33は、例えば、保険料の算定はしない。
(Second embodiment)
FIG. 4 is a schematic diagram illustrating an evaluation system according to the second embodiment.
As shown in FIG. 4, the evaluation system 111 according to the second embodiment is different from the evaluation system 110 of the first embodiment in that an output system 40 is further added, and the other configurations are different from the evaluation system 110 of the first embodiment. The same is true. In the first embodiment, the control unit 33 calculates the insurance premium as shown in FIG. In the second embodiment, the control unit 33 determines which evaluation value Ev1 the user 81 corresponds to. In the second embodiment, the control unit 33 does not calculate insurance premiums, for example.

出力システム40は、図3に示すような保険料の算定を行うプログラムを有する。そのプログラムによって、出力システム40は、使用者81の保険料を算定する。 The output system 40 has a program that calculates insurance premiums as shown in FIG. According to the program, the output system 40 calculates the insurance premium for the user 81.

出力システム40は、例えば、情報端末41及びサーバ42を含む。この例では、制御部43がさらに設けられている。情報端末41は、サーバ42と接続される。制御部43は、情報端末41及びサーバ42と接続される。これらの接続は、有線または無線の任意の方法により行われる。情報端末41、サーバ22及び制御部43は、コンピュータを含んでも良い。情報端末41、サーバ22及び制御部43は、メモリを含んでも良い。情報端末41、サーバ22及び制御部43は、例えば、電気回路を含む。情報端末41は、例えば、スマートフォンなどを含んでも良い。 The output system 40 includes, for example, an information terminal 41 and a server 42. In this example, a control section 43 is further provided. Information terminal 41 is connected to server 42 . The control unit 43 is connected to the information terminal 41 and the server 42. These connections may be made by any wired or wireless method. The information terminal 41, the server 22, and the control unit 43 may include a computer. The information terminal 41, the server 22, and the control unit 43 may include a memory. The information terminal 41, the server 22, and the control unit 43 include, for example, an electric circuit. The information terminal 41 may include, for example, a smartphone.

情報端末41は、例えば、演算システム30の通信部31と通信を行う。通信は、データの授受を含む。例えば、演算システム30の通信部31から、使用者81の評価の結果が、出力システム40の情報端末41に送られる。情報端末41は、評価の結果に基づいて使用者81の保険料の算定を行う。サーバ42に使用者81ごとに評価の結果や保険料が記憶される。制御部43は、例えば、情報端末41及びサーバ42の動作を制御する。制御部43は、省略されても良い。 The information terminal 41 communicates with the communication unit 31 of the calculation system 30, for example. Communication includes sending and receiving data. For example, the communication unit 31 of the calculation system 30 sends the evaluation result of the user 81 to the information terminal 41 of the output system 40 . The information terminal 41 calculates the insurance premium for the user 81 based on the evaluation result. Evaluation results and insurance premiums are stored in the server 42 for each user 81. The control unit 43 controls the operations of the information terminal 41 and the server 42, for example. The control unit 43 may be omitted.

必要に応じて、情報端末41は、サーバ42から情報(評価の結果)を読み出す。情報端末41は、評価結果情報を出力可能である。 The information terminal 41 reads information (evaluation results) from the server 42 as necessary. The information terminal 41 can output evaluation result information.

出力システム40の1つの例において、出力システム40は、例えば保険提供者(例えば保険会社)により使用される。保険提供者は、使用者81の評価の結果に基づいて、その使用者81の保険の条件を定めても良い。 In one example of output system 40, output system 40 is used by, for example, an insurance provider (eg, an insurance company). The insurance provider may determine the conditions of insurance for the user 81 based on the results of the user's 81 evaluation.

(第3実施形態)
第3実施形態の評価システムの構成は、第1実施形態または第2実施形態の評価システムの構成に対して、サーバ32が、以下に説明するテーブルを保持している点で相違する。
(Third embodiment)
The configuration of the evaluation system of the third embodiment differs from the configuration of the evaluation system of the first embodiment or the second embodiment in that the server 32 holds a table described below.

(1 評価システムの構成)
例えば、ある1種類の生体情報(例えば、脈拍)が複数の検出器SNで取得される場合、複数の検出器SNの取得精度が考慮される。演算システム30のサーバ32は、複数の生体情報ごとに、複数の検出器SNのそれぞれの信頼度に関するテーブルを保持する。制御部33は、これらのテーブルに基づいて基準分布(または基準データ)を生成する。
(1. Structure of evaluation system)
For example, when one type of biological information (for example, pulse) is acquired by multiple detectors SN, the acquisition accuracy of the multiple detectors SN is taken into consideration. The server 32 of the calculation system 30 maintains a table regarding the reliability of each of the plurality of detectors SN for each plurality of pieces of biological information. The control unit 33 generates a reference distribution (or reference data) based on these tables.

図5は、第3実施形態に係る評価システムを例示する模式図である。
図5に示すように、サーバ32は、テーブルを保持する。このテーブルにおいて、例えば、複数の生体情報(例えば、脈拍)ごとに、複数の検出器SNに対する信頼度CEが定めされる。例えば、信頼度CEの値が大きいと、その検出器SNによる評価結果(情報)の信頼度は高い。図5は、脈拍に関するテーブルを示す。
FIG. 5 is a schematic diagram illustrating an evaluation system according to the third embodiment.
As shown in FIG. 5, the server 32 maintains a table. In this table, for example, reliability CE for a plurality of detectors SN is determined for each of a plurality of pieces of biological information (for example, pulse rate). For example, if the value of reliability CE is large, the reliability of the evaluation result (information) by the detector SN is high. FIG. 5 shows a table regarding pulse rates.

この例では、第1検出器SN1において信頼度CEは、10である。第2検出器SN2において信頼度CEは、3である。第3検出器SN3において信頼度CEは、7である。第5検出器SN5において信頼度CEは、5である。他の検出器SNにおいては、信頼度CEは、0である。任意の検出器SNiは、信頼度CEiを有する。 In this example, the reliability CE is 10 in the first detector SN1. The reliability CE of the second detector SN2 is 3. The reliability CE of the third detector SN3 is 7. The reliability CE of the fifth detector SN5 is 5. For other detectors SN, the reliability CE is 0. Any detector SNi has a reliability CEi.

(2 評価システムにおける評価方法)
第3実施形態に係る評価システムにおける評価方法は、第1実施形態の評価方法と、ステップS7とステップS8との間にステップSS1及びステップSS2が設けられる点で相違する。第3実施形態における他のステップは、第1実施形態と同様である。
(2 Evaluation method in evaluation system)
The evaluation method in the evaluation system according to the third embodiment differs from the evaluation method in the first embodiment in that step SS1 and step SS2 are provided between step S7 and step S8. Other steps in the third embodiment are similar to those in the first embodiment.

具体的な評価方法について、図5及び図6を用いて説明する。 A specific evaluation method will be explained using FIGS. 5 and 6.

図6は、第3実施形態に係る評価システムの評価方法を示すフローチャートである。
第3実施形態においては、第1実施形態に関して説明したステップS7を実行した後に、ステップSS1を実行する。
FIG. 6 is a flowchart showing the evaluation method of the evaluation system according to the third embodiment.
In the third embodiment, step SS1 is executed after executing step S7 described in relation to the first embodiment.

(ステップSS1)
制御部33は、図5に示す信頼度CEに関するテーブルを、サーバ32から、RAMに導入する。前述したように、ステップS7では、制御部33は、使用者81の状態St1に該当する脈拍の情報を、複数の検出器SNごとに分類する。制御部33は、この検出器に対応する信頼度CEを抽出する。
(Step SS1)
The control unit 33 loads the table related to reliability CE shown in FIG. 5 from the server 32 into the RAM. As described above, in step S7, the control unit 33 classifies the pulse information corresponding to the state St1 of the user 81 for each of the plurality of detectors SN. The control unit 33 extracts the reliability CE corresponding to this detector.

制御部33は、信頼度の合計が所定の値(例えば「11」)を超えているかどうか、を判定する。 The control unit 33 determines whether the total reliability exceeds a predetermined value (for example, "11").

制御部33が、合計の信頼度CEが所定の値を超えていると判定したときには(ステップSS1、「Yes」)、ステップS8へ進む。第3実施形態では、第1~第3検出器SN1~SN3を使用しており、それぞれの検出器SNの信頼度CEの合計は、20(=10+3+7)である。したがって、制御部33は、ステップS8へ進む処理を行う。 When the control unit 33 determines that the total reliability CE exceeds the predetermined value (step SS1, "Yes"), the process proceeds to step S8. In the third embodiment, first to third detectors SN1 to SN3 are used, and the total reliability CE of each detector SN is 20 (=10+3+7). Therefore, the control unit 33 performs the process of proceeding to step S8.

(ステップSS2)
制御部33が、合計の信頼度CEが所望の値を超えていないと判定したときには(ステップSS1、「No」)、ステップSS2へ進む。
(Step SS2)
When the control unit 33 determines that the total reliability CE does not exceed the desired value (step SS1, "No"), the process proceeds to step SS2.

例えば、第1検出器SN1から脈拍の情報が取得できず、第2検出器SN2及び第3検出器SN3で脈拍の情報を取得した場合には、信頼度CEの合計は10(=3+7)である。このときは、制御部33は、ステップSS2へ進む処理を行う。 For example, if pulse information cannot be obtained from the first detector SN1, but pulse information is obtained from the second detector SN2 and third detector SN3, the total reliability CE is 10 (=3+7). be. At this time, the control unit 33 performs the process of proceeding to step SS2.

ステップSS2では、制御部33は、基準分布(または基準データ)を推定する。 In step SS2, the control unit 33 estimates a reference distribution (or reference data).

具体的には、制御部33は、例えば、第1検出器SN1で取得した脈拍の分布と、第2検出器SN2または第3検出器SN3で取得した脈拍の分布と、の相関関係に基づいて、基準分布(または基準データ)を算出する。 Specifically, the control unit 33 performs the detection based on the correlation between the pulse rate distribution acquired by the first detector SN1 and the pulse rate distribution acquired by the second detector SN2 or the third detector SN3, for example. , calculate the reference distribution (or reference data).

以下、第1実施形態の評価方法で説明した前提をベースにして、例を説明する。ただし、以下の例では、演算システム30は、第1検出器SN1から使用者81の状態St1に対応する脈拍の情報を取得できない。以下の例では、演算システム30は、使用者81の状態St0に対応する脈拍に関する情報を第2検出器SN2及び第3検出器SN3から取得できたものとする。 An example will be described below based on the premise described in the evaluation method of the first embodiment. However, in the following example, the calculation system 30 cannot acquire pulse information corresponding to the state St1 of the user 81 from the first detector SN1. In the following example, it is assumed that the calculation system 30 is able to acquire information regarding the pulse rate of the user 81 corresponding to the state St0 from the second detector SN2 and the third detector SN3.

このとき、制御部33は、使用者81の状態St0における第1~第3検出器SN1~SN3で取得した生体情報の相関関係を算定する。その相関関係を用いて、制御部33は、使用者81の状態St1に対応する、第2検出器SN2及び第3検出器SN3から取得した脈拍の情報から、第1検出器SN1で取得されたであろう脈拍の情報を推定する。 At this time, the control unit 33 calculates the correlation of the biological information acquired by the first to third detectors SN1 to SN3 in the state St0 of the user 81. Using the correlation, the control unit 33 determines the pulse rate obtained by the first detector SN1 from the pulse information obtained from the second detector SN2 and the third detector SN3, which corresponds to the state St1 of the user 81. Estimate the pulse information that will occur.

制御部33は、推定された、第1検出器SN1からの脈拍の情報と、第2検出器SN2及び第3検出器SN3からの脈拍の情報と、に基づいて、基準分布(または基準データ)を生成する。 The control unit 33 generates a reference distribution (or reference data) based on the estimated pulse information from the first detector SN1 and the pulse information from the second detector SN2 and the third detector SN3. generate.

第1~第3検出器SN1~SN3を用いる場合には、信頼度CEの合計が所望の値を超えるためである。 This is because when the first to third detectors SN1 to SN3 are used, the total reliability CE exceeds the desired value.

第3実施形態においては、演算システム30(例えば制御部33)は、複数の検出器SNから取得された情報(生体情報及び行動情報の少なくともいずれか)に基づいて、使用者81の評価を行う。例えば、評価の結果を得る際に複数の検出器SNから得られた複数の情報(データ)を整合させることができる。より正確な使用者81の評価結果を出力できる。 In the third embodiment, the calculation system 30 (for example, the control unit 33) evaluates the user 81 based on information (at least one of biological information and behavioral information) acquired from a plurality of detectors SN. . For example, when obtaining evaluation results, multiple pieces of information (data) obtained from multiple detectors SN can be matched. A more accurate evaluation result of the user 81 can be output.

このような評価結果情報を、例えば、保険条件の決定(例えば保険料の算定)の基礎となる基準として用いることができる。より正確に保険条件を決定することができる。生体情報をより有効に利用できる評価装置及び評価システムが提供できる。 Such evaluation result information can be used, for example, as a basis for determining insurance conditions (for example, calculating insurance premiums). Insurance conditions can be determined more accurately. It is possible to provide an evaluation device and an evaluation system that can use biological information more effectively.

図7は、実施形態に係る評価システムにおける動作を示すフローチャートである。
図7に示すように、例えば、ステップS9において、演算システム30(第3システム)の制御部33において、使用者81の評価が行われる。使用者81の評価結果が、所定のランクよりも上の場合は、終了する。一方、使用者81の評価が、所定のランク以下の場合には、制御部33は、自動運転切替指示を行う。自動運転切替指示のコマンドCMD等が、例えば、第2ユーザシステム20(第2システム)に送信される。第2ユーザシステム20は、自動運転切替指示のコマンドCMD等に基づいて、自動運転を開始する。例えば、第2ユーザシステム20のサーバ22等により、乗り物28の自動運転が開始される。
FIG. 7 is a flowchart showing the operation of the evaluation system according to the embodiment.
As shown in FIG. 7, for example, in step S9, the control unit 33 of the calculation system 30 (third system) evaluates the user 81. If the evaluation result of the user 81 is higher than the predetermined rank, the process ends. On the other hand, if the user's 81 evaluation is below the predetermined rank, the control unit 33 issues an automatic driving switching instruction. For example, a command CMD for instructing automatic operation switching is transmitted to the second user system 20 (second system). The second user system 20 starts automatic driving based on a command CMD for instructing automatic driving switching. For example, automatic operation of the vehicle 28 is started by the server 22 of the second user system 20 or the like.

使用者81の評価結果が所定のランク以下のときには、運転している使用者81が異常な状態と判断できる。このような場合に、例えば、マニュアル運転から自動運転への切り替えが行われる。例えば、自動運転のためプログラムは、乗り物28が有している。この自動運転のプログラムの実行の指令が、例えば、第2ユーザシステム20のサーバ22等を介して、演算システム30から第2ユーザシステム20に提供される。 When the evaluation result of the user 81 is below a predetermined rank, it can be determined that the user 81 who is driving is in an abnormal state. In such a case, for example, switching from manual operation to automatic operation is performed. For example, the vehicle 28 has a program for automatic driving. A command to execute the automatic driving program is provided from the calculation system 30 to the second user system 20 via the server 22 of the second user system 20, for example.

図8は、実施形態に係る評価システムを例示する模式図である。
図8は、演算システム30のハードウェアの構成の例を示す。演算システム30は、例えば、通信部31(通信インタフェース)、サーバ32(例えば外部メモリなどとのインタフェース)、制御部33(例えばCPU)、RAM34a及びROM34bなどを含む。演算システム30は、例えば、入力部35a及び出力部35bなどをさらに含んでも良い。
FIG. 8 is a schematic diagram illustrating the evaluation system according to the embodiment.
FIG. 8 shows an example of the hardware configuration of the calculation system 30. The calculation system 30 includes, for example, a communication section 31 (communication interface), a server 32 (for example, an interface with an external memory, etc.), a control section 33 (for example, a CPU), a RAM 34a, a ROM 34b, and the like. The calculation system 30 may further include, for example, an input section 35a and an output section 35b.

上記の種々の情報(データ)の処理(指示)は、例えば、プログラム(ソフトウェア)に基づいて実行される。例えば、コンピュータが、このプログラムを記憶し、このプログラムを読み出すことにより、上記の種々の情報の処理が行われる。 The processing (instructions) of the various information (data) described above is executed based on, for example, a program (software). For example, a computer stores this program and reads this program to process the various information described above.

上記の種々の情報の処理は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク及びハードディスクなど)、光ディスク(CD-ROM、CD-R、CD-RW、DVD-ROM、DVD±R、DVD±RWなど)、半導体メモリ、または、他の記録媒体に記録されても良い。 The processing of the various information mentioned above can be performed using programs that can be executed by a computer, such as magnetic disks (flexible disks, hard disks, etc.), optical disks (CD-ROM, CD-R, CD-RW, DVD-ROM, DVD±R). , DVD±RW, etc.), semiconductor memory, or other recording media.

例えば、記録媒体に記録された情報は、コンピュータ(または組み込みシステム)により読み出されることが可能である。記録媒体において、記録形式(記憶形式)は任意である。例えば、コンピュータは、記録媒体からプログラムを読み出し、このプログラムに基づいてプログラムに記述されている指示をCPUで実行させる。コンピュータにおいて、プログラムの取得(または読み出し)は、ネットワークを通じて行われても良い。 For example, information recorded on a recording medium can be read by a computer (or an embedded system). In the recording medium, the recording format (storage format) is arbitrary. For example, a computer reads a program from a recording medium and causes a CPU to execute instructions written in the program based on the program. In a computer, a program may be acquired (or read) through a network.

記録媒体からコンピュータ(または組み込みシステム)にインストールされたプログラムに基づいてコンピュータ上で稼働している種々のソフトウェアにおいて、上記の情報の処理の少なくとも一部が実施されても良い。このソフトウェアは、例えば、OS(オペレーティングシステム)などを含む。このソフトウェアは、例えば、ネットワーク上で動作するミドルウェアなどを含んでも良い。 At least a portion of the above information processing may be performed in various software running on a computer based on a program installed on the computer (or embedded system) from a recording medium. This software includes, for example, an OS (operating system). This software may include, for example, middleware that operates on the network.

実施形態における記録媒体は、LANまたはインターネットなどにより得られたプログラムをダウンロードして記憶された記録媒体も含まれる。複数の記録媒体に基づいて、上記の処理が行われても良い。 The recording medium in the embodiment also includes a recording medium in which a program obtained by downloading from a LAN or the Internet is stored. The above processing may be performed based on a plurality of recording media.

実施形態に係るコンピュータは、1つまたは複数の装置(例えばパーソナルコンピュータなど)を含む。実施形態に係るコンピュータは、ネットワークにより接続された複数の装置を含んでも良い。 A computer according to an embodiment includes one or more devices (eg, a personal computer, etc.). A computer according to an embodiment may include a plurality of devices connected via a network.

(第4実施形態)
第4実施形態において、評価システム110(図1(a)参照)は、演算システム30(例えば演算装置、図1(a)参照)を含む。
(Fourth embodiment)
In the fourth embodiment, an evaluation system 110 (see FIG. 1(a)) includes a calculation system 30 (for example, a calculation device, see FIG. 1(a)).

評価システム110(例えば演算システム30)は、例えば、使用者81に関する第1情報と、その使用者81に関する第2情報と、を入手する。この第1情報は、1つの作業(第1作業)をしている第1状態における、使用者81の生体情報及び行動情報の少なくともいずれかを含む。一方、第2情報は、その作業(第1作業)をしていない第2状態における、使用者81の生体情報及び行動情報の少なくともいずれかを含む。そして、評価システム110は、上記の第1情報及び第2情報に基づいて、使用者81の第1作業に関する評価結果情報を出力することが可能である。本実施形態において、使用者81は、評価の対象者である。 The evaluation system 110 (for example, the calculation system 30) obtains, for example, first information regarding the user 81 and second information regarding the user 81. This first information includes at least one of biological information and behavioral information of the user 81 in a first state in which the user 81 is performing one task (first task). On the other hand, the second information includes at least one of biological information and behavior information of the user 81 in a second state in which the user 81 is not performing the work (first work). The evaluation system 110 can output evaluation result information regarding the first work of the user 81 based on the first information and second information. In this embodiment, the user 81 is the person to be evaluated.

以下、評価システム110における使用者81の評価の例について説明する。 An example of the evaluation by the user 81 in the evaluation system 110 will be described below.

以下の例では、使用者81の作業(第1作業)は、乗り物28の運転である。乗り物28の運転に関する可能性(例えばリスクなど)について、使用者81が評価される。 In the example below, the user 81's work (first work) is driving the vehicle 28. The user 81 is evaluated regarding the possibilities (eg, risks, etc.) associated with driving the vehicle 28 .

例えば、使用者81の状態が、第1検出器SN1及び第2検出器SN2により評価される。既に説明したように、第1検出器SN1は、ベッド70に設けられる。第1検出器SN1により、使用者81の就寝中及びその前後の状態が検出される。第1検出器SN1により、例えば、使用者81の、心拍、脈拍、呼吸、睡眠及び覚醒などが検出される。 For example, the condition of the user 81 is evaluated by the first detector SN1 and the second detector SN2. As already explained, the first detector SN1 is provided on the bed 70. The first detector SN1 detects the state of the user 81 during and before and after sleeping. The first detector SN1 detects, for example, the heartbeat, pulse, breathing, sleep, and wakefulness of the user 81.

既に説明したように、第2検出器SN2は、例えば、使用者81の体(例えば腕)に取り付けられる。第2検出器SN2は、例えば、一日以上連続して使用者81の状態を検出できても良い。第2検出器SN2は、例えば、使用者81の、心拍、脈拍、睡眠、覚醒、入眠、立位、座位、臥位、歩行及び運動などの状態を検出できる。 As already explained, the second detector SN2 is attached to the body (for example, arm) of the user 81, for example. The second detector SN2 may be able to detect the condition of the user 81 continuously for one day or more, for example. The second detector SN2 can detect, for example, the states of the user 81, such as heartbeat, pulse, sleep, wakefulness, falling asleep, standing position, sitting position, lying position, walking, and exercise.

使用者81の作業(第1作業)が乗り物28の運転である場合、上記の第7検出器SN7により、使用者81の状態が検出される。第7検出器SN7は、乗り物28の運転中(乗り物28に乗っている期間)の使用者81の状態を検出できる。第7検出器SN7は、例えば、心拍、脈拍、呼吸、睡眠及び覚醒などを検出できる。 When the work (first work) of the user 81 is driving the vehicle 28, the state of the user 81 is detected by the seventh detector SN7. The seventh detector SN7 can detect the state of the user 81 while driving the vehicle 28 (while riding the vehicle 28). The seventh detector SN7 can detect, for example, heartbeat, pulse, breathing, sleep, and wakefulness.

以下では、説明を簡単にするために、これらの検出器SNで得られた種々のデータのうちで、脈拍に関する情報が用いられる場合について説明する。そして、以下では、検出器SNで得られた情報(例えばデータ)をモデル化して説明する。 In the following, to simplify the explanation, a case will be described in which pulse information is used among various data obtained by these detectors SN. In the following, information (for example, data) obtained by the detector SN will be modeled and explained.

図9(a)~図9(c)は、第4実施形態に係る評価システムにおける情報を例示する模式図である。
これらの図の横軸は、時間tmである。図9(a)~図9(c)のそれぞれの縦軸は、第1検出器SN1、第2検出器SN2及び第7検出器SN7のそれぞれにより得られた第1信号SG1、第2信号SG2及び第7信号SG7である。脈拍が検出される場合、例えば、1分間における脈拍数が、これらの信号の強度に対応する。
FIGS. 9(a) to 9(c) are schematic diagrams illustrating information in the evaluation system according to the fourth embodiment.
The horizontal axis of these figures is time tm. The vertical axes in each of FIGS. 9(a) to 9(c) represent the first signal SG1 and the second signal SG2 obtained by the first detector SN1, the second detector SN2, and the seventh detector SN7, respectively. and a seventh signal SG7. If pulses are detected, for example, the pulse rate per minute corresponds to the strength of these signals.

これらの信号は、使用者81に関する情報の少なくとも一部となる。または、これらの信号が処理されて得られた情報が、使用者81に関する情報の一部となる。これらの図には、第1日D1~第8日D8までの検出結果(信号)が例示されている。 These signals become at least part of the information regarding the user 81. Alternatively, information obtained by processing these signals becomes part of the information regarding the user 81. These figures illustrate detection results (signals) from the first day D1 to the eighth day D8.

図9(a)に示すように、第1検出器SN1により得られる第1信号SG1の強度は、使用者81の就寝中及びその前後(すなわち、例えば、夜)において、強くなる。例えば、昼間は、第1検出器SN1による検出が行われないため、第1信号SG1が得られない。使用者81の就寝中において、使用者81の睡眠状態に応じて、脈拍が変化する。これに応じて、第1信号SG1の強度が変化する。 As shown in FIG. 9A, the intensity of the first signal SG1 obtained by the first detector SN1 becomes strong while the user 81 is sleeping and before and after sleeping (that is, at night, for example). For example, during the daytime, the first detector SN1 does not perform detection, so the first signal SG1 cannot be obtained. While the user 81 is sleeping, the pulse rate changes depending on the sleeping state of the user 81. According to this, the intensity of the first signal SG1 changes.

図9(b)に示すように、第2検出器SN2により、第1日D1~第8日D8まで、実質的に連続して、使用者81の状態が検出される。第2信号SG2は、第1日D1~第8日D8まで、実質的に連続している。この例では、それぞれの日の昼間において、第2信号SG2の強度が高く、夜間においては、第2信号SG2の強度が低い。夜間における第2信号SG2の強度は、第1信号SG1の強度に対応している場合が多い。 As shown in FIG. 9(b), the second detector SN2 detects the state of the user 81 substantially continuously from the first day D1 to the eighth day D8. The second signal SG2 is substantially continuous from the first day D1 to the eighth day D8. In this example, the intensity of the second signal SG2 is high during the daytime of each day, and the intensity of the second signal SG2 is low at night. The intensity of the second signal SG2 at night often corresponds to the intensity of the first signal SG1.

図9(c)に示すように、第7信号SG7は、使用者81が乗り物28に乗っているときの、使用者81の脈拍に対応する。この例では、第5日D5及び第7日D7において、使用者81は、乗り物28を運転している。 As shown in FIG. 9(c), the seventh signal SG7 corresponds to the pulse of the user 81 when the user 81 is riding the vehicle 28. In this example, the user 81 is driving the vehicle 28 on the fifth day D5 and the seventh day D7.

この例では、評価の対象の作業(第1作業OP1)が、乗り物28の運転である。第5日D5及び第7日D7に、使用者81が第1作業OP1(乗り物28の運転)を行う第1状態ST1がある。第1状態ST1を除く期間が、第2状態ST2となる。 In this example, the work to be evaluated (first work OP1) is driving the vehicle 28. On the fifth day D5 and the seventh day D7, there is a first state ST1 in which the user 81 performs the first work OP1 (driving the vehicle 28). The period excluding the first state ST1 becomes the second state ST2.

例えば、第5日D5の第1期間(第1時刻を含む期間)において、使用者81が第1作業OP1(乗り物28の運転)を行っている。他の日(この例では第1日D1~第4日D4、第6日D6及び第8日D8)にも、その第1期間(第1時刻を含む期間)がある。 For example, in the first period (period including the first time) on the fifth day D5, the user 81 is performing the first task OP1 (driving the vehicle 28). The other days (in this example, the first day D1 to the fourth day D4, the sixth day D6, and the eighth day D8) also have their first periods (periods including the first time).

1つの例において、第5日D5の第1期間(第1時刻を含む期間)における第2信号SG2と、他の日(この例では第1日D1~第4日D4、第6日D6及び第8日D8)の第1期間(第1時刻を含む期間)における第2信号SG2と、が比較される。この場合、第1作業OP1の有無の違いに対応して、第2信号SG2に違いが生じる。例えば、第1作業OP1(運転)を行っているときの第2信号SG2の強度(脈拍数)と、第1作業OP1(運転)を行っていないときの第2信号SG2の強度(脈拍数)と、の間において、違いが生じる。例えば、前者は、後者よりも強い。 In one example, the second signal SG2 in the first period (period including the first time) of the fifth day D5 and the other days (in this example, the first day D1 to the fourth day D4, the sixth day D6, and The second signal SG2 in the first period (period including the first time) of the eighth day D8) is compared. In this case, a difference occurs in the second signal SG2 corresponding to the difference in the presence or absence of the first work OP1. For example, the intensity (pulse rate) of the second signal SG2 when the first work OP1 (driving) is being performed, and the intensity (pulse rate) of the second signal SG2 when the first work OP1 (driving) is not being performed. There is a difference between. For example, the former is stronger than the latter.

このように、第1作業OP1の実施の有無により、使用者81の生体情報が変化する。この生体情報の変化は、使用者81が第1作業OP1(運転)を行うときの第1作業OP1において生じる可能性(例えばリスクの程度)に関係する。第1作業OP1の実施の有無に基づく使用者81の生体情報の変化を評価することで、第1作業OP1に関して使用者81を評価することができる。 In this way, the biometric information of the user 81 changes depending on whether or not the first task OP1 is performed. This change in biometric information is related to the possibility (eg, degree of risk) of occurring in the first task OP1 when the user 81 performs the first task OP1 (driving). The user 81 can be evaluated regarding the first task OP1 by evaluating changes in the biometric information of the user 81 based on whether or not the first task OP1 is performed.

第4実施形態においては、第1作業OP1をしている第1状態ST1における使用者81の生体情報及び行動情報の少なくともいずれかを含む第1情報と、第1作業OP1をしていない第2状態ST2における使用者81の生体情報及び行動情報の少なくともいずれかを含む第2情報と、の間の相対的な関係(例えば差)に基づいて、使用者81の第1作業OP1に関する評価が行われる。 In the fourth embodiment, first information including at least one of biological information and behavior information of the user 81 in the first state ST1 in which the user 81 is performing the first task OP1, and second information including at least one of biological information and behavioral information of the user 81 in the first state ST1 in which the user 81 is performing the first task OP1, and The evaluation regarding the first task OP1 of the user 81 is performed based on the relative relationship (for example, difference) between the second information including at least one of biological information and behavioral information of the user 81 in state ST2. be exposed.

この例では、第1作業OP1を行わない別の日における使用者81の情報(この例では、第2信号SG2)が、第2状態ST2の第2情報として用いられる。例えば、第2情報は、第5日D5において第1作業OP1が行われる時刻(第1期間)と同じ時刻(第1期間)に対応する、他の日の情報である。 In this example, information on the user 81 on another day when the first work OP1 is not performed (in this example, the second signal SG2) is used as the second information in the second state ST2. For example, the second information is information on another day corresponding to the same time (first period) as the time (first period) when the first work OP1 is performed on the fifth day D5.

第4実施形態において、第2情報として、第1作業OP1が行われる第5日D5における他の時刻(期間)における情報(例えば第2信号SG2)が用いられても良い。 In the fourth embodiment, information (for example, second signal SG2) at another time (period) on the fifth day D5 when the first work OP1 is performed may be used as the second information.

この例では、第7日D7の第2期間(第2時刻を含む期間)において、使用者81が第1作業OP1(乗り物28の運転)を行っている。第5日D5に第1作業OP1を実施しているときの第2信号SG2と、第7日D7における第1作業OP1を実施しているときの第2信号SG2と、が、第1情報として用いられても良い。これらの2日のそれぞれの信号から、例えば、平均値が導出される。平均値を含む情報が、第1情報として用いられても良い。 In this example, the user 81 is performing the first task OP1 (driving the vehicle 28) in the second period (period including the second time) on the seventh day D7. The second signal SG2 when performing the first work OP1 on the fifth day D5 and the second signal SG2 when performing the first work OP1 on the seventh day D7 are the first information. May be used. From the signals of each of these two days, for example, an average value is derived. Information including the average value may be used as the first information.

上記の例では、1つの検出器(第2検出器SN2)により、上記の第1情報(第1作業OP1を行っているときの状態)と、上記の第2情報(第1作業OP1を行っていないときの状態)と、における状態が検出される。 In the above example, one detector (second detector SN2) can detect the first information (the state when the first work OP1 is being performed) and the second information (the state when the first work OP1 is being performed). The states of , , , and , are detected.

第4実施形態において、第1情報と第2情報とが、互いに異なる検出器で得られても良い。例えば、第1情報(第1作業OP1を行っているときの状態)が、第7検出器SN7で得られても良い。一方、第2情報(第1作業OP1を行っていないときの状態)が、第1検出器SN1で得られても良い。これらの検出器から得られた情報を基に、使用者81の第1作業OP1に関する評価が行われても良い。 In the fourth embodiment, the first information and the second information may be obtained by different detectors. For example, the first information (the state when performing the first work OP1) may be obtained by the seventh detector SN7. On the other hand, the second information (the state when the first work OP1 is not performed) may be obtained by the first detector SN1. Based on the information obtained from these detectors, an evaluation regarding the first work OP1 of the user 81 may be performed.

第1情報及び第2情報が、互いに異なる検出器SNで得られる場合がある。このとき、これらの検出器SNの間で、導出されるデータ(情報)の関係が求められ、使用者81の状態が同じときに得られる結果が、互いに異なる場合がある。この場合に、互いに異なる検出器SNで得られる結果が、適切に補正されても良い。 The first information and the second information may be obtained by mutually different detectors SN. At this time, the relationship between the derived data (information) is determined between these detectors SN, and the results obtained when the state of the user 81 is the same may differ from each other. In this case, the results obtained with different detectors SN may be appropriately corrected.

1つの例において、第2情報が得られる第2状態ST2の少なくとも一部において、使用者81は睡眠状態でも良い。睡眠状態である場合に得られる第2情報は、比較的変動が小さい。例えば、異なる日においても、比較的均一な第2情報が得られる。このため、第1情報との差が安定して得られる。 In one example, the user 81 may be in a sleeping state in at least a portion of the second state ST2 in which the second information is obtained. The second information obtained when the person is in a sleeping state has relatively small fluctuations. For example, relatively uniform second information can be obtained even on different days. Therefore, the difference from the first information can be stably obtained.

例えば、第1情報及び第2情報が、使用者81の、心拍、脈拍、呼吸及び血圧の少なくとも1つを含む場合に、比較的安定したデータが得られる。 For example, when the first information and the second information include at least one of heartbeat, pulse, respiration, and blood pressure of the user 81, relatively stable data can be obtained.

例えば、第1情報が使用者81の心拍であり、第2情報も使用者81の心拍である。第1情報が使用者81の脈拍であり、第2情報も使用者81の脈拍である。第1情報が使用者81の呼吸であり、第2情報も使用者81の呼吸である。第1情報が使用者81の体温であり、第2情報も使用者81の体温である。第1情報が使用者81の体重であり、第2情報も使用者81の体重である。第1情報が使用者81の筋電図(心電図を含む)であり、第2情報も使用者81の筋電図(心電図を含む)である。第1情報が使用者81の脳波であり、第2情報も使用者81の脳波である。第1情報が使用者81の血圧であり、第2情報も使用者81の血圧である。第1情報が使用者81の血中酸素濃度であり、第2情報も使用者81の血中酸素濃度である。第1情報が使用者81の呼気中ガスであり、第2情報も使用者81の呼気中ガスである。 For example, the first information is the user's 81 heartbeat, and the second information is also the user's 81 heartbeat. The first information is the user's 81's pulse, and the second information is also the user's 81's pulse. The first information is the user's 81's breathing, and the second information is also the user's 81's breathing. The first information is the user's 81 body temperature, and the second information is also the user's 81 body temperature. The first information is the weight of the user 81, and the second information is also the weight of the user 81. The first information is the electromyogram (including electrocardiogram) of the user 81, and the second information is also the electromyogram (including the electrocardiogram) of the user 81. The first information is the user's 81 brain waves, and the second information is also the user's 81 brain waves. The first information is the user's 81 blood pressure, and the second information is also the user's 81 blood pressure. The first information is the user's 81 blood oxygen concentration, and the second information is also the user's 81 blood oxygen concentration. The first information is the exhaled gas of the user 81, and the second information is also the exhaled gas of the user 81.

第4実施形態において、第1情報及び第2情報が、互いに異なる種類の情報(例えば生体情報)でも良い。例えば、第1情報が使用者81の心拍であるとき、第2情報が使用者81の、脈拍、呼吸、体温、体重、筋電図(心電図を含む)、脳波、血圧、血中酸素濃度(例えば、経皮的動脈血酸素飽和度を含む)、及び、呼気中ガスの少なくともいずれかを含んでも良い。例えば、異なる種類の生体情報が互いに関係する場合がある。例えば、脈拍の変化が、心拍の変化と連動する場合がある。このようなとき、例えば、第1検出器SN1で脈拍が検出され、第7検出器SN7で心拍が検出されても良い。 In the fourth embodiment, the first information and the second information may be different types of information (for example, biological information). For example, when the first information is the heartbeat of the user 81, the second information is the user's 81's pulse, respiration, body temperature, weight, electromyogram (including electrocardiogram), brain waves, blood pressure, blood oxygen concentration ( For example, it may include percutaneous arterial blood oxygen saturation) and/or exhaled gas. For example, different types of biometric information may be related to each other. For example, changes in pulse rate may be linked to changes in heartbeat. In such a case, for example, the first detector SN1 may detect a pulse, and the seventh detector SN7 may detect a heartbeat.

第1作業の種類によって、取得できる情報の種類が適切に変更されても良い。1つの例では、1つの検出器SNで、第1種類の第1情報と、第1種類の第2情報が取得されても良い。別の例では、1つの検出器SNで第1種類の第1情報が取得され、別の検出器SNで第1種類の第2情報が取得されても良い。別の例では、1つの検出器SNで第1種類の第1情報が取得され、別の検出器SNで第2種類の第2情報が取得されても良い。さらに、別の例では、1つの検出器SNで第1種類の第1情報が取得され、第2種類の第2情報が取得されても良い。 The type of information that can be acquired may be changed appropriately depending on the type of first work. In one example, the first type of first information and the first type of second information may be acquired by one detector SN. In another example, one detector SN may acquire the first type of first information, and another detector SN may acquire the first type of second information. In another example, one detector SN may acquire the first type of first information, and another detector SN may acquire the second type of second information. Furthermore, in another example, the first type of first information may be acquired by one detector SN, and the second type of second information may be acquired by one detector SN.

上記のように、1つの実施形態においては、使用者81の評価結果は、第1作業OP1を実施している使用者81の第1情報と、第1作業OP1を実施していない使用者81の第2情報との間の相対的な関係に基づいて、導出される。相対的な関係は、例えば、第1情報と第2情報との差を含む。そして、使用者81の評価結果が、評価結果情報として出力される。 As described above, in one embodiment, the evaluation result of the user 81 includes the first information of the user 81 who is performing the first work OP1 and the first information of the user 81 who is not performing the first work OP1. is derived based on the relative relationship between the second information and the second information. The relative relationship includes, for example, the difference between the first information and the second information. Then, the evaluation result of the user 81 is output as evaluation result information.

例えば、第1作業OP1が乗り物28の運転を含む場合、評価結果情報は、例えば、使用者81における、運転のリスクに関する情報である。例えば、運転中の脈拍が、安静時の脈拍よりも過度に高くなる場合がある。このような場合、その使用者81は、冷静に運転することが困難である、と推定できる。このような場合、その使用者81は、運転中に事故などを起こす可能性が高いと推定できる。推定された結果が、評価結果情報となる。 For example, when the first task OP1 includes driving the vehicle 28, the evaluation result information is information regarding the risk of driving for the user 81, for example. For example, the pulse rate while driving may be excessively higher than the pulse rate at rest. In such a case, it can be estimated that the user 81 has difficulty driving calmly. In such a case, it can be estimated that the user 81 is likely to cause an accident while driving. The estimated result becomes evaluation result information.

第4実施形態によれば、例えば、使用者81の情報(生体情報及び行動情報の少なくともいずれか)をより有効に利用できる評価システムが提供できる。 According to the fourth embodiment, for example, it is possible to provide an evaluation system that can more effectively utilize information about the user 81 (at least one of biological information and behavioral information).

以下、使用者81の評価の例について説明する。
図10(a)~図10(c)は、第4実施形態に係る評価結果情報を例示する模式図である。
図10(a)は、使用者81の評価結果の1つの指標xv1を例示している。指標xv1は、例えば、第1情報(使用者81が第1作業OP1を実施しているときの情報)と、第2情報(使用者81が第1作業OP1を実施していないときの情報)と、の間の相対的な関係(例えば差)に対応した値である。例えば、指標xv1が大きいと、第1情報と第2情報との差が大きい。例えば、指標xv1が大きいときには、第1作業OP1(例えば運転)におけるリスクが高い。
An example of the user's 81 evaluation will be described below.
FIGS. 10(a) to 10(c) are schematic diagrams illustrating evaluation result information according to the fourth embodiment.
FIG. 10A illustrates one index xv1 of the user's 81 evaluation results. The index xv1 includes, for example, first information (information when the user 81 is performing the first work OP1) and second information (information when the user 81 is not performing the first work OP1). It is a value corresponding to the relative relationship (for example, difference) between and. For example, when the index xv1 is large, the difference between the first information and the second information is large. For example, when the index xv1 is large, the risk in the first task OP1 (for example, driving) is high.

例えば、指標xv1は、脈拍に関する。例えば、指標xv1は、脈拍の時間的な変化などに関しても良い。 For example, index xv1 relates to pulse. For example, the index xv1 may relate to temporal changes in pulse rate.

指標xv1の値に応じて、複数の範囲が定められる。この例では、5ずつの間隔で、範囲が定められる。1つの範囲において、指標xv1の差は5である。複数の範囲のそれぞれに対して、評価値Ev1が定められる。この例では、指標xv1の値が大きいと、評価値Ev1が大きい。 A plurality of ranges are determined depending on the value of the index xv1. In this example, ranges are defined in intervals of five. In one range, the difference in index xv1 is 5. An evaluation value Ev1 is determined for each of the plurality of ranges. In this example, when the value of the index xv1 is large, the evaluation value Ev1 is large.

例えば、評価値Ev1が大きい場合に、第1作業OP1(例えば運転)におけるリスクが高い、ということが分かる。第4実施形態においては、このような評価値Ev1が、評価結果情報の少なくとも一部となる。 For example, when the evaluation value Ev1 is large, it can be seen that the risk in the first task OP1 (for example, driving) is high. In the fourth embodiment, such evaluation value Ev1 becomes at least a part of evaluation result information.

この例では、指標xv1に関する複数の範囲は、等間隔で区分される。実施形態において、非等間隔で、区分されても良い。 In this example, multiple ranges regarding the index xv1 are divided at equal intervals. In embodiments, the sections may be non-uniformly spaced.

図10(b)に示すように、1つの例においては、指標xv1が30~40までの間において、細かい幅で、範囲が区分されている。目的とする第1作業OP1、及び、用いられる情報の種類に応じて、指標xv1の範囲を適切に区分することができる。 As shown in FIG. 10(b), in one example, the index xv1 ranges from 30 to 40 and is divided into narrow ranges. The range of the index xv1 can be appropriately divided according to the intended first work OP1 and the type of information used.

図10(c)に示すように、別の指標xv2の値に応じて、複数の範囲が定められる。指標xv2は、例えば、血圧に関する。例えば、指標xv2は、血圧の時間的な変化などに対応しても良い。この例でも、複数の範囲のそれぞれに対して、評価値Ev2が定められる。この例では、指標xv2の値が大きいと、評価値Ev2が大きい。 As shown in FIG. 10(c), a plurality of ranges are determined according to the value of another index xv2. The index xv2 relates to blood pressure, for example. For example, the index xv2 may correspond to temporal changes in blood pressure. In this example as well, the evaluation value Ev2 is determined for each of the plurality of ranges. In this example, when the value of the index xv2 is large, the evaluation value Ev2 is large.

例えば、このような評価値Ev1及び評価値Ev2少なくとも一方を用いて、評価が行われても良い。例えば、評価値Ev1及び評価値Ev2の和により、評価が行われても良い。例えば、評価値Ev1及び評価値Ev2の和の値が、評価結果情報として出力される。 For example, evaluation may be performed using at least one of such evaluation value Ev1 and evaluation value Ev2. For example, the evaluation may be performed using the sum of the evaluation value Ev1 and the evaluation value Ev2. For example, the sum of the evaluation value Ev1 and the evaluation value Ev2 is output as the evaluation result information.

この例では、評価値Ev2の範囲の方が、評価値Ev1の範囲よりも大きい。例えば、指標xv2の評価結果の方が、指標xv1の評価結果よりも、目的とする第1作業OP1(例えば運転)における生体情報の変化をより適正に表現している場合がある。このような場合に、評価値Ev2の範囲を、評価値Ev1の範囲よりも大きくする。例えば、重み付けを行う。これにより、複数の評価値を用いたときに、より適正な評価が行われる。 In this example, the range of evaluation values Ev2 is larger than the range of evaluation values Ev1. For example, the evaluation result of the index xv2 may more appropriately express the change in biological information in the targeted first task OP1 (for example, driving) than the evaluation result of the index xv1. In such a case, the range of evaluation value Ev2 is made larger than the range of evaluation value Ev1. For example, weighting is performed. This allows more appropriate evaluation to be performed when a plurality of evaluation values are used.

実施形態において、上記の評価結果情報は、任意の方法で出力される。例えば、ディスプレイなどでの表示、印刷、または、音声信号の提供などの任意の方法を用いることができる。 In the embodiment, the above evaluation result information is output by any method. For example, any method can be used, such as displaying on a display, printing, or providing an audio signal.

このように、第4実施形態において、評価結果情報は、分類された複数のランクの1つを含む。分類された複数のランクは、例えば、上記の評価値Ev1または評価値Ev2などである。分類された複数のランクは、例えば、複数の評価値(例えば、評価値Ev1及び評価値Ev2など)の処理結果(例えば、和、積、重み付けされた和など)でも良い。例えば、複数のランクのうちの1つが、任意の手法により、出力される。 In this way, in the fourth embodiment, the evaluation result information includes one of the plurality of classified ranks. The plurality of classified ranks are, for example, the above-mentioned evaluation value Ev1 or evaluation value Ev2. The classified plurality of ranks may be, for example, a processing result (for example, a sum, a product, a weighted sum, etc.) of a plurality of evaluation values (for example, evaluation value Ev1, evaluation value Ev2, etc.). For example, one of the plurality of ranks is output by any method.

上記の第4実施形態は、評価システム111(図4参照)により実施されても良い。
出力システム40(例えば、評価結果出力システム)の1つの例において、出力システム40は、例えば保険提供者(例えば保険会社)により使用される。保険提供者は、使用者81の評価結果情報に基づいて、その使用者81の保険の条件を定めても良い。
The fourth embodiment described above may be implemented by the evaluation system 111 (see FIG. 4).
In one example of output system 40 (eg, an evaluation results output system), output system 40 is used by, for example, an insurance provider (eg, an insurance company). The insurance provider may determine the insurance conditions for the user 81 based on the user's 81 evaluation result information.

例えば、1つの例において、使用者81が乗り物28を運転すること(第1作業OP1)について、保険が設定される。この場合、第1作業OP1に関してのその使用者81の評価結果情報に基づいて、自動車保険の保険条件の少なくとも一部が定められても良い。 For example, in one example, insurance is set for the user 81 driving the vehicle 28 (first task OP1). In this case, at least a part of the insurance conditions of the automobile insurance may be determined based on the evaluation result information of the user 81 regarding the first work OP1.

例えば、図10(a)~図10(c)に例示したような、指標xv1に関する評価値Ev1などが用いられる。例えば、評価値Ev1に応じて、保険の条件などが設定されても良い。保険の条件は、例えば、保険料及び保険金の少なくともいずれかを含む。 For example, the evaluation value Ev1 regarding the index xv1 as illustrated in FIGS. 10(a) to 10(c) is used. For example, insurance conditions and the like may be set according to the evaluation value Ev1. The insurance conditions include, for example, at least one of an insurance premium and an insurance money.

図3に示すように、例えば、複数の評価値Ev1のそれぞれに対応して、保険料の値Iv1が定められる。例えば、評価値Ev1が「1」のときの保険料の値Iv1は、11,000円である。例えば、評価値Ev1が「9」のときの保険料の値Iv1は、55,000円である。 As shown in FIG. 3, for example, an insurance premium value Iv1 is determined corresponding to each of the plurality of evaluation values Ev1. For example, when the evaluation value Ev1 is "1", the insurance premium value Iv1 is 11,000 yen. For example, when the evaluation value Ev1 is "9", the insurance premium value Iv1 is 55,000 yen.

このように、使用者81が第1作業OP1(例えば運転)を実施することに関して、使用者81が評価される。そして、その評価結果に基づいて、保険料の値Iv1が出力される。これにより、使用者81が第1作業OP1(例えば運転)を実施する際のリスクに基づいて保険料の値Iv1を定めることができる。第4実施形態においては、使用者81が第1作業OP1(例えば運転)を実施する際のリスクが、使用者81の情報(例えば生体情報)に基づいている。このため、使用者81の評価結果は、より正確である。保険料の値Iv1を、使用者81の実態に基づいてより正確に定めることができる。 In this way, the user 81 is evaluated regarding the user 81 performing the first work OP1 (for example, driving). Then, based on the evaluation result, the insurance premium value Iv1 is output. Thereby, the insurance premium value Iv1 can be determined based on the risk when the user 81 performs the first work OP1 (for example, driving). In the fourth embodiment, the risk when the user 81 performs the first work OP1 (for example, driving) is based on the information of the user 81 (for example, biological information). Therefore, the user's 81 evaluation result is more accurate. The insurance premium value Iv1 can be determined more accurately based on the actual situation of the user 81.

このように、評価結果情報は、使用者81の自動車保険料のランクを含んでも良い。 In this way, the evaluation result information may include the rank of the user's 81 automobile insurance premium.

上記の例では、第1作業OP1が、乗り物28の運転を含む。実施形態において、第1作業OP1は、任意である。 In the above example, the first task OP1 includes driving the vehicle 28. In the embodiment, the first work OP1 is arbitrary.

第1作業OP1は、例えば、使用者81の仕事でも良い。仕事は、使用者81が生計を立てるために行うことを含む。例えば、使用者81が仕事をしている期間の長さは比較的長い。このため、例えば、仕事の実施状態は、使用者81の健康状態と、関係する場合が多い。 The first work OP1 may be the work of the user 81, for example. Work includes what the user 81 does to earn a living. For example, the length of time that the user 81 is working is relatively long. Therefore, for example, the state of work is often related to the health state of the user 81.

例えば、仕事を実施している期間において、使用者81の生体情報(例えば血圧など)は、仕事を実施していない期間に比べて著しく異なる場合がある。この場合、例えば、使用者81は、仕事の実施により、心身に大きな負担が加わっていると推定される。例えば、過度の負荷が使用者81に加わると、使用者81の健康が損なわれる場合がある。 For example, during a period when the user 81 is working, the biological information (for example, blood pressure, etc.) of the user 81 may be significantly different from when the user 81 is not working. In this case, for example, it is presumed that the user 81 is subject to a large physical and mental burden due to work. For example, if an excessive load is applied to the user 81, the health of the user 81 may be impaired.

例えば、第1作業OP1として仕事が設定される。そして、上記の評価を行う。これにより、仕事を実施しているときの使用者81のリスク(例えば、健康の阻害の可能など)が評価できる。例えば、第1作業OP1を仕事として上記の評価を行うことにより、使用者81の将来の健康のリスクが予測できる。このような場合、評価結果情報は、例えば、生命保険及び医療保険料の少なくともいずれかの条件(例えばランク)を含んでも良い。 For example, a job is set as the first job OP1. Then, the above evaluation is performed. This allows the user 81's risk (for example, possible health impairment) to be evaluated while performing the job. For example, by performing the above evaluation with the first work OP1 as work, the future health risks of the user 81 can be predicted. In such a case, the evaluation result information may include, for example, conditions (for example, rank) for at least one of life insurance and medical insurance premiums.

このように、第4実施形態によれば、使用者81の将来のリスクをより正確に評価できる。この結果を用いて、例えば、保険の条件を提示することで、より正確な保険の条件を定めることができる。 In this way, according to the fourth embodiment, the future risks of the user 81 can be evaluated more accurately. For example, by presenting insurance conditions using this result, more accurate insurance conditions can be determined.

さらに、第4実施形態において、使用者81が将来に第1作業OP1を実施したときの状態を出力できる。例えば、第1作業OP1を実際に実施したときにおける使用者81の状態だけではなく、その使用者81が第1作業OP1を将来実施したときに生じやすい状態(症状)を予測して出力できる。この予測された出力が、評価結果情報に含まれても良い。 Furthermore, in the fourth embodiment, the state when the user 81 performs the first work OP1 in the future can be output. For example, it is possible to predict and output not only the state of the user 81 when actually performing the first work OP1, but also the states (symptoms) that are likely to occur when the user 81 performs the first work OP1 in the future. This predicted output may be included in the evaluation result information.

この予測された出力に基づいて、使用者81が適切な変更を行うことで、将来のリスクを減らすことができる。例えば、評価結果情報は、使用者81への助言となり得る。使用者81は、よりリスクが低い状態で第1作業OP1を実施できるようになる。例えば、演算システム30(及び評価システム110など)は、使用者81の訓練システムとして用いることができる。 Based on this predicted output, the user 81 can make appropriate changes to reduce future risks. For example, the evaluation result information can serve as advice to the user 81. The user 81 can now perform the first work OP1 with lower risk. For example, the computing system 30 (and the evaluation system 110, etc.) can be used as a training system for the user 81.

実施形態において、第1作業OP1は、例えば、乗り物28の運転、仕事、または、スポーツなどを含んでも良い。 In the embodiment, the first work OP1 may include, for example, driving the vehicle 28, working, or playing sports.

第4実施形態においては、例えば、1日以上の長さの期間における使用者81の情報(生体情報及び行動情報)に基づいて、使用者81に関する、複数の分類されたランクの1つを含む評価結果情報が出力される。 In the fourth embodiment, for example, one of a plurality of classified ranks regarding the user 81 is included based on the information (biological information and behavioral information) of the user 81 during a period of one day or more. Evaluation result information is output.

例えば、定期的な健康診断などが行われる。この場合、健康診断が行われるそのとき(一日未満)における、使用者81の状態が検出される。健康診断により得られる情報は、そのときの使用者81の健康状態が検出される。しかし、健康診断において検出された健康状態によってその使用者81が第1作業OP1を行うときの状態の可能性(例えばリスク)についての評価を行うことは困難である。 For example, regular health checkups are performed. In this case, the condition of the user 81 at the time (less than one day) when the health checkup is performed is detected. The information obtained through the health checkup detects the health condition of the user 81 at that time. However, it is difficult to evaluate the possibility (for example, risk) of the user 81's condition when performing the first work OP1 based on the health condition detected in the medical examination.

例えば、健康診断においては、評価項目(例えば血圧など)について、標準範囲が定められる。例えば、血圧の正常範囲が定められ、その範囲を超えると、例えば、疾患状態であると判断される。すなわち、使用者81から得られた情報(例えば生体情報)は、別に定められた標準値(例えば正常範囲)と比較される。比較結果に基づいて、使用者81の健康状態などが判断される。 For example, in a health checkup, standard ranges are determined for evaluation items (eg, blood pressure, etc.). For example, a normal range of blood pressure is determined, and when the range is exceeded, it is determined that a person is in a disease state, for example. That is, information obtained from the user 81 (for example, biological information) is compared with a separately determined standard value (for example, a normal range). Based on the comparison results, the health condition of the user 81 is determined.

一方、病院または介護施設などにおいて、使用者81(例えば、患者または被介護者)の生体情報が取得される。例えば、生体情報として脈拍などが検出される。そして、検出された脈拍が、別に定められた標準値(例えば正常範囲)と比較される。その結果に基づいて、例えば、アラームが発生され、適切な処置が行われる。しかし、病院または介護施設などにおける生体情報の取得結果から、その使用者81の将来の可能性(例えば、第1作業OP1行うときのリスクなど)が評価されることはない。 On the other hand, biometric information of a user 81 (for example, a patient or a care recipient) is acquired in a hospital or nursing care facility. For example, pulse rate or the like is detected as biological information. The detected pulse is then compared with a separately determined standard value (for example, a normal range). Based on the results, for example, an alarm is generated and appropriate action is taken. However, the future possibilities of the user 81 (for example, the risks when performing the first task OP1) are not evaluated based on the results of biometric information acquisition at a hospital or nursing care facility.

これに対して、第4実施形態においては、使用者81についての第1情報及び第2情報に基づいて、使用者81の将来の可能性が評価される。例えば、評価結果が、分類された複数のランクの1つとして出力される。これにより、使用者81の将来の可能性(リスク)を客観的に知ることができる。 On the other hand, in the fourth embodiment, the future possibility of the user 81 is evaluated based on the first information and the second information about the user 81. For example, the evaluation result is output as one of a plurality of classified ranks. Thereby, the future possibility (risk) of the user 81 can be objectively known.

第4実施形態において、使用者81の情報を取得する期間は、例えば、2日以上でも良い。例えば、期間が1日である場合には、昼夜の条件の変化が1回生じる。このため、得られた情報のばらつきが大きい場合がある。使用者81の情報を取得する期間が2日以上である場合には、昼夜の条件が複数回生じる。複数回の条件により得られた情報が、例えば、平均化される。これにより、より高い精度で、使用者81を評価することができる。 In the fourth embodiment, the period for acquiring information about the user 81 may be, for example, two days or more. For example, if the period is one day, one change in day/night conditions occurs. Therefore, the variation in the obtained information may be large. If the period for acquiring information about the user 81 is two days or more, the day/night condition occurs multiple times. For example, information obtained under multiple conditions is averaged. Thereby, the user 81 can be evaluated with higher accuracy.

使用者81の情報を取得する期間は、例えば、3日以上、または、5日以上でも良い。これにより、より高い精度の評価結果が得られる。 The period for acquiring information about the user 81 may be, for example, three days or more, or five days or more. This allows evaluation results with higher accuracy to be obtained.

第4実施形態において、例えば、第1作業OP1を行わない第2状態ST2における第2情報は、その使用者81の過去の対応する情報でも良い。例えば、第1作業OP1を実施しているとき使用者81の評価の1か月前における状態が、第2状態ST2とされても良い。例えば、第1作業OP1を実施しているときの脈拍が第1情報である場合、その1か月前の就寝中の脈拍のデータが、第2情報として用いられても良い。 In the fourth embodiment, for example, the second information in the second state ST2 in which the first work OP1 is not performed may be information corresponding to the past of the user 81. For example, the state one month before the evaluation of the user 81 while performing the first work OP1 may be set as the second state ST2. For example, if the first information is the pulse rate while performing the first work OP1, data on the pulse rate while sleeping one month before may be used as the second information.

第4実施形態において、使用者81の評価結果情報は、保険の条件(例えば保険料及び保険金の少なくともいずれかなど)、預貯金の条件(例えば、利率など)、及び、各種のサービスの提供を受ける際の条件(例えば、サービスの内容など)の少なくともいずれかを含んでも良い。 In the fourth embodiment, the evaluation result information of the user 81 includes insurance conditions (for example, at least one of insurance premium and insurance money), deposit conditions (for example, interest rate, etc.), and the provision of various services. It may also include at least one of the conditions for receiving the service (for example, the content of the service, etc.).

(第5実施形態)
第5実施形態においても、例えば、演算システム30(例えば、演算装置、図1(a)または図4参照)が設けられる。演算システム30は、使用者81の生体情報を含む第1情報と、使用者81の行動情報を含む第2情報と、を入手する。これらの情報は、例えば、第1検出システム10または第2検出システム20などにより検出される。例えば、第2情報は、使用者81などにより入力されても良い。
(Fifth embodiment)
Also in the fifth embodiment, for example, a calculation system 30 (for example, a calculation device, see FIG. 1(a) or FIG. 4) is provided. The calculation system 30 obtains first information including biological information of the user 81 and second information including behavioral information of the user 81. This information is detected by, for example, the first detection system 10 or the second detection system 20. For example, the second information may be input by the user 81 or the like.

演算システム30は、第1情報(生体情報)と第2情報(行動情報)とに基づいて、使用者81に関する評価結果情報を出力することが可能である。 The calculation system 30 can output evaluation result information regarding the user 81 based on the first information (biological information) and the second information (behavior information).

例えば、寝ているときと、運動しているときと、の間で、生体情報(例えば、脈拍など)が異なる。この異なりの程度などに基づいて、使用者81の将来の状態の可能性(例えば、傷病の可能性)を評価(推定)することができる。評価結果が評価結果情報として出力される。 For example, biological information (for example, pulse rate, etc.) differs between when the person is sleeping and when the person is exercising. Based on the degree of this difference, etc., it is possible to evaluate (estimate) the possibility of the future state of the user 81 (for example, the possibility of injury or illness). The evaluation results are output as evaluation result information.

例えば、使用者81の睡眠の開始時間及び終了時間は、行動情報(第2情報)の1つに含まれる。一方、睡眠中の生体情報(脈拍の変化など)、または、昼間の生体情報(脈拍の変化など)などが、使用者81の生体情報(第1情報)として、取得される。このような第1情報及び第2情報に基づいて、使用者81の将来の状態の可能(例えば、傷病の可能性)を評価(推定)することができる。評価結果が評価結果情報として出力される。 For example, the start time and end time of sleep of the user 81 are included in one of the behavioral information (second information). On the other hand, biological information during sleep (such as changes in pulse rate) or biological information during the day (such as changes in pulse rate) is acquired as the biological information (first information) of the user 81. Based on such first information and second information, the possibility of the future state of the user 81 (for example, the possibility of injury or illness) can be evaluated (estimated). The evaluation results are output as evaluation result information.

第5実施形態においても、使用者の情報をより有効に利用できる評価システムを提供することができる。 Also in the fifth embodiment, it is possible to provide an evaluation system that can use user information more effectively.

第5実施形態においても評価結果情報は、例えば、分類された複数のランクの1つを含む。評価結果情報が、複数の分類の1つとして出力される。これにより、使用者81の評価結果が明確になる。評価結果情報は、例えば、生命保険及び医療保険料の少なくともいずれかの条件(例えばランク)を含んでも良い。 Also in the fifth embodiment, the evaluation result information includes, for example, one of a plurality of classified ranks. Evaluation result information is output as one of a plurality of classifications. This makes the evaluation result of the user 81 clear. The evaluation result information may include, for example, conditions (for example, rank) for at least one of life insurance and medical insurance premiums.

(第6実施形態)
第6実施形態においても、例えば、演算システム30(図1(a)または図4参照)が設けられる。演算システム30は、使用者81の、生体情報を含む情報を入手する。この情報は、例えば、第1検出システム10または第2検出システム20などにより検出される。
(Sixth embodiment)
Also in the sixth embodiment, for example, a calculation system 30 (see FIG. 1(a) or FIG. 4) is provided. The calculation system 30 obtains information including biometric information of the user 81. This information is detected, for example, by the first detection system 10 or the second detection system 20.

演算システム30は、この情報に基づいて、使用者81の将来の可能性(例えばリスクなど)に関する分類された複数のランクの1つを出力することができる。さらに、この評価結果情報に基づいて、例えば、生命保険及び医療保険料の少なくともいずれかの条件(例えばランク)が出力されても良い。 Based on this information, the computing system 30 can output one of a plurality of classified ranks regarding the future possibilities (eg, risks, etc.) of the user 81. Furthermore, based on this evaluation result information, for example, conditions (for example, rank) for at least one of life insurance and medical insurance premiums may be output.

例えば、健康診断または病院など(介護施設を含む)において、使用者81(例えば、患者または被介護者)の生体情報(例えば、血圧など)が検出される。そして、検出された生体情報が、別に定められた標準値(例えば正常範囲)と比較される。その結果に基づいて、例えば、使用者81の健康が診断される。または、アラームが発生され、適切な処置が行われる。しかし、健康診断または病院などにおける生体情報の取得結果から、その使用者81の将来の可能性(例えばリスクなど)に関して、分類された複数のランクとして、評価されることはない。そして、将来の可能性(例えばリスクなど)が、分類された複数のランクの1つとして出力されることもない。 For example, biometric information (eg, blood pressure, etc.) of the user 81 (eg, patient or care recipient) is detected at a health checkup or in a hospital (including a nursing care facility). The detected biological information is then compared with a separately determined standard value (for example, a normal range). Based on the results, the health of the user 81 is diagnosed, for example. Alternatively, an alarm is generated and appropriate action is taken. However, the future possibilities (for example, risks, etc.) of the user 81 are not evaluated as a plurality of classified ranks based on the results of biometric information acquired at a medical examination or a hospital. Further, future possibilities (for example, risks, etc.) are not output as one of the plurality of classified ranks.

これに対して、第6実施形態においては、使用者81の生体情報を含む情報に基づいて、使用者81の将来の可能性(例えばリスクなど)が、評価され、評価結果が、分類された複数のランクの1つとして出力される。使用者81の将来の可能性(リスク)を客観的に知ることができる。 On the other hand, in the sixth embodiment, the future possibilities (for example, risks) of the user 81 are evaluated based on information including biometric information of the user 81, and the evaluation results are classified. Output as one of multiple ranks. The future possibilities (risks) of the user 81 can be objectively known.

第6実施形態において、使用者81の生体情報を取得する期間は、例えば、1日以上である。この期間は、2日以上でも良い。例えば、期間が1日である場合には、昼夜の条件の変化が1回生じる。このため、得られた情報のばらつきが大きい場合がある。使用者81の情報を取得する期間が2日以上である場合には、昼夜の条件が複数回生じる。複数回の条件により得られた情報が、例えば、平均化される。これにより、より高い精度で、使用者81を評価することができる。使用者81の情報を取得する期間は、例えば、3日以上、または、5日以上でも良い。これにより、より高い精度の評価結果が得られる。 In the sixth embodiment, the period for acquiring biometric information of the user 81 is, for example, one day or more. This period may be two days or more. For example, if the period is one day, one change in day/night conditions occurs. Therefore, the variation in the obtained information may be large. If the period for acquiring information about the user 81 is two days or more, the day/night condition occurs multiple times. For example, information obtained under multiple conditions is averaged. Thereby, the user 81 can be evaluated with higher accuracy. The period for acquiring information about the user 81 may be, for example, three days or more, or five days or more. This allows evaluation results with higher accuracy to be obtained.

第6実施形態においても、使用者の情報をより有効に利用できる評価システムが提供できる。 Also in the sixth embodiment, an evaluation system that can utilize user information more effectively can be provided.

上記の第4~第6実施形態に係る処理は、図8に関して説明した演算システム30(演算装置)により実施されても良い。 The processes according to the fourth to sixth embodiments described above may be performed by the arithmetic system 30 (arithmetic device) described with reference to FIG.

図11は、実施形態に係る保険を例示する模式図である。
実施形態において、保険は、将来起こるかもしれない危険に対し、予測される事故発生の確率に見合った一定の保険料を加入者が公平に分担し、万一の事故に対して備える相互扶助の精神から生まれた助け合いの制度である。保険は、リスクの対象を基準として分類すると、ヒトに関する保険(例えば人の死亡やけが、病気に対する保険)、モノに関する保険(例えば物の損傷に対する保険)、カネに関する保険(例えば収入の減少に対する保険)、コトに関する保険(例えば賠償責任の負担に対する保険)に分類できる。
FIG. 11 is a schematic diagram illustrating insurance according to the embodiment.
In this embodiment, insurance is a mutual aid system in which participants fairly share a fixed insurance premium commensurate with the predicted probability of an accident occurring against risks that may occur in the future. It is a system of mutual help born from the spirit. Insurance can be classified based on the subject of risk: insurance for people (for example, insurance against death, injury, or illness), insurance for things (for example, insurance for damage to property), and insurance for money (for example, insurance for loss of income). ), and insurance related to matters (for example, insurance against liability).

図11に示すように、ヒト-カネに関する保険として、例えば、生命保険及び傷害保険がある。保険の例示として、火災保険、地震保険、自動車保険、自賠責保険、交通事故傷害保険、普通傷害保険、海外旅行傷害保険、医療保障保険、介護保険、及び、年金保険等も挙げられる。これらの保険に対しても、本発明を適宜設計変更の上、適用してもよい。 As shown in FIG. 11, examples of insurance related to people and money include life insurance and accident insurance. Examples of insurance include fire insurance, earthquake insurance, automobile insurance, compulsory automobile liability insurance, traffic accident insurance, general accident insurance, overseas travel accident insurance, medical security insurance, nursing care insurance, and pension insurance. The present invention may also be applied to these types of insurance with appropriate design changes.

実施形態によれば、生体情報をより有効に利用できる評価システムが提供できる。 According to the embodiment, an evaluation system that can utilize biological information more effectively can be provided.

以上、具体例を参照しつつ、本発明の実施の形態について説明した。しかし、本発明は、これらの具体例に限定されるものではない。例えば、評価システムに含まれる演算装置、通信部、サーバ、制御部、検出器及びシステムなどの各要素の具体的な構成に関しては、当業者が公知の範囲から適宜選択することにより本発明を同様に実施し、同様の効果を得ることができる限り、本発明の範囲に包含される。 The embodiments of the present invention have been described above with reference to specific examples. However, the present invention is not limited to these specific examples. For example, regarding the specific configuration of each element included in the evaluation system, such as the arithmetic unit, communication unit, server, control unit, detector, and system, those skilled in the art can appropriately select from the known range, and the present invention can be implemented in the same way. As long as the same effect can be obtained by implementing the method, it is included in the scope of the present invention.

各具体例のいずれか2つ以上の要素を技術的に可能な範囲で組み合わせたものも、本発明の要旨を包含する限り本発明の範囲に含まれる。 Combinations of any two or more elements of each specific example to the extent technically possible are also included within the scope of the present invention as long as they encompass the gist of the present invention.

その他、本発明の実施形態として上述した評価システムを基にして、当業者が適宜設計変更して実施し得る全ての評価システムも、本発明の要旨を包含する限り、本発明の範囲に属する。 In addition, all evaluation systems that can be implemented by appropriately modifying the design based on the evaluation system described above as an embodiment of the present invention by those skilled in the art also belong to the scope of the present invention as long as they include the gist of the present invention.

その他、本発明の思想の範疇において、当業者であれば、各種の変更例及び修正例に想到し得るものであり、それら変更例及び修正例についても本発明の範囲に属するものと了解される。 In addition, it is understood that various changes and modifications can be made by those skilled in the art within the scope of the idea of the present invention, and these changes and modifications also fall within the scope of the present invention. .

10…第1ユーザシステム、 11…通信端末、 20…第2ユーザシステム、 21…通信部、 22…サーバ、 27…座席、 28…乗り物、 30…演算システム、 31…通信部、 32…サーバ、 33…制御部、 34…RAM、 34a…RAM、 34b…ROM、 35a…入力部、 35b…出力部、 40…出力システム、 41…情報端末、 42…サーバ、 43…制御部、 60…マットレス、 70…ベッド、 71…ボトム、 72…枕、 81…使用者、 110、111…評価システム、 CE、CEi…信頼度、 CMD…コマンド、 D1~D8…第1~第8日、 DATA1…データ、 Ev1…評価値、 Iv1…値、 OP1…第1作業、 S1~S8…ステップ、 SG1…第1信号、 SG2…第2信号、 SG7…第7信号、 SN、SNi…検出器、 SN1~SN7…第1~第7検出器、 ST1、ST2…状態、 t1~t5、tk…期間、 tm…時間、 xv1、xv2…指標 10... First user system, 11... Communication terminal, 20... Second user system, 21... Communication department, 22... Server, 27... Seat, 28... Vehicle, 30... Arithmetic system, 31... Communication department, 32... Server, 33...Control unit, 34...RAM, 34a...RAM, 34b...ROM, 35a...Input unit, 35b...Output unit, 40...Output system, 41...Information terminal, 42...Server, 43...Control unit, 60...Mattress, 70...Bed, 71...Bottom, 72...Pillow, 81...User, 110, 111...Evaluation system, CE, CEi...Reliability, CMD...Command, D1 to D8...1st to 8th day, DATA1...Data, Ev1...Evaluation value, Iv1...Value, OP1...First work, S1-S8...Step, SG1...First signal, SG2...Second signal, SG7...Seventh signal, SN, SNi...Detector, SN1-SN7... 1st to 7th detectors, ST1, ST2...state, t1 to t5, tk...period, tm...time, xv1, xv2...indicator

Claims (3)

第1検出器と、
前記第1検出器と異なる第2検出器と、
使用者が第1作業をしている第1状態である第1期間に前記第1検出器で取得した第1生体情報に基づいて、前記使用者が前記第1状態であって前記第1期間と異なる第2期間に前記第2検出器で取得した第2生体情報を評価する制御部と、
を備え、
前記第2生体情報を評価することにより、前記使用者が異常な状態であると前記制御部が評価したとき、前記第1作業で使用される装置をマニュアル運転から自動運転に切り替えるシステム。
a first detector;
a second detector different from the first detector;
Based on the first biological information acquired by the first detector during the first period in which the user is in the first state in which the user is performing the first task, the user is in the first state and in the first period. a control unit that evaluates second biological information acquired by the second detector during a second period different from the first period;
Equipped with
A system for switching an apparatus used in the first work from manual operation to automatic operation when the control unit evaluates that the user is in an abnormal state by evaluating the second biological information.
前記第1生体情報及び前記第2生体情報は、同種の生体情報である、請求項1記載のシステム The system according to claim 1, wherein the first biometric information and the second biometric information are the same type of biometric information. 前記制御部は、前記第2生体情報の評価結果に基づいて、前記使用者の前記第1作業に関する保険料を算出する、請求項1または請求項2記載のシステム The system according to claim 1 or 2, wherein the control unit calculates an insurance premium regarding the first work of the user based on the evaluation result of the second biological information.
JP2022180658A 2017-07-26 2022-11-11 rating system Active JP7445728B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022180658A JP7445728B2 (en) 2017-07-26 2022-11-11 rating system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017144888A JP6854208B2 (en) 2017-07-26 2017-07-26 Evaluation system
JP2021040951A JP7177876B2 (en) 2017-07-26 2021-03-15 rating system
JP2022180658A JP7445728B2 (en) 2017-07-26 2022-11-11 rating system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021040951A Division JP7177876B2 (en) 2017-07-26 2021-03-15 rating system

Publications (2)

Publication Number Publication Date
JP2023025703A JP2023025703A (en) 2023-02-22
JP7445728B2 true JP7445728B2 (en) 2024-03-07

Family

ID=65476817

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2017144888A Active JP6854208B2 (en) 2017-07-26 2017-07-26 Evaluation system
JP2021040951A Active JP7177876B2 (en) 2017-07-26 2021-03-15 rating system
JP2022180658A Active JP7445728B2 (en) 2017-07-26 2022-11-11 rating system

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2017144888A Active JP6854208B2 (en) 2017-07-26 2017-07-26 Evaluation system
JP2021040951A Active JP7177876B2 (en) 2017-07-26 2021-03-15 rating system

Country Status (1)

Country Link
JP (3) JP6854208B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021012525A (en) * 2019-07-05 2021-02-04 ジャパンモード株式会社 Driving insurance proposal program, possibility determination program of including driving insurance condition

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010057664A (en) 2008-09-03 2010-03-18 Mazda Motor Corp Occupant physical condition management device for vehicle
JP2012120597A (en) 2010-12-06 2012-06-28 Fujitsu Ten Ltd On-board device
JP2016103275A (en) 2014-11-28 2016-06-02 株式会社東芝 Communication device and system including communication device
JP2017027414A (en) 2015-07-23 2017-02-02 株式会社日立システムズ Server device, life log system and caution information output method
JP2017124153A (en) 2016-01-07 2017-07-20 パナソニックIpマネジメント株式会社 Biological information measuring device

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08234805A (en) * 1995-02-22 1996-09-13 Yamaha Motor Co Ltd System and device for making worker comfortable
DE10042367A1 (en) * 2000-08-29 2002-05-02 Bosch Gmbh Robert Method and device for diagnosing a driver's ability to drive in a motor vehicle
JP2002109063A (en) * 2000-09-28 2002-04-12 Casio Comput Co Ltd Health management service system, health management service method, client terminal, health management server and recording medium
JP2009148372A (en) * 2007-12-19 2009-07-09 Panasonic Electric Works Co Ltd Stress determining system and stress relieving system
JP4973551B2 (en) * 2008-03-12 2012-07-11 株式会社デンソー Driver status determination device
JP5576234B2 (en) * 2010-10-14 2014-08-20 株式会社デンソー Biological condition monitoring device
JP2012118951A (en) * 2010-12-03 2012-06-21 Fujitsu Ten Ltd On-vehicle device and driving support system
WO2014002418A1 (en) * 2012-06-27 2014-01-03 日産自動車株式会社 Stressed condition estimation device, and stressed condition estimation method
GB201219244D0 (en) * 2012-10-26 2012-12-12 3M Innovative Properties Co Monitoring system for use in compression therapy
US9848814B2 (en) * 2014-02-20 2017-12-26 Faurecia Automotive Seating, Llc Vehicle seat with integrated sensors
JP2016101222A (en) * 2014-11-27 2016-06-02 三菱電機株式会社 Bathing system and network system
JP2016134131A (en) * 2015-01-22 2016-07-25 セイコーエプソン株式会社 Information processing system, program and control method of information processing system
US20160364549A1 (en) * 2015-06-15 2016-12-15 Baoguo Wei System and method for patient behavior and health monitoring
JP2017107411A (en) * 2015-12-10 2017-06-15 株式会社堀場製作所 Driving recorder, program for driving recorder, and travel management system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010057664A (en) 2008-09-03 2010-03-18 Mazda Motor Corp Occupant physical condition management device for vehicle
JP2012120597A (en) 2010-12-06 2012-06-28 Fujitsu Ten Ltd On-board device
JP2016103275A (en) 2014-11-28 2016-06-02 株式会社東芝 Communication device and system including communication device
JP2017027414A (en) 2015-07-23 2017-02-02 株式会社日立システムズ Server device, life log system and caution information output method
JP2017124153A (en) 2016-01-07 2017-07-20 パナソニックIpマネジメント株式会社 Biological information measuring device

Also Published As

Publication number Publication date
JP2023025703A (en) 2023-02-22
JP2019024644A (en) 2019-02-21
JP2021094419A (en) 2021-06-24
JP6854208B2 (en) 2021-04-07
JP7177876B2 (en) 2022-11-24

Similar Documents

Publication Publication Date Title
US11232869B2 (en) Detecting infection using personalized criteria
US20210035067A1 (en) Method to increase efficiency, coverage, and quality of direct primary care
US10842429B2 (en) Method and system for assessing a readiness score of a user
JP7043655B2 (en) Abnormality notification device, program and abnormality notification method
US20160224750A1 (en) Monitoring system for assessing control of a disease state
US20200265950A1 (en) Biological information processing system, biological information processing method, and computer program recording medium
JP2022515374A (en) System and method for determining arousal level
KR20110052783A (en) Method and apparatus for obtaining of biometric information
US20200359913A1 (en) System, apparatus, and methods for remote health monitoring
CN113383395A (en) Decision support software system for sleep disorder recognition
JP7445728B2 (en) rating system
US20230245741A1 (en) Information processing device, information processing system, and information processing method
CN109846470B (en) Abnormality determination device, electronic apparatus, and computer-readable storage medium
JP7034687B2 (en) Abnormality notification device and program
US20240032851A1 (en) Cognitive function estimation device, cognitive function estimation method, and storage medium
CN113598721B (en) Wearable terminal, core body temperature monitoring method thereof and computer readable storage medium
JP6864460B2 (en) Disease prediction device
US20240008783A1 (en) Method and system for sensor signals dependent dialog generation during a medical imaging process
JP7084526B2 (en) Terminal device, output method and computer program
WO2021106289A1 (en) Analysis system and analysis method
WO2020234957A1 (en) Rehabilitation assistance system and rehabilitation assistance method
US20200268300A1 (en) Systems and methods for predicting mood, emotion and behavior of non-recumbent subjects
Arias et al. Data collection capabilities of a new non-invasive monitoring system for patients with advanced multiple sclerosis
JP7261913B2 (en) Abnormality notification device, program, and abnormality notification method
WO2022149456A1 (en) Health status determination system, residence, management device, program, and health status determination method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240226

R150 Certificate of patent or registration of utility model

Ref document number: 7445728

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150