JP2018075255A - State estimation device, and state estimation method - Google Patents

State estimation device, and state estimation method Download PDF

Info

Publication number
JP2018075255A
JP2018075255A JP2016219992A JP2016219992A JP2018075255A JP 2018075255 A JP2018075255 A JP 2018075255A JP 2016219992 A JP2016219992 A JP 2016219992A JP 2016219992 A JP2016219992 A JP 2016219992A JP 2018075255 A JP2018075255 A JP 2018075255A
Authority
JP
Japan
Prior art keywords
user
environment
feature amount
state estimation
blink
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016219992A
Other languages
Japanese (ja)
Inventor
友揮 森
Tomoki Mori
友揮 森
鎌田 忠
Tadashi Kamata
忠 鎌田
直紀 伊藤
Naoki Ito
直紀 伊藤
哲史 野呂
Tetsushi Noro
哲史 野呂
俊介 塩谷
Shunsuke Shioya
俊介 塩谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Jins Inc
Original Assignee
Denso Corp
Jins Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Jins Inc filed Critical Denso Corp
Priority to JP2016219992A priority Critical patent/JP2018075255A/en
Publication of JP2018075255A publication Critical patent/JP2018075255A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a state estimation device or the like for achieving highly accurate state estimation while securing resistance to disturbance.SOLUTION: A wearable device 10 functions as a state estimation device for estimating a user's state. The wearable device 10 acquires blinking detection information that detects the user's blinking, and calculates a plurality of feature amounts relating to the user's blinking from the blinking detection information. Further, the wearable device 10 estimates user environment around the user, and selects a feature amount corresponding to the user environment from among the plurality of feature amounts. The user's state is estimated by using the feature amount selected in this manner.SELECTED DRAWING: Figure 3

Description

この明細書による開示は、ユーザの状態を推定する状態推定装置、及び状態推定方法に関する。   The disclosure according to this specification relates to a state estimation device and a state estimation method for estimating a user's state.

従来、例えば眠気等のユーザの状態を推定するために、ユーザの瞼の開度及び瞬目等を検出する技術が知られている。例えば特許文献1には、撮像手段を用いて撮像したユーザの顔画像から、瞬目を行った上下の瞼の位置を特定し、ユーザの瞼の開度を検出する顔検出装置が開示されている。   Conventionally, in order to estimate a user's state such as drowsiness, for example, a technique for detecting the opening degree of a user's eyelids and blinks is known. For example, Patent Document 1 discloses a face detection device that identifies the positions of upper and lower eyelids that have blinked from the user's face image captured using an imaging unit and detects the opening degree of the user's eyelids. Yes.

加えて特許文献1の顔検出装置は、ユーザの左右方向の顔向きの角度を検出し、ユーザの顔向きの角度が閾値以下の場合では両眼の瞼の開度を検出する一方で、ユーザの顔向きの角度が閾値を超えた場合には、片目の瞼の開度を検出する処理に切り替える。こうした処理により、ユーザの顔向きに起因した検出精度の低下が回避されている。   In addition, the face detection device of Patent Document 1 detects the angle of the face direction of the user in the left-right direction, and detects the eyelid opening degree of both eyes when the angle of the user face direction is equal to or less than the threshold value. When the face angle exceeds the threshold, the process switches to processing for detecting the eyelid opening degree of one eye. By such processing, a decrease in detection accuracy due to the user's face orientation is avoided.

特許第4992823号公報Japanese Patent No. 4992823

さて、本開示の発明者は、ユーザの顔向きだけでなく、ユーザ周囲の風及び光といった外乱によっても、検出精度の低下が引き起こされることに着目した。ここで、特許文献1では、ユーザ周囲の環境に起因する外乱による検出精度の低下は、何ら考慮されていない。そのため、特許文献1に開示の技術を用いてユーザの状態を推定した場合、外乱の影響による検出精度の悪化が懸念され得た。   The inventor of the present disclosure has focused on the fact that the detection accuracy is reduced not only by the user's face direction but also by disturbances such as wind and light around the user. Here, in patent document 1, the fall of the detection accuracy by the disturbance resulting from the environment around a user is not considered at all. Therefore, when the state of the user is estimated using the technique disclosed in Patent Document 1, there may be a concern that the detection accuracy is deteriorated due to the influence of disturbance.

本開示は、上記問題点に鑑みてなされたものであり、外乱への耐性を確保しつつ、高精度な状態推定を実現することが可能な状態推定装置、及び状態推定方法の提供を目的とする。   The present disclosure has been made in view of the above problems, and aims to provide a state estimation device and a state estimation method capable of realizing highly accurate state estimation while ensuring resistance to disturbance. To do.

上記目的を達成するため、開示された第一の態様は、ユーザの瞬目を検出した瞬目検出情報を取得する瞬目情報取得部(31)と、瞬目検出情報からユーザの瞬目に関連した複数の特徴量を算出する特徴量算出部(32)と、ユーザの周囲のユーザ環境を推定する環境推定部(33)と、特徴量算出部によって算出される複数の特徴量の中から、環境推定部にて推定されたユーザ環境に対応する特徴量を選定する特徴量選定部(34)と、特徴量選定部にて選定された特徴量を用いて、ユーザの状態を推定する状態推定部(35)と、を備える状態推定装置とされる。   In order to achieve the above object, the disclosed first aspect includes a blink information acquisition unit (31) that acquires blink detection information for detecting a blink of the user, and a blink of the user from the blink detection information. Among the plurality of feature amounts calculated by the feature amount calculation unit (32) that calculates a plurality of related feature amounts, the environment estimation unit (33) that estimates the user environment around the user, and the feature amount calculation unit A state in which a feature amount selection unit (34) for selecting a feature amount corresponding to the user environment estimated by the environment estimation unit and a state in which the user state is estimated using the feature amount selected by the feature amount selection unit And an estimation unit (35).

また、開示された第二の態様は、少なくとも一つのプロセッサ(21,251,351)の処理によりユーザの状態を推定する状態推定方法であって、ユーザの瞬目を検出した瞬目検出情報を取得し(S111)、瞬目検出情報からユーザの瞬目に関連した複数の特徴量を算出し(S112)、ユーザの周囲のユーザ環境を推定し(S102)、算出した複数の特徴量の中から、推定したユーザ環境に対応する特徴量を選定し(S113)、選定した特徴量を用いてユーザの状態を推定する(S115)状態推定方法とされる。   Further, the disclosed second aspect is a state estimation method for estimating a user's state by processing of at least one processor (21, 251 and 351). Obtaining (S111), calculating a plurality of feature quantities related to the user's blink from the blink detection information (S112), estimating a user environment around the user (S102), Then, a feature amount corresponding to the estimated user environment is selected (S113), and the state of the user is estimated using the selected feature amount (S115).

これらの態様では、ユーザ周囲のユーザ環境が推定されたうえで、瞬目検出情報から算出された複数の特徴量の中から、推定されたユーザ環境に対応した特徴量が選定される。故に外乱の少ない環境にユーザがある場合には、多くの特徴量を用いて、ユーザの状態が推定される。その結果、高精度な状態推定が可能となる。一方で、強い外乱の存在する環境にユーザがある場合には、外乱の影響を受け易い特徴量がユーザの状態の推定に用いる対象から除外され得る。その結果、外乱の影響による状態推定の精度悪化が低減される。以上によれば、外乱への耐性を確保しつつ、高精度なユーザの状態推定を実現することが可能となる。   In these aspects, after estimating the user environment around the user, a feature amount corresponding to the estimated user environment is selected from a plurality of feature amounts calculated from the blink detection information. Therefore, when the user is in an environment with little disturbance, the state of the user is estimated using many feature amounts. As a result, it is possible to estimate the state with high accuracy. On the other hand, when there is a user in an environment where a strong disturbance exists, a feature amount that is easily affected by the disturbance can be excluded from the target used for estimating the user's state. As a result, deterioration in accuracy of state estimation due to the influence of disturbance is reduced. According to the above, it is possible to realize highly accurate user state estimation while ensuring resistance to disturbance.

尚、上記括弧内の参照番号は、後述する実施形態における具体的な構成との対応関係の一例を示すものにすぎず、技術的範囲を何ら制限するものではない。   Note that the reference numbers in the parentheses merely show an example of a correspondence relationship with a specific configuration in an embodiment described later, and do not limit the technical scope at all.

第一実施形態によるウェアラブルデバイスの斜視図である。It is a perspective view of the wearable device by a first embodiment. ウェアラブルデバイスの電気的な構成を示すブロック図である。It is a block diagram which shows the electrical structure of a wearable device. 状態推定回路に構築される各機能ブロックを示す図である。It is a figure which shows each functional block constructed | assembled in a state estimation circuit. 眼電位信号から算出される各特徴量の詳細を模式的に示す図である。It is a figure which shows typically the detail of each feature-value calculated from an electrooculogram signal. 環境推定処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of an environment estimation process. 状態推定処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of a state estimation process. 第二実施形態による状態推定システムの電気的な構成を示すブロック図である。It is a block diagram which shows the electrical structure of the state estimation system by 2nd embodiment. 第三実施形態による状態推定システムの電気的な構成を示すブロック図である。It is a block diagram which shows the electric constitution of the state estimation system by 3rd embodiment.

以下、本開示の複数の実施形態を図面に基づいて説明する。尚、各実施形態において対応する構成要素には同一の符号を付すことにより、重複する説明を省略する場合がある。各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。また、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合わせることができる。そして、複数の実施形態及び変形例に記述された構成同士の明示されていない組み合わせも、以下の説明によって開示されているものとする。   Hereinafter, a plurality of embodiments of the present disclosure will be described based on the drawings. In addition, the overlapping description may be abbreviate | omitted by attaching | subjecting the same code | symbol to the corresponding component in each embodiment. When only a part of the configuration is described in each embodiment, the configuration of the other embodiment described above can be applied to the other part of the configuration. Moreover, not only the combination of the configurations explicitly described in the description of each embodiment, but also the configuration of a plurality of embodiments can be partially combined even if they are not explicitly described, as long as there is no problem in the combination. And the combination where the structure described in several embodiment and the modification is not specified shall also be disclosed by the following description.

(第一実施形態)
本開示の第一実施形態による状態推定装置の機能は、図1及び図2に示すアイウェア型のウェアラブルデバイス10によって実現されている。ウェアラブルデバイス10は、メガネ状に形成されたフレーム10aを備えており、ユーザに着用されることによって、ユーザの眼電位を計測可能である。ウェアラブルデバイス10は、計測した眼電位に基づき、ユーザの状態として、眠気、緊張、及び集中等の度合いを推定することができる。ウェアラブルデバイス10にて推定されたユーザ状態の推定結果は、例えばスマートフォン等の電子機器に無線通信によって送信され、ユーザへの情報提供又は注意喚起等に使用される。
(First embodiment)
The function of the state estimation apparatus according to the first embodiment of the present disclosure is realized by the eyewear-type wearable device 10 illustrated in FIGS. 1 and 2. Wearable device 10 is provided with frame 10a formed in the shape of glasses, and can measure the user's electrooculogram when worn by the user. The wearable device 10 can estimate the degree of sleepiness, tension, concentration, and the like as the user state based on the measured electrooculogram. The estimation result of the user state estimated by the wearable device 10 is transmitted to an electronic device such as a smartphone by wireless communication, and is used for providing information to the user or calling attention.

ウェアラブルデバイス10は、電気的な構成として、バッテリ11、瞬目計測部12、環境センサ群17、通信モジュール18、及び状態推定回路20を備えている。   The wearable device 10 includes a battery 11, a blink measurement unit 12, an environment sensor group 17, a communication module 18, and a state estimation circuit 20 as an electrical configuration.

バッテリ11は、瞬目計測部12、通信モジュール18、及び状態推定回路20等に電力を供給する電源である。バッテリ11は、リチウム電池等の一次電池であってもよく、リチウムイオン電池等の二次電池であってもよい。   The battery 11 is a power source that supplies power to the blink measurement unit 12, the communication module 18, the state estimation circuit 20, and the like. The battery 11 may be a primary battery such as a lithium battery or a secondary battery such as a lithium ion battery.

瞬目計測部12は、ユーザの瞬目を検出するために、ユーザの眼電位を計測する。瞬目計測部12は、中央電極13、左側電極14、及び右側電極15等を有している。各電極13〜15は、高い防錆性及び導電性を備えた例えばステンレス等の金属材料によって形成されている。各電極13〜15は、互いに離間した配置にて、フレーム10aに設けられている。各電極13〜15は、フレーム10a内に埋め込まれた配線を通じて状態推定回路20と接続されている。   The blink measurement unit 12 measures the user's electrooculogram in order to detect the user's blink. The blink measurement unit 12 includes a center electrode 13, a left electrode 14, a right electrode 15, and the like. Each electrode 13-15 is formed with metal materials, such as stainless steel provided with high rust prevention property and electroconductivity. Each electrode 13-15 is provided in the flame | frame 10a in the arrangement | positioning spaced apart from each other. Each of the electrodes 13 to 15 is connected to the state estimation circuit 20 through a wiring embedded in the frame 10a.

各電極13〜15は、ウェアラブルデバイス10をユーザが装着することにより、ユーザの眼球付近に配置され、ユーザの皮膚と接触する。中央電極13は、フレーム10aのブリッジ部分に設けられており、ウェアラブルデバイス10を装着したユーザの眉間部分と接触する。左側電極14及び右側電極15は、メガネ状のフレーム10aの左右のノーズパッドを形成しており、ユーザの鼻に左右の両側から接触する。   Each electrode 13-15 is arrange | positioned near a user's eyeball by a user wearing the wearable device 10, and contacts a user's skin. The center electrode 13 is provided at the bridge portion of the frame 10 a and contacts the portion between the eyebrows of the user wearing the wearable device 10. The left electrode 14 and the right electrode 15 form left and right nose pads of the glasses-like frame 10a, and contact the user's nose from both the left and right sides.

瞬目計測部12は、各電極13〜15を用いて計測した眼電位信号を、瞬目検出情報として状態推定回路20に供給する。尚、瞬目計測部12に設けられる電極の数及び配置は、適宜変更可能である。例えば瞬目計測部12は、状態推定回路20に接地電位を供給する接地電極さらに有していてもよい。   The blink measurement unit 12 supplies the electrooculogram signal measured using the electrodes 13 to 15 to the state estimation circuit 20 as blink detection information. The number and arrangement of the electrodes provided in the blink measurement unit 12 can be changed as appropriate. For example, the blink measurement unit 12 may further include a ground electrode that supplies a ground potential to the state estimation circuit 20.

環境センサ群17は、複数のセンサを有している。複数のセンサは、ウェアラブルデバイス10を装着したユーザの周囲の環境(以下、「ユーザ環境」)を推定するために必要な物理量を計測する。具体的に、環境センサ群17には、時計17a、GNSS(Global Navigation Satellite System)受信部17b、及び照度センサ17cが含まれている。時計17a、GNSS受信部17b、及び環境センサ群17は、それぞれ状態推定回路20と接続されている。   The environmental sensor group 17 has a plurality of sensors. The plurality of sensors measure physical quantities necessary for estimating the environment around the user wearing the wearable device 10 (hereinafter, “user environment”). Specifically, the environmental sensor group 17 includes a clock 17a, a GNSS (Global Navigation Satellite System) receiving unit 17b, and an illuminance sensor 17c. The clock 17a, the GNSS receiver 17b, and the environment sensor group 17 are each connected to the state estimation circuit 20.

時計17aは、現在の日付及び時刻を示す時間情報を、状態推定回路20に逐次提供する。GNSS受信部17bは、複数の人工衛星から受信した測位信号に基づいて、ウェアラブルデバイス10の現在の位置情報を生成する。GNSS受信部17bは、生成した位置情報と、測位信号の受信強度を示す強度情報とを、状態推定回路20に逐次提供する。照度センサ17cは、受光素子に入射した光を電流に変換することにより、ウェアラブルデバイス10の周囲の明るさを計測する。照度センサ17cは、ユーザ周囲の明るさを示す明るさ情報を、状態推定回路20に逐次提供する。   The clock 17a sequentially provides time information indicating the current date and time to the state estimation circuit 20. The GNSS receiving unit 17b generates current position information of the wearable device 10 based on positioning signals received from a plurality of artificial satellites. The GNSS receiver 17b sequentially provides the generated position information and strength information indicating the received strength of the positioning signal to the state estimation circuit 20. The illuminance sensor 17c measures the brightness around the wearable device 10 by converting the light incident on the light receiving element into a current. The illuminance sensor 17c sequentially provides brightness information indicating brightness around the user to the state estimation circuit 20.

通信モジュール18は、例えばブルートゥース(登録商標)及び無線LAN等による無線通信によって、スマートフォン等の電子機器との間で情報の送受信を行うことができる。通信モジュール18は、ユーザ環境の推定に利用可能な環境情報を無線通信によって受信すると共に、ユーザ状態の推定結果を他の電子機器等に送信する。   The communication module 18 can transmit and receive information to and from an electronic device such as a smartphone by wireless communication using, for example, Bluetooth (registered trademark) and a wireless LAN. The communication module 18 receives environment information that can be used for estimation of the user environment by wireless communication, and transmits the estimation result of the user state to another electronic device or the like.

状態推定回路20は、プロセッサ21、RAM22、及び記憶媒体23と、電源インターフェース及び信号インターフェース等とによって構成されている。記憶媒体23には、後述する記憶領域37(図3参照)が確保されている。信号インターフェースには、例えば各電極13〜15から入力される信号を増幅させるアンプ部、及び信号のノイズを取り除くフィルタ部等が設けられている。   The state estimation circuit 20 includes a processor 21, a RAM 22, a storage medium 23, a power interface, a signal interface, and the like. A storage area 37 (see FIG. 3) to be described later is secured in the storage medium 23. The signal interface includes, for example, an amplifier unit that amplifies signals input from the electrodes 13 to 15 and a filter unit that removes signal noise.

状態推定回路20は、記憶媒体23に記憶された状態推定プログラムをプロセッサ21によって実行する。状態推定プログラムの実行により、状態推定回路20には、図3に示す瞬目情報取得部31、特徴量算出部32、環境推定部33、特徴量選定部34、及び状態推定部35が機能ブロックとして構築される。   The state estimation circuit 20 causes the processor 21 to execute a state estimation program stored in the storage medium 23. By executing the state estimation program, the state estimation circuit 20 includes the blink information acquisition unit 31, the feature amount calculation unit 32, the environment estimation unit 33, the feature amount selection unit 34, and the state estimation unit 35 illustrated in FIG. Built as.

瞬目情報取得部31は、ユーザの瞬目を検出した瞬目検出情報を、瞬目計測部12から取得する。瞬目検出情報には、ユーザの眼電位を計測した計測結果(眼電位信号)が少なくとも含まれている。眼電位信号は、所謂EOG法にて眼球運動の推定に用いられる計測データである。   The blink information acquisition unit 31 acquires blink detection information that has detected a user's blink from the blink measurement unit 12. The blink detection information includes at least a measurement result (an electrooculogram signal) obtained by measuring the electrooculogram of the user. The electrooculogram signal is measurement data used for estimating eye movement by the so-called EOG method.

特徴量算出部32は、瞬目情報取得部31にて取得される瞬目検出情報としての眼電位信号から、ユーザの瞬目に関連した複数の特徴量を算出する。図4に示すように、ユーザが瞬目を行うことにより、眼電位信号には、大きな振幅が表れる。特徴量算出部32(図3参照)は、眼電位信号の波形における振幅が正負のそれぞれに設定された閾値th1,th2を共に超えた場合、一回の瞬目が発生したと判定する。特徴量算出部32は、検出された各瞬目について、瞬目強度と瞬目に要した時間(瞬目時間)とを算出する。加えて特徴量算出部32は、所定時間(例えば1分間)あたりに発生した瞬目の回数(以下、「瞬目数」)、瞬目の発生間隔、発生間隔の偏差、瞬目強度の偏差、瞬目時間の偏差、及び群発瞬目の発生回数等を算出する。尚、群発瞬目の発生回数は、ごく短い特定時間(例えば1秒間)に複数回の瞬目が発生した場合に、一回の群発瞬目が発生したと計数される。図4に示すように、特徴量算出部32は、算出した各特徴量の情報、即ち算出値を、環境推定部33及び特徴量選定部34に逐次提供する。   The feature amount calculation unit 32 calculates a plurality of feature amounts related to the user's blink from the electrooculogram signal as the blink detection information acquired by the blink information acquisition unit 31. As shown in FIG. 4, when the user performs blinks, a large amplitude appears in the electrooculogram signal. The feature amount calculation unit 32 (see FIG. 3) determines that one blink has occurred when the amplitude in the waveform of the electrooculogram signal exceeds both the threshold values th1 and th2 set to positive and negative, respectively. The feature amount calculation unit 32 calculates, for each detected blink, a blink strength and a time required for the blink (blink time). In addition, the feature amount calculation unit 32 generates the number of blinks generated per predetermined time (for example, 1 minute) (hereinafter, “number of blinks”), the blink occurrence interval, the deviation of the blink interval, and the blink strength deviation. Then, the blink time deviation, the number of occurrences of the blink blink, and the like are calculated. It should be noted that the number of occurrences of cluster blinks is counted as one occurrence of cluster blinks when multiple blinks occur in a very short specific time (for example, 1 second). As shown in FIG. 4, the feature amount calculation unit 32 sequentially provides information on each calculated feature amount, that is, a calculated value, to the environment estimation unit 33 and the feature amount selection unit 34.

環境推定部33は、ユーザ環境を推定する環境推定処理(図5参照)を行う。環境推定処理は、ユーザによるウェアラブルデバイス10の装着によって開始され、ユーザがウェアラブルデバイス10を外すまで繰り返し継続される。環境推定処理において、環境推定部33は、環境推定に必要となる環境情報を、環境センサ群17、通信モジュール18、及び特徴量算出部32から取得する(図5 S101参照)。そして環境推定部33は、取得した環境情報に基づいて、ユーザ環境を推定する(図5 S102参照)。   The environment estimation unit 33 performs environment estimation processing (see FIG. 5) for estimating the user environment. The environment estimation process is started when the user wears the wearable device 10 and continues repeatedly until the user removes the wearable device 10. In the environment estimation process, the environment estimation unit 33 acquires environment information necessary for environment estimation from the environment sensor group 17, the communication module 18, and the feature amount calculation unit 32 (see S101 in FIG. 5). And the environment estimation part 33 estimates a user environment based on the acquired environment information (refer FIG. 5 S102).

環境推定部33は、環境推定処理において、例えばユーザの周囲の明るさに関連した環境情報に基づいて、ユーザが眩しさを感じる環境にあるか否かを判定可能である。加えて環境推定部33は、ユーザの周囲の風に関連した環境情報に基づいて、ユーザが風を受ける環境にあるか否かを判定可能である。   In the environment estimation process, the environment estimation unit 33 can determine whether or not the user feels dazzled based on, for example, environment information related to brightness around the user. In addition, the environment estimation unit 33 can determine whether or not the user is in an environment receiving wind based on environment information related to the wind around the user.

具体的に、明るさに関連した環境情報には、照度センサ17cから取得する明るさ情報、及び時計17aから取得する時間情報等が該当する。環境推定部33は、照度センサ17cの明るさ情報に基づき、ユーザが眩しさを感じる環境にあるか否かを判定できる。照度センサ17cにて検出されるユーザ環境の照度が予め設定された照度閾値よりも高い場合、環境推定部33は、ユーザが眩しさを感じる環境にあると判定する。   Specifically, the environment information related to the brightness corresponds to brightness information acquired from the illuminance sensor 17c, time information acquired from the clock 17a, and the like. The environment estimation unit 33 can determine whether or not the user feels dazzling based on the brightness information of the illuminance sensor 17c. When the illuminance of the user environment detected by the illuminance sensor 17c is higher than a preset illuminance threshold, the environment estimation unit 33 determines that the user feels dazzling.

加えて環境推定部33は、例えば時間情報に基づいて、現在時刻が昼の時間帯なのか夜の時間帯なのかを推定する。現在時刻が昼の時間帯であれば、環境推定部33は、自然光によってユーザが眩しさを感じる環境にあると判定する。一方で、現在時刻が夜の時間帯であれば、環境推定部33は、ユーザが眩しさを感じない又は感じ難い環境にあると判定する。   In addition, the environment estimation unit 33 estimates whether the current time is a daytime zone or a nighttime zone based on, for example, time information. If the current time is a daytime time zone, the environment estimation unit 33 determines that the user feels dazzled by natural light. On the other hand, if the current time is a night time zone, the environment estimation unit 33 determines that the user does not feel dazzling or is difficult to feel.

また、風に関連した環境情報には、GNSS受信部17bから取得する測位信号の強度情報が該当する。環境推定部33は、測位信号の強度情報に基づいて、ユーザが屋内にいるのか、屋外にいるのかを推定する。測位信号の受信強度が予め設定された感度閾値よりも低い場合、環境推定部33は、ユーザが屋内に居るため、風を受ける環境にないと判定する。一方で、測位信号の受信強度が予め設定された感度閾値よりも高い場合、環境推定部33は、ユーザが屋外に出ており、風を受ける環境にあると判定する。   Moreover, the strength information of the positioning signal acquired from the GNSS receiving unit 17b corresponds to the environment information related to the wind. The environment estimation unit 33 estimates whether the user is indoors or outdoors based on the strength information of the positioning signal. When the received intensity of the positioning signal is lower than a preset sensitivity threshold, the environment estimation unit 33 determines that the user is not indoors because the user is indoors. On the other hand, when the received intensity of the positioning signal is higher than a preset sensitivity threshold, the environment estimation unit 33 determines that the user is outside and is in an environment receiving wind.

さらに環境推定部33は、特徴量算出部32の算出した各特徴量を環境情報として、これら特徴量の変化に基づいてユーザ環境を推定可能である。例えば、各特徴量のうちで、瞬目数、瞬目の発生間隔、及び発生間隔の偏差は、眩しさの影響を受け易い。故に、これらの値に顕著な変化が生じた場合に、環境推定部33は、眩しさを感じる環境にユーザ環境が変化したと判定する。また同様に、各特徴量のうちで、瞬目数、瞬目の発生間隔、及び瞬目時間の偏差は、風の影響を受けやすい。故に、これらの値に顕著な変化が生じた場合に、環境推定部33は、風を受ける環境にユーザ環境が変化したと判定する。   Furthermore, the environment estimation unit 33 can estimate the user environment based on changes in the feature amounts using the feature amounts calculated by the feature amount calculation unit 32 as environment information. For example, among each feature amount, the number of blinks, the occurrence interval of blinks, and the deviation of the occurrence interval are easily affected by glare. Therefore, when significant changes occur in these values, the environment estimation unit 33 determines that the user environment has changed to an environment in which glare is felt. Similarly, among the feature amounts, the number of blinks, the blink generation interval, and the blink time deviation are easily affected by the wind. Therefore, when significant changes occur in these values, the environment estimation unit 33 determines that the user environment has changed to an environment that receives wind.

特徴量選定部34は、特徴量算出部32によって算出された複数の特徴量の算出値を取得する。特徴量選定部34は、特徴量算出部32によって算出される複数の特徴量の中から、環境推定部33にて推定されたユーザ環境に対応する特徴量を選定する。ユーザが眩しさを感じておらず、且つ、風を受ける環境でも無い場合、特徴量選定部34は、特徴量算出部32にて算出された全ての特徴量を、状態推定に用いる特徴量として選定する(選定結果「SR1」参照)。   The feature amount selection unit 34 acquires the calculated values of the plurality of feature amounts calculated by the feature amount calculation unit 32. The feature amount selection unit 34 selects a feature amount corresponding to the user environment estimated by the environment estimation unit 33 from the plurality of feature amounts calculated by the feature amount calculation unit 32. When the user does not feel dazzling and is not in an environment that receives wind, the feature amount selection unit 34 uses all the feature amounts calculated by the feature amount calculation unit 32 as the feature amounts used for state estimation. Select (see selection result “SR1”).

一方で、眩しさを感じるようなユーザ環境が推定された場合には、特徴量選定部34は、眩しさの影響を受け易いとして予め設定された複数の特徴量を、状態推定の使用対象から除外する。具体的に、眩しさを感じるようなユーザ環境が推定された場合、特徴量選定部34は、各特徴量のうちで、上述した瞬目数、瞬目の発生間隔、及び発生間隔の偏差を、状態推定の使用対象から除外する。その結果、瞬目強度、瞬目時間、瞬目強度の偏差、瞬目時間の偏差、及び群発瞬目の発生回数が、状態推定の使用対象に選定される(選定結果「SR2」参照)。   On the other hand, when a user environment that feels dazzling is estimated, the feature amount selection unit 34 selects a plurality of feature amounts that are set in advance as being easily affected by glare from the state estimation use target. exclude. Specifically, when a user environment that feels dazzling is estimated, the feature amount selection unit 34 determines the number of blinks, the occurrence interval of blinks, and the deviation of the occurrence interval among the feature amounts. , Exclude from state estimation use. As a result, the blink strength, the blink time, the blink strength deviation, the blink time deviation, and the number of occurrences of the cluster blink are selected as the state estimation use targets (see selection result “SR2”).

さらに、風を受けるようなユーザ環境が推定された場合には、特徴量選定部34は、風の影響を受け易いとして予め設定された複数の特徴量を、状態推定の使用対象から除外する。具体的に、風を受けるようなユーザ環境が推定された場合、特徴量選定部34は、各特徴量のうちで、上述した瞬目数、瞬目の発生間隔、及び瞬目時間の偏差を、状態推定の使用対象から除外する。その結果、瞬目強度、瞬目時間、瞬目強度の偏差、発生間隔の偏差、及び群発瞬目の発生回数が、状態推定の使用対象に選定される(選定結果「SR3」参照)。   Furthermore, when a user environment that receives wind is estimated, the feature amount selection unit 34 excludes a plurality of feature amounts that are set in advance as being easily affected by wind from the use targets of state estimation. Specifically, when the user environment that receives wind is estimated, the feature amount selection unit 34 calculates the above-described deviation of the number of blinks, the occurrence interval of blinks, and the blink time among the feature amounts. , Exclude from state estimation use. As a result, the blink strength, the blink time, the blink strength deviation, the occurrence interval deviation, and the number of occurrences of the cluster blink are selected as the state estimation use targets (see selection result “SR3”).

状態推定部35は、特徴量選定部34にて選定された特徴量を用いて、ユーザ状態としての眠気、緊張、集中等の度合いを推定できる。状態推定部35には、記憶領域37が設けられている。記憶領域37には、多数の識別器36が予め格納されている。各識別器36は、特徴量選定部34によって選定される特徴量の組み合わせにそれぞれ対応した内容に生成されている。加えて識別器36は、眠気や緊張といった推定対象とする具体的なユーザ状態毎に、個別に設定されている。各識別器36は、例えばランダムフォレスト等の機械学習等を用いて予め生成されており、各ユーザ環境に最適化されている。各識別器36は、選定された特徴量の各数値を用いて、眠気度合い、緊張度合い、集中度合い等を数値化して出力可能である。   The state estimation unit 35 can estimate the degree of sleepiness, tension, concentration, and the like as the user state using the feature amount selected by the feature amount selection unit 34. The state estimation unit 35 is provided with a storage area 37. A large number of discriminators 36 are stored in the storage area 37 in advance. Each discriminator 36 is generated with contents corresponding to a combination of feature amounts selected by the feature amount selection unit 34. In addition, the discriminator 36 is individually set for each specific user state to be estimated such as sleepiness and tension. Each discriminator 36 is generated in advance by using machine learning such as a random forest, and is optimized for each user environment. Each discriminator 36 can digitize and output the degree of sleepiness, the degree of tension, the degree of concentration, etc., using each numerical value of the selected feature amount.

状態推定部35は、瞬目情報取得部31及び特徴量算出部32と共に状態推定処理(図6参照)を行う。状態推定処理は、環境推定処理と同様にユーザによるウェアラブルデバイス10の装着によって開始され、環境推定処理と併行して、ユーザがウェアラブルデバイス10を外すまで繰り返し継続される。   The state estimation unit 35 performs state estimation processing (see FIG. 6) together with the blink information acquisition unit 31 and the feature amount calculation unit 32. The state estimation process is started by the user wearing the wearable device 10 in the same manner as the environment estimation process, and continues in parallel with the environment estimation process until the user removes the wearable device 10.

状態推定処理のS111では、瞬目検出情報として眼電信号を取得し、S112に進む。S112では、S111にて取得された眼電位信号から複数の特徴量を算出し、S113に進む。S113では、環境推定処理によって推定されたユーザ環境に対応する特徴量を選定し、S114に進む。   In S111 of the state estimation process, an electrooculogram signal is acquired as blink detection information, and the process proceeds to S112. In S112, a plurality of feature amounts are calculated from the electrooculogram signal acquired in S111, and the process proceeds to S113. In S113, the feature quantity corresponding to the user environment estimated by the environment estimation process is selected, and the process proceeds to S114.

S114では、S113にて選定された特徴量の組み合わせ、即ち特徴量の設定結果SR1〜SR3等に対応した識別器36を一つ選択し、S115に進む。S114では、推定するユーザ状態が複数ある場合、各推定項目に対応した識別器36を一つずつ選択する。即ち、例えば眠気度合いと緊張度合いとを推定する場合、眠気度合いを推定するための識別器36と、緊張度合いを推定するための識別器36とが選択される。   In S114, one discriminator 36 corresponding to the combination of the feature amounts selected in S113, that is, the feature amount setting results SR1 to SR3 is selected, and the process proceeds to S115. In S114, when there are a plurality of user states to be estimated, the discriminator 36 corresponding to each estimation item is selected one by one. That is, for example, when estimating the sleepiness level and the tension level, a discriminator 36 for estimating the sleepiness level and a discriminator 36 for estimating the tension level are selected.

S115では、S113にて選定された特徴量の各数値を、S114にて選択した識別器36に入力することで、眠気度合い及び緊張度合いとったユーザ状態を推定した数値を取得し、再びS111に戻る。   In S115, each numerical value of the feature amount selected in S113 is input to the discriminator 36 selected in S114, so that a numerical value obtained by estimating the user state such as the drowsiness level and the tension level is acquired, and again in S111. Return.

ここまで説明した第一実施形態では、ユーザ周囲のユーザ環境が推定されたうえで、瞬目検出情報から算出された複数の特徴量の中から、推定されたユーザ環境に対応した特徴量が選定される。故に、自然光や風等の外乱の少ない環境にユーザがある場合には、多くの特徴量を用いて、ユーザの状態が推定される。その結果、高精度な状態推定が可能となる。一方で、強い外乱の存在する環境にユーザがある場合には、外乱の影響を受け易い特徴量が状態の推定に用いる対象から除外され得る。その結果、外乱の影響による状態推定の精度悪化が低減される。以上によれば、外乱への耐性を確保しつつ、高精度な状態推定を実現することが可能となる。   In the first embodiment described so far, the user environment around the user is estimated, and a feature quantity corresponding to the estimated user environment is selected from a plurality of feature quantities calculated from the blink detection information. Is done. Therefore, when the user is in an environment with little disturbance such as natural light and wind, the state of the user is estimated using many feature amounts. As a result, it is possible to estimate the state with high accuracy. On the other hand, when there is a user in an environment where a strong disturbance exists, a feature quantity that is easily affected by the disturbance can be excluded from the target used for state estimation. As a result, deterioration in accuracy of state estimation due to the influence of disturbance is reduced. According to the above, it is possible to realize highly accurate state estimation while ensuring resistance to disturbance.

加えて第一実施形態では、複数の識別器36が記憶領域37に予め格納されている。こうした構成であれば、個々の識別器36を、特定のユーザ環境に対して最適化した内容に予め生成しておくことが可能になる。故に、複数の識別器36から一つを選択してユーザ状態を推定する処理によれば、各ユーザ環境における状態推定の精度は、いっそう向上する。   In addition, in the first embodiment, a plurality of discriminators 36 are stored in the storage area 37 in advance. With such a configuration, the individual discriminators 36 can be generated in advance with contents optimized for a specific user environment. Therefore, according to the process of selecting one from the plurality of discriminators 36 and estimating the user state, the accuracy of state estimation in each user environment is further improved.

また第一実施形態によれば、ユーザが眩しさを感じる環境にある場合、眩しさの影響を受け易い特徴量が状態推定の使用対象から除外される。同様に、ユーザが風を受ける環境にある場合、風の影響を受け易い特徴量が状態推定の使用対象から除外される。これらのように、光及び風といった瞬目に顕著に影響するユーザ環境を推定し、各ユーザ環境に対応した特徴量の選定を行うことで、状態推定の外乱への耐性は、確実に確保される。   Further, according to the first embodiment, when the user feels dazzling, feature quantities that are easily affected by dazzling are excluded from the state estimation usage targets. Similarly, when the user is in an environment that receives wind, feature quantities that are easily affected by wind are excluded from use targets of state estimation. As described above, by estimating the user environment that significantly affects blinking such as light and wind, and selecting the feature amount corresponding to each user environment, tolerance to disturbance of state estimation is reliably ensured. The

さらに第一実施形態では、特徴量算出部32にて算出された特徴量の変化に基づいて、ユーザ環境の変化が推定される。上述したように、ユーザ環境が変位すると、特定の特徴量に顕著な変化が生じる。故に、特徴量の変化を環境情報として用いることで、環境推定処理によるユーザ環境の推定精度は、いっそう向上可能となる。   Furthermore, in the first embodiment, the change in the user environment is estimated based on the change in the feature amount calculated by the feature amount calculation unit 32. As described above, when the user environment is displaced, a particular feature amount is significantly changed. Therefore, by using the change in the feature amount as the environment information, the user environment estimation accuracy by the environment estimation process can be further improved.

加えて第一実施形態の特徴量算出部32では、特徴量の一つとして、瞬目強度が算出される。瞬目強度は、外乱の影響を受け難いため、外乱のある環境においても状態推定の使用対象から除外されない。そのため、瞬目強度を算出可能な構成であれば、状態推定の精度は、外乱の生じる環境においても確実に維持可能となる。尚、第一実施形態において、ウェアラブルデバイス10が「状態推定装置」に相当する。   In addition, the feature amount calculation unit 32 of the first embodiment calculates the blink strength as one of the feature amounts. Since the blink strength is hardly affected by disturbance, it is not excluded from the state estimation usage target even in an environment with disturbance. Therefore, if the configuration can calculate the blink strength, the accuracy of state estimation can be reliably maintained even in an environment where disturbance occurs. In the first embodiment, the wearable device 10 corresponds to a “state estimation device”.

(第二実施形態)
図7に示す本開示の第二実施形態は、第一実施形態の変形例である。第二実施形態では、ウェアラブルデバイス210及びスマートフォン240等によって状態推定システム200が構成されている。ウェアラブルデバイス210及びスマートフォン240は、互いにペアリングされており、無線通信によって情報を送受信可能である。状態推定システム200における環境推定処理及び状態推定処理は、ウェアラブルデバイス210及びスマートフォン240のうちで、スマートフォン240にて実施される。
(Second embodiment)
The second embodiment of the present disclosure shown in FIG. 7 is a modification of the first embodiment. In the second embodiment, the state estimation system 200 is configured by the wearable device 210, the smartphone 240, and the like. The wearable device 210 and the smartphone 240 are paired with each other and can transmit and receive information by wireless communication. The environment estimation process and the state estimation process in the state estimation system 200 are performed by the smartphone 240 among the wearable device 210 and the smartphone 240.

ウェアラブルデバイス210は、第一実施形態と同様のメガネ型のモーションセンサデバイスである(図1参照)。ウェアラブルデバイス210は、第一実施形態と実質同一のバッテリ11、瞬目計測部12、及び通信モジュール18と、瞬目計測回路220とを備えている。瞬目計測回路220は、第一実施形態の状態推定回路20(図2参照)と同様に、プロセッサを主体とした構成である。瞬目計測回路220は、瞬目計測部12によって計測された眼電位信号を取得し、瞬目検出情報として、通信モジュール18からスマートフォン240へ向けて無線送信させる。   The wearable device 210 is a glasses-type motion sensor device similar to the first embodiment (see FIG. 1). The wearable device 210 includes the battery 11, the blink measurement unit 12, the communication module 18, and the blink measurement circuit 220 that are substantially the same as those of the first embodiment. The blink measurement circuit 220 has a configuration mainly composed of a processor as in the state estimation circuit 20 (see FIG. 2) of the first embodiment. The blink measurement circuit 220 acquires the electrooculogram signal measured by the blink measurement unit 12 and wirelessly transmits it as blink detection information from the communication module 18 to the smartphone 240.

スマートフォン240は、ユーザの所持する携帯端末である。スマートフォン240は、電気的な構成として、通信モジュール248、環境センサ群247、及び状態推定回路250と、これらの構成に電力を供給するバッテリ41とを備えている。   The smartphone 240 is a mobile terminal owned by the user. The smartphone 240 includes a communication module 248, an environment sensor group 247, a state estimation circuit 250, and a battery 41 that supplies power to these components as an electrical configuration.

通信モジュール248は、ウェアラブルデバイス210の通信モジュール18と無線通信可能である。通信モジュール248は、通信モジュール18から送信される瞬目検出情報を受信し、状態推定回路250に逐次供給する。加えて通信モジュール248は、スマートフォン240のインターネットへの接続を可能にしている。   The communication module 248 can wirelessly communicate with the communication module 18 of the wearable device 210. The communication module 248 receives the blink detection information transmitted from the communication module 18 and sequentially supplies it to the state estimation circuit 250. In addition, the communication module 248 enables the smartphone 240 to connect to the Internet.

環境センサ群247は、第一実施形態の環境センサ群17(図2参照)に相当する構成であって、時計17a、GNSS受信部17b、及び照度センサ17cを含んでいる。環境センサ群247は、スマートフォン240がユーザと実質同一の環境にあるとみなして、スマートフォン240周囲の環境情報を取得する。環境センサ群247は、取得した環境情報を、状態推定回路250に逐次供給する。   The environmental sensor group 247 has a configuration corresponding to the environmental sensor group 17 (see FIG. 2) of the first embodiment, and includes a clock 17a, a GNSS receiver 17b, and an illuminance sensor 17c. The environmental sensor group 247 considers that the smartphone 240 is in substantially the same environment as the user, and acquires environment information around the smartphone 240. The environmental sensor group 247 sequentially supplies the acquired environmental information to the state estimation circuit 250.

状態推定回路250は、第一実施形態の状態推定回路20(図2参照)と実質同一の機能を果たす構成である。状態推定回路250は、プロセッサ251、RAM252、及び記憶媒体253を有するマイクロコンピュータを主体に構成されている。状態推定回路250は、ユーザによるアプリケーションの起動に基づき、状態推定プログラムをプロセッサ251によって実行する。その結果、状態推定回路250には、第一実施形態と実質同一の瞬目情報取得部31、特徴量算出部32、環境推定部33、特徴量選定部34、及び状態推定部35が構築される(図3参照)。   The state estimation circuit 250 is configured to perform substantially the same function as the state estimation circuit 20 (see FIG. 2) of the first embodiment. The state estimation circuit 250 is mainly configured by a microcomputer having a processor 251, a RAM 252, and a storage medium 253. The state estimation circuit 250 executes a state estimation program by the processor 251 based on the application activation by the user. As a result, the state estimation circuit 250 includes a blink information acquisition unit 31, a feature amount calculation unit 32, an environment estimation unit 33, a feature amount selection unit 34, and a state estimation unit 35 that are substantially the same as those in the first embodiment. (See FIG. 3).

状態推定回路250に構築された環境推定部33(図3参照)は、インターネットから取得する環境情報を用いて、ユーザ環境を推定可能である。例えば環境推定部33は、時間情報に天気情報を組み合わせて、ユーザが眩しさを感じる環境にあるか否かを判定することができる。また環境推定部33は、測位信号の強度情報に、位置情報と地図情報とを組み合わせることにより、ユーザが屋内にいるのか屋外にいるのかをさらに精度良く推定できる。その結果、環境推定部33は、ユーザが風を受ける環境にあるか否かを、より正確に判定できるようになる。   The environment estimation unit 33 (see FIG. 3) built in the state estimation circuit 250 can estimate the user environment using environment information acquired from the Internet. For example, the environment estimation unit 33 can determine whether or not the user feels dazzling by combining the weather information with the time information. Moreover, the environment estimation part 33 can estimate more accurately whether the user is indoors or outdoors by combining position information and map information with the intensity information of the positioning signal. As a result, the environment estimation unit 33 can more accurately determine whether or not the user is in an environment receiving wind.

ここまで説明した第二実施形態のように、環境推定処理及び状態推定処理がスマートフォン240によって実施される形態でも、ユーザ環境に対応した特徴量の選定が可能である。その結果、第一実施形態と同様に、外乱による状態推定への影響を軽減すると共に、外乱のない状況での高精度な状態推定が実現可能となる。尚、第二実施形態ではスマートフォン240が「状態推定装置」に相当する。   As in the second embodiment described so far, the feature amount corresponding to the user environment can be selected even in the embodiment in which the environment estimation process and the state estimation process are performed by the smartphone 240. As a result, as in the first embodiment, it is possible to reduce the influence on the state estimation due to the disturbance, and to realize a highly accurate state estimation in a situation without the disturbance. In the second embodiment, the smartphone 240 corresponds to a “state estimation device”.

(第三実施形態)
図8に示す本開示の第三実施形態は、第二実施形態の変形例である。第三実施形態による状態推定システム300は、ドライバスモニタシステム(Driver Monitor System,DMS)310及び車載制御装置340等によって構成されている。状態推定システム300は、車両に搭載されており、ユーザとして車両の搭乗者(特に運転者)の状態を推定可能である。DMS310及び車載制御装置340は、例えば通信ケーブルによって直接的に有線接続されており、互いに情報を送受信可能である。状態推定システム300における環境推定処理及び状態推定処理は、DMS310及び車載制御装置340うちで、車載制御装置340にて実施される。
(Third embodiment)
The third embodiment of the present disclosure shown in FIG. 8 is a modification of the second embodiment. A state estimation system 300 according to the third embodiment includes a driver monitor system (DMS) 310, an in-vehicle control device 340, and the like. The state estimation system 300 is mounted on a vehicle and can estimate the state of a passenger (particularly a driver) of the vehicle as a user. The DMS 310 and the in-vehicle control device 340 are directly connected by a communication cable, for example, and can transmit / receive information to / from each other. The environment estimation process and the state estimation process in the state estimation system 300 are performed by the in-vehicle control device 340 out of the DMS 310 and the in-vehicle control device 340.

DMS310は、瞬目計測部312、撮像制御回路320、及び通信モジュール318等によって構成されている。瞬目計測部312は、近赤外光源313及び近赤外カメラ314を有するカメラユニットである。瞬目計測部312は、車両の車室内において、運転者の正面に設置されている。近赤外光源313は、近赤外光源313によって近赤外光を照射された運転者の顔を、近赤外カメラ314によって撮影する。   The DMS 310 includes a blink measurement unit 312, an imaging control circuit 320, a communication module 318, and the like. The blink measurement unit 312 is a camera unit having a near infrared light source 313 and a near infrared camera 314. The blink measurement unit 312 is installed in front of the driver in the passenger compartment of the vehicle. The near-infrared light source 313 images the driver's face irradiated with near-infrared light by the near-infrared light source 313 with the near-infrared camera 314.

撮像制御回路320は、プロセッサを主体とした構成であり、瞬目計測部312による運転者の顔の撮影を制御する。加えて撮像制御回路320は、瞬目計測部312によって撮影された顔画像を解析することにより、運転者の目の開度を検出する。撮像制御回路320は、運転者における目の開度の検出結果を瞬目検出情報として、通信モジュール318から車載制御装置340に送信させる。   The imaging control circuit 320 is configured mainly with a processor, and controls imaging of the driver's face by the blink measurement unit 312. In addition, the imaging control circuit 320 detects the opening degree of the driver's eyes by analyzing the face image captured by the blink measurement unit 312. The imaging control circuit 320 causes the communication module 318 to transmit the detection result of the eye opening of the driver as blink detection information to the in-vehicle control device 340.

車載制御装置340は、車両に搭載された複数の電子制御ユニットの一つであって、例えば運転者へ向けたユーザインターフェースを統合的に制御する構成である。車載制御装置340は、電気的な構成として、通信モジュール348及び状態推定回路350とを備えている。   The in-vehicle control device 340 is one of a plurality of electronic control units mounted on the vehicle, and is configured to integrally control a user interface for a driver, for example. The in-vehicle control device 340 includes a communication module 348 and a state estimation circuit 350 as an electrical configuration.

通信モジュール348は、DMS310の通信モジュール318と通信可能である。通信モジュール348は、通信モジュール318から送信される瞬目検出情報を受信する。加えて通信モジュール348は、車両に搭載された車載ネットワークの通信バス360と接続されている。通信モジュール348は、通信バス360に出力された種々の車両情報を取得可能である。例えば通信モジュール348は、車載された空調機器の作動情報、及び車両の窓の開閉状態を示す開閉情報等を、ユーザ環境を示す環境情報として取得する。通信モジュール348は、取得した瞬時検出情報と環境情報とを、状態推定回路350に逐次供給する。   The communication module 348 can communicate with the communication module 318 of the DMS 310. The communication module 348 receives blink detection information transmitted from the communication module 318. In addition, the communication module 348 is connected to a communication bus 360 of an in-vehicle network mounted on the vehicle. The communication module 348 can acquire various vehicle information output to the communication bus 360. For example, the communication module 348 acquires the operation information of the air conditioner mounted on the vehicle, the opening / closing information indicating the opening / closing state of the window of the vehicle, and the like as the environment information indicating the user environment. The communication module 348 sequentially supplies the acquired instantaneous detection information and environment information to the state estimation circuit 350.

状態推定回路350は、第二実施形態の状態推定回路250(図7参照)と実質同一の機能を果たす構成である。状態推定回路350は、車両に搭載された環境センサ群347と接続されている。環境センサ群347のGNSS受信部347bは、例えばロケータに組み込まれた構成である。環境センサ群347の照度センサ347cは、例えば車両の前照灯のオン及びオフを切り替えるために、車外の明るさを検出する構成である。   The state estimation circuit 350 is configured to perform substantially the same function as the state estimation circuit 250 (see FIG. 7) of the second embodiment. The state estimation circuit 350 is connected to an environmental sensor group 347 mounted on the vehicle. The GNSS receiving unit 347b of the environmental sensor group 347 is configured to be incorporated in a locator, for example. The illuminance sensor 347c of the environmental sensor group 347 is configured to detect the brightness outside the vehicle, for example, in order to switch the vehicle headlamp on and off.

状態推定回路350は、プロセッサ351、RAM352、及び記憶媒体353を有するマイクロコンピュータを主体に構成されている。状態推定回路350は、例えば車両に搭載された電源からの電力供給が開始されると、状態推定プログラムをプロセッサ351によって実行する。その結果、状態推定回路350には、第二実施形態と実質同一の瞬目情報取得部31、特徴量算出部32、環境推定部33、特徴量選定部34、及び状態推定部35が構築される(図3参照)。   The state estimation circuit 350 is mainly configured by a microcomputer having a processor 351, a RAM 352, and a storage medium 353. The state estimation circuit 350 executes a state estimation program by the processor 351 when power supply from a power source mounted on the vehicle is started, for example. As a result, the state estimation circuit 350 includes the blink information acquisition unit 31, the feature amount calculation unit 32, the environment estimation unit 33, the feature amount selection unit 34, and the state estimation unit 35 that are substantially the same as those in the second embodiment. (See FIG. 3).

状態推定回路350に構築された特徴量算出部32(図3参照)は、目の開度の検出結果を用いて各特徴量を算出する。カメラユニットを用いて瞬目検出情報を取得する第三実施形態では、瞬目強度及び強度偏差は算出されない。   The feature amount calculation unit 32 (see FIG. 3) constructed in the state estimation circuit 350 calculates each feature amount using the detection result of the eye opening. In the third embodiment in which the blink detection information is acquired using the camera unit, the blink strength and the intensity deviation are not calculated.

状態推定回路350に構築された環境推定部33(図3参照)は、通信モジュール348の受信した環境情報を取得することで、ユーザ環境を推定可能である。環境推定部33は、空調機器の作動情報及び窓の開閉情報等を用いて、ユーザが風を受ける環境にあるか否かを判定できる。例えば、空調機器によりユーザへの送風が行われている場合に、環境推定部33は、ユーザが風を受ける環境にあると判定する。加えて、運転席の側方の窓が開けられている場合に、環境推定部33は、ユーザが風を受ける環境にあると判定する。   The environment estimation unit 33 (see FIG. 3) built in the state estimation circuit 350 can estimate the user environment by acquiring the environment information received by the communication module 348. The environment estimation unit 33 can determine whether or not the user is in an environment receiving wind by using the air conditioner operation information and the window opening / closing information. For example, when the air conditioner is blowing air to the user, the environment estimation unit 33 determines that the user is in an environment that receives wind. In addition, when the window on the side of the driver's seat is opened, the environment estimation unit 33 determines that the user is in an environment that receives wind.

ここまで説明した第三実施形態のように、環境推定処理及び状態推定処理が車載制御装置340によって実施される形態でも、ユーザ環境に対応した特徴量の選定が可能である。その結果、第二実施形態と同様に、外乱への耐性の確保と高精度なユーザ状態の推定との両立が実現可能となる。尚、第三実施形態では車載制御装置340が「状態推定装置」に相当する。   As in the third embodiment described so far, even in an embodiment in which the environment estimation process and the state estimation process are performed by the in-vehicle control device 340, it is possible to select a feature amount corresponding to the user environment. As a result, as in the second embodiment, it is possible to achieve both of ensuring resistance to disturbance and estimating the user state with high accuracy. In the third embodiment, the in-vehicle control device 340 corresponds to a “state estimation device”.

(他の実施形態)
以上、本開示による複数の実施形態について説明したが、本開示は、上記実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
(Other embodiments)
Although a plurality of embodiments according to the present disclosure have been described above, the present disclosure is not construed as being limited to the above embodiments, and can be applied to various embodiments and combinations without departing from the gist of the present disclosure. can do.

上記実施形態では、ユーザ状態として、便宜的に主に眠気に着目して説明したが、本開示による状態推定方法は、上記実施形態に例示した眠気、緊張、集中といったユーザ状態の推定だけでなく、他のユーザ状態の推定にも適用可能である。また本開示による状態推定方法は、上記第三実施形態のような運転者だけでなく、オフィスで作業を行うデクスワーカー、及び工場で作業を行う工場作業員等に適用されて、これらユーザの状態を推定可能である。また上記実施形態において、ウェアラブルデバイス等のプロセッサによって提供されていた各機能は、上述の構成とは異なるハードウェア及びソフトウェア、或いはこれらの組み合わせによっても提供可能である。即ち、状態推定方法を実施する具体的な構成は、ウェアラブルデバイス、スマートフォン、及び車載制御装置に限定されず、適宜変更可能である。   In the above embodiment, the user state has been described mainly focusing on sleepiness for convenience, but the state estimation method according to the present disclosure is not limited to the estimation of the user state such as sleepiness, tension, and concentration exemplified in the above embodiment. It is also applicable to estimation of other user states. The state estimation method according to the present disclosure is applied not only to the driver as in the third embodiment, but also to a dex worker who performs work in an office, a factory worker who performs work in a factory, and the like. Can be estimated. In the above-described embodiment, each function provided by a processor such as a wearable device can be provided by hardware and software different from the above-described configuration, or a combination thereof. That is, the specific configuration for performing the state estimation method is not limited to the wearable device, the smartphone, and the vehicle-mounted control device, and can be changed as appropriate.

例えば、第三実施形態のDMS310(図8参照)に設けられた処理回路のプロセッサにより、環境推定処理及び状態推定処理が実施されてよい。また、環境推定処理及び状態推定処理は、複数の構成によって分散実施されてもよい。具体的には、ウェアラブルデバイス及びDMS等にて、瞬目情報の取得と特徴量の算出が実施され、スマートフォン及び車載制御装置等にて、ユーザ環境の推定、特徴量の選定、及び状態推定が実施されてもよい。さらに、状態推定プログラムを記憶する記憶媒体は、フラッシュメモリ及びハードディスクドライブ等の非遷移的実体的記憶媒体が適宜採用されてよい。   For example, the environment estimation process and the state estimation process may be performed by a processor of a processing circuit provided in the DMS 310 (see FIG. 8) of the third embodiment. Moreover, the environment estimation process and the state estimation process may be performed in a distributed manner by a plurality of configurations. Specifically, blink information acquisition and feature value calculation are performed by wearable devices and DMS, etc., and user environment estimation, feature value selection, and state estimation are performed by smartphones and in-vehicle control devices, etc. May be implemented. Furthermore, as the storage medium for storing the state estimation program, a non-transitional physical storage medium such as a flash memory and a hard disk drive may be appropriately employed.

上記実施形態の状態推定部35(図3参照)は、一つの識別器を選択したうえで、選択した識別器を使用して状態を推定していた。しかし、状態推定部は、ユーザ環境に基づく特徴量の選定結果に係わらず、一つの識別器を用いて状態推定を行う形態であってもよい。また、識別器を構築する機械学習の技法は、上述したランダムフォレストに限定されず、サポートベクターマシンやニューラルネットワーク等であってもよい。   The state estimation unit 35 (see FIG. 3) of the above embodiment selects a single discriminator and then estimates the state using the selected discriminator. However, the state estimation unit may be configured to perform state estimation using one discriminator regardless of the selection result of the feature amount based on the user environment. Further, the machine learning technique for constructing the classifier is not limited to the random forest described above, and may be a support vector machine, a neural network, or the like.

上記実施形態では、ユーザ周囲の光及び風の影響を鑑みて、使用する特徴量を変更する例が説明されていた。しかし、環境推定部にて推定されるユーザ環境は、ユーザの瞬目態様を変化させる種々の要因に応じて、適宜変更されてよい。例えば、食事の前後で瞬目の態様が変化するという知見に基づき、ユーザが食事をした直後であるか否かを判定して、状態推定に使用する特徴量が変更されてもよい。   In the above embodiment, an example has been described in which the feature amount to be used is changed in view of the influence of light and wind around the user. However, the user environment estimated by the environment estimation unit may be changed as appropriate according to various factors that change the user's blink mode. For example, based on the knowledge that the mode of blinking changes before and after a meal, it may be determined whether or not the user has just eaten, and the feature amount used for state estimation may be changed.

上記実施形態では、特徴量算出部にて算出された特定の特徴量の変化を監視することで、環境推定部は、ユーザ環境の変化を検出可能であった。しかし、特徴量の変化に基づく環境推定は、実施されなくてもよい。又は、特徴量の変化だけに基づいて、ユーザ環境の推定が実施されてもよい。   In the above embodiment, the environment estimation unit can detect the change in the user environment by monitoring the change in the specific feature amount calculated by the feature amount calculation unit. However, the environment estimation based on the change in the feature amount may not be performed. Alternatively, the user environment may be estimated based only on the change in the feature amount.

上記実施形態では、眼電位信号又は目の開度の検出結果を用いて、瞬目の検出と各特徴量の算出とが実施されていた。しかし、瞬目を計測する計測部の構成は、上記実施形態の各電極及び近赤外カメラに限定されず、適宜変更可能である。加えて、眼電位信号と目の開度の検出結果を共に用いて、瞬目の検出と特徴量の算出とが実施されてもよい。また、特徴量算出部にて算出される特徴量(パラメータ)の数及び内容は、適宜変更可能である。さらに、瞬目検出情報から特徴量を算出する方法は、図4に示す方法に限定されず、適宜変更可能である。   In the above-described embodiment, blink detection and calculation of each feature amount are performed using the electrooculogram signal or the detection result of the eye opening. However, the configuration of the measurement unit that measures blinks is not limited to the electrodes and the near-infrared camera of the above-described embodiment, and can be changed as appropriate. In addition, blink detection and feature amount calculation may be performed using both the electrooculogram signal and the eye opening detection result. In addition, the number and content of feature amounts (parameters) calculated by the feature amount calculation unit can be changed as appropriate. Furthermore, the method for calculating the feature amount from the blink detection information is not limited to the method shown in FIG. 4 and can be changed as appropriate.

10 ウェアラブルデバイス(状態推定装置)、 21,251,351 プロセッサ、 31 瞬目情報取得部、 32 特徴量算出部、 33 環境推定部、 34 特徴量選定部、 35 状態推定部、 36 識別器、 240 スマートフォン(状態推定装置)、 340 車載制御装置(状態推定装置) DESCRIPTION OF SYMBOLS 10 Wearable device (state estimation apparatus), 21,251,351 processor, 31 blink information acquisition part, 32 feature-value calculation part, 33 environment estimation part, 34 feature-value selection part, 35 state estimation part, 36 identifier, 240 Smartphone (state estimation device), 340 In-vehicle control device (state estimation device)

Claims (7)

ユーザの瞬目を検出した瞬目検出情報を取得する瞬目情報取得部(31)と、
前記瞬目検出情報から前記ユーザの瞬目に関連した複数の特徴量を算出する特徴量算出部(32)と、
前記ユーザの周囲のユーザ環境を推定する環境推定部(33)と、
前記特徴量算出部によって算出される複数の前記特徴量の中から、前記環境推定部にて推定された前記ユーザ環境に対応する前記特徴量を選定する特徴量選定部(34)と、
前記特徴量選定部にて選定された前記特徴量を用いて、前記ユーザの状態を推定する状態推定部(35)と、
を備える状態推定装置。
A blink information acquisition unit (31) for acquiring blink detection information for detecting a user's blink;
A feature amount calculation unit (32) that calculates a plurality of feature amounts related to the user's blinks from the blink detection information;
An environment estimation unit (33) for estimating a user environment around the user;
A feature amount selection unit (34) for selecting the feature amount corresponding to the user environment estimated by the environment estimation unit from among the plurality of feature amounts calculated by the feature amount calculation unit;
A state estimation unit (35) for estimating the state of the user using the feature amount selected by the feature amount selection unit;
A state estimation device comprising:
前記状態推定部には、前記特徴量選定部によって選定される前記特徴量の組み合わせにそれぞれ対応した複数の識別器(36)が予め記憶されており、
前記状態推定部は、前記特徴量選定部の選定結果に対応した前記識別器と、前記特徴量選定部にて選定された前記特徴量とを用いて、前記ユーザの状態を推定する請求項1に記載の状態推定装置。
In the state estimation unit, a plurality of discriminators (36) respectively corresponding to combinations of the feature amounts selected by the feature amount selection unit are stored in advance.
The state estimation unit estimates the state of the user using the classifier corresponding to the selection result of the feature amount selection unit and the feature amount selected by the feature amount selection unit. The state estimation apparatus described in 1.
前記環境推定部は、前記ユーザの周囲の明るさに関連した環境情報に基づいて、前記ユーザが眩しさを感じる環境にあるか否かを判定し、
前記特徴量選定部は、前記環境推定部によって前記ユーザが眩しさを感じる環境にあると判定した場合に、前記眩しさの影響を受け易いとして予め設定された前記特徴量を、状態推定の使用対象から除外する請求項1又は2に記載の状態推定装置。
The environment estimation unit determines whether or not the user feels dazzled based on environment information related to brightness around the user,
When the environment estimation unit determines that the user is in an environment where the user feels glare, the feature amount selection unit uses the feature amount set in advance as being easily affected by the glare. The state estimation apparatus according to claim 1 or 2, which is excluded from a target.
前記環境推定部は、前記ユーザの周囲の風に関連した環境情報に基づいて、前記ユーザが風を受ける環境にあるか否かを判定し、
前記特徴量選定部は、前記風の影響を受け易いとして予め設定された前記特徴量を、状態推定の使用対象から除外する請求項1〜3のいずれか一項に記載の状態推定装置。
The environment estimation unit determines whether or not the user is in an environment receiving wind based on environment information related to wind around the user,
The state estimation device according to any one of claims 1 to 3, wherein the feature amount selection unit excludes the feature amount set in advance as being easily affected by the wind from a state estimation use target.
前記環境推定部は、前記特徴量算出部にて算出された少なくともに一つの前記特徴量の変化に基づいて前記ユーザ環境を推定する請求項1〜4のいずれか一項に記載の状態推定装置。   The state estimation device according to any one of claims 1 to 4, wherein the environment estimation unit estimates the user environment based on at least one change in the feature amount calculated by the feature amount calculation unit. . 前記瞬目情報取得部は、前記ユーザの眼電位を計測した計測結果を少なくとも含む前記瞬目検出情報を取得し、
前記特徴量算出部は、眼電位の前記計測結果から前記ユーザの瞬目強度に関連した値を前記特徴量として算出する請求項1〜5のいずれか一項に記載の状態推定装置。
The blink information acquisition unit acquires the blink detection information including at least a measurement result obtained by measuring the electrooculogram of the user,
The state estimation device according to claim 1, wherein the feature amount calculation unit calculates a value related to the blink strength of the user as the feature amount from the measurement result of electrooculogram.
少なくとも一つのプロセッサ(21,251,351)の処理によりユーザの状態を推定する状態推定方法であって、
前記ユーザの瞬目を検出した瞬目検出情報を取得し(S111)、
前記瞬目検出情報から前記ユーザの瞬目に関連した複数の特徴量を算出し(S112)、
前記ユーザの周囲のユーザ環境を推定し(S102)、
算出した複数の前記特徴量の中から、推定した前記ユーザ環境に対応する前記特徴量を選定し(S113)、
選定した前記特徴量を用いて前記ユーザの状態を推定する(S115)状態推定方法。
A state estimation method for estimating a user's state by processing of at least one processor (21, 251 and 351),
The blink detection information for detecting the blink of the user is acquired (S111),
A plurality of feature quantities related to the user's blink are calculated from the blink detection information (S112),
Estimating a user environment around the user (S102);
The feature amount corresponding to the estimated user environment is selected from the calculated plurality of feature amounts (S113),
A state estimation method for estimating the state of the user using the selected feature amount (S115).
JP2016219992A 2016-11-10 2016-11-10 State estimation device, and state estimation method Pending JP2018075255A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016219992A JP2018075255A (en) 2016-11-10 2016-11-10 State estimation device, and state estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016219992A JP2018075255A (en) 2016-11-10 2016-11-10 State estimation device, and state estimation method

Publications (1)

Publication Number Publication Date
JP2018075255A true JP2018075255A (en) 2018-05-17

Family

ID=62149764

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016219992A Pending JP2018075255A (en) 2016-11-10 2016-11-10 State estimation device, and state estimation method

Country Status (1)

Country Link
JP (1) JP2018075255A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020116490A1 (en) * 2018-12-05 2020-06-11 株式会社レボーン Information processing apparatus, information processing method, learned model generation method, and program
WO2021112048A1 (en) * 2019-12-02 2021-06-10 株式会社デンソー Driving analysis device, and driving analysis method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020116490A1 (en) * 2018-12-05 2020-06-11 株式会社レボーン Information processing apparatus, information processing method, learned model generation method, and program
WO2021112048A1 (en) * 2019-12-02 2021-06-10 株式会社デンソー Driving analysis device, and driving analysis method
JP2021089480A (en) * 2019-12-02 2021-06-10 株式会社デンソー Driving analyzer and driving analyzing method
JP7172968B2 (en) 2019-12-02 2022-11-16 株式会社デンソー Driving analysis device and driving analysis method

Similar Documents

Publication Publication Date Title
US10569650B1 (en) System and method to monitor and alert vehicle operator of impairment
EP2893867B1 (en) Detecting visual inattention based on eye convergence
CN105579884B (en) Method and spectacles for determining the pupillary midpoint of two eyes of a person
CN106687037B (en) For detecting the equipment instantaneously slept, method and computer program
US9275532B2 (en) Systems and methodologies for real-time driver gaze location determination and analysis utilizing computer vision technology
JP5974915B2 (en) Arousal level detection device and arousal level detection method
US9526448B2 (en) State estimation device and state estimation program
US11112602B2 (en) Method, apparatus and system for determining line of sight, and wearable eye movement device
CN103318023B (en) Vehicle-mounted real-time intelligent fatigue monitoring and auxiliary device
CN112960001A (en) Driving mode switching method and device, vehicle and storage medium
CN104484570B (en) Electronic terminal and information processing method
JP2022519001A (en) A system that detects whether a user is wearing a visual behavior monitor
JP2018075255A (en) State estimation device, and state estimation method
JP2017208007A (en) Face orientation estimation device and face orientation estimation method
JP2015213734A (en) Program, information processing device, and eyewear
CN110063734B (en) Fatigue detection method, device and system and fatigue detection helmet
Arcaya-Jordan et al. Smart Connected Glasses for Drowsiness Detection: a System-Level Modeling Approach
JP2018160128A (en) Image processing apparatus, image processing system, and image processing method
US20200138299A1 (en) Hearing system with heart rate monitoring and related method
JP2014203186A (en) Monitoring system
JPWO2016093096A1 (en) Program, information processing apparatus, and eyewear
Beukman et al. A multi-sensor system for detection of driver fatigue
JP2018126374A (en) Posture estimating method, posture estimating device, and posture estimating program
JP2019068933A (en) Estimation device and estimation method
CN208492098U (en) Asthenopia detection device