JP2020185284A - 着座者の眠気推定システム - Google Patents

着座者の眠気推定システム Download PDF

Info

Publication number
JP2020185284A
JP2020185284A JP2019093239A JP2019093239A JP2020185284A JP 2020185284 A JP2020185284 A JP 2020185284A JP 2019093239 A JP2019093239 A JP 2019093239A JP 2019093239 A JP2019093239 A JP 2019093239A JP 2020185284 A JP2020185284 A JP 2020185284A
Authority
JP
Japan
Prior art keywords
drowsiness
seated person
sampling time
sensor
estimation system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019093239A
Other languages
English (en)
Inventor
直哉 大上
Naoya Ogami
直哉 大上
勝 村山
Masaru Murayama
勝 村山
裕和 山本
Hirokazu Yamamoto
裕和 山本
知司 吉田
Tomoji Yoshida
知司 吉田
亮 有泉
Ryo Ariizumi
亮 有泉
俊也 荒川
Toshiya Arakawa
俊也 荒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DENPA GAKUEN
Sumitomo Riko Co Ltd
Tokai National Higher Education and Research System NUC
Original Assignee
DENPA GAKUEN
Sumitomo Riko Co Ltd
Tokai National Higher Education and Research System NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DENPA GAKUEN, Sumitomo Riko Co Ltd, Tokai National Higher Education and Research System NUC filed Critical DENPA GAKUEN
Priority to JP2019093239A priority Critical patent/JP2020185284A/ja
Publication of JP2020185284A publication Critical patent/JP2020185284A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】より高精度に着座者の眠気レベルを推定することができる眠気推定システムを提供する。【解決手段】眠気推定システム1は、着座者2の脈拍、着座者2の呼吸および着座者2による座圧の少なくとも2種の基本情報を検出するセンサ10と、センサ10により検出される基本情報に基づいて着座者2の眠気を推定する推定処理装置20とを備える。推定処理装置20は、基本情報に基づいて機械学習に用いる複数の特徴量を抽出する特徴量抽出部24と、所定の機械学習アルゴリズムにより構築されたモデルであって、複数の特徴量に基づいて着座者2の眠気レベルを判定するための学習済みモデルを記憶する学習済みモデル記憶部27と、複数の特徴量と学習済みモデルとに基づいて着座者2の眠気レベルを推定する推定処理部28とを備える。【選択図】図8

Description

本発明は、着座者の眠気推定システムに関するものである。
特許文献1には、第一モードにおける第一センサのそれぞれの検出値に基づいて圧力センサセルに面する身体の体圧分布を演算し、第二モードにおける第二センサの検出値に基づいて身体の生体情報を演算する計測装置が記載されている。
特許文献2には、ベッド上の被験者の生体情報をモニタリングするシステムが記載されている。当該システムは、ベッド上の被験者の荷重の重心位置の時間的変動に基づいて被験者の体動情報を算出し、重心位置の時間的変動および体動情報に基づいて呼吸数を算出する。そして、算出した体動情報および/または呼吸数に基づいて、ベッド上の被験者が睡眠状態であるか覚醒状態であるかを判断する。睡眠および覚醒のアルゴリズムは、被験者から採られる覚醒時または睡眠時のラベルの付いた教師データを参照して生体情報モニタリングシステムから得られる離床、着床、大きな体動、小さな体動、呼吸、無呼吸、いびき、発話、心拍のような各種生体情報とその演算とを用いた機械学習により得ることができるとされている。
特許文献3には、心拍のR−R間隔に相当するRRI信号を解析して心拍ゆらぎ高周波成分と心拍ゆらぎ低周波成分の和、および、和に対する高周波成分の比を入力とし、自己申告の眠気レベルを教師信号とする機械学習により構築され、和および比から眠気レベルを算出する状態推定装置が記載されている。
また、特許文献4には、眠気レベルの評価指標として、「新エネルギー・産業技術総合開発機構(NEDO)」が提案した5段階の評価値が記載されている。
特開2017−176498号公報 特許第6105703号公報 特開2018−202130号公報 特開2019−16213号公報
特許文献2に記載のように、ベッド上の被験者を対象とする場合には、高精度に生体情報を取得することが可能となる。従って、高精度に取得された生体情報などを用いて、被験者の睡眠状態、覚醒状態を判断することが可能となる。しかし、着座者を対象とした場合、特に着座者に関する情報の検出時間が短い場合には、着座者の睡眠状態および覚醒状態を判断することは容易ではない。
近年では、自動車の運転者、デスクワークにおける作業者などを対象として、眠気レベルを推定することが求められている。特許文献3に記載の装置によれば、心拍のR−R間隔信号に基づいて対象者の眠気レベルを推定している。しかし、心拍のR−R間隔のみでは高精度に推定することができない。
本発明は、より高精度に着座者の眠気レベルを推定することができる眠気推定システムを提供することを目的とする。
本発明に係る眠気推定システムは、着座者の脈拍、前記着座者の呼吸および前記着座者による座圧の少なくとも2種の基本情報を検出するセンサと、前記センサにより検出される前記基本情報に基づいて前記着座者の眠気を推定する推定処理装置とを備える。
前記推定処理装置は、前記基本情報に基づいて機械学習に用いる複数の特徴量を抽出する特徴量抽出部と、所定の機械学習アルゴリズムにより構築されたモデルであって、前記複数の特徴量に基づいて前記着座者の眠気レベルを判定するための学習済みモデルを記憶する学習済みモデル記憶部と、前記複数の特徴量と前記学習済みモデルとに基づいて前記着座者の眠気レベルを推定する推定処理部とを備える。
着座者の脈拍、着座者の呼吸および着座者による座圧の少なくとも2種を用いて、機械学習により着座者の眠気レベルを推定している。つまり、上記の少なくとも2種を用いた機械学習を適用することにより、これらの情報の検出時間が短い場合であっても、高精度に着座者の眠気レベルを推定することができる。
眠気推定システムの構成を示す機能ブロック図である。 NEDO評定を示す図である。 眠気推定システムにおける第一例のセンサの構成を示す図である。 眠気推定システムにおける第二例のセンサの構成を示す図である。 眠気推定システムにおける第三例のセンサの構成を示す図である。 面状感圧センサの構成を示す分解斜視図である。 眠気推定システムにおいて機械学習の学習フェーズにおける第一例の推定処理装置の構成を示す図である。 眠気推定システムにおいて機械学習の推定フェーズにおける第一例の推定処理装置の構成を示す図である。 機械学習アルゴリズムの例を示す図である。 脈拍信号を示すグラフである。 呼吸信号を示すグラフである。 座圧分布を示す図である。 座圧信号の重心位置の時間変化を示すグラフである。 座圧分布の分散共分散行列を示すグラフである。 眠気推定システムにおいて機械学習の学習フェーズにおける第二例の推定処理装置の構成を示す図である。 眠気推定システムにおいて機械学習の推定フェーズにおける第二例の推定処理装置の構成を示す図である。 第二例の推定処理装置に適用される機械学習アルゴリズムを示す図である。 眠気推定システムにおいて機械学習の学習フェーズにおける第三例の推定処理装置の構成を示す図である。 眠気推定システムにおいて機械学習の推定フェーズにおける第三例の推定処理装置の構成を示す図である。 実験における被験者の分布を示す。 実験結果を示す。 実験結果を示す。 実験結果を示す。
(1.眠気推定システム1の構成)
眠気推定システム1は、着座者を対象とし、着座者の眠気レベルを推定する。着座者は、任意の座面に着座している者である。着座者としては、近年における自動運転に伴って、自動車や電車などの車両の運転者が対象として好適であるが、運転者に限定されるものではない。
眠気推定システム1は、図1に示すように、着座者の状態を表す基本情報を検出するセンサ10と、検出された着座者の状態を表す基本情報に基づいて眠気レベルを推定する推定処理装置20とを備える。
着座者の状態を表す基本情報とは、着座者の脈拍、着座者の呼吸、着座者の座圧(座面に付与される圧力)などの情報である。ここで、脈拍、呼吸および座圧は、眠気に密接に関係する情報であることが知られている。つまり、眠気レベルに応じて、脈拍、呼吸および座圧が変化する。
特に、着座者の状態を表す基本情報は、脈拍、呼吸、座圧の中から選択された少なくとも2種を用いることが好適である。当該2種には、脈拍と呼吸、脈拍と座圧、呼吸と座圧の何れであってもよい。特に、脈拍は眠気レベルを表すのに有効な情報であるため、基本情報に脈拍を含めるのが好適である。また、着座者の状態を表す基本情報に、上記の3種以外を含めるようにしてもよい。例えば、着座者の姿勢、着座者の瞼の状態、着座者の血圧、着座者の脳波(α波,θ波,δ波)、着座者の発汗の状態などを含めるようにしてもよい。
眠気レベルとは、例えば、NEDO評定のように5段階で表してもよいし、眠気の有無の2段階としてもよいし、眠気の程度を表す連続値としてもよい。NEDO評定における眠気レベルは、図2に示すとおりである。NEDO評定は、顔表情に基づく眠気レベルの判定基準である。例えば3人の評価者が被験者の顔表情の動画を確認し、評価者それぞれが判定基準の行動に基づいて眠気レベルを決定する。評価者の意見が異なる場合には、例えば多数決により眠気レベルが決定される。
さらに、眠気推定システムは、機械学習アルゴリズムにより構築された学習済みモデルを用いて、眠気レベルを推定する。学習フェーズにおいて、学習済みモデルを生成するために用いる訓練データには、上記の着座者の状態を表す基本情報に関する特徴量と、眠気レベルに関する教師データとを含む。つまり、学習済みモデルは、教師あり学習により生成されたモデルである。推論フェーズにおいて、上記の着座者の状態を表す基本情報に関する特徴量を入力データとし、学習済みモデルを用いることにより、眠気レベルを出力する。
(2.センサ10の構成)
(2−1.第一例のセンサ10の構成)
第一例のセンサ10の構成について、図3を参照して説明する。図3においては、着座者2が、車両の運転者である場合を例に挙げる。つまり、着座者2は、車両のシート31に着座しており、ステアリングホイール32を把持している。
眠気推定システム1は、第一例のセンサ10として、着座者2の脈拍を検出する脈拍センサ11、着座者2の呼吸を検出する呼吸センサ12、座圧分布を検出する面状感圧センサ13を備える。脈拍センサ11は、例えば、着座者2の指に装着されるセンサや、ステアリングホイール32の表面に配置されるセンサなどである。呼吸センサ12は、例えば、着座者2の胸部に配置されている。もちろん、呼吸センサ12は、着座者2の他の部位に配置することも可能である。面状感圧センサ13は、シート31の座面に配置されており、着座者2の座圧分布を検出する。
(2−2.第二例のセンサ10の構成)
第二例のセンサ10の構成について、図4を参照して説明する。眠気推定システム1は、第二例のセンサ10として、脈拍および呼吸を検出するためのカメラ14と、座圧分布を検出する面状感圧センサ13とを備える。カメラ14によって撮像された着座者2の顔画像または顔動画により、脈拍および呼吸を検出することが可能である。
(2−3.第三例のセンサ10の構成)
第三例のセンサ10の構成について、図5を参照して説明する。眠気推定システム1は、第三例のセンサ10として、シート31の座面に配置された1枚の面状感圧センサ15を備える。面状感圧センサ15は、着座者2の大腿部(太もも)または臀部(尻)における動脈の動きを検出することで、脈拍を検出するセンサとして機能すると共に、呼吸を検出するセンサとして機能する。さらに、面状感圧センサ15は、着座者2の座圧分布を検出する座圧センサとしても機能する。つまり、面状感圧センサ15は、脈拍、呼吸および座圧の全てを検出することができる共通のセンサとなる。なお、面状感圧センサ15は、大腿部および臀部に限らず、心臓の脈動に由来する体の振動を検出することができる部位に配置すればよい。
(3.面状感圧センサ13,15の構成)
面状感圧センサ13,15の構成の一例について、図6を参照して説明する。面状感圧センサ13,15は、可撓性を有し、面状に形成されている。面状感圧センサ13,15は、面法線方向に、圧縮変形可能である。面状感圧センサ13,15は、例えば、8列の第一電極13a,15aと、16列の第二電極13b,15bと、誘電層13c,15cとを備える。なお、第一電極13a,15aと第二電極13b,15bの列数は、適宜変更可能である。
第一電極13a,15aは、帯状に形成され、相互に平行に配置される。第二電極13b,15bは、面状感圧センサ13,15の面法線方向に、第一電極13a,15aに対して距離を隔てて配置される。第二電極13b,15bは、帯状に形成され、相互に平行に配置される。第二電極13b,15bの延在方向は、第一電極13a,15aの延在方向に対して直交する方向である。誘電層13c,15cは、弾性変形可能な面状に形成され、第一電極13a,15aと第二電極13b,15bとの間に配置される。
第一電極13a,15aおよび第二電極13b,15bは、エラストマー中に導電性フィラーを配合させることにより成形される。第一電極13a,15aおよび第二電極13b,15bは、可撓性を有し、伸縮自在な性質を有する。第一電極13a,15aおよび第二電極13b,15bを構成するエラストマーには、例えば、シリコーンゴム、エチレン‐プロピレン共重合ゴム、天然ゴム、スチレン‐ブタジエン共重合ゴム、アクリロニトリル‐ブタジエン共重合ゴム、アクリルゴム、エピクロロヒドリンゴム、クロロスルホン化ポリエチレン、塩素化ポリエチレン、ウレタンゴムなどが適用される。また、第一電極13a,15aおよび第二電極13b,15bに配合される導電性フィラーには、導電性を有する粒子であればよく、例えば、炭素材料や金属等の微粒子が適用される。
誘電層13c,15cは、エラストマーにより成形され、可撓性を有し且つ伸縮自在な性質を有する。誘電層13c,15cを構成するエラストマーには、例えば、シリコーンゴム、アクリロニトリル‐ブタジエン共重合ゴム、アクリルゴム、エピクロロヒドリンゴム、クロロスルホン化ポリエチレン、塩素化ポリエチレン、ウレタンゴムなどが適用される。
従って、第一電極13a,15aと第二電極13b,15bとの交差位置がマトリックス状に位置する。面状感圧センサ13,15は、マトリックス状の電極交差位置において、静電容量型センサとして機能するセンサセルを備える。本例においては、面状感圧センサ13,15は、横16列、縦8列に配列された128個のセンサセルを備える。そして、128個のセンサセルが、面状に配列されている。
そして、面状感圧センサ13,15が面法線方向に圧縮する力を受けた場合には、誘電層13c,15cが圧縮変形することにより、第一電極13a,15aと第二電極13b,15bの離間距離が短くなる。つまり、第一電極13a,15aと第二電極13b,15bとの間の静電容量が大きくなる。そして、静電容量の変化に基づいて、座圧を取得することができる。さらには、静電容量の変化に基づいて、脈拍および呼吸数を取得することができる。
(4.第一例の推定処理装置20の構成)
第一例の推定処理装置20の構成について、図7および図8を参照して説明する。推定処理装置20は、上述したように、機械学習アルゴリズムにより構築された学習済みモデルを用いて、眠気レベルを推定する。以下において、推定処理装置20の構成について、機械学習における学習フェーズと推定フェーズとに分けて説明する。ここで、以下の説明においては、眠気推定システム1が、図3に示す第一例のセンサ10を備える場合を例に挙げるが、図4に示す第二例のセンサ10および図5に示す第三例のセンサ10を備える場合にも、実質的に同様の構成となる。
(4−1.学習フェーズ)
学習フェーズにおいて、第一例の推定処理装置20は、図7に示すように、脈拍信号取得部21、呼吸信号取得部22、座圧信号取得部23、特徴量抽出部24、眠気レベル取得部25、学習済みモデル生成部26および学習済みモデル記憶部27を備える。
脈拍信号取得部21は、脈拍センサ11により検出される脈拍に関する基本情報を取得する。呼吸信号取得部22は、呼吸センサ12により検出される呼吸に関する基本情報を取得する。座圧信号取得部23は、面状感圧センサ13により検出される座圧に関する基本情報を取得する。
特徴量抽出部24は、センサ10により検出される基本情報、すなわち、脈拍、呼吸および座圧に関する基本情報に基づいて、機械学習に用いる複数の特徴量を抽出する。特徴量抽出部24は、脈拍に関する基本情報に基づいて、1つまたは複数の特徴量を抽出する。特徴量抽出部24は、呼吸に関する基本情報に基づいて、1つまたは複数の特徴量を抽出する。また、特徴量抽出部24は、座圧に関する基本情報に基づいて、1つまたは複数の特徴量を抽出する。なお、各特徴量の具体例については、後述する。
眠気レベル取得部25は、機械学習における教師データとしての眠気レベルに関する情報を取得する。本例においては、眠気レベル取得部25は、人間によって入力される被験者の眠気レベルに関する情報を取得する。
教師データとしての眠気レベルの第一例は、第三者である複数の評価者がNEDO評定に基づく評価結果を用いる。つまり、教師データとしての眠気レベルの第一例は、カメラにより撮像された着座者2の顔表情に基づいて複数の評価者が評価した眠気レベルである。なお、NEDO評定に基づく評価結果は、図2に示すように、5段階のレベルで表される。
教師データとしての眠気レベルの第二例は、被験者である着座者2の自己申告による眠気レベルに関する情報を用いる。自己申告においても、NEDO評定と同様に、5段階のレベルで表す。ただし、眠気レベルは、5段階に限られず、眠気の有無を示す2段階としてもよいし、その他任意の離散的な段階としてもよいし、連続値としてもよい。
学習済みモデル生成部26は、所定の機械学習アルゴリズムにより構築されたモデルであって、複数の特徴量に基づいて着座者2の眠気レベルを判定するための学習済みモデルを生成する。詳細には、学習済みモデルは、特徴量抽出部24により抽出された複数の特徴量と、眠気レベル取得部25により取得された教師データとしての眠気レベルとを訓練データとする教師あり学習を行うことにより生成される。
ここで、学習済みモデルの出力層は、段階的な眠気レベルを出力するようなモデルとしてもよいし、連続値を出力するモデルとしてもよいし、連続値を一次出力した後に段階的な離散値を二次出力するモデルとしてもよい。また、最終的に出力される眠気レベルの段階数も、任意に設定することができる。そして、学習済みモデル生成部26により生成された学習済みモデルは、学習済みモデル記憶部27に記憶される。なお、機械学習アルゴリズムの例については後述する。
(4−2.推定フェーズ)
推定フェーズにおいて、第一例の推定処理装置20は、図8に示すように、脈拍信号取得部21、呼吸信号取得部22、座圧信号取得部23、特徴量抽出部24、学習済みモデル記憶部27および推定処理部28を備える。脈拍信号取得部21、呼吸信号取得部22、座圧信号取得部23、特徴量抽出部24および学習済みモデル記憶部27は、学習フェーズにおいて説明した各構成と同様である。
推定処理部28は、特徴量抽出部24により抽出された複数の特徴量と、学習済みモデル記憶部27に記憶している学習済みモデルとに基づいて、着座者の眠気レベルを推定する。ここで、推定処理部28によって推定される眠気レベルは、上述の学習フェーズにおける学習済みモデルの出力層の出力情報に一致する。つまり、推定される眠気レベルは、段階的な値であったり、連続値であったりとなる。ただし、推定される眠気レベルは、学習済みモデルの出力層の出力情報に対してさらなる追加処理を施すようにしてもよい。
(5.機械学習アルゴリズムの例)
以下に、推定処理装置20にて適用される機械学習アルゴリズムの例について説明する。ここで、特徴量として、脈拍、呼吸および座圧に関する基本情報が用いられる。これらの特徴量は何れも、眠気に応じて時間変化を伴うものである。例えば、眠気レベルが高い場合には、脈拍信号のピーク間隔が徐々に変化する。また、眠気レベルが高い場合には、呼吸信号のピーク間隔が徐々に変化する。また、眠気レベルが高い場合には、座り直しなどに伴って座圧分布が変化する。
従って、機械学習アルゴリズムとして、時系列データの予測に適したものがよい。例えば、時系列データの予測に好適な機械学習アルゴリズムは、リカレントニューラルネットワーク(RNN)である。リカレントニューラルネットワークは、内部層(中間層や隠れ層とも称する)において、少なくとも一部のノード(ニューロン)において前の時刻での出力情報を、直接または間接に、後の時刻の入力とする。従って、リカレントニューラルネットワークでは、前後の時刻における影響を考慮した出力がなされる。
リカレントニューラルネットワークには、フルリカレントネットワーク、ホップフィールドネットワーク、エルマンネットワーク、ジョーダンネットワーク、エコーステートネットワーク(ESN)、Long short term memory network(LSTM)、Bi- directional RNN(BRNN)などである。
特に、エコーステートネットワーク(ESN)は、学習対象が少ないことから、学習時間を短くすることができる。ここで、エコーステートネットワークにおいては、入力層の全てと内部層の全てが結合されており、内部層の全てと出力層の全てとが結合されている。そして、エコーステートネットワークの内部層は、結合対象がノードの集合からランダムに決定され、且つ、入力層と内部層との結合における重み、および、内部層内のノードの結合における重みがランダムに決定される。そして、内部層と出力層との結合における重みが、学習対象となる。
一例である機械学習アルゴリズム40(以下、アルゴリズム40と称する)について、図9を参照して説明する。アルゴリズム40は、エコーステートネットワークを適用する。アルゴリズム40は、入力層41と、内部層42と、出力層43と、離散化処理層44とを備える。
入力層41は、特徴量抽出部24により抽出された複数の特徴量のそれぞれである。内部層42は、複数のノードにより構成されており、内部層42の全てのノードが、入力層41の全てのノードに結合されている。そして、入力層41の各ノードと内部層42の各ノードとの結合の重みは、ランダムに設定されている。さらに、内部層42における各ノードは、ランダムに結合されている。さらに、内部層42における各ノードの結合の重みも、ランダムに結合されている。
出力層43は、内部層42の全てのノードに結合されており、出力層43と内部層42の各ノードとの結合の重みは学習により設定される。また、出力層43は、所定の活性化関数により得られる値を出力する。活性化関数は、例えば、双曲正接関数、シグモイド関数、ソフトマックス関数、恒等関数、ReLuなどである。従って、本例においては、出力層43が出力する値は、眠気レベルを表す連続値である。
離散化処理層44は、出力層43から出力された眠気レベルの連続値を、例えば5段階の離散値に変換する。もちろん、離散化処理層44が、5段階以外、例えば2段階の離散値に変換するようにしてもよい。なお、出力層43は、連続値を出力する活性化関数を用いたが、離散値を出力する活性化関数を用いることもできる。この場合、離散化処理層44は不要となる。
(6.特徴量の例)
特徴量抽出部24により抽出される複数の特徴量について説明する。上述したように、特徴量抽出部24は、脈拍信号取得部21により取得される脈拍に関する基本情報に基づいて、1つまたは複数の特徴量を抽出する。つまり、脈拍に関する特徴量は、以下の(A1)〜(A8)である。
ここで、脈拍信号は、図10に示すような波形となる。脈拍信号ピークとは、1回の脈における最大値となる部位である。脈拍信号ピーク間隔Dn(nは1以上の整数)は、図10に示すとおりである。また、所定サンプリング時間Tsamは、例えば、2min〜15minの範囲から設定される。所定セグメント時間Tsegは、所定サンプリング時間Tsamより短い時間であればよく、例えば、1min〜10minの範囲から設定される。また、特徴量として(A1)〜(A8)の全てを適用してもよいし、(A1)〜(A8)の一部のみを適用してもよい。
(A1)所定サンプリング時間Tsamにおける脈拍信号ピーク間隔Dnの平均値
(A2)所定セグメント時間Tsegごとの脈拍信号ピーク間隔Dnの平均値のそれぞれを母集団とした場合に所定サンプリング時間Tsamにおける母集団の標準偏差
(A3)所定サンプリング時間Tsamにおける脈拍信号ピーク間隔Dnの標準偏差
(A4)所定セグメント時間Tsegごとの脈拍信号ピーク間隔Dnの標準偏差のそれぞれを母集団とした場合に所定サンプリング時間Tsamにおける母集団の平均値
(A5)隣接する脈拍信号ピーク間隔Dnの差の二乗値についての所定サンプリング時間Tsamにおける平均値の平方根
(A6)隣接する脈拍信号ピーク間隔Dnの差の絶対値についての所定サンプリング時間Tsamにおける平均値
(A7)隣接する脈拍信号ピーク間隔Dnの差についての所定サンプリング時間Tsamにおける標準偏差
(A8)所定サンプリング時間Tsamにおいて隣接する脈拍信号ピーク間隔Dnの差が50msecを超える比率
また、特徴量抽出部24は、呼吸信号取得部22により取得される呼吸に関する基本情報に基づいて、1つまたは複数の特徴量を抽出する。つまり、呼吸に関する特徴量は、以下の(B1)〜(B7)である。ここで、呼吸信号は、図11に示すような波形となる。呼吸信号ピークとは、1回の呼吸における最大値となる部位である。呼吸信号ピーク間隔En(nは1以上の整数は、図11に示すとおりである。特徴量として(B1)〜(B7)の全てを適用してもよいし、(B1)〜(B7)の一部のみを適用してもよい。
(B1)所定サンプリング時間Tsamにおける呼吸信号ピーク間隔Enの平均値
(B2)所定セグメント時間Tsegごとの呼吸信号ピーク間隔Enの平均値のそれぞれを母集団とした場合に所定サンプリング時間Tsamにおける母集団の標準偏差
(B3)所定サンプリング時間Tsamにおける呼吸信号ピーク間隔Enの標準偏差
(B4)所定セグメント時間Tsegごとの呼吸信号ピーク間隔Enの標準偏差のそれぞれを母集団とした場合に所定サンプリング時間Tsamにおける母集団の平均値
(B5)隣接する呼吸信号ピーク間隔Enの差の二乗値についての所定サンプリング時間Tsamにおける平均値の平方根
(B6)隣接する呼吸信号ピーク間隔Enの差の絶対値についての所定サンプリング時間Tsamにおける平均値
(B7)隣接する呼吸信号ピーク間隔Enの差についての所定サンプリング時間Tsamにおける標準偏差
また、特徴量抽出部24は、座圧信号取得部23により取得される座圧に関する基本情報に基づいて、1つまたは複数の特徴量を抽出する。座圧分布は、図12に示すとおりである。また、座圧分布の重心位置の時間変化は、図13に示すとおりである。また、座圧分布の分散共分散行列は、図14に示すとおりである。そして、座圧に関する特徴量は、以下の(C1)〜(C4)である。
(C1)所定サンプリング時間Tsamにおける座圧信号の基線からのゆらぎ
(C2)所定サンプリング時間Tsamにおける左右の座圧信号の重心位置の逐次差分の標準偏差
(C3)所定サンプリング時間Tsamにおける座圧信号の重心位置の分散共分散行列が定める楕円の面積
(C4)所定サンプリング時間Tsamにおける左右の座圧信号の重心位置の標準偏差
ここで、(C1)座圧信号の基線からのゆらぎは、図13に示すように座圧信号の重心位置の基線からのゆらぎとしてもよい。なお、ゆらぎとは、座圧信号の重心位置のサンプリング開始時の重心位置を基準とする基線(破線にて示す)に対する縦軸方向(図12におけるX軸方向(車両の左右方向)またはY軸方向(車両の前後方向))の変化度合を示す指標である。図13は、図12の座圧分布のX軸方向(車両の左右方向)の重心位置の時間変化を示す。また、座圧信号の重心位置が基線から所定値以上大きく変化した場合は、変化後の重心位置を起点として基線を変更してもよい。さらに、図12の座圧分布をX軸方向(車両の左右方向)の中心を基準に左右に分割したそれぞれの範囲における座圧信号の重心位置の基線からのゆらぎとしてもよいし、任意に分割した範囲における座圧信号の重心位置の基線からのゆらぎとしてもよい。
(7.第二例の推定処理装置20の構成)
第二例の推定処理装置20の構成について、図15−図17を参照して説明する。ここで、第二例の推定処理装置20において、図7および図8に示す第一例の推定処理装置20と同一構成については同一符号を付す。また、第二例の推定処理装置20について、第一例と同様に、学習フェーズと推定フェーズに分けて説明する。
(7−1.学習フェーズ)
学習フェーズにおいて、第二例の推定処理装置20は、脈拍信号取得部21、呼吸信号取得部22、座圧信号取得部23、特徴量抽出部24、眠気レベル取得部25、学習済みモデル生成部26aおよび学習済みモデル記憶部27aを備える。学習済みモデル生成部26aは、複数の学習済みモデルを生成し、生成された複数の学習済みモデルは、学習済みモデル記憶部27aに記憶される。ここで、複数の学習済みモデルは、同一の訓練データを用いた教師あり学習を行うことにより生成される。
(7−2.推定フェーズ)
推定フェーズにおいて、第二例の推定処理装置20は、脈拍信号取得部21、呼吸信号取得部22、座圧信号取得部23、特徴量抽出部24、学習済みモデル記憶部27aおよび推定処理部28aを備える。推定処理部28aは、複数の特徴量と複数の学習済みモデルのそれぞれとに基づいて着座者2の複数の予備眠気レベルを推定し、さらに複数の予備眠気レベルに基づいて眠気レベルを推定する。
(7−3.機械学習アルゴリズム50の例)
本例における機械学習アルゴリズム50(以下、アルゴリズム50と称する)は、図17に示すように、複数のエコーステートネットワークを用いて構成される。つまり、アルゴリズム50は、入力層51と、複数の内部層52a,52b,52c、複数の出力層53a,53b,53c、総合出力層54を備える。そして、入力層41、内部層52a,52b,52cの1つ、出力層53a,53b,53cの1つが、1つの学習済みモデルを構成する。
入力層51は、特徴量抽出部24により抽出された複数の特徴量のそれぞれである。複数の内部層52a,52b,52cのそれぞれは、複数のノードにより構成されている。複数の出力層53a,53b,53cは、複数の内部層52a,52b,52cのそれぞれに結合されている。総合出力層54は、複数の出力層53a,53b,53cを入力として、例えば、総合的な値を出力する。例えば、出力層53a,53b,53cが連続値を出力する場合には、総合出力層54は、これらの平均値を出力する。出力層53a,53b,53cが離散値を出力する場合には、総合出力層54は、多数決などによる離散値を出力する。
(8.第三例の推定処理装置20の構成)
第三例の推定処理装置20の構成について、図18および図19を参照して説明する。第三例の推定処理装置20は、着座者2の体格に応じた学習済みモデルを用いて眠気レベルを推定する。脈拍、呼吸および座圧は、人間の体格に応じて異なることが知られている。そこで、より高精度に眠気レベルを推定するために、着座者2の体格に応じて、判定に用いる学習済みモデルを変更する。
ここで、第三例の推定処理装置20を備える眠気推定システム1は、センサ10として、脈拍センサ11、呼吸センサ12および面状感圧センサ13を備える。本例においては、面状感圧センサ13を、着座者2の体格を検出する体格センサ131としても機能させる。ただし、体格センサ131は、面状感圧センサ13とは別のセンサとして設けてもよい。例えば、体格センサ131は、腹囲、胸囲などを検出することにより、着座者2の体格を検出することもできる。
第三例の推定処理装置20において、図7および図8に示す第一例の推定処理装置20と同一構成については同一符号を付す。また、第三例の推定処理装置20について、第一例と同様に、学習フェーズと推定フェーズに分けて説明する。
(8−1.学習フェーズ)
学習フェーズにおいて、第三例の推定処理装置20は、図18に示すように、脈拍信号取得部21、呼吸信号取得部22、座圧信号取得部23、特徴量抽出部24、体格判定部121、眠気レベル取得部25、学習済みモデル生成部26bおよび学習済みモデル記憶部27bを備える。
体格判定部121は、体格センサ131を兼用する面状感圧センサ13による検出値に基づいて、着座者2の体格を判定する。体格は、例えば、2段階から5段階程度に分類するとよい。
学習済みモデル生成部26bは、体格判定部121により判定された着座者2の体格に応じた複数の学習済みモデルを生成する。つまり、学習済みモデル生成部26bは、着座者2の体格に応じて訓練データを分類し、それぞれ体格に関する訓練データを用いて学習済みモデルを生成する。生成された複数の学習済みモデルは、学習済みモデル記憶部27bに記憶される。
(8−2.推定フェーズ)
推定フェーズにおいて、第三例の推定処理装置20は、図19に示すように、脈拍信号取得部21、呼吸信号取得部22、座圧信号取得部23、特徴量抽出部24、体格判定部121、学習済みモデル記憶部27bおよび推定処理部28bを備える。推定処理部28bは、学習済みモデル記憶部27bに記憶されている複数の学習済みモデルの中から、体格センサ131により検出された着座者2の体格に応じた学習済みモデルを決定する。そして、推定処理部28bは、複数の特徴量と体格センサ131により検出された着座者2の体格に応じた学習済みモデルとに基づいて着座者2の眠気レベルを推定する。
(9.実験)
推定処理装置20による眠気レベルの推定精度について確認するための実験を行った。第一例の推定処理装置20を適用し、さらに機械学習アルゴリズム40は、エコーステートネットワークを適用する。また、第一例のセンサ10を適用する。
(9−1.実験方法)
ドライビングシミュレータを用い、被験者による高速道路を模擬したコースでの走行を行った。実験時間は、1回あたりおよそ1時間とし、一定速度120km/hでの走行とした。また、実験室は、眠気を誘発しやすくするために、実験室の照明は点灯せずに行うと共に、走行するコースは、単調な直線のコースを採用した。
被験者は、図20に示すように、20代から60代の健康な男女40名であり、うち3名については時間をずらし3回の実験を実施した。さらに、被験者は、体格に相当するBMIが25以下の者とした。つまり、被験者は、肥満型を除く、やややせ型から標準型の者とした。
また、脈拍センサ11は、光電脈波センサを用い、脈拍は、容積脈波を計測することにより取得した。呼吸センサ12は、呼吸ピックアップを用いた。面状感圧センサ13は、図6に示すセンサを用いた。真値としての眠気レベルは、3人の評価者によるNEDO評定による評価結果を用いた。
機械学習アルゴリズム40としてのエコーステートネットワークのパラメータは、内部層42のノード数300、内部層42内の結合率0.2、内部層42内の結合重み行列のスペクトル半径0.2とした。内部層42の活性化関数は、ロジスティックシグモイド関数を用い、出力層43の活性化関数は、双曲正接関数を用いた。被験者40人のうちランダムに選択した31人についての37回分のデータを訓練データとし、残りの9人についての9回分のデータをテストデータとした。
(9−2.実験結果)
9人の9回分のテストデータについて、3人の3回分についての結果を、図21A、図21B、図21Cに示す。各図において、破線が真値を示し、実線が推定値を示す。
そして、眠気レベルを5段階のうちレベル1,2とレベル3,4,5の2段階(2値)に分類した場合、正答率は83.3%、真陽性率は88.7%、真陰性率は63.2%であった。
5段階で眠気レベルを推定した場合において、図21A、図21B、図21Cより、精度よく推定されていることが分かる。また、2段階で眠気レベルを推定した場合には、非常に高い精度で推定できている。つまり、検出時間が短い場合であっても、高精度に着座者2の眠気レベルを推定することができる。
1:眠気推定システム、2:着座者、10:センサ、11:脈拍センサ、12:呼吸センサ、13,15:面状感圧センサ、131:体格センサ、13a,15a:第一電極、13b,15b:第二電極、13c,15c:誘電層、14:カメラ、15:面状感圧センサ、20:推定処理装置、21:脈拍信号取得部、22:呼吸信号取得部、23:座圧信号取得部、24:特徴量抽出部、25:眠気レベル取得部、26,26a,26b:学習済みモデル生成部、27,27a,27b:学習済みモデル記憶部、28,28a,28b:推定処理部、31:シート、32:ステアリングホイール、40:機械学習アルゴリズム、41:入力層、42:内部層、43:出力層、44:離散化処理層、50:機械学習アルゴリズム、51:入力層、52a,52b,52c:内部層、53a,53b,53c:出力層、54:総合出力層、121:体格判定部、Dn:脈拍信号ピーク間隔、En:呼吸信号ピーク間隔、Tsam:所定サンプリング時間、Tseg:所定セグメント時間

Claims (15)

  1. 着座者の脈拍、前記着座者の呼吸および前記着座者による座圧の少なくとも2種の基本情報を検出するセンサと、
    前記センサにより検出される前記基本情報に基づいて前記着座者の眠気を推定する推定処理装置と、
    を備え、
    前記推定処理装置は、
    前記基本情報に基づいて機械学習に用いる複数の特徴量を抽出する特徴量抽出部と、
    所定の機械学習アルゴリズムにより構築されたモデルであって、前記複数の特徴量に基づいて前記着座者の眠気レベルを判定するための学習済みモデルを記憶する学習済みモデル記憶部と、
    前記複数の特徴量と前記学習済みモデルとに基づいて前記着座者の眠気レベルを推定する推定処理部と、
    を備える、眠気推定システム。
  2. 前記基本情報は、少なくとも前記脈拍を含む、請求項1に記載の眠気推定システム。
  3. 前記基本情報は、前記脈拍、前記呼吸および前記座圧の3種を含む、請求項1または2に記載の眠気推定システム。
  4. 前記特徴量抽出部は、前記脈拍に関する特徴量として、
    所定サンプリング時間における脈拍信号ピーク間隔の平均値、
    所定セグメント時間ごとの脈拍信号ピーク間隔の平均値のそれぞれを母集団とした場合に所定サンプリング時間における母集団の標準偏差、
    所定サンプリング時間における脈拍信号ピーク間隔の標準偏差、
    所定セグメント時間ごとの脈拍信号ピーク間隔の標準偏差のそれぞれを母集団とした場合に所定サンプリング時間における母集団の平均値、
    隣接する脈拍信号ピーク間隔の差の二乗値についての所定サンプリング時間における平均値の平方根、
    隣接する脈拍信号ピーク間隔の差の絶対値についての所定サンプリング時間における平均値、
    隣接する脈拍信号ピーク間隔の差についての所定サンプリング時間における標準偏差、
    所定サンプリング時間において隣接する脈拍信号ピーク間隔の差が50msecを超える比率、
    のうち少なくとも1つを抽出する、請求項2または3に記載の眠気推定システム。
  5. 前記基本情報は、少なくとも前記呼吸を含み、
    前記特徴量抽出部は、前記呼吸に関する特徴量として、
    所定サンプリング時間における呼吸信号ピーク間隔の平均値、
    所定セグメント時間ごとの呼吸信号ピーク間隔の平均値のそれぞれを母集団とした場合に所定サンプリング時間における母集団の標準偏差、
    所定サンプリング時間における呼吸信号ピーク間隔の標準偏差、
    所定セグメント時間ごとの呼吸信号ピーク間隔の標準偏差のそれぞれを母集団とした場合に所定サンプリング時間における母集団の平均値、
    隣接する呼吸信号ピーク間隔の差の二乗値についての所定サンプリング時間における平均値の平方根、
    隣接する呼吸信号ピーク間隔の差の絶対値についての所定サンプリング時間における平均値、
    隣接する呼吸信号ピーク間隔の差についての所定サンプリング時間における標準偏差、
    のうち少なくとも1つを抽出する、請求項1−3の何れか1項に記載の眠気推定システム。
  6. 前記基本情報は、少なくとも前記座圧を含み、
    前記特徴量抽出部は、前記座圧に関する特徴量として、
    所定サンプリング時間における座圧信号の重心位置の基線からのゆらぎ、
    所定サンプリング時間における左右の座圧信号の重心位置の逐次差分の標準偏差、
    所定サンプリング時間における座圧信号の重心位置の分散共分散行列が定める楕円の面積、
    所定サンプリング時間における左右の座圧信号の重心位置の標準偏差、
    のうち少なくとも1つを抽出する、請求項1−3の何れか1項に記載の眠気推定システム。
  7. 前記学習済みモデルは、カメラにより撮像された前記着座者の顔表情に基づいて複数の評価者が評価した眠気レベルを教師データとして生成された、請求項1−6の何れか1項に記載の眠気推定システム。
  8. 前記学習済みモデルは、前記着座者の自己申告による眠気レベルを教師データとして生成された、請求項1−6の何れか1項に記載の眠気推定システム。
  9. 前記機械学習アルゴリズムは、リカレントニューラルネットワーク(RNN)である、請求項1−8の何れか1項に記載の眠気推定システム。
  10. 前記機械学習アルゴリズムは、リカレントニューラルネットワーク(RNN)の1種であるエコーステートネットワーク(ESN)である、請求項9に記載の眠気推定システム。
  11. 前記学習済みモデル記憶部は、複数の前記学習済みモデルを記憶し、
    前記推定処理部は、
    前記複数の特徴量と複数の前記学習済みモデルのそれぞれとに基づいて前記着座者の複数の予備眠気レベルを推定し、
    前記複数の予備眠気レベルに基づいて前記眠気レベルを推定する、
    請求項1−10の何れか1項に記載の眠気推定システム。
  12. 前記学習済みモデル記憶部は、前記着座者の体格に応じた複数の前記学習済みモデルを記憶し、
    前記眠気推定システムは、さらに、前記着座者の体格を検出する体格センサを備え、
    前記推定処理部は、前記複数の特徴量と、前記体格センサにより検出された前記着座者の前記体格に応じた前記学習済みモデルとに基づいて、前記着座者の眠気レベルを推定する、請求項1−11の何れか1項に記載の眠気推定システム。
  13. 前記着座者は、車両の運転者である、請求項1−12の何れか1項に記載の眠気推定システム。
  14. 前記センサは、座面に配置された1枚の面状感圧センサであり、前記脈拍、前記呼吸および前記座圧の全てを検出する共通のセンサである、請求項1−13の何れか1項に記載の眠気推定システム。
  15. 前記センサは、
    前記脈拍および前記呼吸の少なくとも一方を検出するカメラと、
    前記座圧を検出する面状感圧センサと、
    を備える、請求項1−13の何れか1項に記載の眠気推定システム。
JP2019093239A 2019-05-16 2019-05-16 着座者の眠気推定システム Pending JP2020185284A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019093239A JP2020185284A (ja) 2019-05-16 2019-05-16 着座者の眠気推定システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019093239A JP2020185284A (ja) 2019-05-16 2019-05-16 着座者の眠気推定システム

Publications (1)

Publication Number Publication Date
JP2020185284A true JP2020185284A (ja) 2020-11-19

Family

ID=73221152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019093239A Pending JP2020185284A (ja) 2019-05-16 2019-05-16 着座者の眠気推定システム

Country Status (1)

Country Link
JP (1) JP2020185284A (ja)

Similar Documents

Publication Publication Date Title
Lee et al. Wearable glove-type driver stress detection using a motion sensor
Lanatà et al. How the autonomic nervous system and driving style change with incremental stressing conditions during simulated driving
EP3158392B1 (en) System and method for responding to driver state
US10618522B2 (en) Drowsiness detection and intervention system and method
Li et al. A novel learning model of driver fatigue features representation for steering wheel angle
Lee et al. Wearable mobile-based emotional response-monitoring system for drivers
CN106073712B (zh) 基于心生理信号的驾驶警示方向盘套装置及信号检测方法
Lee et al. Smartwatch-based driver vigilance indicator with kernel-fuzzy-C-means-wavelet method
IT201900005868A1 (it) Procedimento di elaborazione di un segnale elettrofisiologico, sistema, prodotto informatico e veicolo corrispondenti
Katsis et al. Emotion recognition in car industry
US20100069795A1 (en) Method and system for contour fitting and posture identification, and method for contour model adaptation
Thorey et al. AI vs Humans for the diagnosis of sleep apnea
WO2018180134A1 (ja) 感情認識装置および感情認識プログラム
Li et al. Machine learning assessment of visually induced motion sickness levels based on multiple biosignals
Jiang et al. Denoising and chaotic feature extraction of electrocardial signals for driver fatigue detection by Kolmogorov entropy
Lee et al. Development of three driver state detection models from driving information using vehicle simulator; normal, drowsy and drunk driving
Kang et al. A Precise Muscle activity onset/offset detection via EMG signal
Dehzangi et al. Multi-modal system to detect on-the-road driver distraction
Ma et al. Smart cushion-based activity recognition: Prompting users to maintain a healthy seated posture
Hayashi et al. Toward health–related accident prevention: Symptom detection and intervention based on driver monitoring and verbal interaction
Kau et al. Pressure-sensor-based sleep status and quality evaluation system
Hongchang et al. Monitoring driving psychological fatigue through unconstrained heartbeat signal extraction by using pressure sensor array
JP2020185284A (ja) 着座者の眠気推定システム
KR20140073669A (ko) 운전능력 평가시스템
Murugan et al. Analysis of different measures to detect driver states: A review

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200205

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20200205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200312

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210301