JP6853159B2 - 状態推定装置 - Google Patents

状態推定装置 Download PDF

Info

Publication number
JP6853159B2
JP6853159B2 JP2017210798A JP2017210798A JP6853159B2 JP 6853159 B2 JP6853159 B2 JP 6853159B2 JP 2017210798 A JP2017210798 A JP 2017210798A JP 2017210798 A JP2017210798 A JP 2017210798A JP 6853159 B2 JP6853159 B2 JP 6853159B2
Authority
JP
Japan
Prior art keywords
data
state
user
learning
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017210798A
Other languages
English (en)
Other versions
JP2019080809A (ja
Inventor
梶 洋隆
洋隆 梶
将 杉山
将 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Toyota Motor Corp
Original Assignee
University of Tokyo NUC
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC, Toyota Motor Corp filed Critical University of Tokyo NUC
Priority to JP2017210798A priority Critical patent/JP6853159B2/ja
Priority to US16/162,813 priority patent/US10556595B2/en
Priority to CN201811274620.9A priority patent/CN109717879B/zh
Publication of JP2019080809A publication Critical patent/JP2019080809A/ja
Application granted granted Critical
Publication of JP6853159B2 publication Critical patent/JP6853159B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • A61B5/346Analysis of electrocardiograms
    • A61B5/349Detecting specific parameters of the electrocardiograph cycle
    • A61B5/352Detecting R peaks, e.g. for synchronising diagnostic apparatus; Estimating R-R interval
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • A61B5/4809Sleep detection, i.e. determining whether a subject is asleep or not
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/30Driving style
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • G06F2218/16Classification; Matching by matching signal segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/15Biometric patterns based on physiological signals, e.g. heartbeat, blood flow
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Description

本発明は、例えば、ユーザの状態を推定可能な状態推定装置の技術分野に関する。
ユーザの状態を推定するための方法の一例として、特許文献1には、運転者の心電図波形の特徴量に基づいて運転者毎の眠気検出モデルを構築し、構築した眠気検出モデルに基づいて運転者の眠気を検出する眠気検出方法が記載されている。
特開2015−226696号公報
特許文献1に記載された方法は、運転者による運転開始直後に(具体的には、運転者が運転を開始してから約3分以内に)取得された心電図波形の特徴量に基づいて、運転者毎の眠気検出モデルを構築している。しかしながら、運転開始後に眠気検出モデルが構築されるため、運転開始してからしばらくの間は、眠気検出モデルを構築できない区間がある。更には、心電図波形の特徴量は個人差や個人内差が大きく、また動作などによるアーチファクトの問題もあるため、運転者の3分間の心電図波形の特徴量だけに基づいて常に適切な眠気検出モデルが構築できるとは限らない。その結果、特許文献1に記載された方法は、運転者の眠気を適切に検出することができない可能性があるという技術的課題を有している。
尚、上述した技術的課題は、運転者の心電図波形の特徴量に基づいて運転者の眠気を検出する場合のみならず、ユーザの任意の生体情報及びユーザの任意の行動情報の少なくとも一方に基づいてユーザの状態を推定する場合においても同様に生じ得る。
本発明が解決しようとする課題には上記のようなものが一例としてあげられる。本発明は、ユーザの生体情報及び行動情報の少なくとも一方に基づいてユーザの状態を適切に推定することが可能な状態推定装置を提供することを課題とする。
本発明の状態推定装置の一の態様は、第1ユーザの生体情報及び行動情報の少なくとも一方に関する第1入力データを取得する取得手段と、前記第1入力データに基づいて、前記第1ユーザの状態を推定する推定動作を行う推定手段とを備え、前記推定手段は、(i)前記第1ユーザの生体情報及び行動情報の少なくとも一方に関する第2入力データと、前記第2入力データに対応する前記第1ユーザの状態を示す第1正解データとを関連付けて含む第1学習データ、(ii)前記第1ユーザの生体情報及び行動情報の少なくとも一方に関する第3入力データを、前記第3入力データに対応する前記第1ユーザの状態を示す第2正解データと関連付けることなく含む第2学習データ、及び、(iii)前記第1ユーザとは異なる第2ユーザの生体情報及び行動情報の少なくとも一方に関する第4入力データと、前記第4入力データに対応する前記第2ユーザの状態を示す第3正解データとを関連付けて含む第3学習データを用いて前記推定動作の内容を最適化するための学習動作を行う。
図1は、本実施形態の状態推定装置の構成を示すブロック図である。 図2は、推定動作の流れを示すフローチャートである。 図3は、心電位の波形信号を示すグラフである。 図4は、波形信号から特定可能なRRIを示す波形図である。 図5は、継続学習動作の流れを示すフローチャートである。 図6は、推定誤差の発生率を示すグラフである。
以下、状態推定装置の実施形態について説明する。以下では、本発明の状態推定装置の一実施形態として、車両のドライバの心電波形に基づいて、ドライバの眠気度を推定することが可能な状態推定装置1について説明する。尚、ドライバは、後述する付記における「第1ユーザ」の一具体例である。
(1)状態推定装置1の構成
はじめに、図1を参照しながら、本実施形態の状態推定装置1の構成について説明する。図1は、本実施形態の状態推定装置1の構成を示すブロック図である。
図1に示すように、状態推定装置1は、心電位センサ11と、演算装置12と、記憶装置13と、表示装置14と、通信装置15と、操作装置16とを備える。
心電位センサ11は、ドライバの心電位(つまり、心臓が発する電気信号)を検出可能な心電計である。心電位センサ11による心電位の検出方法は、どのような方法であってもよい。心電位センサ11は、例えば、ドライバの胸部に取り付け可能なウェアラブルセンサであるが、車両に固定されていてもよい。心電位センサ11の検出結果(つまり、心電位の時間波形を示す波形信号)は、演算装置12に出力される。
演算装置12は、CPU(Central Processing Unit)等の情報処理装置である。演算装置12は、心電位センサ11から出力される波形信号に基づいて、ドライバの眠気度を推定する。具体的には、演算装置12は、ドライバが、眠気ありの状態にあるか又は眠気なしの状態にあるか(つまり、覚醒した状態にあるか)を推定する。眠気度を推定するために、演算装置12は、演算装置12の内部に論理的に構築される処理ブロックとして、後述する付記における「取得手段」の一具体例である入力インタフェース部120と、フィルタ部121と、特徴抽出部122と、後述する付記における「推定手段」の一具体例である状態推定部123と、学習データ生成部124と、運転判定部125とを備える。入力インタフェース部120は、心電位センサ11から、心電位センサ11から出力される波形信号を取得する。フィルタ部121は、入力インタフェース部120が取得した波形信号に対して、フィルタリング処理を施す。特徴抽出部122は、フィルタリング処理が施された波形信号の特徴量を抽出する。状態推定部123は、特徴抽出部122が抽出した特徴量に基づいて、ドライバの眠気度を推定するための推定動作を行う。状態推定部123は、更に、推定動作の内容を規定する係数パラメータα(詳細は、後述する)を最適化するための学習動作を行う。学習データ生成部124は、特徴抽出部122が抽出した特徴量に基づいて、状態推定部123が学習動作を行う際に利用する学習データDPを生成する。学習データDPは、PUデータDPU及びPNデータDPNという2種類のデータを含む。PUデータDPU及びPNデータDPNの詳細については、後に詳述する。運転判定部125は、ドライバが車両を運転しているか否かを判定する。
記憶装置13は、ハードディスクや、フラッシュメモリ等の記録媒体である。記憶装置13は、状態推定装置1の動作に関連する任意のデータを記憶する。特に、記憶装置13は、学習動作によって最適化された係数パラメータα及び学習動作に用いられる学習データDPを記憶する。その他、記憶装置13は、推定動作によって推定された眠気度を示すデータや、波形信号を示すデータや、抽出された特徴量を示すデータ等を記憶してもよい。尚、状態推定装置1は、記憶装置13に加えて又は代えて、通信装置15を介して状態推定装置1との間でデータの送受信が可能な外部記憶装置を備えていてもよい。
表示装置14は、状態推定装置1の動作に関連する任意の表示動作を行う。例えば、表示装置14は、演算装置12によるドライバの眠気度の推定結果を表示する。
通信装置15は、状態推定装置1と外部の装置との間でのデータの送受信を制御する。例えば、通信装置15は、状態推定装置1と外部の装置との間での、記憶装置13が記憶しているデータの送受信を制御する。
操作装置16は、状態推定装置1の動作に関連するドライバ(或いは、状態推定装置1を使用する任意のユーザ)の操作の入力を受け付ける。例えば、操作装置16は、推定動作の開始及び終了を要求するための操作の入力を受け付ける。
状態推定装置1は、上述した演算装置12、記憶装置13、表示装置14、通信装置15及び操作装置16を備える携帯端末(例えば、スマートフォン等)を備えている。この場合、ドライバが携帯端末を保持したまま車両に乗車すれば、車両を運転しているドライバの眠気度が推定される。但し、状態推定装置1は、上述した演算装置12、記憶装置13、表示装置14、通信装置15及び操作装置16を備えている限りは、このような携帯端末を備えていなくてもよい。
(2)状態推定装置1の動作
続いて、状態推定装置1の動作について説明する。上述したように、状態推定装置1は、ドライバの眠気度を推定するための推定動作及び係数パラメータαを最適化するための学習動作を行う。従って、以下では、推定動作及び学習動作について順に説明する。
(2−1)推定動作
はじめに、図2を参照しながら、推定動作について説明する。図2は、推定動作の流れを示すフローチャートである。
図2に示すように、まず、ドライバが操作装置16を用いて推定動作の開始を要求した場合には、心電位センサ11によって心電位が検出される(ステップS11)。その結果、入力インタフェース部120は、心電位を示す波形信号を取得する(ステップS11)。
その後、フィルタ部121は、ステップS11で取得された波形信号に対してフィルタリング処理を施す(ステップS12)。フィルタリング処理は、波形信号からノイズを取り除く第1処理を含んでいてもよい。フィルタリング処理は、波形信号の基線の動揺(つまり、変動)を取り除く第2処理を含んでいてもよい。
その後、特徴量抽出部122は、フィルタリング処理が施された波形信号の特徴量を抽出する(ステップS13)。具体的には、特徴量抽出部122は、図3に示すように、波形信号を、所定の時間長(例えば、数十秒から百数十秒)を有する単位信号部分に区分する。特徴量抽出部122は、単位信号部分の特徴量を抽出する。特徴量抽出部122は、単位信号部分の特徴量を抽出する処理を、所定周期(例えば、数十秒から百数十秒)毎に繰り返す。尚、図3は、所定周期が単位信号部分の時間超よりも短い例を示している。この場合は、一の単位信号部分と他の単位信号部分とが部分的に重複する。
特徴量は、波形信号の特徴を示すパラメータである。本実施形態では、特徴量抽出部122は、RRI(R−R−Interval:心拍間隔)に関する特徴量を抽出するものとするが、どのような特徴量を抽出してもよい。尚、RRIは、図4に示すように、R波のピークの時間間隔に相当する指標である。RRIに関する特徴量は、例えば、RRIに対してFFT(Fast Fourier Transform)処理を施した場合に検出される低周波成分(例えば、0.04Hzから0.15Hzの周波数に相当する信号成分)の強度に相当するLF、RRIに対してFFT処理を施した場合に検出される高周波成分(例えば、0.15Hzから0.40Hzの周波数に相当する信号成分)の強度に相当するHF、時間軸上で隣接する2つのRRIの差分が50ミリ秒を超える心拍の割合(或いは、心拍の数)に相当するpNN50、時間軸上で隣接する2つのRRIの差分の2乗の平均値の平方根に相当するRMSSD、RRIの標準偏差をRMSSDで除した値に相当するSD/RMSSD、RRIの分散値、及び、R波の数(つまり、波形のピークの数)のうちの少なくとも一つを含む。
但し、波形信号の状態によっては、特徴量抽出部122が特徴量を適切に抽出できない可能性がある。この場合には、特徴量抽出部122は、特徴量の適切な抽出が不可能であったことを示すエラーフラグを出力してもよい。例えば、信号レベル(つまり、振幅)が小さすぎる(例えば、所定レベルよりも小さい)波形信号から抽出される特徴量は、その信頼性が相対的に低い可能性がある。従って、波形信号の信号レベルが小さすぎる場合には、特徴量抽出部122は、エラーフラグを出力してもよい。エラーフラグが出力される場合には、状態推定部123は、ドライバの眠気度を推定しないことが好ましい。
特徴量抽出部122が抽出した特徴量(更には、エラーフラグ)は、特徴量抽出部122から状態推定部123へと出力される。更に、特徴量抽出部122が抽出した特徴量(更には、エラーフラグ)は記憶装置13によって記憶される。この際、後に詳述するように、記憶装置13は、特徴量抽出部122が抽出した特徴量を、学習データDPの一部として記憶してもよい。尚、ステップS13において特徴量抽出部122が抽出した特徴量は、後述する付記における「第1入力データ」の一具体例である。
再び図2において、その後、状態推定部123は、ステップS13で抽出された特徴量に基づいて、ドライバの眠気度を推定する(ステップS14)。具体的には、まず、状態推定部123は、記憶装置13が記憶しているPUデータDPU及びPNデータDPNに基づいて、数式1に示す基底ベクトルφ(x)を算出する。尚、数式1中において、変数xは、ステップS13で抽出された特徴量(特に、ある単位信号部分の特徴量)を示しており、抽出された特徴量の種類の数がdである場合には、数式2に示すように、d次元のベクトル(つまり、行列)となる。また、数式1中において、変数bは、基底ベクトルφ(x)の次元数を示す。その後、状態推定部123は、記憶装置13が記憶している係数パラメータαを読み出す。係数パラメータαは、b次元のベクトルであり、数式3に示される。その後、状態推定部123は、基底ベクトルφ(x)及び係数パラメータαによって定義される線形モデルg(x)に基づいて、眠気度を推定する。線形モデルg(x)は、数式4に示される。具体的には、状態推定部123は、線形モデルg(x)に対して、ステップS13で抽出した特徴量xを入力して、その出力値を取得する。線形モデルg(x)は、特徴量xから推定されるドライバの眠気度に応じた出力値を出力する。以下の説明では、線形モデルg(x)は、−1から+1の範囲において、ドライバの眠気度が大きくなればなるほど(つまり、ドライバが眠気ありの状態にある可能性が高くなるほど)小さな出力値を出力するものとする。但し、後述する学習動作による係数パラメータαの最適化により、線形モデルg(x)は、ドライバの眠気度が相対的に大きい(つまり、ドライバが眠気ありの状態にある可能性が相対的に高い)場合に−1(或いは、−1に近い値)を出力し、ドライバの眠気度が相対的に小さい(つまり、ドライバが眠気ありの状態にある可能性が相対的に低い)場合に+1(或いは、+1に近い値)を出力するように最適化される。その後、状態推定部123は、線形モデルg(x)の出力値が所定閾値(例えば、0)よりも大きい場合に、ドライバが眠気なしの状態にあると推定する。一方で、状態推定部123は、線形モデルg(x)の出力値が所定閾値(例えば、0)よりも小さい場合に、ドライバが眠気ありの状態にあると推定する。従って、状態推定部123は、実質的には、2クラス分類器と等価である。
Figure 0006853159
Figure 0006853159
Figure 0006853159
Figure 0006853159
その後、表示装置14は、ステップS14におけるドライバの眠気度の推定結果を表示する(ステップS15)。更に、ドライバが眠気ありの状態にあると推定された場合には、演算装置12は、必要に応じてドライバに警告を発してもよい。例えば、演算装置12は、表示装置14を制御して、ドライバに警告を発する警告画像を表示してもよい。例えば、演算装置12は、不図示のスピーカを制御して、ドライバに警告を発する警告音を出力してもよい。例えば、演算装置12は、車両のシートやステアリングホイールに内蔵された不図示の振動装置を制御して、ドライバに警告を発する振動を発生させてもよい。
以上説明したステップS11からステップS15の処理が、ドライバが操作装置16を用いて推定動作の終了を要求するまで繰り返し行われる(ステップS16)。
(2−2)学習動作
続いて、学習動作について説明する。本実施形態では、状態推定装置1は、状態推定装置1が推定動作を開始する前に学習動作を行う。更に、状態推定装置1は、状態推定装置1が推定動作を開始した後にも学習動作を行う。従って、以下では、状態推定装置1が推定動作を開始する前に行われる学習動作(以下、“初期学習動作”と称する)及び状態推定装置1が推定動作を開始した後に行われる学習動作(以下、“継続学習動作”と称する)について順に説明する。
(2−2−1)初期学習動作
状態推定装置1は、状態推定装置1がドライバによって入手される前(言い換えれば、状態推定装置1が市場に出荷される前に)、初期学習動作を行う。言い換えれば、状態推定装置1は、状態推定装置1がドライバの眠気度を推定し始める前、初期学習動作を行う。この段階では、状態推定装置1は、状態推定装置1による眠気度の推定の対象となるドライバの心電位の検出結果を用いて初期学習動作を行うことは困難である。このため、状態推定装置1は、ドライバとは異なる被験者の心電位の検出結果を用いて初期学習動作を行う。
具体的には、まず、心電位センサ11によって、初期学習動作に協力する被験者(典型的には、ドライバとは異なる被験者)の心電位が検出される。被験者は、後述する付記における「第2ユーザ」の一具体例である。その後、特徴抽出部122は、被験者の心電位の検出結果に基づいて、特徴量を抽出する。抽出された特徴量は、特徴抽出部122から学習データ生成部124に出力される。尚、初期学習動作において抽出された特徴量は、後述する付記における「第4入力データ」の一具体例である。
心電位の検出及び特徴量の抽出と並行して、不図示のカメラによって被験者が撮像される。その後、判定者(例えば、医師等の専門家)は、カメラによる撮像結果から被験者の顔の表情及び振る舞い等の少なくとも一つを特定し、特定した顔の表情及び振る舞い等の少なくとも一つに基づいて被験者が眠気ありの状態にあるか又は眠気なしの状態にあるかを判定する。つまり、判定者は、心電位が検出され且つ特徴量が抽出された時点での被験者の実際の眠気度を判定する。判定者による判定結果は、例えば、操作装置16を用いて学習データ生成部124に入力される。尚、判定者による判定結果は、後述する付記における「第3正解データ」の一具体例である。
このような被験者の心電位の特徴量の抽出及び被験者の実際の眠気度の判定が、複数の被験者を対象に繰り返される。その結果、学習データ生成部124には、複数の被験者の心電位の特徴量と、複数の被験者の実際の眠気度が入力される。学習データ生成部124は、抽出された特徴量と判定者による判定結果(つまり、被験者の眠気度の正解を示す正解データ)とを被験者毎に関連付けられて含むデータを、学習データDPの一部であるPNデータDPNとして生成する。生成されたPNデータDPNは、記憶装置13によって記憶される。被験者が複数存在することから、PNデータDPNは、眠気ありの状態にあった第1の被験者の心電位の特徴量と心電位が検出された時点で第1の被験者が眠気ありの状態にあったことを示す正解データとが関連付けられたデータ、及び、眠気なしの状態にあった第2の被験者(但し、第2被験者は第1被験者とは異なる)の心電位の特徴量と心電位が検出された時点で第2の被験者が眠気なしの状態にあったことを示す正解データとが関連付けられたデータの双方を含む可能性が高い。更には、被験者の心電位の検出がある程度継続して行われる場合には、心電位の検出中に、被験者の状態が、眠気ありの状態から眠気なしの状態へと又は眠気なしの状態から眠気ありの状態へと変わる可能性がある。その結果、PNデータDPNは、第1のタイミングで眠気ありの状態にあった第1の被験者の心電位の特徴量と第1のタイミングで第1の被験者が眠気ありの状態にあったことを示す正解データとが関連付けられたデータ、及び、第1のタイミングとは異なる第2のタイミングで眠気なしの状態にあった第1の被験者の心電位の特徴量と第2のタイミングで第1の被験者が眠気なしの状態にあったことを示す正解データとが関連付けられたデータの双方を含む可能性が高い。つまり、PNデータDPNは、被験者の状態を眠気ありの状態(例えば、ネガティブ(Negative)な状態)及び眠気なしの状態(例えば、ポジティブ(Positive)な状態)という2つのクラスに分類する推定動作の内容を最適化する(つまり、係数パラメータαを最適化する)ために、被験者がポジティブな状態であることを示す正解データと特徴量とが関連付けられたデータ(いわゆる、正例データ(Positive Data))及び被験者がネガティブな状態にあることを示す正解データと特徴量とが関連付けられたデータ(いわゆる、負例データ(Negative Data))の双方を含む。尚、このPNデータDPNは、後述する付記における「第3学習データ」の一具体例である。
その後、状態推定部123は、PNデータDPNを用いて、推定動作の内容を規定する係数パラメータαを最適化する。この場合、上述したようにPNデータDPNには被験者の実際の眠気度を示す正解データ(いわゆる、教師データ)が含まれていることから、状態推定部123は、教師あり学習法に基づいて、係数パラメータαを最適化する。具体的には、状態推定部123は、PNデータDPNに含まれる特徴量xを上述した数式3に示す線形モデルg(x)に入力した場合に線形モデルg(x)から出力される出力値と、PNデータDPNに含まれる正解データとの間の誤差(つまり、損失であり、例えば、二乗損失等)が最小になる又は第1許容値以下になるように、係数パラメータαを最適化する。その結果、推定動作の内容が最適化される。最適化された係数パラメータαは、記憶装置13によって記憶される。
(2−2−2)継続学習動作
状態推定装置1は、状態推定装置1がドライバによって入手された後に(言い換えれば、状態推定装置1が市場に出荷された後に)、継続学習動作を行う。言い換えれば、状態推定装置1は、状態推定装置1がドライバの眠気度を推定し始めた後に、継続学習動作を行う。この段階では、ドライバが車両を運転することから、状態推定装置1は、状態推定装置1による眠気度の推定の対象となるドライバの心電位の検出結果を用いて継続学習動作を行うことができる。更には、記憶装置13には、初期学習動作で用いられた、ドライバとは異なる被験者の心電位の検出結果に関するPNデータDPNが記憶されているため、状態推定装置1は、PNデータDPNも用いて継続学習動作を行うことができる。以下、このような継続学習動作について、図5を参照しながら説明する。図5は、継続学習動作の流れを示すフローチャートである。尚、継続学習動作は、典型的には、上述した推定動作と並行して行われるが、推定動作が行われていない期間中に行われてもよい。
図5に示すように、まずは、ドライバの心電位の検出結果に基づく学習データDPであるPUデータDPUが取得される。具体的には、まず、運転判定部125は、ドライバが車両を運転しているか否かを判定する(ステップS211)。例えば、上述したように演算装置12を含む携帯端末をドライバが保有している場合には、運転判定部125は、携帯端末が備える不図示の加速度センサ等の検出結果に基づいてドライバの行動を推定し、ドライバが車両に乗車していると推定された場合に、ドライバが車両を運転していると判定してもよい。或いは、運転判定部125は、携帯端末が備える通信装置14と車両が備える通信装置との近接度合いを通信装置14の受信信号から推定し、ドライバが車両に乗車しているほどに通信装置14と車両が備える通信装置とが近接していると推定された場合に、ドライバが車両を運転していると判定してもよい。或いは、状態推定装置1が車両に設置されている場合には、運転判定部125は、車両の状態(例えば、イグニションスイッチの状態)等に基づいて、ドライバが車両を運転しているか否かを判定してもよい。
ステップS211の判定の結果、ドライバが車両を運転していないと判定された場合には(ステップS211:No)、運転判定部125は、ドライバが車両を運転しているか否かを判定し続ける。
他方で、ステップS211の判定の結果、ドライバが車両を運転していると判定された場合には(ステップS211:Yes)、運転判定部125は、ドライバが車両の運転を開始してから所定時間(例えば、数分)が経過したか否かを判定する(ステップS212)。
ステップS212の判定の結果、ドライバが車両の運転を開始してから所定時間が未だに経過していないと判定された場合には(ステップS212:No)、ドライバは、車両を運転し始めたばかりであると推定される。この場合には、ドライバは、眠気なしの状態にある可能性が相対的に高いはずである。なぜならば、車両を漫然と運転し続けている場合にドライバが眠気を感じやすいところ、この段階では、ドライバは、まだそれほど長い期間にわたって車両を運転していないからである。このため、この場合に検出される心電位の特徴量は、眠気なしの状態にあるドライバの心電位の特徴量に相当する可能性が高い。つまり、このタイミングでドライバの心電位を検出すれば、眠気なしの状態にあるドライバの心電位の特徴量が抽出される可能性が高い。そこで、本実施形態では、心電位センサ11によってドライバの心電位が検出され(ステップS221)、フィルタ部121によって波形信号に対してフィルタリング処理が施され(ステップS222)、特徴抽出部122によって波形信号の特徴量が抽出される(ステップS223)。尚、ステップS221からステップS223の処理は、夫々、ステップS11からステップS13の処理と同一であってもよい。抽出された特徴量は、特徴抽出部122から学習データ生成部124に出力される。その後、学習データ生成部124は、抽出された特徴量と、被験者の状態が眠気なしの状態にあるという正解を示す正解データとが関連付けられたデータを、PUデータDPUの一部として生成する(ステップS224)。つまり、学習データ生成部124は、被験者がポジティブな状態であることを示す正解データを含むデータ(いわゆる、正例データ(Positive Data))を、学習データDPの一部(より具体的には、PUデータDPUの一部)として生成する。生成されたPUデータDPUは、記憶装置13によって記憶される。尚、ステップS223において抽出された特徴量は、後述する付記における「第2入力データ」の一具体例である。ステップS224において特徴量に関連付けられた正解データは、後述する付記における「第1正解データ」の一具体例である。ステップS224で作成されたPUデータDPUは、後述する付記における「第1学習データ」の一具体例である。
他方で、ステップS212の判定の結果、ドライバが車両の運転を開始してから所定時間が既に経過していると判定された場合には(ステップS212:Yes)、ドライバは、眠気なしの状態にある場合もあれば、眠気ありの状態にある場合もある。つまり、ドライバの眠気度は、様々な要因に影響を受けて変動している可能性が高い。言い換えれば、ドライバの眠気度は、不定であると言える。この場合であっても、本実施形態では、心電位センサ11によってドライバの心電位が検出され(ステップS231)、フィルタ部121によって波形信号に対してフィルタリング処理が施され(ステップS232)、特徴抽出部122によって波形信号の特徴量が抽出される(ステップS233)。尚、ステップS231からステップS233の処理は、夫々、ステップS11からステップS13の処理と同一であってもよい。抽出された特徴量は、特徴抽出部122から学習データ生成部124に出力される。この場合に抽出される特徴量は、眠気なしの状態にあるドライバの心電位の特徴量に相当する場合もあれば、眠気ありの状態にあるドライバの心電位の特徴量に相当する場合もある。そこで、学習データ生成部124は、被験者の実際の眠気度を示す正解データに関連付けることなく、抽出された特徴量をそのまま、PUデータDPUの一部として設定する(ステップS234)。つまり、学習データ生成部124は、被験者の眠気度に関する情報がないデータ(いわゆる、ラベルなしデータ(Unlabeled Data))を、学習データDPの一部(より具体的には、PUデータDPUの一部)として生成する。生成されたPUデータDPUは、記憶装置13によって記憶される。尚、ステップS233において抽出された特徴量は、後述する付記における「第3入力データ」の一具体例である。ステップS234で作成されたPUデータDPUは、後述する付記における「第2学習データ」の一具体例である。
尚、ステップS212で用いられる所定時間は、上述したように、眠気なしの状態を維持しながらドライバが車両を運転している状態と、ドライバの眠気度が不定になる状態とを、ドライバが車両の運転を開始してからの経過時間に基づいて区分するために用いられている。従って、所定時間は、これら2つの状態を適切に区分可能な適切な値に設定される。
その後、学習データ生成部124は、更新基準が成立しているか否かを判定する(ステップS24)。更新基準は、PUデータDPU及びPNデータDPNを用いた係数パラメータαの最適化を開始するために成立するべき条件を示す。更新基準は、例えば、前回係数パラメータαが最適化されてから新たに生成されたPUデータDPUのデータ量が所定量以上になるという条件である。所定量が大きくなればなるほど、係数パラメータαが最適化される頻度が少なくなる。このため、所定量は、適切な頻度で係数パラメータαが最適化されるように適切な値に設定される。
ステップS24の判定の結果、更新基準が未だ成立していないと判定された場合には(ステップS24:No)、ステップS212以降の動作が繰り返される。つまり、学習データDPの一部であるPUデータDPUが生成され続ける。
他方で、ステップS24の判定の結果、更新基準が成立していると判定された場合には(ステップS24:Yes)、状態推定部123は、記憶装置13に記憶されているPUデータDPU及びPNデータDPNを用いて、係数パラメータαを最適化する(ステップS25)。
PNデータDPNを用いた係数パラメータαの最適化は、上述したように教師あり学習法に基づく学習に相当する。一方で、上述したように、PUデータDPUには、ドライバが眠気なしの状態にあることを示す正解データと関連付けられている特徴量(つまり、正例データ)と、正解データと関連付けられていない特徴量(つまり、ラベルなしデータ)とが含まれている。このため、PUデータDPUを用いた係数パラメータαの最適化は、PU学習法(PU Classification、PU learning)に基づいて行われることが好ましい。
更に、上述したようにPNデータDPNには、特徴量と正解データとが関連付けられた被験者データが、被験者の数だけ含まれている。このため、PNデータDPNを用いた係数パラメータαの最適化は、複数の被験者に夫々対応する複数の被験者データに基づいて係数パラメータαを夫々最適化する複数のタスクから構成されると言える。以降、PNデータDPNを用いた係数パラメータαの最適化を構成するタスクを、説明の便宜上“PNタスク”と称する。更に、PUデータDPUを用いて最適化するべき係数パラメータαは、PNデータDPNを用いて最適化するべき係数パラメータαと同じである。このため、PUデータDPUを用いた係数パラメータαの最適化を構成するタスク(以降、PUデータDPUを用いた係数パラメータαの最適化を構成するタスクを、説明の便宜上“PUタスク”と称する。)と、PNデータDPNを用いた係数パラメータαの最適化を構成する複数のPNタスクとは、相互に関連するタスクである。この場合、状態推定部123は、学習精度を向上させるために、マルチタスク学習法に基づいて複数のPNタスクとPUタスクとを行うことが好ましい。
以下、マルチタスク学習法に基づいて複数のPNタスクとPUタスクとを行うステップS25の学習動作の一例について説明する。まず、PNデータDPN及びPUデータDPU(但し、ラベルなしデータを除く)を構成する単位データ(つまり、ある特徴量xとある正解データyとの組み合わせ)は、数式5によって示される。尚、数式5中において、変数iは、単位データの識別番号である。正解データyは、数式6に示すように、+1又は−1のいずれかとなるクラスラベルに相当する。また、複数のPNタスク及びPUタスクの夫々に固有のタスク番号tを割り当てる。タスク番号tは、数式7によって示される。尚、数式7中において、Tは、複数のPNタスク及びPUタスクの数を示す。また、タスク番号tのタスクに対応する基底関数φt(x)、係数パラメータαt及び線形モデルgt(x)は、夫々、数式8から10に示される。
Figure 0006853159
Figure 0006853159
Figure 0006853159
Figure 0006853159
Figure 0006853159
Figure 0006853159
このように規定される線形モデルg(x)に対して、係数パラメータαを最適化するための学習基準を設定する。具体的には、例えば、数式11に示す二乗損失ls(m)を採用する場合には、数式12に示す学習基準が設定可能である。尚、数式11中において、変数zは、正解データyと当該正解データyに関連付けられた特徴量xが入力された線形モデルg(x)の出力との積である。数式12中の第1項は、PUタスクの損失に相当する項である。数式12中の第2項は、PNタスクの損失に相当する項である。数式12中の第3項は、正則化項に相当する。数式12中の第4項は、複数のタスク間の情報共有化項に相当する。数式12中の変数Nは、PUデータDPUに含まれる正例データ及びラベルなしデータの総数である。数式12中の変数Mは、PNデータDPNに含まれる単位データの数(つまり、正例データ及び負例データの総数)である。数式12中の変数Lは、変数Nと変数Mとの総和である。数式12中の変数λtは、タスク番号tのタスクに対応する超パラメータ(ハイパーパラメータ)である。数式12中の変数wは、超パラメータである。数式12中の変数t及びt’は、夫々タスク番号を示す。数式12中の変数γt、t’は、タスク番号tのタスクとタスク番号t’のタスクとの組み合わせに対応する超パラメータである。
Figure 0006853159
Figure 0006853159
更に、数式12中の第1項(=PUタスクの損失)は、数式13によって示される。数式12中の第2項(=PNタスクの損失)は、数式14によって示される。数式13中の変数Nuは、PUデータDPU中のラベルなしデータの数を示す。数式13中の変数N+は、PUデータDPU中の正例データの数を示す。数式13及び14中の変数Jは、全ての要素が1となるベクトルを示す。
Figure 0006853159
Figure 0006853159
数式13中のΨは、数式15によって示されるベクトル(行列)である。数式13中のΨは、数式16によって示されるベクトル(行列)である。数式14中のΨP〜は、数式17によって示されるベクトル(行列)である。数式14中のΨは、数式18によって示されるベクトル(行列)である。数式17中の変数M+は、PNデータDPN中の正例データの数を示す。数式18中の変数M−は、PNデータDPN中の負例データの数を示す。数式15から数式18中の関数ψt(x)は、数式19によって示される。数式19中の変数Oは、全ての要素が0となるベクトルを示す。
Figure 0006853159
Figure 0006853159
Figure 0006853159
Figure 0006853159
Figure 0006853159
このような学習基準を最小化する係数パラメータαは、数式20に示す学習則から算出可能である。数式20中の変数Iは、単位行列である。数式20中の変数Cは、t行t’列の要素が数式21によって示される行列である。
Figure 0006853159
Figure 0006853159
状態推定部123は、このような学習則を踏まえて、係数パラメータαを最適化する。但し、上述した学習基準には、手動で設定しなければならない超パラメータλ、w及びγが含まれている。また、基底ベクトルφ(x)にも、場合によっては超パラメータが含まれる可能性がある。このため、状態推定部123は、超パラメータを設定しながら係数パラメータαを最適化するために、以下の手順で係数パラメータαを最適化することが好ましい。具体的には、まず、状態推定部123は、学習データDP(つまり、PNデータDPN及びPUデータDPU)を、超パラメータの候補を設定した上で係数パラメータαを最適化するために用いられる第1データと、第1データを用いて最適化された係数パラメータαを検証する(つまり、第1データを用いて最適化された係数パラメータαを用いて推定される眠気度の精度を検証する)ために用いられる第2データとに分割する。例えば、状態推定部123は、学習データDPのうちの所定割合(例えば、80%)のデータ部分を第1データとして用い、学習データDPのうちの残りの(例えば、20%)のデータ部分を第2データとして用いてもよい。その後、状態推定部123は、超パラメータλ、w及びγに夫々所定の候補値を設定した上で、第1データを用いて係数パラメータαの最適化を行う。その後、状態推定部123は、第2データを用いて、最適化された係数パラメータαを検証する。具体的には、状態推定部123は、第1データを用いて最適化された係数パラメータαによって特定される線形モデルg(x)に、第2データに含まれる特徴量xを入力することで、線形モデルg(x)の出力値を取得する。その後、状態推定部123は、線形モデルg(x)の出力値と第2データに含まれる正解データとを比較することで、眠気度の精度を検証する。状態推定部123は、このような動作を、最適な超パラメータλ、w及びγが見つかるまで繰り返す。その後、最適な超パラメータλ、w及びγ、並びに、学習データDP(つまり、第1データ及び第2データの双方)を用いて、係数パラメータαを最適化する。その結果、係数パラメータαが最適化される。最適化された係数パラメータαは、記憶装置13によって記憶される。
なお、超パラメータγについては、事前にタスク間の類似度が既知である場合には、それを用いて最適化の対象としなくてもよい。
以上説明したステップS211からステップS25までの処理が繰り返し行われる。つまり、ドライバが車両を運転している限りは、新たなPUデータDPUが生成され続け、既に生成済みのPNデータDPN及びPUデータDPUに加えて、新たに生成されたPUデータDPUを用いて、係数パラメータαが最適化され続ける。
(3)技術的効果
以上説明した状態推定装置1によれば、状態推定装置1がドライバの眠気度を推定するための推定動作を開始する前に、ドライバとは異なる被験者の心電位の検出結果に関するPNデータDPNを用いて、推定動作の内容(つまり、係数パラメータα)が最適化される。このため、ドライバの心電位の検出結果を用いた学習動作が行われていない状態で状態推定装置1が推定動作を開始したとしても、状態推定装置1は、ドライバの眠気度を相対的に高い精度で推定することができる。更には、状態推定装置1が推定動作を開始する前に、状態推定装置1が眠気度を推定する対象となるドライバの心電位を実際に検出しなくてもよいため、ドライバの負担も軽減される。
一方で、PNデータDPNがドライバの心電位の検出結果に関するデータではない以上、PNデータDPNを用いて最適化された推定動作の内容(つまり、PUデータを用いることなく最適化された推定動作の内容)は、個人差の影響に起因してドライバにとって必ずしも最適であるとは限らない。しかるに、本実施形態では、状態推定装置1が推定動作を開始した後には、ドライバの心電位の検出結果に関するPUデータDPUを用いて推定動作の内容が最適化される。このため、状態推定装置1は、被験者の心電位の検出結果も考慮した上で、状態推定装置1が眠気度を推定する対象となるドライバに合わせて、推定動作の内容を最適化することができる。
その結果、状態推定装置1は、ドライバの眠気度を適切に推定することができる。例えば、図6は、ラベルなしデータ(つまり、正解データに関連付けられていない特徴量)を第1所定数含むPUデータDPUを用いて係数パラメータαが最適化された場合における眠気度の推定誤差の発生率、ラベルなしデータを第2所定数(但し、第2所定数は第1所定数よりも多い)含むPUデータDPUを用いて係数パラメータαが最適化された場合における眠気度の推定誤差の発生率、ラベルなしデータを第3所定数(但し、第3所定数は第2所定数よりも多い)含むPUデータDPUを用いて係数パラメータαが最適化された場合における眠気度の推定誤差の発生率、及び、PUデータDPUを用いることなく(つまり、PNデータDPNのみを用いて)係数パラメータαが最適化された場合における眠気度の推定誤差の発生率を示すグラフである。図6に示すように、PNデータDPNのみを用いて係数パラメータαが最適化された場合と比較して、PNデータDPN及びPUデータDPUの双方を用いて係数パラメータαが最適化された場合の方が、推定誤差の発生率が低くなる。更には、ラベルなしデータの数が増えるほど(つまり、ドライバが車両を運転する時間ないしはドライバが心電位センサ11を装着している時間が長いほど)、推定誤差の発生率が低くなる。
(4)変形例
上述した説明では、PUデータDPU及びPNデータDPNを用いた係数パラメータαの最適化を開始するために成立するべき更新基準は、前回係数パラメータαが最適化されてから新たに生成されたPUデータDPUのデータ量に関する条件を含んでいる。しかしながら、更新基準は、PUデータDPUのデータ量に関する条件に加えて又は代えて、その他の条件を含んでいてもよい。例えば、更新基準は、ドライバが車両に乗車した回数に関する条件(例えば、前回係数パラメータαが最適化されてからドライバが車両に乗車した回数が所定回数以上であるという条件)を含んでいてもよい。例えば、更新基準は、ドライバが車両に乗車していた時間に関する条件(例えば、前回係数パラメータαが最適化されてからドライバが車両に乗車していた時間が所定時間以上であるという条件)を含んでいてもよい。例えば、更新基準は、ドライバからの要求に関する条件(例えば、ドライバが係数パラメータαの最適化を要求しているという条件)を含んでいてもよい。或いは、状態推定部123は、更新基準を用いることなく、PUデータDPUを取得する都度、係数パラメータαを最適化してもよい。つまり、状態推定部123は、PNデータDPN及びPUデータDPUを用いたオンライン学習を行ってもよい。
上述したPUデータDPU及びPNデータDPNを用いた係数パラメータαの最適化の具体的方法は、二乗損失ls(m)を採用する場合の学習基準を設定している。しかしながら、二乗損失ls(m)とは異なる損失(例えば、ダブルヒンジ損失、指数損失又はロジスティック損失等)を採用した場合には、異なる学習基準が設定されてもよい。但し、ダブルヒンジ損失又はロジスティック損失等が採用される場合には、二乗損失ls(m)を採用する場合のように解析的手法を用いて係数パラメータαを最適化することが困難であるため、凸最適化法等の手法を用いて係数パラメータαが最適化されることが好ましい。
上述したPUデータDPU及びPNデータDPNを用いた係数パラメータαの最適化の具体的方法は、あくまで一例である。このため、状態推定部123は、上述した方法に限らず、PNデータDPN及びPUデータDPUを用いて係数パラメータαを最適化することができる限りは、どのような方法で係数パラメータαを最適化してもよい。例えば、状態推定部123は、(i)PNデータDPNに含まれる特徴量xを上述した数式3に示す線形モデルg(x)に入力した場合に線形モデルg(x)から出力される出力値と、PNデータDPNに含まれる正解データとの間の誤差が最小になる又は第1許容値以下になり、(ii)PUデータDPUのうち正解データに関連付けられている特徴量xを上述した数式3に示す線形モデルg(x)に入力した場合に線形モデルg(x)から出力される出力値と、PUデータDPUに含まれる正解データとの間の誤差が最小になる又は第2許容値以下になり、且つ、(iii)PUデータDPUに含まれる特徴量xを2つの異なるクラス(つまり、眠気ありの状態と眠気なしの状態)とに適切に分類することができるように、係数パラメータαを最適化することができる限りは、どのような方法で係数パラメータαを最適化してもよい。
上述した説明では、状態推定装置1は、ドライバの心電位に基づいてドライバの眠気度を推定している。しかしながら、状態推定装置1は、ドライバの心電位に加えて又は代えて、ドライバのその他の生体情報に基づいてドライバの眠気度を推定してもよい。例えば、状態推定装置1は、ドライバをカメラで撮像し、撮像によって得られた画像を画像処理することで当該画像の特徴量(例えば、ドライバの顔の表情及び振る舞い等の少なくとも一つに関する特徴量)を抽出し、当該抽出した特徴量に基づいてドライバの眠気度を推定してもよい。
上述した説明では、状態推定装置1は、ドライバの生体情報に基づいてドライバの眠気度を推定している。しかしながら、状態推定装置1は、ドライバの生体情報に基づいてドライバの任意の状態を推定してもよい。例えば、状態推定装置1は、ドライバの生体情報からドライバの前頭前野の脳波に関する特徴量(例えば、シータ波の含有率に関する特徴量)を抽出し、当該抽出した特徴量に基づいてドライバの運転への集中度(逆に言えば、リラックス度合い)を推定してもよい。この場合、状態推定装置1は、ドライバに一定時間以上リラックスしてもらった上で生体情報を取得し、取得した生体情報の特徴量と被験者の状態がリラックス状態にあるという正解を示す正解データとが関連付けられたデータを、上述したPUデータDPUに相当するデータとして生成してもよい。状態推定装置1は、被験者に特定の作業(例えば、文書作成、読書及びビデオ視聴等の少なくとも一つ)をしてもらった上で被験者の生体情報を取得し、取得した生体情報の特徴量と被験者の実際の状態を示す正解データとが関連付けられたデータを、上述したPNデータDPNに相当するデータとして生成してもよい。
上述した説明では、状態推定装置1は、ドライバの生体情報に基づいてドライバの状態を推定している。しかしながら、状態推定装置1は、ドライバに限らず、任意のユーザの生体情報に基づいて任意のユーザの状態を推定してもよい。また、上述した説明では、状態推定装置1は、心電位や撮像によって得られた画像に基づいて(つまり、ユーザの生体情報)に基づいて、ユーザの状態を推定している。しかしながら、状態推定装置1は、生体情報に加えて又は代えて、任意のユーザの任意の行動情報(つまり、ユーザの行動に関する情報)に基づいて、任意のユーザの状態を推定してもよい。例えば、状態推定装置1は、腕や体幹に取り付けられた加速度センサや角速度センサなどから得られるユーザの行動情報を用いて任意のユーザの状態を推定してもよい。
(5)付記
以上説明した実施形態に関して、更に以下の付記を開示する。
(5−1)付記1
付記1に記載された状態推定装置は、第1ユーザの生体情報及び行動情報の少なくとも一方に関する第1入力データを取得する取得手段と、前記第1入力データに基づいて、前記第1ユーザの状態を推定する推定動作を行う推定手段とを備え、前記推定手段は、(i)前記第1ユーザの生体情報及び行動情報の少なくとも一方に関する第2入力データと、前記第2入力データに対応する前記第1ユーザの状態を示す第1正解データとを関連付けて含む第1学習データ、(ii)前記第1ユーザの生体情報及び行動情報の少なくとも一方に関する第3入力データを、前記第3入力データに対応する前記第1ユーザの状態を示す第2正解データと関連付けることなく含む第2学習データ、及び、(iii)前記第1ユーザとは異なる第2ユーザの生体情報及び行動情報の少なくとも一方に関する第4入力データと、前記第4入力データに対応する前記第2ユーザの状態を示す第3正解データとを関連付けて含む第3学習データを用いて前記推定動作の内容を最適化するための学習動作を行うことを特徴とする状態推定装置である。
付記1に記載された状態推定装置によれば、第1ユーザの生体情報及び行動情報の少なくとも一方に関するデータ(つまり、第2及び第3入力データ)、並びに、第2ユーザの生体情報及び行動情報の少なくとも一方に関するデータ(つまり、第4入力データ)の双方を用いて、推定動作の内容が最適化される。このため、状態推定装置が第1ユーザの状態を推定し始める前に、第1ユーザとは異なる第2ユーザの生体情報及び行動情報の少なくとも一方に基づいて、推定動作の内容がある程度最適化される。その上で、状態推定装置が第1ユーザの状態を推定し始めた後には、第1ユーザと及び第2ユーザの双方の生体情報及び行動情報の少なくとも一方に基づいて、推定動作の内容が更に最適化される。このため、生体情報の個人差の影響を反映させながら、推定動作の内容が最適化される。従って、付記1に記載された状態推定装置は、第1ユーザの生体情報及び行動情報の少なくとも一方に基づいて第1ユーザの状態を適切に推定することができる。
(5−2)付記2
付記2に記載された状態推定装置は、前記学習動作は、前記第1及び第2学習データを用いて前記推定動作の内容を最適化するための第1処理タスクと、前記第3学習データを用いて前記推定動作の内容を最適化するための第2処理タスクとを、マルチタスク学習法に基づいて行うマルチタスク学習動作を含むことを特徴とする付記1に記載の状態推定装置である。
付記2に記載された状態推定装置によれば、マルチタスク学習動作を行うことで、推定動作の内容がより適切に且つより効率的に最適化される。
(5−3)付記3
付記3に記載された状態推定装置は、前記第1処理タスクは、PU(Positive Unlabeled)学習法に基づく処理タスクであり、前記第2処理タスクは、教師あり学習法に基づく処理タスクであることを特徴とする付記2に記載の状態推定装置である。
第1処理タスクは、第1正解データを含む第1学習データと第2正解データを含まない第2学習データとを用いて行われるタスクであるがゆえに、PU学習法に基づいて行われることが好ましい。一方で、第2処理タスクは、第3正解データを含む第3学習データを用いて行われるタスクであるがゆえに、教師あり学習法に基づいて行われることが好ましい。このため、付記3に記載された状態推定装置によれば、PU学習法に基づく第1処理タスクと教師あり学習法に基づく第2処理タスクとをマルチタスク学習法に基づいて行うことで、推定動作の内容がより適切に且つより効率的に最適化される。
(5−4)付記4
付記4に記載された状態推定装置は、前記推定手段は、前記第1ユーザの状態が、2種類の状態のいずれかであると推定可能であり、前記第1学習データは、前記第1ユーザの状態が前記少なくとも2種類の状態のうちの一の状態である場合に検出される生体情報及び行動情報の少なくとも一方に関する前記第2入力データと、前記第1ユーザの状態が前記一の状態であることを示す前記第1正解データとを関連付けて含むことを特徴とする付記1から3のいずれか一項に記載の状態推定装置である。
付記4に記載された状態推定装置によれば、2クラス分類を行う推定動作の内容が適切に最適化される。
(5−5)付記5
付記5に記載された状態推定装置は、前記推定手段は、複数の前記第2ユーザに夫々対応する複数の前記第3学習データを用いて前記学習動作を行うことを特徴とする付記1から4のいずれか一項に記載の状態推定装置である。
付記5に記載された状態推定装置によれば、複数の第2ユーザに対応する第3学習データ(つまり、複数の第2ユーザの生体情報及び行動情報の少なくとも一方に関する複数の第4入力データ)を用いて、推定動作の内容が最適化される。このため、生体情報及び行動情報の少なくとも一方の個人差の影響をより一層反映させながら、推定動作の内容が最適化される。従って、付記5に記載された状態推定装置は、第1ユーザの生体情報及び行動情報の少なくとも一方に基づいて第1ユーザの状態をより一層適切に推定することができる。
(5−6)付記6
付記6に記載された状態推定装置は、前記第1ユーザは、車両の運転者であり、前記第1ユーザの状態は、前記第1ユーザの眠気度合いであることを特徴とする付記1から5のいずれか一項に記載の状態推定装置である。
付記6に記載された状態推定装置によれば、運転車の生体情報及び行動情報の少なくとも一方に基づいて運転車の眠気度合いを適切に推定することができる。
(5−7)付記7
付記7に記載された状態推定装置は、前記第2入力データは、前記第1ユーザが前記車両の運転を開始してから所定時間が経過するまでの間に検出される生体情報及び行動情報の少なくとも一方に関するデータであり、前記第1正解データは、前記第1ユーザが眠気なしの状態にあることを示すデータであることを特徴とする付記6に記載の状態推定装置である。
第1ユーザが車両の運転を開始してから所定時間が経過するまでは(つまり、第1ユーザによる車両の運転の開始直後は)、第1ユーザは、眠気なしの状態にある可能性が相対的に高いことが、本願発明者等の実験によって明らかになっている。このため、付記7に記載された状態推定装置によれば、第1学習データが適切に取得可能となる。
(5−8)付記8
付記8に記載された状態推定装置は、前記第3入力データは、前記第1ユーザが前記車両の運転を開始してから所定時間が経過した後に検出される生体情報及び行動情報の少なくとも一方に関するデータであることを特徴とする付記6又は7に記載の状態推定装置である。
第1ユーザが車両の運転を開始してから所定時間が経過した後は、第1ユーザの眠気度合いは、様々な要因に影響を受けて変動する。つまり、第1ユーザは、眠気なしの状態にある場合もあれば、眠気ありの状態にある場合もある。この場合であっても、付記7に記載された状態推定装置によれば、第1ユーザが車両の運転を開始してから所定時間が経過した後に検出される生体情報及び行動情報の少なくとも一方に関するデータは、第2正解データに関連付けられていない第3入力データを含む第2学習データとして取得される。このため、第1ユーザが車両の運転を開始してから所定時間が経過した後に検出される生体情報及び行動情報の少なくとも一方に関する第3入力データが学習動作に用いられない場合と比較して、推定手段は、より多くの学習データを用いて学習動作を行うことができる。その結果、推定動作の内容がより適切に且つ迅速に最適化される。
本発明は、上述した実施形態に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う状態推定装置もまた本発明の技術的範囲に含まれるものである。
11 心電位センサ
12 演算装置
120 入力インタフェース部
121 フィルタ部
122 特徴抽出部
123 状態推定部
124 学習データ生成部
125 運転判定部
13 記憶装置
14 表示装置
15 通信装置
16 操作装置
α 係数パラメータ
DP 学習データ
DPN PNデータ
DPU PUデータ

Claims (8)

  1. 第1ユーザの生体情報及び行動情報の少なくとも一方に関する第1入力データを取得する取得手段と、
    前記第1入力データに基づいて、前記第1ユーザの状態を推定する推定動作を行う推定手段と
    を備え、
    前記推定手段は、(i)前記第1ユーザの生体情報及び行動情報の少なくとも一方に関する第2入力データと、前記第2入力データに対応する前記第1ユーザの状態を示す第1正解データとを関連付けて含む第1学習データ、(ii)前記第1ユーザの生体情報及び行動情報の少なくとも一方に関する第3入力データを、前記第3入力データに対応する前記第1ユーザの状態を示す第2正解データと関連付けることなく含む第2学習データ、及び、(iii)前記第1ユーザとは異なる第2ユーザの生体情報及び行動情報の少なくとも一方に関する第4入力データと、前記第4入力データに対応する前記第2ユーザの状態を示す第3正解データとを関連付けて含む第3学習データを用いて前記推定動作の内容を最適化するための学習動作を行う
    ことを特徴とする状態推定装置。
  2. 前記学習動作は、前記第1及び第2学習データを用いて前記推定動作の内容を最適化するための第1処理タスクと、前記第3学習データを用いて前記推定動作の内容を最適化するための第2処理タスクとを、マルチタスク学習法に基づいて行うマルチタスク学習動作を含む
    ことを特徴とする請求項1に記載の状態推定装置。
  3. 前記第1処理タスクは、PU(Positive Unlabeled)学習法に基づく処理タスクであり、
    前記第2処理タスクは、教師あり学習法に基づく処理タスクである
    ことを特徴とする請求項2に記載の状態推定装置。
  4. 前記推定手段は、前記第1ユーザの状態が、2種類の状態のいずれかであると推定可能であり、
    前記第1学習データは、前記第1ユーザの状態が前記少なくとも2種類の状態のうちの一の状態である場合に検出される生体情報及び行動情報の少なくとも一方に関する前記第2入力データと、前記第1ユーザの状態が前記一の状態であることを示す前記第1正解データとを関連付けて含む
    ことを特徴とする請求項1から3のいずれか一項に記載の状態推定装置。
  5. 前記推定手段は、複数の前記第2ユーザに夫々対応する複数の前記第3学習データを用いて前記学習動作を行う
    ことを特徴とする請求項1から4のいずれか一項に記載の状態推定装置。
  6. 前記第1ユーザは、車両の運転者であり、
    前記第1ユーザの状態は、前記第1ユーザの眠気度合いである
    ことを特徴とする請求項1から5のいずれか一項に記載の状態推定装置。
  7. 前記第2入力データは、前記第1ユーザが前記車両の運転を開始してから所定時間が経過するまでの間に検出される生体情報及び行動情報の少なくとも一方に関するデータであり、
    前記第1正解データは、前記第1ユーザが眠気なしの状態にあることを示すデータである
    ことを特徴とする請求項6に記載の状態推定装置。
  8. 前記第3入力データは、前記第1ユーザが前記車両の運転を開始してから所定時間が経過した後に検出される生体情報及び行動情報の少なくとも一方に関するデータである
    ことを特徴とする請求項6又は7に記載の状態推定装置。
JP2017210798A 2017-10-31 2017-10-31 状態推定装置 Active JP6853159B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017210798A JP6853159B2 (ja) 2017-10-31 2017-10-31 状態推定装置
US16/162,813 US10556595B2 (en) 2017-10-31 2018-10-17 State estimation system
CN201811274620.9A CN109717879B (zh) 2017-10-31 2018-10-30 状态推定系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017210798A JP6853159B2 (ja) 2017-10-31 2017-10-31 状態推定装置

Publications (2)

Publication Number Publication Date
JP2019080809A JP2019080809A (ja) 2019-05-30
JP6853159B2 true JP6853159B2 (ja) 2021-03-31

Family

ID=66245191

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017210798A Active JP6853159B2 (ja) 2017-10-31 2017-10-31 状態推定装置

Country Status (3)

Country Link
US (1) US10556595B2 (ja)
JP (1) JP6853159B2 (ja)
CN (1) CN109717879B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7458170B2 (ja) * 2019-11-18 2024-03-29 株式会社東海理化電機製作所 学習装置、学習方法、および測定装置
WO2023136122A1 (ja) * 2022-01-12 2023-07-20 国立研究開発法人理化学研究所 動作支援装置および動作支援方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0554300A (ja) * 1991-08-22 1993-03-05 Omron Corp 覚醒度検知装置
WO2009021198A1 (en) * 2007-08-08 2009-02-12 Baynote, Inc. Method and apparatus for context-based content recommendation
WO2007148477A1 (ja) * 2006-06-21 2007-12-27 Panasonic Corporation ユーザの操作意図を推定する装置および当該装置を備えた電子機器
JP4727688B2 (ja) * 2008-04-23 2011-07-20 トヨタ自動車株式会社 覚醒度推定装置
JP2010108235A (ja) * 2008-10-30 2010-05-13 Equos Research Co Ltd 覚醒支援システム
JP5208711B2 (ja) * 2008-12-17 2013-06-12 アイシン精機株式会社 眼開閉判別装置及びプログラム
US9039419B2 (en) * 2009-11-06 2015-05-26 International Business Machines Corporation Method and system for controlling skill acquisition interfaces
JP5917932B2 (ja) * 2012-02-10 2016-05-18 アイシン精機株式会社 状態推定装置、状態推定方法及びプログラム
JP5899472B2 (ja) * 2012-05-23 2016-04-06 パナソニックIpマネジメント株式会社 人物属性推定システム、及び学習用データ生成装置
JP6188400B2 (ja) * 2013-04-26 2017-08-30 オリンパス株式会社 画像処理装置、プログラム及び画像処理方法
KR101659027B1 (ko) * 2014-05-15 2016-09-23 엘지전자 주식회사 이동 단말기 및 차량 제어 장치
JP6375496B2 (ja) 2014-06-02 2018-08-22 エイケン工業株式会社 眠気検出方法及び眠気検出装置
CN104866969A (zh) * 2015-05-25 2015-08-26 百度在线网络技术(北京)有限公司 个人信用数据处理方法和装置
US20170112388A1 (en) * 2015-10-22 2017-04-27 Welch Allyn, Inc. Method and apparatus for performing biological measurements
CN106570014B (zh) * 2015-10-09 2020-09-25 阿里巴巴集团控股有限公司 用于确定用户的家庭属性信息的方法与设备
JP6555696B2 (ja) * 2017-10-06 2019-08-07 株式会社ニューロスペース 睡眠状態判定装置、睡眠状態判定方法、睡眠状態判定システムおよび睡眠状態判定プログラム

Also Published As

Publication number Publication date
JP2019080809A (ja) 2019-05-30
CN109717879A (zh) 2019-05-07
CN109717879B (zh) 2021-09-24
US10556595B2 (en) 2020-02-11
US20190126931A1 (en) 2019-05-02

Similar Documents

Publication Publication Date Title
Zepf et al. Driver emotion recognition for intelligent vehicles: A survey
US9946942B2 (en) Method, apparatus and system for biometric identification
Alotaiby et al. A review of channel selection algorithms for EEG signal processing
Wang et al. Deep Gaussian mixture-hidden Markov model for classification of EEG signals
US10467548B2 (en) Method, apparatus and system for biometric identification
Tadesse et al. Driver drowsiness detection through HMM based dynamic modeling
US10877444B1 (en) System and method for biofeedback including relevance assessment
Van Esbroeck et al. Multi-task seizure detection: addressing intra-patient variation in seizure morphologies
Talukdar et al. Adaptation of Common Spatial Patterns based on mental fatigue for motor-imagery BCI
JP6853159B2 (ja) 状態推定装置
Tayibnapis et al. A novel driver fatigue monitoring using optical imaging of face on safe driving system
Wang et al. A review of feature extraction and classification algorithms for image RSVP based BCI
Zhu et al. Stress detection through wrist-based electrodermal activity monitoring and machine learning
CN110384478B (zh) 状态预测装置以及状态预测方法
EA Smart Affect Recognition System for Real-Time Biometric Surveillance Using Hybrid Features and Multilayered Binary Structured Support Vector Machine
Kamti et al. Evolution of driver fatigue detection techniques—A review from 2007 to 2021
Khanam et al. Electroencephalogram-based cognitive load level classification using wavelet decomposition and support vector machine
JP5189893B2 (ja) 瞬目種別識別装置、瞬目種別識別方法、及び瞬目種別識別プログラム
Chavan et al. A review on BCI emotions classification for EEG signals using deep learning
JP7211441B2 (ja) 覚醒度推定装置、覚醒度推定方法、及びプログラム
Audiffren Quantifying human perception with multi-armed bandits
Gullapalli et al. In the blink of an eye: Quantitative blink dynamics predict deceptive personality traits in forensic interviews
Virk et al. An intelligent framework for detection of fatigue induced by sleep-deprivation
van Vugt et al. Tracking perceptual and memory decisions by decoding brain activity
Dange et al. A review method on drowsiness detection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210311

R151 Written notification of patent or utility model registration

Ref document number: 6853159

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250