JP2019191644A - 状態推定装置 - Google Patents

状態推定装置 Download PDF

Info

Publication number
JP2019191644A
JP2019191644A JP2018080015A JP2018080015A JP2019191644A JP 2019191644 A JP2019191644 A JP 2019191644A JP 2018080015 A JP2018080015 A JP 2018080015A JP 2018080015 A JP2018080015 A JP 2018080015A JP 2019191644 A JP2019191644 A JP 2019191644A
Authority
JP
Japan
Prior art keywords
data
state
driver
state estimation
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018080015A
Other languages
English (en)
Other versions
JP7060434B2 (ja
Inventor
梶 洋隆
Hirotaka Kaji
洋隆 梶
将 杉山
Masashi Sugiyama
将 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Toyota Motor Corp
Original Assignee
University of Tokyo NUC
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC, Toyota Motor Corp filed Critical University of Tokyo NUC
Priority to JP2018080015A priority Critical patent/JP7060434B2/ja
Priority to CN201910302084.7A priority patent/CN110384478B/zh
Priority to US16/386,484 priority patent/US20190324537A1/en
Publication of JP2019191644A publication Critical patent/JP2019191644A/ja
Application granted granted Critical
Publication of JP7060434B2 publication Critical patent/JP7060434B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7225Details of analog processing, e.g. isolation amplifier, gain or sensitivity adjustment, filtering, baseline or drift compensation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/20Workers
    • A61B2503/22Motor vehicles operators, e.g. drivers, pilots, captains
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/15Biometric patterns based on physiological signals, e.g. heartbeat, blood flow

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Mathematical Physics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Neurosurgery (AREA)
  • Neurology (AREA)
  • Dermatology (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Power Engineering (AREA)

Abstract

【課題】ユーザの生体情報及び行動情報の少なくとも一方に基づいてユーザの状態を適切に推定することが可能な状態推定装置を提供する。【解決手段】状態推定装置(1)は、ユーザの生体情報及び行動情報の少なくとも一方に関する第1入力データを取得する取得手段(120)と、第1入力データに基づいて、ユーザの状態を推定する推定動作を行う推定手段(123)とを備え、推定手段は、ユーザの生体情報及び行動情報の少なくとも一方に関し且つユーザの状態を示す正解データが関連付けられていない第2入力データのうちの第1データ部分と第2入力データのうちの第1データ部分とは異なる第2データ部分とを用いて、推定動作の内容を最適化するための学習処理を繰り返し行う。【選択図】図1

Description

本発明は、例えば、ユーザの状態を推定可能な状態推定装置の技術分野に関する。
特許文献1には、複数の単語を関連する単語同士のグループに分類する分類装置が記載されている。特に、特許文献1に記載された分類装置は、複数の単語の夫々をクラスタリング手法で求めた複数のクラスのいずれかに一旦分類し、分類された単語が分類先のクラスに属する尤度に基づいて複数の単語の夫々を複数のクラスのいずれかに分類し直す動作を繰り返している。
特開2013−120534号公報
発明者等は、人間の生体情報(更には、行動情報、以下同じ)に基づいて人間の状態(例えば、眠気等)を推定可能な状態推定装置の開発を進めている。つまり、発明者等は、人間の生体情報に基づいて、ある生体情報が観察された人間の状態を、複数の状態(つまり、複数のグループ又は複数のクラス)のいずれかに分類可能な状態推定装置の開発を進めている。しかしながら、人間の生体情報は、人間の状態との間の相関が相対的に少ないノイズ情報を相対的に多く含んでいるという特徴を有する。更には、同じ状態にある別々の人間からは、同じクラスに分類されるべき同じような生体情報が観察されることがクラスタリングの観点からは好ましいところ、現実的には、違うクラスに分類されてしまうような全く違う生体情報が観察されることもある。更には、違う状態にある同じ人間からは、違うクラスに分類されるべき違う生体情報が観察されることがクラスタリングの観点からは好ましいところ、現実的には、同じクラスに分類されてしまう同じような生体情報が観察されることもある。つまり、人間の生体情報は、人間の生体情報をクラスタリングした場合に得られる複数のクラスの間でのオーバーラップが発生しやすいという特徴を有している。
このため、このような特徴を有する生体情報に基づいて人間の状態を推定可能な状態推定装置に対して、特許文献1に記載された分類装置が採用している分類方法を採用しても、生体情報を適切にクラスタリングすることが困難であり、結果として、人間の状態を適切に推定することができないという技術的問題が生ずる。
本発明が解決しようとする課題には上記のようなものが一例としてあげられる。本発明は、ユーザの生体情報及び行動情報の少なくとも一方に基づいてユーザの状態を適切に推定することが可能な状態推定装置を提供することを課題とする。
本発明の状態推定装置の一の態様は、ユーザの生体情報及び行動情報の少なくとも一方に関する第1入力データを取得する取得手段と、前記第1入力データに基づいて、前記ユーザの状態を推定する推定動作を行う推定手段とを備え、前記推定手段は、前記ユーザの生体情報及び行動情報の少なくとも一方に関し且つ前記ユーザの状態を示す正解データが関連付けられていない第2入力データのうちの第1データ部分と前記第2入力データのうちの前記第1データ部分とは異なる第2データ部分とを用いて、前記推定動作の内容を最適化するための学習処理を繰り返し行う。
図1は、本実施形態の状態推定装置の構成を示すブロック図である。 図2は、推定動作の流れを示すフローチャートである。 図3は、心電位の波形信号を示すグラフである。 図4は、波形信号から特定可能なRRIを示す波形図である。 図5は、学習動作の流れを示すフローチャートである。 図6は、図5のステップS26における係数パラメータαを最適化するための学習処理の流れを示すフローチャートである。 図7(a)から図7(e)の夫々は、特徴量ベクトル空間内での特徴量の分布を示すグラフである。 図8は、正解データが関連付けられた特徴量を含む学習データを用いて、教師あり学習で係数パラメータが最適化された場合における眠気度の推定に関するF値、ラベルなしデータを用いてUU学習を1回だけ行うことで係数パラメータが最適化された場合における眠気度の推定に関するF値、及び、ラベルなしデータを用いてUU学習を複数回繰り返すことで係数パラメータが最適化された場合における眠気度の推定に関するF値を示すグラフである。
以下、状態推定装置の実施形態について説明する。以下では、本発明の状態推定装置の一実施形態として、車両のドライバの心電波形に基づいて、ドライバの眠気度を推定することが可能な状態推定装置1について説明する。尚、ドライバは、後述する付記における「ユーザ」の一具体例である。
(1)状態推定装置1の構成
はじめに、図1を参照しながら、本実施形態の状態推定装置1の構成について説明する。図1は、本実施形態の状態推定装置1の構成を示すブロック図である。
図1に示すように、状態推定装置1は、心電位センサ11と、演算装置12と、記憶装置13と、表示装置14と、通信装置15と、操作装置16とを備える。
心電位センサ11は、ドライバの心電位(つまり、心臓が発する電気信号)を検出可能な心電計である。心電位センサ11による心電位の検出方法は、どのような方法であってもよい。心電位センサ11は、例えば、ドライバの胸部に取り付け可能なウェアラブルセンサであるが、車両に固定されていてもよい。心電位センサ11の検出結果(つまり、心電位の時間波形を示す波形信号)は、演算装置12に出力される。
演算装置12は、CPU(Central Processing Unit)等の情報処理装置である。演算装置12は、心電位センサ11から出力される波形信号に基づいて、ドライバの眠気度を推定する。具体的には、演算装置12は、ドライバが、眠気ありの状態にあるか又は眠気なしの状態にあるか(つまり、覚醒した状態にあるか)を推定する。眠気度を推定するために、演算装置12は、演算装置12の内部に論理的に構築される処理ブロックとして、後述する付記における「取得手段」の一具体例である入力インタフェース部120と、フィルタ部121と、特徴抽出部122と、後述する付記における「推定手段」の一具体例である状態推定部123と、学習データ生成部124と、運転判定部125とを備える。入力インタフェース部120は、心電位センサ11から、心電位センサ11から出力される波形信号を取得する。フィルタ部121は、入力インタフェース部120が取得した波形信号に対して、フィルタリング処理を施す。特徴抽出部122は、フィルタリング処理が施された波形信号の特徴量を抽出する。状態推定部123は、特徴抽出部122が抽出した特徴量に基づいて、ドライバの眠気度を推定するための推定動作を行う。状態推定部123は、更に、推定動作の内容を規定する係数パラメータα(詳細は、後述する)を最適化するための学習動作を行う。学習データ生成部124は、特徴抽出部122が抽出した特徴量に基づいて、状態推定部123が学習動作を行う際に利用する学習データDLを生成する。学習データDLは、ラベルなしデータDLU及び覚醒データDLPという2種類のデータを含む。ラベルなしデータDLU及び覚醒データDLPの詳細については、後に詳述する。運転判定部125は、ドライバが車両を運転しているか否かを判定する。
記憶装置13は、ハードディスクや、フラッシュメモリ等の記録媒体である。記憶装置13は、状態推定装置1の動作に関連する任意のデータを記憶する。特に、記憶装置13は、学習動作によって最適化された係数パラメータα及び学習動作に用いられる学習データDLを記憶する。その他、記憶装置13は、推定動作によって推定された眠気度を示すデータや、波形信号を示すデータや、抽出された特徴量を示すデータ等を記憶してもよい。尚、状態推定装置1は、記憶装置13に加えて又は代えて、通信装置15を介して状態推定装置1との間でデータの送受信が可能な外部記憶装置を備えていてもよい。
表示装置14は、状態推定装置1の動作に関連する任意の表示動作を行う。例えば、表示装置14は、演算装置12によるドライバの眠気度の推定結果を表示する。
通信装置15は、状態推定装置1と外部の装置との間でのデータの送受信を制御する。例えば、通信装置15は、状態推定装置1と外部の装置との間での、記憶装置13が記憶しているデータの送受信を制御する。
操作装置16は、状態推定装置1の動作に関連するドライバ(或いは、状態推定装置1を使用する任意のユーザ)の操作の入力を受け付ける。例えば、操作装置16は、推定動作の開始及び終了を要求するための操作の入力を受け付ける。
状態推定装置1は、上述した演算装置12、記憶装置13、表示装置14、通信装置15及び操作装置16を備える携帯端末(例えば、スマートフォン等)である。この場合、ドライバが携帯端末を保持したまま車両に乗車すれば、車両を運転しているドライバの眠気度が推定される。但し、状態推定装置1は、上述した演算装置12、記憶装置13、表示装置14、通信装置15及び操作装置16を備えている限りは、このような携帯端末とは異なる形態を有していてもよい。
(2)状態推定装置1の動作
続いて、状態推定装置1の動作について説明する。上述したように、状態推定装置1は、ドライバの眠気度を推定するための推定動作及び係数パラメータαを最適化する(つまり、推定動作の内容を最適化する)ための学習動作を行う。従って、以下では、推定動作及び学習動作について順に説明する。
(2−1)推定動作
はじめに、図2を参照しながら、推定動作について説明する。図2は、推定動作の流れを示すフローチャートである。
図2に示すように、まず、ドライバが操作装置16を用いて推定動作の開始を要求した場合には、心電位センサ11によって心電位が検出される(ステップS11)。その結果、入力インタフェース部120は、心電位を示す波形信号を取得する(ステップS11)。
その後、フィルタ部121は、ステップS11で取得された波形信号に対してフィルタリング処理を施す(ステップS12)。フィルタリング処理は、波形信号からノイズを取り除く第1処理を含んでいてもよい。フィルタリング処理は、波形信号の基線の動揺(つまり、変動)を取り除く第2処理を含んでいてもよい。この場合、フィルタ部121は、例えば、バンドパスフィルタを備えていてもよい。
その後、特徴量抽出部122は、フィルタリング処理が施された波形信号の特徴量を抽出する(ステップS13)。具体的には、特徴量抽出部122は、図3に示すように、波形信号を、所定の時間長(例えば、数十秒から百数十秒)を有する単位信号部分に区分する。特徴量抽出部122は、単位信号部分の特徴量を抽出する。特徴量抽出部122は、単位信号部分の特徴量を抽出する処理を、所定周期(例えば、数十秒から百数十秒)毎に繰り返す。尚、図3は、所定周期が単位信号部分の時間長よりも短い例を示している。この場合は、一の単位信号部分と他の単位信号部分とが部分的に重複する。
特徴量は、波形信号の特徴を示すパラメータである。本実施形態では、特徴量抽出部122は、RRI(R−R−Interval:心拍間隔)に関する特徴量を抽出するものとするが、どのような特徴量を抽出してもよい。尚、RRIは、図4に示すように、R波のピークの時間間隔に相当する指標である。RRIに関する特徴量は、例えば、RRIに対してFFT(Fast Fourier Transform)処理を施した場合に検出される低周波成分(例えば、0.04Hzから0.15Hzの周波数に相当する信号成分)の強度に相当するLF、RRIに対してFFT処理を施した場合に検出される高周波成分(例えば、0.15Hzから0.40Hzの周波数に相当する信号成分)の強度に相当するHF、時間軸上で隣接する2つのRRIの差分が50ミリ秒を超える心拍の割合(或いは、心拍の数)に相当するpNN50、時間軸上で隣接する2つのRRIの差分の2乗の平均値の平方根に相当するRMSSD、RRIの標準偏差をRMSSDで除した値に相当するSD/RMSSD、RRIの分散値、及び、R波の数(つまり、波形のピークの数)のうちの少なくとも一つを含む。
但し、波形信号の状態によっては、特徴量抽出部122が特徴量を適切に抽出できない可能性がある。この場合には、特徴量抽出部122は、特徴量の適切な抽出が不可能であったことを示すエラーフラグを出力してもよい。例えば、信号レベル(つまり、振幅)が小さすぎる(例えば、所定レベルよりも小さい)波形信号から抽出される特徴量は、その信頼性が相対的に低い可能性がある。従って、波形信号の信号レベルが小さすぎる場合には、特徴量抽出部122は、エラーフラグを出力してもよい。エラーフラグが出力される場合には、状態推定部123は、ドライバの眠気度を推定しなくてもよい。
特徴量抽出部122が抽出した特徴量(更には、エラーフラグ)は、特徴量抽出部122から状態推定部123へと出力される。更に、特徴量抽出部122が抽出した特徴量(更には、エラーフラグ)は記憶装置13によって記憶される。この際、後に詳述するように、記憶装置13は、特徴量抽出部122が抽出した特徴量を、学習データDLの少なくとも一部として記憶してもよい。尚、ステップS13において特徴量抽出部122が抽出した特徴量は、後述する付記における「第1入力データ」の一具体例である。
再び図2において、その後、状態推定部123は、ステップS13で抽出された特徴量に基づいて、ドライバの眠気度を推定する(ステップS14)。具体的には、まず、状態推定部123は、記憶装置13が記憶している学習データDLに基づいて、数式1に示す基底ベクトルφ(x)を算出する。尚、数式1中において、変数xは、ステップS13で抽出された特徴量(特に、ある単位信号部分の特徴量)を示しており、抽出された特徴量の種類の数がdである場合には、数式2に示すように、d次元のベクトルとなる。尚、基底関数は、数式3であるものとする。また、数式1中において、変数bは、基底ベクトルφ(x)の次元数を示す。その後、状態推定部123は、記憶装置13が記憶している係数パラメータαを読み出す。係数パラメータαは、b次元のベクトルであり、数式4に示される。その後、状態推定部123は、基底ベクトルφ(x)及び係数パラメータαによって定義される線形モデルg(x)に基づいて、眠気度を推定する。線形モデルg(x)は、数式5に示される。具体的には、状態推定部123は、線形モデルg(x)に対して、ステップS13で抽出した特徴量xを入力して、その出力値を取得する。線形モデルg(x)は、特徴量xから推定されるドライバの眠気度に応じた出力値を出力する。以下の説明では、線形モデルg(x)は、ドライバの眠気度が大きくなればなるほど(つまり、ドライバが眠気ありの状態にある可能性が高くなるほど)小さな出力値を出力するものとする。但し、後述する学習動作による係数パラメータαの最適化により、線形モデルg(x)は、ドライバの眠気度が相対的に大きい(つまり、ドライバが眠気ありの状態にある可能性が相対的に高い)場合に負の値を出力し、ドライバの眠気度が相対的に小さい(つまり、ドライバが眠気ありの状態にある可能性が相対的に低い)場合に正の値を出力するように最適化される。その後、状態推定部123は、線形モデルg(x)の出力値が所定閾値(例えば、0)よりも大きい場合に、ドライバが眠気なしの状態にあると推定する。一方で、状態推定部123は、線形モデルg(x)の出力値が所定閾値(例えば、0)よりも小さい場合に、ドライバが眠気ありの状態にあると推定する。従って、状態推定部123は、実質的には、2クラス分類器と等価である。
Figure 2019191644
Figure 2019191644
Figure 2019191644
Figure 2019191644
Figure 2019191644
その後、表示装置14は、ステップS14におけるドライバの眠気度の推定結果を表示する(ステップS15)。更に、ドライバが眠気ありの状態にあると推定された場合には、演算装置12は、必要に応じてドライバに警告を発してもよい。例えば、演算装置12は、表示装置14を制御して、ドライバに警告を発する警告画像を表示してもよい。例えば、演算装置12は、不図示のスピーカを制御して、ドライバに警告を発する警告音を出力してもよい。例えば、演算装置12は、車両のシートやステアリングホイールに内蔵された不図示の振動装置を制御して、ドライバに警告を発する振動を発生させてもよい。
以上説明したステップS11からステップS15の処理が、ドライバが操作装置16を用いて推定動作の終了を要求するまで繰り返し行われる(ステップS16)。
(2−2)学習動作
続いて、学習動作について説明する。本実施形態では、状態推定装置1は、状態推定装置1がドライバによって入手された後に(言い換えれば、状態推定装置1が市場に出荷された後に)、学習動作を行う。言い換えれば、状態推定装置1は、状態推定装置1がドライバの眠気度を推定し始めた後に、学習動作を行う。この段階では、ドライバが車両を運転することから、状態推定装置1は、状態推定装置1による眠気度の推定の対象となるドライバの心電位の検出結果を用いて学習動作を行うことができる。以下、このような学習動作について、図5を参照しながら説明する。図5は、学習動作の流れを示すフローチャートである。尚、学習動作は、典型的には、上述した推定動作と並行して行われるが、推定動作が行われていない期間中に行われてもよい。
図5に示すように、まずは、ドライバの心電位の検出結果に基づく学習データDLが取得される。具体的には、まず、演算装置12は、ドライバが車両を運転しているか否かを判定する(ステップS21)。例えば、上述したように演算装置12を含む携帯端末をドライバが保有している場合には、演算装置12は、携帯端末が備える不図示の加速度センサ等の検出結果に基づいてドライバの行動を推定し、ドライバが車両に乗車していると推定された場合に、ドライバが車両を運転していると判定してもよい。或いは、演算装置12は、携帯端末が備える通信装置14と車両が備える通信装置との近接度合いを通信装置14の受信信号から推定し、ドライバが車両に乗車しているほどに通信装置14と車両が備える通信装置とが近接していると推定された場合に、ドライバが車両を運転していると判定してもよい。或いは、状態推定装置1が車両に設置されている場合には、演算装置12は、車両の状態(例えば、イグニションスイッチの状態)等に基づいて、ドライバが車両を運転しているか否かを判定してもよい。
ステップS21の判定の結果、ドライバが車両を運転していないと判定された場合には(ステップS21:No)、演算装置12は、ドライバが車両を運転しているか否かを判定し続ける。
他方で、ステップS21の判定の結果、ドライバが車両を運転していると判定された場合には(ステップS21:Yes)、運転判定部125は、ドライバが車両の運転を開始してから所定時間(例えば、数分)が経過したか否かを判定する(ステップS22)。
ステップS22の判定の結果、ドライバが車両の運転を開始してから所定時間が未だに経過していないと判定された場合には(ステップS22:No)、ドライバは、車両を運転し始めたばかりであると推定される。この場合には、ドライバは、眠気なしの状態にある可能性が相対的に高いはずである。なぜならば、車両を漫然と運転し続けている場合にドライバが眠気を感じやすいところ、この段階では、ドライバは、まだそれほど長い期間にわたって車両を運転していないからである。このため、この場合に検出される心電位の特徴量xは、眠気なしの状態にあるドライバの心電位の特徴量xに相当する可能性が高い。つまり、このタイミングでドライバの心電位を検出すれば、眠気なしの状態にあるドライバの心電位の特徴量xが抽出される可能性が高い。そこで、本実施形態では、心電位センサ11によってドライバの心電位が検出され(ステップS231)、フィルタ部121によって波形信号に対してフィルタリング処理が施され(ステップS232)、特徴抽出部122によって波形信号の特徴量xが抽出される(ステップS233)。尚、ステップS231からステップS233の処理は、夫々、ステップS11からステップS13の処理と同一であってもよい。抽出された特徴量xは、特徴抽出部122から学習データ生成部124に出力される。その後、学習データ生成部124は、抽出された特徴量xと、ドライバの状態が眠気なしの状態にあるという正解を示す正解データとが関連付けられたデータを、覚醒データDLPとして生成する(ステップS234)。つまり、学習データ生成部124は、ドライバがポジティブな状態であることを示す正解データを含むデータ(いわゆる、正例データ(Positive Data))を、学習データDLの一部(より具体的には、覚醒データDLP)として生成する。生成された覚醒データDLPは、記憶装置13によって記憶される。
他方で、ステップS22の判定の結果、ドライバが車両の運転を開始してから所定時間が既に経過していると判定された場合には(ステップS22:Yes)、ドライバは、眠気なしの状態にある場合もあれば、眠気ありの状態にある場合もある。つまり、ドライバの眠気度は、様々な要因に影響を受けて変動している可能性が高い。言い換えれば、ドライバの眠気度は、不定であると言える。この場合であっても、本実施形態では、心電位センサ11によってドライバの心電位が検出され(ステップS241)、フィルタ部121によって波形信号に対してフィルタリング処理が施され(ステップS242)、特徴抽出部122によって波形信号の特徴量xが抽出される(ステップS243)。尚、ステップS241からステップS243の処理は、夫々、ステップS11からステップS13の処理と同一であってもよい。抽出された特徴量xは、特徴抽出部122から学習データ生成部124に出力される。この場合に抽出される特徴量xは、眠気なしの状態にあるドライバの心電位の特徴量xに相当する場合もあれば、眠気ありの状態にあるドライバの心電位の特徴量xに相当する場合もある。そこで、学習データ生成部124は、ドライバの実際の眠気度を示す正解データに関連付けることなく(つまり、正解データをラベル付けすることなく)、抽出された特徴量xをそのまま、ラベルなしデータDLUとして設定する(ステップS244)。つまり、学習データ生成部124は、ドライバの眠気度に関する情報がないデータ(いわゆる、ラベルなしデータ(Unlabeled Data))を、学習データDLの一部(より具体的には、ラベルなしデータDLU)として生成する。生成されたラベルなしデータDLUは、記憶装置13によって記憶される。尚、ステップS244で作成されたラベルなしデータDLUは、後述する付記における「第2入力データ」の一具体例である。
その後、状態推定部123は、更新基準が成立しているか否かを判定する(ステップS25)。更新基準は、学習データDLを用いた係数パラメータαの最適化を開始するために成立するべき条件を示す。更新基準は、例えば、前回係数パラメータαが最適化されてから新たに記憶された学習データDLのデータ量(特に、ラベルなしデータDLUのデータ量)が所定量以上になるという条件である。所定量が大きくなればなるほど、係数パラメータαが最適化される頻度が少なくなる。このため、所定量は、適切な頻度で係数パラメータαが最適化されるように適切な値に設定される。
ステップS25の判定の結果、更新基準が未だ成立していないと判定された場合には(ステップS25:No)、ステップS22以降の動作が繰り返される。つまり、学習データDLが生成され続ける。
他方で、ステップS25の判定の結果、更新基準が成立していると判定された場合には(ステップS25:Yes)、状態推定部123は、記憶装置13に記憶されている学習データDLを用いて、係数パラメータαを最適化するための学習処理を行う(ステップS26)。以下、図6を参照しながら、図5のステップS26における係数パラメータαを最適化するための学習処理の流れについて説明する。図6は、図5のステップS26における係数パラメータαを最適化するための学習処理の流れを示すフローチャートである。
図6に示すように、状態推定部123は、混合率Πを設定する(ステップS261)。本実施形態では、状態推定部123は、混合率Πを、0より大きく且つ0.5より小さい所望の値に設定する。
その後、状態推定部123は、記憶装置13が記憶しているラベルなしデータDLUを、2つのデータセットXに分割する(ステップS262)。
例えば、状態推定部123は、既存のクラスタリング方法を用いて、ラベルなしデータDLUを2つのデータセットXに分割してもよい。既存のクラスタリング方法として、DSDD(Direct Sign Density Difference:直接符号密度差)法、KDE(Kernel Density Estimation:カーネル密度推定)法及びk−means(k平均)法の少なくとも一つがあげられる。
或いは、例えば、状態推定部123は、所定の分割基準に従って、ラベルなしデータDLUを2つのデータセットXに分割してもよい。所定の分割基準の一例として、ラベルなしデータDLUを構成する単位データ成分に相当する特徴量xが抽出された日時に関する日時基準があげられる。この場合、例えば、状態推定部123は、ラベルなしデータDLUを、日時基準を満たす(或いは、満たさない)日時に抽出された特徴量xから構成されるデータセットXと、日時基準を満たさない(或いは、満たす)日時に抽出された特徴量xから構成されるデータセットXとに分割してもよい。一例として、例えば、ドライバが車両を4日連続して運転したことに起因して4日分の特徴量xから構成されるラベルなしデータDLUが記憶装置14に記憶されている場合には、状態推定部123は、ラベルなしデータDLUを、前半2日分の特徴量xから構成されるデータセットXと、後半2日分の特徴量xから構成されるデータセットXとに分割してもよい。もちろん、分割基準として、日時基準以外の他の基準が用いられてもよい。
状態推定部123は更に、ラベルなしデータDLUを分割することで生成された2つのデータセットXのうちの一方を構成する各特徴量xに対して、状態推定部123の出力値である「+1(つまり、正例ラベル又はP(Positive)ラベル)」及び「−1(つまり、負例ラベル又はN(Negative)ラベル)」のいずれか一方を、仮の(言い換えれば、見かけ上の)ラベルとして付与する。他方で、状態推定部123は、ラベルなしデータDLUを分割することで生成された2つのデータセットXのうちの他方を構成する各特徴量xに対して、「+1」及び「−1」のいずれか他方を、仮のラベルとして付与する。つまり、状態推定部123は、見かけ上、ラベルなしデータDLUを、正例ラベルが付与された(つまり、眠気なしの状態にあるドライバから取得されたと仮定した)特徴量xから構成されるデータセットX+と、負例ラベルが付与された(つまり、眠気ありの状態にあるドライバから取得されたと仮定した)特徴量xから構成されるデータセットX−とに分割する。もちろん、この段階では、データセットX+に含まれる特徴量xが、眠気なしの状態にあるドライバから実際に取得された特徴量xである必要はない。同様に、データセットX−に含まれる特徴量xが、眠気ありの状態にあるドライバから実際に取得された特徴量xである必要はない。要は、状態推定部123は、ラベルなしデータDLUを、見かけ上は正例ラベルが付与された特徴量xから構成されるデータセットX+と、見かけ上は負例ラベルが付与された特徴量xから構成されるデータセットX−とに分割すれば十分である。尚、データセットX+に付与された正例ラベルが見かけ上のラベル(つまり、仮の又は仮想的なラベル)に過ぎないため、データセットX+は、実質的にはラベルなしデータに相当する。同様の理由から、データセットX−もまた、実質的にはラベルなしデータに相当する。尚、データセットX+及びデータセットX−は、夫々、後述する付記における「第1データ部分」及び「第2データ部分」の一具体例である。
尚、状態推定部123が初めて学習動作を行うタイミングでは、状態推定部123は、眠気なしの状態にあるドライバから取得された特徴量xに対して+1という出力値(或いは、正の値)及び−1という出力値(或いは、負の値)のいずれを出力するかが定かではない可能性がある。同様に、状態推定部123は、眠気ありの状態にあるドライバから取得された特徴量xに対して+1という出力値(或いは、正の値)及び−1という出力値(或いは、負の値)のいずれを出力するかが定かではない可能性がある。つまり、+1という正例ラベル及び−1という負例ラベルの夫々が、眠気なしという状態に対応するのか又は眠気ありという状態に対応するのかが定かではない可能性がある。このため、状態推定部123が初めて学習動作を行うタイミングでは、状態推定部123は、覚醒データDLPを用いて、+1という正例ラベル及び−1という負例ラベルの夫々が、眠気なしという状態に対応するのか又は眠気ありという状態に対応するのかを決定してもよい。具体的には、上述したように、覚醒データDLPを構成する特徴量xは、眠気なしの状態にあるドライバから取得された特徴量xである。このため、状態推定部123は、覚醒データDLPを構成する特徴量xを線形モデルg(x)に入力することで得られる出力値を、眠気なしという状態に対応付ける。例えば、状態推定部123は、覚醒データDLPを構成する特徴量xを線形モデルg(x)に入力することで得られる出力値が「+1(或いは、正の値)」である場合には、+1という正例ラベル及び−1という負例ラベルを、夫々、眠気なしという状態及び眠気ありという状態に対応付ける。尚、以下の説明では、上述したように、+1という正例ラベル及び−1という負例ラベルが、夫々、眠気なしという状態及び眠気ありという状態に対応する例を用いて説明を進める。
その後、状態推定部123は、ステップS261で設定した混合率Πに基づいて、データセットX+を、2つのデータセットXp+及びXp’+に分割する(ステップS263)。具体的には、状態推定部123は、データセットX+を、Π:1−Πの比率で2つのデータセットXp+及びXp’+に分割する。つまり、状態推定部123は、データセットXp+を構成する特徴量xの数とデータセットXp’+を構成する特徴量xの数との比率がΠ:1−Πとなるように、データセットX+を2つのデータセットXp+及びXp’+に分割する。但し、状態推定部123は、任意の分割手法で、データセットX+を2つのデータセットXp+及びXp’+に分割してもよい。
同様に、状態推定部123は、ステップS261で設定した混合率Πに基づいて、データセットX−を、2つのデータセットXp−及びXp’−に分割する(ステップS264)。具体的には、状態推定部123は、データセットX−を、1−Π:Πの比率で2つのデータセットXp−及びXp’−に分割する。つまり、状態推定部123は、データセットXp−を構成する特徴量xの数とデータセットXp’−を構成する特徴量xの数との比率が1−Π:Πとなるように、データセットX−を2つのデータセットXp−及びXp’−に分割する。但し、状態推定部123は、任意の分割手法で、データセットX−を2つのデータセットXp−及びXp’−に分割してもよい。
その後、状態推定部123は、データセットXp+とデータセットXp−とを混合して、データセットXpを生成する(ステップS265)。更に、状態推定部123は、データセットXp’+とデータセットXp’−とを混合して、データセットXp’を生成する(ステップS266)。尚、データセットXp及びXp’は、夫々、後述する付記における「相1混合データ」及び「第2混合データ」の一具体例である。
その後、状態推定部123は、2つのラベルなしデータに相当するデータセットXp及びXp’に基づく学習(以下、“UU学習”と称する)を行うことで、係数パラメータαを最適化する(ステップS267)。本実施形態のUU学習は、仮の正例ラベルが付与された特徴量xの数と仮の負例ラベルが付与された特徴量xの数との比率が互いに異なる2つのラベルなしデータを用いて、係数パラメータαを最適化するように状態推定部123を学習させる動作に相当する。UU学習では、2つのラベルなしデータの間での確率密度の差を利用して係数パラメータαを最適化する。具体的には、一方のクラス(例えば、眠気なしという状態に対応するクラス)に関する確率密度の差が正である場合には、他方のクラス(例えば、眠気ありという状態に対応するクラス)に関する確率密度の差は負となる。UU学習では、2つのラベルなしデータの夫々を構成する特徴量xを2つのクラスに分類するための境界(いわゆる、超平面)を変えていくことで2つのクラスの夫々の確率密度の差の符号が変わる境界をサーチする(つまり、2つのクラスの夫々の確率密度の差の符号が変わる境界で2つのラベルなしデータの夫々を構成する特徴量xを分類可能な係数パラメータαをサーチする)学習処理に相当する。従って、状態推定部123は、UU学習を行うための具体的な学習アルゴリズムとして、確率密度の差を利用する学習アルゴリズムを用いることが好ましい。確率密度の差を利用する学習アルゴリズムの一例として、上述したDSDD法及びKDE法の少なくとも一方があげられる。
尚、UU学習そのものについては、「Marthinus Christoffel du Plessis, Gang Niu, Masashi Sugiyama, “Clustering Unclustered Data: Unsupervised Binary Labeling of Two Datasets Having Different Class Balance”, Proc. TAAI2013」という論文に記載されているため、その詳細な説明については省略する。
UU学習によって係数パラメータαが最適化された結果、データセットXp及びXp’の夫々に属する各特徴量xは、UU学習でサーチされた境界によって2つのクラスのいずれかに分類可能となる。つまり、状態推定部123は、ラベルなしデータDLUを構成する各特徴量xに付与されていたラベル(ここでは、仮のラベル)を、最適化された係数パラメータαによって規定される線形モデルg(x)の出力値に基づいて更新可能である(ステップS267)。具体的には、状態推定部123は、ある特徴量xが入力された線形モデルg(x)の出力値が+1(或いは、正の値)である場合には、当該ある特徴量xに付与された仮のラベルを、正例ラベルに更新可能である。同様に、状態推定部123は、ある特徴量xが入力された線形モデルg(x)の出力値が−1(或いは、負の値)である場合には、当該ある特徴量xに付与された仮のラベルを、負例ラベルに更新可能である。
その後、状態推定部123は、更新されたラベルに基づいて、データセットX+及びデータセットX−を更新する(ステップS268)。具体的には、状態推定部123は、ラベルなしデータDLUのうちステップS267で正例ラベルが付与された特徴量xから構成されるデータセットが新たなデータセットX+となり、且つ、ラベルなしデータDLUのうちステップS267で負例ラベルが付与された特徴量xから構成されるデータセットが新たなデータセットX−となるように、データセットX+及びデータセットX−を更新する。尚、新たなデータセットX+及びX−は、実質的には、UU学習でサーチされた境界で分類される新たな2つのラベルなしデータに相当する。
その後、状態推定部123は、係数パラメータαが適切に最適化されたか否かを判定するための学習基準が満たされているか否かを判定する(ステップS269)。学習基準としてはどのような基準が用いられてもよいが、例えば、数式6に示す学習基準が一例としてあげられる。尚、数式6中において、変数xは、データセットXpを構成する各特徴量x(つまり、d次元のベクトル)であって、数式7で示される。変数nは、データセットXpを構成する特徴量xの数(つまり、d次元のベクトルの数)である。p(x)は、データセットXpを構成する特徴量xの確率密度である。また、数式6中において、変数x’は、データセットXp’を構成する各特徴量xを示すd次元のベクトルであって、数式8で示される。変数n’は、データセットXp’を構成する特徴量xの数(つまり、d次元のベクトルの数)である。p’(x)は、データセットXp’を構成する特徴量xの確率密度である。また、数式6中の関数R(z)の一例は、数式9及び数式10によって示される。また、数式6中の変数λは、超パラメータである。
Figure 2019191644
Figure 2019191644
Figure 2019191644
Figure 2019191644
Figure 2019191644
ステップS269の判定の結果、学習基準が満たされた(例えば、学習基準が最小化された)と判定された場合には(ステップS269:Yes)、演算装置12は、図6に示す学習動作を終了する。他方で、ステップS269の判定の結果、学習基準が満たされていない(例えば、学習基準を最小化する余地がまだある)と判定された場合には(ステップS269:No)、演算装置12は、ステップS268で更新したデータセットX+及びX−を用いて、ステップS263以降の処理を再度繰り返す。つまり、本実施形態では、UU学習は、学習基準が満たされるまで、UU学習に用いられる2つのデータセットX+及びX−を更新しながら繰り返し行われる。
尚、上述した学習基準には、手動で設定しなければならない超パラメータλが含まれている。また、基底ベクトルφ(x)にも、場合によっては超パラメータが含まれる可能性がある。例えば、数式3中の基底のバンド幅を示す変数hは、超パラメータの一例である。このため、状態推定部123は、超パラメータを設定しながら係数パラメータαを最適化するために、以下の手順で係数パラメータαを最適化することが好ましい。具体的には、まず、状態推定部123は、ラベルなしデータDLUを、超パラメータの候補を設定した上で係数パラメータαを最適化するために用いられる第1データと、第1データを用いて最適化された係数パラメータαを検証する(つまり、評価する)ために用いられる第2データとに分割する。例えば、状態推定部123は、ラベルなしデータDLUのうちの所定割合(例えば、80%)のデータ部分を第1データとして用い、ラベルなしデータDLUのうちの残りの(例えば、20%)のデータ部分を第2データとして用いてもよい。その後、状態推定部123は、第1データに対して上述した図6のステップS262からステップS266までの処理を行ってデータセットXp及びXp’を生成する。その後、状態推定部123は、超パラメータに所定の候補値を設定した上で、第1データから生成したデータセットXp及びXp’を用いたUU学習を行って、係数パラメータαの最適化を行う。その後、状態推定部123は、第2データを用いて、最適化された係数パラメータαを検証する。具体的には、状態推定部123は、第1データを用いて最適化された係数パラメータαによって特定される線形モデルg(x)に、第2データに含まれる特徴量xを入力することで、上述した学習基準から第3項の正則化項を除いた評価式を評価する。状態推定部123は、このような動作を、学習基準から第3項の正則化項を除いた評価式を最小にする最適な超パラメータが見つかるまで繰り返す。その後、最適な超パラメータ及びラベルなしデータDLU(つまり、第1データ及び第2データの双方)を用いて、係数パラメータαを最適化する。その結果、係数パラメータαが最適化される。最適化された係数パラメータαは、記憶装置13によって記憶される。
以上説明したステップS21からステップS26までの処理が繰り返し行われる。つまり、ドライバが車両を運転している限りは、新たなラベルなしデータDLUが収集され続け、既に収集済みのラベルなしデータDLUに加えて、新たに収集されたラベルなしデータDLUを用いて、係数パラメータαが最適化され続ける。
(3)技術的効果
続いて、本実施形態の状態推定装置1が享受可能な技術的効果を説明する。まずは、図7(a)から図7(e)を参照しながら、技術的効果を説明する前提として、以上説明した学習動作を、特徴量ベクトル空間内での特徴量xの様子と合わせて模式的に説明する。
図7(a)は、ラベルなしデータDLUを構成する特徴量xの特徴量ベクトル空間内での分布の様子を示すグラフである。図7(a)中では、丸印で示す特徴量xは、眠気なしの状態にあるドライバから取得された特徴量xに相当し、四角印で示す特徴量xは、眠気ありの状態にあるドライバから取得された特徴量xに相当する。従って、図7(a)中の点線が、ラベルなしデータDLUを構成する特徴量xを2つのクラスに分類する理想的な境界に相当する。但し、ラベルなしデータDLU内では特徴量xに正解データが関連付けられていないがゆえに、状態推定装置1は、丸印で示す特徴量xが眠気なしの状態にあるドライバから取得された特徴量xに相当し、四角印で示す特徴量xが眠気ありの状態にあるドライバから取得された特徴量xに相当するということを認識することはできない。
状態推定部123は、図7(b)に示すように、このようなラベルなしデータDLUを、データセットX+及びX−に分割する(図6のステップS262)。図7(b)中では、白色の印で示す特徴量xは、データセットX+に分類された特徴量x(つまり、仮の正例ラベルが付与された特徴量x)に相当し、黒色の印で示す特徴量xは、データセットX−に分類された特徴量x(つまり、仮の負例ラベルが付与された特徴量x)に相当する。図7(b)に示すように、データセットX+及びX−の夫々には、眠気なしの状態にあるドライバから取得された特徴量x及び眠気ありの状態にあるドライバから取得された特徴量xの双方が含まれている可能性が相対的に高い。
その後、状態推定部123は、図7(c)に示すように、データセットX+をデータセットXp+及びXp’+に分割し且つデータセットX−をデータセットXp−及びXp’−に分割する(図6のステップS263からステップS264)。その後、状態推定部123は、データセットXp+及びXp−を混合してデータセットXpを生成し且つデータセットXp’+及びXp’−を混合してデータセットXp’を生成する(図6のステップS265からステップS266)。この場合、仮の正例ラベルが付与されたデータセットX+のうち50%未満のデータ部分がデータセットXp+となり、仮の正例ラベルが付与されたデータセットX+のうち50%より多い残りのデータ部分がデータセットXp’+となり、仮の負例ラベルが付与されたデータセットX−のうち50%より多いデータ部分がデータセットXp−となり、仮の負例ラベルが付与されたデータセットX−のうち50%より少ない残りのデータ部分がデータセットXp’−となることから、データセットXpにおける仮の正例ラベルが付与された特徴量xの数と仮の負例ラベルが付与された特徴量xの数との比率は、データセットXp’における仮の正例ラベルが付与された特徴量xの数と仮の負例ラベルが付与された特徴量xの数との比率とは異なる可能性が相対的に高くなる。
その後、状態推定部123は、データセットXp+及びXp−に基づいてUU学習を行う(図6のステップS257)。その結果、図7(d)に示すように、ラベルなしデータDLUを構成する特徴量xを2つのクラスに分類するための新たな境界がサーチされ、当該新たな境界に基づいてデータセットX+及びX−が更新される。図7(b)及び図7(d)を比較して分かるように、UU学習を行うことで、データセットX+及びX−の境界は、図7(a)に示す理想的な境界に近づく。
その後、状態推定部123は、UU学習を再度行うために、図7(e)に示すように、新たなデータセットX+及びX−から、データセットXp及びXp’を生成する。この際、UU学習が既に1回以上行われていれば、データセットX+には、眠気なしの状態にあるドライバの特徴量xが、眠気ありの状態にあるドライバの特徴量xよりも多く含まれ、且つ、データセットX−には、眠気ありの状態にあるドライバの特徴量xが、眠気なしの状態にあるドライバの特徴量xよりも多く含まれる可能性が高くなる。つまり、UU学習が既に1回以上行われていれば、データセットX+に眠気なしの状態にあるドライバの特徴量xが偏在し、且つ、データセットX−に眠気ありの状態にあるドライバの特徴量xが偏在する可能性が高くなる。その結果、データセットXpにおける眠気なしの状態にあるドライバの特徴量xの数と眠気ありの状態にあるドライバの特徴量xの数との比率は、データセットXp’における眠気なしの状態にあるドライバの特徴量xの数と眠気ありの状態にあるドライバの特徴量xの数との比率とは異なる可能性がより一層高くなる。
その後、状態推定部123は、データセットXp+及びXp−に基づいてUU学習を再度行う(図6のステップS257)。その結果、図7(f)に示すように、ラベルなしデータDLUを構成する特徴量xを2つのクラスに分類するための新たな境界がサーチされ、当該新たな境界に基づいてデータセットX+及びX−が更新される。図7(b)、図7(d)及び図7(f)を比較して分かるように、UU学習を繰り返し行うことで、データセットX+及びX−の境界は、図7(a)に示す理想的な境界に近づく可能性が高くなる。
以上説明したように、状態推定装置1によれば、夫々が正解データに関連付けられていない2つのラベルなしデータ(つまり、データセットX+及びX−)を用いて、2つのラベルなしデータが適宜更新されながら、係数パラメータαを最適化するためのUU学習が繰り返し行われる。このため、UU学習が繰り返し行われない比較例の状態推定装置と比較して、係数パラメータαが最適化される(つまり、ドライバの心電位に基づくドライバの眠気度の推定精度が向上する)可能性が高くなる。このため、ドライバの状態との間の相関が相対的に少ないノイズ情報を相対的に多く含んでおり且つクラスタリングした場合に得られる複数のクラスの間でのオーバーラップが発生しやすいという特徴を有する心電位(つまり、人間の生体情報)に基づいてドライバの眠気度を推定する場合であっても、係数パラメータαが最適化される可能性が高くなる。その結果、状態推定装置1は、ドライバの心電位に基づいてドライバの眠気度を相対的に高精度に推定することができる。
例えば、図8は、正解データが関連付けられた特徴量を含む学習データを用いて、教師あり学習で係数パラメータαが最適化された場合における眠気度の推定に関するF値、ラベルなしデータDLUを用いてUU学習を1回だけ行う(つまり、図6のステップS263からステップS268のルーチンを1回だけ行う)ことで係数パラメータαが最適化された場合における眠気度の推定に関するF値、及び、ラベルなしデータDLUを用いてUU学習を複数回繰り返す(つまり、図6のステップS263からステップS268のルーチンを複数回繰り返す)ことで係数パラメータαが最適化された場合における眠気度の推定に関するF値を示すグラフである。尚、F値は、眠気度の推定精度と眠気度の推定に関する再現率との調和平均に相当する評価指数であって、値が大きければ大きいほど眠気度を推定する性能が優れていることを示す。図6に示すように、UU学習を1回だけ行うことで係数パラメータαを最適化する方法は、教師あり学習で係数パラメータαを最適化する方法よりも性能面で劣っている可能性があるが、UU学習を複数回繰り返すことで係数パラメータαを最適化する方法は、教師あり学習で係数パラメータαを最適化する方法よりも性能面で優れている。従って、UU学習を複数回繰り返すことで、係数パラメータαが最適化される可能性が高くなることが、本願発明者等が行った実験によっても確認された。
加えて、本願発明者等の研究及び調査によれば、2つのラベルなしデータを用いてUU学習を繰り返し行う場合には、一方のクラスに分類されるべき特徴量x(例えば、眠気なしの状態にあるドライバの特徴量x)の数と他方のクラスに分類されるべき特徴量x(例えば、眠気ありの状態にあるドライバの特徴量x)の数との比率が2つのラベルなしデータの間で異なると、UU学習が適切に行われることが判明している。このようなことを踏まえて、本実施形態では、データセットX+及びX−を部分的に混合する得られるデータセットXp及びXp’を用いてUU学習が行われる。上述したように、データセットXp及びXp’の間では、一方のクラスに分類されるべき特徴量xの数と他方のクラスに分類されるべき特徴量xの数との比率が異なる可能性が相対的に高くなる。つまり、データセットXp及びXp’は、一方のクラスに分類されるべき特徴量xの数と他方のクラスに分類されるべき特徴量xの数との比率が異なる2つのラベルなしデータである可能性が相対的に高くなる。その結果、状態推定部123は、UU学習を適切に行って係数パラメータαを最適化することができる。例えば、状態推定部123は、効率的に係数パラメータαを最適化することができる及び/又は推定精度が向上していくように係数パラメータαを最適化することができる。
(4)変形例
上述した説明では、ドライバが車両の運転を開始してから所定時間(例えば、数分)が経過するまでに抽出された特徴量から、当該特徴量に正解データが関連付けられた覚醒データDLPが生成されている。しかしながら、ドライバが車両の運転を開始してから所定時間が経過するまでに抽出された特徴量が、当該特徴量に正解データが関連付けられていないラベルなしデータDLUとして設定されもよい。
上述した説明では、状態推定部123は、データセットX+をデータセットXp+及びXp’+に分割し且つデータセットX−をデータセットXp−及びXp’−に分割した後に、データセットXp+及びXp−を混合してデータセットXpを生成し且つデータセットXp’+及びXp’−を混合してデータセットXp’を生成している。しかしながら、状態推定部123は、データセットX+をデータセットXp+及びXp’+に分割しなくてもよいし、データセットX−をデータセットXp−及びXp’−に分割しなくてもよい。この場合、状態推定部123は、データセットX+及びX−を2つのラベルなしデータとして用いることでUU学習を行ってもよい。
上述した説明では、学習データDLを用いた係数パラメータαの最適化を開始するために成立するべき更新基準は、前回係数パラメータαが最適化されてから新たに生成された学習データDL(特に、ラベルなしデータDLU)のデータ量に関する条件を含んでいる。しかしながら、更新基準は、学習データDLのデータ量に関する条件に加えて又は代えて、その他の条件を含んでいてもよい。例えば、更新基準は、ドライバが車両に乗車した回数に関する条件(例えば、前回係数パラメータαが最適化されてからドライバが車両に乗車した回数が所定回数以上であるという条件)を含んでいてもよい。例えば、更新基準は、ドライバが車両に乗車していた時間に関する条件(例えば、前回係数パラメータαが最適化されてからドライバが車両に乗車していた時間が所定時間以上であるという条件)を含んでいてもよい。例えば、更新基準は、ドライバからの要求に関する条件(例えば、ドライバが係数パラメータαの最適化を要求しているという条件)を含んでいてもよい。或いは、状態推定部123は、更新基準を用いることなく、ラベルなしデータDLUを新たに取得する都度、係数パラメータαを最適化してもよい。つまり、状態推定部123は、学習データDLを用いたオンライン学習を行ってもよい。
上述した説明では、状態推定装置1は、ドライバの心電位に基づいてドライバの眠気度を推定している。しかしながら、状態推定装置1は、ドライバの心電位に加えて又は代えて、ドライバのその他の生体情報に基づいてドライバの眠気度を推定してもよい。例えば、状態推定装置1は、ドライバをカメラで撮像し、撮像によって得られた画像を画像処理することで当該画像の特徴量(例えば、ドライバの顔の表情及び振る舞い等の少なくとも一つに関する特徴量)を抽出し、当該抽出した特徴量に基づいてドライバの眠気度を推定してもよい。
上述した説明では、状態推定装置1は、ドライバの生体情報に基づいてドライバの眠気度を推定している。しかしながら、状態推定装置1は、ドライバの生体情報に基づいてドライバの任意の状態を推定してもよい。例えば、状態推定装置1は、ドライバの生体情報からドライバの前頭前野の脳波に関する特徴量(例えば、シータ波の含有率に関する特徴量)を抽出し、当該抽出した特徴量に基づいてドライバの運転への集中度(逆に言えば、リラックス度合い)を推定してもよい。この場合、状態推定装置1は、ドライバに一定時間以上リラックスしてもらった上で生体情報を取得し、取得した生体情報の特徴量とドライバの状態がリラックス状態にあるという正解を示す正解データとが関連付けられたデータを、上述した覚醒データDLPに相当するデータとして生成してもよい。状態推定装置1は、ドライバに特定の作業(例えば、文書作成、読書及びビデオ視聴等の少なくとも一つ)をしてもらった上でドライバの生体情報を取得し、取得した生体情報の特徴量を、上述したラベルなしデータDLUに相当するデータとして生成してもよい。
上述した説明では、状態推定装置1は、ドライバの生体情報に基づいてドライバの状態を推定している。しかしながら、状態推定装置1は、ドライバに限らず、任意のユーザの生体情報に基づいて任意のユーザの状態を推定してもよい。或いは、状態推定装置1は、生体情報に加えて又は代えて、任意のユーザの任意の行動情報(つまり、ユーザの行動に関する情報)に基づいて、任意のユーザの状態を推定してもよい。例えば、状態推定装置1は、腕や体幹に取り付けられた加速度センサや角速度センサなどから得られるユーザの行動情報を用いて任意のユーザの状態を推定してもよい。或いは、状態推定装置1は、生体情報に加えて又は代えて、任意のユーザの任意の情報に基づいて、任意のユーザの状態を推定してもよい。或いは、生体情報が入力情報に相当し且つ推定されたユーザの状態が出力情報に相当することを考慮すれば、状態推定装置1は、生体情報に基づいてユーザの状態を推定することに加えて又は代えて、任意の入力情報に基づいて、任意の出力情報を出力してもよい。この場合であっても、上述した学習動作が行われれば、上述した効果が享受可能である。
(5)付記
以上説明した実施形態に関して、更に以下の付記を開示する。
(5−1)付記1
付記1に記載された状態推定装置は、ユーザの生体情報及び行動情報の少なくとも一方に関する第1入力データを取得する取得手段と、前記第1入力データに基づいて、前記ユーザの状態を推定する推定動作を行う推定手段とを備え、前記推定手段は、前記ユーザの生体情報及び行動情報の少なくとも一方に関し且つ前記ユーザの状態を示す正解データが関連付けられていない第2入力データのうちの第1データ部分と前記第2入力データのうちの前記第1データ部分とは異なる第2データ部分とを用いて、前記推定動作の内容を最適化するための学習処理を繰り返し行う状態推定装置である。
付記1に記載された状態推定装置によれば、夫々が正解データに関連付けられていない2つのデータ部分(つまり、第1及び第2データ部分)を用いて、推定動作の内容を最適化するための学習処理が繰り返し行われる。このため、ユーザの状態との間の相関が相対的に少ないノイズ情報を相対的に多く含んでおり且つクラスタリングした場合に得られる複数のクラスの間でのオーバーラップが発生しやすいという特徴を有する生体情報及び行動情報の少なくとも一方を用いる場合であっても、推定動作の内容が最適化される可能性が高くなる。従って、付記1に記載された状態推定装置は、ユーザの生体情報及び行動情報の少なくとも一方に基づいてユーザの状態を適切に推定することができる。
(5−2)付記2
付記2に記載された状態推定装置は、前記推定手段は、前記学習処理が行われる都度、行われた前記学習処理の結果に基づいて前記第2入力データから前記第1及び第2データ部分に新たに設定し、その後、新たに設定された前記第1及び第2データ部分を用いて、前記推定動作の内容を最適化する動作を含む前記学習処理を再度行う付記1に記載の状態推定装置である。
付記1に記載された状態推定装置によれば、学習処理の結果に基づいて第1及び第2データ部分が適切に更新されながら、推定動作の内容を最適化するための学習処理が繰り返し行われる。このため、第1及び第2データ部分を更新せず且つ学習処理が繰り返し行われない比較例の状態推定装置と比較して、推定動作の内容が最適化される可能性が高くなる。
(5−3)付記3
付記3に記載された状態推定装置は、前記推定手段は、前記第1入力データに基づいて、前記ユーザの状態が2つのクラスのいずれに属するかを推定し、前記学習処理は、前記第1及び第2データ部分を用いて、前記第2入力データを構成するデータ成分を前記2つのクラスのいずれかに分類するように前記推定動作の内容を最適化する動作を含み、前記推定手段は、前記学習処理が行われる都度、前記第2入力データのうち前記2つのクラスの一方に分類されたデータ成分から構成されるデータ部分を新たな前記第1データ部分に設定し且つ前記第2入力データのうち前記2つのクラスの他方に分類されたデータ成分から構成されるデータ部分を新たな前記第2データ部分に設定し、その後、新たに設定された前記第1及び第2データ部分を用いて、前記第2入力データを構成するデータ成分を前記2つのクラスのいずれかに分類するように前記推定動作の内容を最適化する動作を含む前記学習処理を再度行う付記1又は2に記載の状態推定装置である。
付記3に記載された状態推定装置によれば、学習処理の結果に基づいて第1及び第2データ部分が適切に更新されながら、推定動作の内容を最適化するための学習処理が繰り返し行われる。このため、第1及び第2データ部分を更新せず且つ学習処理が繰り返し行われない比較例の状態推定装置と比較して、推定動作の内容が最適化される可能性が高くなる。
(5−4)付記4
付記4に記載された状態推定装置は、前記推定手段は、前記第1入力データに基づいて、前記ユーザの状態が2つのクラスのいずれに属するかを推定し、前記学習処理は、(i)前記第1及び第2データ部分から、前記第1データ部分のうちの第1部分と前記第2データ部分のうちの第2部分とを含む第1混合データ、及び、前記第1データ部分のうちの前記第1部分とは異なる第3部分と前記第2データ部分のうちの前記第2部分とは異なる第4部分とを含む第2混合データを生成し、(ii)前記第1及び第2混合データを用いて、前記第2入力データを構成するデータ成分を前記2つのクラスのいずれかに分類するように前記推定動作の内容を最適化する動作を含む付記1から3のいずれか一項に記載の状態推定装置である。
付記4に記載された状態推定装置によれば、第1及び第2混合データは、夫々が正解データに関連付けられておらず且つ2つのクラスのうちの一方に分類されるデータ成分と2つのクラスのうちの他方に分類されるデータ成分との比率が異なる2つのデータ部分である可能性が相対的に高くなる。その結果、推定手段は、学習処理を適切に行うことができる。
(5−5)付記5
付記5に記載された状態推定装置は、前記推定手段は、前記学習処理が行われる都度、前記第2入力データのうち前記2つのクラスの一方に分類されたデータ成分から構成されるデータ部分を新たな前記第1データ部分に設定し且つ前記第2入力データのうち前記2つのクラスの他方に分類されたデータ成分から構成されるデータ部分を新たな前記第2データ部分に設定し、その後、新たに設定された前記第1及び第2データ部分を用いて、前記第2入力データを構成するデータ成分を前記2つのクラスのいずれかに分類するように前記推定動作の内容を最適化する動作を含む前記学習処理を再度行う付記4に記載の状態推定装置である。
付記5に記載された状態推定装置によれば、第1及び第2データ部分を更新することなく学習処理が繰り返し行われない比較例の状態推定装置と比較して、推定動作の内容が最適化される可能性が高くなる。
更に、学習処理が多く行われるほど、第1データ部分に2つのクラスのうちの一方に分類されるデータ成分が偏在し、且つ、第2データ部分に2つのクラスのうちの他方に分類されるデータ成分が偏在する可能性が高くなる。この場合、このような第1及び第2データ部分を部分的に混合して第1及び第2混合データが生成されるがゆえに、学習処理が多く行われるほど、第1混合データにおける2つのクラスのうちの一方に分類されるデータ成分と2つのクラスのうちの他方に分類されるデータ成分との比率は、第2混合データにおける2つのクラスのうちの一方に分類されるデータ成分と2つのクラスのうちの他方に分類されるデータ成分との比率と異なる可能性が相対的に高くなる。このため、推定手段は、学習処理を適切に行うことができる。
本発明は、上述した実施形態に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う状態推定装置もまた本発明の技術的範囲に含まれるものである。
11 心電位センサ
12 演算装置
120 入力インタフェース部
121 フィルタ部
122 特徴抽出部
123 状態推定部
124 学習データ生成部
125 運転判定部
13 記憶装置
14 表示装置
15 通信装置
16 操作装置
α 係数パラメータ
DL 学習データ
DLU ラベルなしデータ
DLP 覚醒データ

Claims (5)

  1. ユーザの生体情報及び行動情報の少なくとも一方に関する第1入力データを取得する取得手段と、
    前記第1入力データに基づいて、前記ユーザの状態を推定する推定動作を行う推定手段と
    を備え、
    前記推定手段は、前記ユーザの生体情報及び行動情報の少なくとも一方に関し且つ前記ユーザの状態を示す正解データが関連付けられていない第2入力データのうちの第1データ部分と前記第2入力データのうちの前記第1データ部分とは異なる第2データ部分とを用いて、前記推定動作の内容を最適化するための学習処理を繰り返し行う
    状態推定装置。
  2. 前記推定手段は、前記学習処理が行われる都度、行われた前記学習処理の結果に基づいて前記第2入力データから前記第1及び第2データ部分に新たに設定し、その後、新たに設定された前記第1及び第2データ部分を用いて、前記推定動作の内容を最適化する動作を含む前記学習処理を再度行う
    請求項1に記載の状態推定装置。
  3. 前記推定手段は、前記第1入力データに基づいて、前記ユーザの状態が2つのクラスのいずれに属するかを推定し、
    前記学習処理は、前記第1及び第2データ部分を用いて、前記第2入力データを構成するデータ成分を前記2つのクラスのいずれかに分類するように前記推定動作の内容を最適化する動作を含み、
    前記推定手段は、前記学習処理が行われる都度、前記第2入力データのうち前記2つのクラスの一方に分類されたデータ成分から構成されるデータ部分を新たな前記第1データ部分に設定し且つ前記第2入力データのうち前記2つのクラスの他方に分類されたデータ成分から構成されるデータ部分を新たな前記第2データ部分に設定し、その後、新たに設定された前記第1及び第2データ部分を用いて、前記第2入力データを構成するデータ成分を前記2つのクラスのいずれかに分類するように前記推定動作の内容を最適化する動作を含む前記学習処理を再度行う
    請求項1又は2に記載の状態推定装置。
  4. 前記推定手段は、前記第1入力データに基づいて、前記ユーザの状態が2つのクラスのいずれに属するかを推定し、
    前記学習処理は、(i)前記第1及び第2データ部分から、前記第1データ部分のうちの第1部分と前記第2データ部分のうちの第2部分とを含む第1混合データ、及び、前記第1データ部分のうちの前記第1部分とは異なる第3部分と前記第2データ部分のうちの前記第2部分とは異なる第4部分とを含む第2混合データを生成し、(ii)前記第1及び第2混合データを用いて、前記第2入力データを構成するデータ成分を前記2つのクラスのいずれかに分類するように前記推定動作の内容を最適化する動作を含む
    請求項1から3のいずれか一項に記載の状態推定装置。
  5. 前記推定手段は、前記学習処理が行われる都度、前記第2入力データのうち前記2つのクラスの一方に分類されたデータ成分から構成されるデータ部分を新たな前記第1データ部分に設定し且つ前記第2入力データのうち前記2つのクラスの他方に分類されたデータ成分から構成されるデータ部分を新たな前記第2データ部分に設定し、その後、新たに設定された前記第1及び第2データ部分を用いて、前記第2入力データを構成するデータ成分を前記2つのクラスのいずれかに分類するように前記推定動作の内容を最適化する動作を含む前記学習処理を再度行う
    請求項4に記載の状態推定装置。
JP2018080015A 2018-04-18 2018-04-18 状態推定装置 Active JP7060434B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018080015A JP7060434B2 (ja) 2018-04-18 2018-04-18 状態推定装置
CN201910302084.7A CN110384478B (zh) 2018-04-18 2019-04-16 状态预测装置以及状态预测方法
US16/386,484 US20190324537A1 (en) 2018-04-18 2019-04-17 State prediction apparatus and state prediction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018080015A JP7060434B2 (ja) 2018-04-18 2018-04-18 状態推定装置

Publications (2)

Publication Number Publication Date
JP2019191644A true JP2019191644A (ja) 2019-10-31
JP7060434B2 JP7060434B2 (ja) 2022-04-26

Family

ID=68237712

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018080015A Active JP7060434B2 (ja) 2018-04-18 2018-04-18 状態推定装置

Country Status (3)

Country Link
US (1) US20190324537A1 (ja)
JP (1) JP7060434B2 (ja)
CN (1) CN110384478B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023047530A1 (ja) * 2021-09-24 2023-03-30 富士通株式会社 データ収集プログラム,データ収集装置及びデータ収集方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021161325A1 (en) * 2020-02-12 2021-08-19 Telefonaktiebolaget Lm Ericsson (Publ) Communications system, network node, first node, and methods performed thereby for handling a prediction of an event
US11080484B1 (en) * 2020-10-08 2021-08-03 Omniscient Neurotechnology Pty Limited Natural language processing of electronic records

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140172754A1 (en) * 2012-12-14 2014-06-19 International Business Machines Corporation Semi-supervised data integration model for named entity classification
US20180012092A1 (en) * 2016-07-05 2018-01-11 Nauto, Inc. System and method for automatic driver identification

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101659027B1 (ko) * 2014-05-15 2016-09-23 엘지전자 주식회사 이동 단말기 및 차량 제어 장치
US10315662B2 (en) * 2016-10-05 2019-06-11 Dell Products L.P. Determining a driver condition using a vehicle gateway
CN107095671A (zh) * 2017-05-27 2017-08-29 西南交通大学 驾驶疲劳识别方法及系统
CN107451651A (zh) * 2017-07-28 2017-12-08 杭州电子科技大学 一种基于粒子群优化的h‑elm的驾驶疲劳检测方法
US11083379B2 (en) * 2017-08-02 2021-08-10 Faurecia Automotive Seating, Llc Health-monitoring seat cover
US10235859B1 (en) * 2017-08-17 2019-03-19 State Farm Mutual Automobile Insurance Company Systems and methods for the mitigation of drowsy or sleepy driving
CN107595306A (zh) * 2017-08-22 2018-01-19 南京邮电大学 一种基于脑电信号分析的疲劳驾驶预警系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140172754A1 (en) * 2012-12-14 2014-06-19 International Business Machines Corporation Semi-supervised data integration model for named entity classification
US20180012092A1 (en) * 2016-07-05 2018-01-11 Nauto, Inc. System and method for automatic driver identification

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023047530A1 (ja) * 2021-09-24 2023-03-30 富士通株式会社 データ収集プログラム,データ収集装置及びデータ収集方法

Also Published As

Publication number Publication date
JP7060434B2 (ja) 2022-04-26
CN110384478A (zh) 2019-10-29
CN110384478B (zh) 2022-04-19
US20190324537A1 (en) 2019-10-24

Similar Documents

Publication Publication Date Title
Riaz et al. DeepFMRI: End-to-end deep learning for functional connectivity and classification of ADHD using fMRI
Zepf et al. Driver emotion recognition for intelligent vehicles: A survey
Chatterjee et al. A novel machine learning based feature selection for motor imagery EEG signal classification in Internet of medical things environment
Gao et al. Detecting emotional stress from facial expressions for driving safety
Yılmaz et al. Sleep stage and obstructive apneaic epoch classification using single-lead ECG
Panwar et al. Modeling EEG data distribution with a Wasserstein generative adversarial network to predict RSVP events
JP7060434B2 (ja) 状態推定装置
Shahnaz et al. Emotion recognition based on wavelet analysis of Empirical Mode Decomposed EEG signals responsive to music videos
Perseh et al. An efficient P300-based BCI using wavelet features and IBPSO-based channel selection
US20160106378A1 (en) System and method for detecting an arrhythmic cardiac event from a cardiac signal
Kalaganis et al. A Riemannian geometry approach to reduced and discriminative covariance estimation in brain computer interfaces
Gjoreski et al. Deep affect recognition from RR intervals
EA Smart Affect Recognition System for Real-Time Biometric Surveillance Using Hybrid Features and Multilayered Binary Structured Support Vector Machine
Kamti et al. Evolution of driver fatigue detection techniques—A review from 2007 to 2021
Venkat et al. Recognizing occluded faces by exploiting psychophysically inspired similarity maps
CN109717879B (zh) 状态推定系统
Chavan et al. A review on BCI emotions classification for EEG signals using deep learning
Bogunovic et al. Processing and analyisis of biomedical nonlinear signals by data mining methods
Adam et al. Improving EEG signal peak detection using feature weight learning of a neural network with random weights for eye event-related applications
Pal et al. Study of neuromarketing with eeg signals and machine learning techniques
JP2009279099A (ja) 瞬目種別識別装置、瞬目種別識別方法、及び瞬目種別識別プログラム
Cavazza et al. Understanding action concepts from videos and brain activity through subjects’ consensus
JP7211441B2 (ja) 覚醒度推定装置、覚醒度推定方法、及びプログラム
van Vugt et al. Tracking perceptual and memory decisions by decoding brain activity
Yilmaz et al. Prediction of eye states using k-NN algorithm: A comparison study for different distance metrics and number of neighbour parameters

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200923

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220414

R151 Written notification of patent or utility model registration

Ref document number: 7060434

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151