JP7060434B2 - 状態推定装置 - Google Patents
状態推定装置 Download PDFInfo
- Publication number
- JP7060434B2 JP7060434B2 JP2018080015A JP2018080015A JP7060434B2 JP 7060434 B2 JP7060434 B2 JP 7060434B2 JP 2018080015 A JP2018080015 A JP 2018080015A JP 2018080015 A JP2018080015 A JP 2018080015A JP 7060434 B2 JP7060434 B2 JP 7060434B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- state
- driver
- learning
- state estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/318—Heart-related electrical modalities, e.g. electrocardiography [ECG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4806—Sleep evaluation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6802—Sensor mounted on worn items
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7225—Details of analog processing, e.g. isolation amplifier, gain or sensitivity adjustment, filtering, baseline or drift compensation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W40/09—Driving style or behaviour
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/0097—Predicting future conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/20—Workers
- A61B2503/22—Motor vehicles operators, e.g. drivers, pilots, captains
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0818—Inactivity or incapacity of driver
- B60W2040/0827—Inactivity or incapacity of driver due to sleepiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/08—Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/15—Biometric patterns based on physiological signals, e.g. heartbeat, blood flow
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Pathology (AREA)
- Public Health (AREA)
- Biophysics (AREA)
- Veterinary Medicine (AREA)
- Mathematical Physics (AREA)
- Transportation (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Neurosurgery (AREA)
- Computing Systems (AREA)
- Dermatology (AREA)
- Neurology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Signal Processing (AREA)
- Cardiology (AREA)
- Power Engineering (AREA)
- Physiology (AREA)
Description
はじめに、図1を参照しながら、本実施形態の状態推定装置1の構成について説明する。図1は、本実施形態の状態推定装置1の構成を示すブロック図である。
続いて、状態推定装置1の動作について説明する。上述したように、状態推定装置1は、ドライバの眠気度を推定するための推定動作及び係数パラメータαを最適化する(つまり、推定動作の内容を最適化する)ための学習動作を行う。従って、以下では、推定動作及び学習動作について順に説明する。
はじめに、図2を参照しながら、推定動作について説明する。図2は、推定動作の流れを示すフローチャートである。
続いて、学習動作について説明する。本実施形態では、状態推定装置1は、状態推定装置1がドライバによって入手された後に(言い換えれば、状態推定装置1が市場に出荷された後に)、学習動作を行う。言い換えれば、状態推定装置1は、状態推定装置1がドライバの眠気度を推定し始めた後に、学習動作を行う。この段階では、ドライバが車両を運転することから、状態推定装置1は、状態推定装置1による眠気度の推定の対象となるドライバの心電位の検出結果を用いて学習動作を行うことができる。以下、このような学習動作について、図5を参照しながら説明する。図5は、学習動作の流れを示すフローチャートである。尚、学習動作は、典型的には、上述した推定動作と並行して行われるが、推定動作が行われていない期間中に行われてもよい。
続いて、本実施形態の状態推定装置1が享受可能な技術的効果を説明する。まずは、図7(a)から図7(e)を参照しながら、技術的効果を説明する前提として、以上説明した学習動作を、特徴量ベクトル空間内での特徴量xの様子と合わせて模式的に説明する。
上述した説明では、ドライバが車両の運転を開始してから所定時間(例えば、数分)が経過するまでに抽出された特徴量から、当該特徴量に正解データが関連付けられた覚醒データDLPが生成されている。しかしながら、ドライバが車両の運転を開始してから所定時間が経過するまでに抽出された特徴量が、当該特徴量に正解データが関連付けられていないラベルなしデータDLUとして設定されもよい。
以上説明した実施形態に関して、更に以下の付記を開示する。
付記1に記載された状態推定装置は、ユーザの生体情報及び行動情報の少なくとも一方に関する第1入力データを取得する取得手段と、前記第1入力データに基づいて、前記ユーザの状態を推定する推定動作を行う推定手段とを備え、前記推定手段は、前記ユーザの生体情報及び行動情報の少なくとも一方に関し且つ前記ユーザの状態を示す正解データが関連付けられていない第2入力データのうちの第1データ部分と前記第2入力データのうちの前記第1データ部分とは異なる第2データ部分とを用いて、前記推定動作の内容を最適化するための学習処理を繰り返し行う状態推定装置である。
付記2に記載された状態推定装置は、前記推定手段は、前記学習処理が行われる都度、行われた前記学習処理の結果に基づいて前記第2入力データから前記第1及び第2データ部分に新たに設定し、その後、新たに設定された前記第1及び第2データ部分を用いて、前記推定動作の内容を最適化する動作を含む前記学習処理を再度行う付記1に記載の状態推定装置である。
付記3に記載された状態推定装置は、前記推定手段は、前記第1入力データに基づいて、前記ユーザの状態が2つのクラスのいずれに属するかを推定し、前記学習処理は、前記第1及び第2データ部分を用いて、前記第2入力データを構成するデータ成分を前記2つのクラスのいずれかに分類するように前記推定動作の内容を最適化する動作を含み、前記推定手段は、前記学習処理が行われる都度、前記第2入力データのうち前記2つのクラスの一方に分類されたデータ成分から構成されるデータ部分を新たな前記第1データ部分に設定し且つ前記第2入力データのうち前記2つのクラスの他方に分類されたデータ成分から構成されるデータ部分を新たな前記第2データ部分に設定し、その後、新たに設定された前記第1及び第2データ部分を用いて、前記第2入力データを構成するデータ成分を前記2つのクラスのいずれかに分類するように前記推定動作の内容を最適化する動作を含む前記学習処理を再度行う付記1又は2に記載の状態推定装置である。
付記4に記載された状態推定装置は、前記推定手段は、前記第1入力データに基づいて、前記ユーザの状態が2つのクラスのいずれに属するかを推定し、前記学習処理は、(i)前記第1及び第2データ部分から、前記第1データ部分のうちの第1部分と前記第2データ部分のうちの第2部分とを含む第1混合データ、及び、前記第1データ部分のうちの前記第1部分とは異なる第3部分と前記第2データ部分のうちの前記第2部分とは異なる第4部分とを含む第2混合データを生成し、(ii)前記第1及び第2混合データを用いて、前記第2入力データを構成するデータ成分を前記2つのクラスのいずれかに分類するように前記推定動作の内容を最適化する動作を含む付記1から3のいずれか一項に記載の状態推定装置である。
付記5に記載された状態推定装置は、前記推定手段は、前記学習処理が行われる都度、前記第2入力データのうち前記2つのクラスの一方に分類されたデータ成分から構成されるデータ部分を新たな前記第1データ部分に設定し且つ前記第2入力データのうち前記2つのクラスの他方に分類されたデータ成分から構成されるデータ部分を新たな前記第2データ部分に設定し、その後、新たに設定された前記第1及び第2データ部分を用いて、前記第2入力データを構成するデータ成分を前記2つのクラスのいずれかに分類するように前記推定動作の内容を最適化する動作を含む前記学習処理を再度行う付記4に記載の状態推定装置である。
12 演算装置
120 入力インタフェース部
121 フィルタ部
122 特徴抽出部
123 状態推定部
124 学習データ生成部
125 運転判定部
13 記憶装置
14 表示装置
15 通信装置
16 操作装置
α 係数パラメータ
DL 学習データ
DLU ラベルなしデータ
DLP 覚醒データ
Claims (4)
- ユーザの生体情報及び行動情報の少なくとも一方に関する第1入力データを取得する取得手段と、
前記第1入力データに基づいて、前記ユーザの状態を推定する推定動作を行う推定手段と
を備え、
前記推定手段は、前記ユーザの生体情報及び行動情報の少なくとも一方に関し且つ前記ユーザの状態を示す正解データが関連付けられていない第2入力データのうちの第1データ部分と前記第2入力データのうちの前記第1データ部分とは異なる第2データ部分とを用いて、前記推定動作の内容を最適化するための学習処理を繰り返し行い、
前記推定手段は、前記第1入力データに基づいて、前記ユーザの状態が2つのクラスのいずれに属するかを推定し、
前記学習処理は、(i)前記第1及び第2データ部分から、前記第1データ部分のうちの第1部分と前記第2データ部分のうちの第2部分とを含む第1混合データ、及び、前記第1データ部分のうちの前記第1部分とは異なる第3部分と前記第2データ部分のうちの前記第2部分とは異なる第4部分とを含む第2混合データを生成し、(ii)前記第1及び第2混合データを用いて、前記第2入力データを構成するデータ成分を前記2つのクラスのいずれかに分類するように前記推定動作の内容を最適化する動作を含む
状態推定装置。 - 前記推定手段は、前記学習処理が行われる都度、行われた前記学習処理の結果に基づいて前記第2入力データから前記第1及び第2データ部分に新たに設定し、その後、新たに設定された前記第1及び第2データ部分を用いて、前記推定動作の内容を最適化する動作を含む前記学習処理を再度行う
請求項1に記載の状態推定装置。 - 前記推定手段は、前記第1入力データに基づいて、前記ユーザの状態が2つのクラスのいずれに属するかを推定し、
前記学習処理は、前記第1及び第2データ部分を用いて、前記第2入力データを構成するデータ成分を前記2つのクラスのいずれかに分類するように前記推定動作の内容を最適化する動作を含み、
前記推定手段は、前記学習処理が行われる都度、前記第2入力データのうち前記2つのクラスの一方に分類されたデータ成分から構成されるデータ部分を新たな前記第1データ部分に設定し且つ前記第2入力データのうち前記2つのクラスの他方に分類されたデータ成分から構成されるデータ部分を新たな前記第2データ部分に設定し、その後、新たに設定された前記第1及び第2データ部分を用いて、前記第2入力データを構成するデータ成分を前記2つのクラスのいずれかに分類するように前記推定動作の内容を最適化する動作を含む前記学習処理を再度行う
請求項1又は2に記載の状態推定装置。 - 前記推定手段は、前記学習処理が行われる都度、前記第2入力データのうち前記2つのクラスの一方に分類されたデータ成分から構成されるデータ部分を新たな前記第1データ部分に設定し且つ前記第2入力データのうち前記2つのクラスの他方に分類されたデータ成分から構成されるデータ部分を新たな前記第2データ部分に設定し、その後、新たに設定された前記第1及び第2データ部分を用いて、前記第2入力データを構成するデータ成分を前記2つのクラスのいずれかに分類するように前記推定動作の内容を最適化する動作を含む前記学習処理を再度行う
請求項3に記載の状態推定装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018080015A JP7060434B2 (ja) | 2018-04-18 | 2018-04-18 | 状態推定装置 |
CN201910302084.7A CN110384478B (zh) | 2018-04-18 | 2019-04-16 | 状态预测装置以及状态预测方法 |
US16/386,484 US20190324537A1 (en) | 2018-04-18 | 2019-04-17 | State prediction apparatus and state prediction method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018080015A JP7060434B2 (ja) | 2018-04-18 | 2018-04-18 | 状態推定装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019191644A JP2019191644A (ja) | 2019-10-31 |
JP7060434B2 true JP7060434B2 (ja) | 2022-04-26 |
Family
ID=68237712
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018080015A Active JP7060434B2 (ja) | 2018-04-18 | 2018-04-18 | 状態推定装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20190324537A1 (ja) |
JP (1) | JP7060434B2 (ja) |
CN (1) | CN110384478B (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021161325A1 (en) * | 2020-02-12 | 2021-08-19 | Telefonaktiebolaget Lm Ericsson (Publ) | Communications system, network node, first node, and methods performed thereby for handling a prediction of an event |
US11080484B1 (en) * | 2020-10-08 | 2021-08-03 | Omniscient Neurotechnology Pty Limited | Natural language processing of electronic records |
JPWO2023047530A1 (ja) * | 2021-09-24 | 2023-03-30 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140172754A1 (en) | 2012-12-14 | 2014-06-19 | International Business Machines Corporation | Semi-supervised data integration model for named entity classification |
US20180012092A1 (en) | 2016-07-05 | 2018-01-11 | Nauto, Inc. | System and method for automatic driver identification |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101659027B1 (ko) * | 2014-05-15 | 2016-09-23 | 엘지전자 주식회사 | 이동 단말기 및 차량 제어 장치 |
US10315662B2 (en) * | 2016-10-05 | 2019-06-11 | Dell Products L.P. | Determining a driver condition using a vehicle gateway |
CN107095671A (zh) * | 2017-05-27 | 2017-08-29 | 西南交通大学 | 驾驶疲劳识别方法及系统 |
CN107451651A (zh) * | 2017-07-28 | 2017-12-08 | 杭州电子科技大学 | 一种基于粒子群优化的h‑elm的驾驶疲劳检测方法 |
US11083379B2 (en) * | 2017-08-02 | 2021-08-10 | Faurecia Automotive Seating, Llc | Health-monitoring seat cover |
US10235859B1 (en) * | 2017-08-17 | 2019-03-19 | State Farm Mutual Automobile Insurance Company | Systems and methods for the mitigation of drowsy or sleepy driving |
CN107595306A (zh) * | 2017-08-22 | 2018-01-19 | 南京邮电大学 | 一种基于脑电信号分析的疲劳驾驶预警系统 |
-
2018
- 2018-04-18 JP JP2018080015A patent/JP7060434B2/ja active Active
-
2019
- 2019-04-16 CN CN201910302084.7A patent/CN110384478B/zh active Active
- 2019-04-17 US US16/386,484 patent/US20190324537A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140172754A1 (en) | 2012-12-14 | 2014-06-19 | International Business Machines Corporation | Semi-supervised data integration model for named entity classification |
US20180012092A1 (en) | 2016-07-05 | 2018-01-11 | Nauto, Inc. | System and method for automatic driver identification |
Also Published As
Publication number | Publication date |
---|---|
JP2019191644A (ja) | 2019-10-31 |
CN110384478B (zh) | 2022-04-19 |
US20190324537A1 (en) | 2019-10-24 |
CN110384478A (zh) | 2019-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Riaz et al. | DeepFMRI: End-to-end deep learning for functional connectivity and classification of ADHD using fMRI | |
Haradal et al. | Biosignal data augmentation based on generative adversarial networks | |
Zepf et al. | Driver emotion recognition for intelligent vehicles: A survey | |
Taran et al. | Motor imagery tasks-based EEG signals classification using tunable-Q wavelet transform | |
JP7060434B2 (ja) | 状態推定装置 | |
Bode et al. | The Decision Decoding ToolBOX (DDTBOX)–A multivariate pattern analysis toolbox for event-related potentials | |
Panwar et al. | Modeling EEG data distribution with a Wasserstein generative adversarial network to predict RSVP events | |
Krauledat et al. | Towards zero training for brain-computer interfacing | |
Yılmaz et al. | Sleep stage and obstructive apneaic epoch classification using single-lead ECG | |
Wessel | Testing multiple psychological processes for common neural mechanisms using EEG and independent component analysis | |
Perseh et al. | An efficient P300-based BCI using wavelet features and IBPSO-based channel selection | |
Wismueller et al. | Model-free functional MRI analysis for detecting low-frequency functional connectivity in the human brain | |
KR102130211B1 (ko) | 인간 의사결정 전략 및 이에 기반한 행동 패턴 추정 bci 시스템 및 그 방법 | |
Kalaganis et al. | A Riemannian geometry approach to reduced and discriminative covariance estimation in brain computer interfaces | |
US20210256369A1 (en) | Domain-adapted classifier generation | |
Jun et al. | Modeling regional dynamics in low-frequency fluctuation and its application to autism spectrum disorder diagnosis | |
Dinov et al. | Modeling uncertainties in EEG microstates: Analysis of real and imagined motor movements using probabilistic clustering-driven training of probabilistic neural networks | |
Kamti et al. | Evolution of driver fatigue detection techniques—A review from 2007 to 2021 | |
Ikeda et al. | Predicting behavior through dynamic modes in resting-state fMRI data | |
JP6853159B2 (ja) | 状態推定装置 | |
Shoorangiz et al. | EEG-based machine learning: Theory and applications | |
Divya et al. | Classification of low-functioning and high-functioning autism using task-based EEG signals | |
Chougule et al. | Enabling safe its: Eeg-based microsleep detection in vanets | |
Duda et al. | Validating dynamicity in resting state fMRI with activation‐informed temporal segmentation | |
Adam et al. | Improving EEG signal peak detection using feature weight learning of a neural network with random weights for eye event-related applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200923 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211021 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220414 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7060434 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |