JP5531237B2 - 脳情報出力装置、ロボット、および脳情報出力方法 - Google Patents
脳情報出力装置、ロボット、および脳情報出力方法 Download PDFInfo
- Publication number
- JP5531237B2 JP5531237B2 JP2009041338A JP2009041338A JP5531237B2 JP 5531237 B2 JP5531237 B2 JP 5531237B2 JP 2009041338 A JP2009041338 A JP 2009041338A JP 2009041338 A JP2009041338 A JP 2009041338A JP 5531237 B2 JP5531237 B2 JP 5531237B2
- Authority
- JP
- Japan
- Prior art keywords
- intention
- data
- brain activity
- brain
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/40—Detecting, measuring or recording for evaluating the nervous system
- A61B5/4058—Detecting, measuring or recording for evaluating the nervous system for evaluating the central nervous system
- A61B5/4064—Evaluating the brain
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6813—Specially adapted to be attached to a specific body part
- A61B5/6814—Head
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/004—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
- A61B5/0042—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0073—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by tomography, i.e. reconstruction of 3D images from 2D projections
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
Description
の手順を経て、第一学習データを変換し、第二学習データを得る。
(1)異常データ除去部1011は、センサごとに、全時系列データを取得する。そして、異常データ除去部1011は、センサごとに、全時系列データの平均値と標準偏差σを算出する。ここで、全時系列データとは、全てのトライアルにまたがるデータのことを言う。
(2)異常データ除去部1011は、各センサと各トライアルデータ(図18(a))に関して、その平均値を基準点として定め、脳波の時系列データに対して、基準補正を行い、全時系列データを2乗することで信号のパワーを計算する(図18(b))。取得されるデータは、(複数センサ×時系列×複数トライアル)の3次元データである。
(3)異常データ除去部1011は、前記の信号のパワーに対して分布を計算する。なお、この分布は一般的にはχ二乗分布に従う。そして、値の大きいものから5%のサンプルを破棄する(図18(c))。値の大きい5%のサンプルは、通常の状態でも起こりえるノイズと仮定して破棄したものである。
(4)異常データ除去部1011は、5%のサンプルを破棄し、残された各データの絶対値を用いて、最大のパワーP95を求める。
(5)異常データ除去部1011は、各センサの各トライアルごとに、前記のP95を前記の標準偏差σで割ったmampを計算し、図18(d)のマトリクスを求める。
(6)異常データ除去部1011は、事前に与えられた異常データ除去用の定数aと前記のマトリクスを比較し、aよりも大きいmampをチェックする。定数aとしては、「9」が好適である。また、図18(d)において、マトリクス上に斜めの線が入ったデータが、不適切なデータとして除かれたサンプルである。
(7)異常データ除去部1011は、各センサに対してトライアル方向に対して不適切データがいくつあるかを数える。この数をbsensorとする。ここで、各センサに対してトライアル方向に対して数えるとは、図18(d)において、横方向に斜めの線が入っている不適切データがいくつあるかを各センサごとに数えることである。また、異常データ除去部1011は、各トライアルに対してセンサ方向に対して不適切データがいくつあるかを数えるbtrialとする。ここで、各トライアルに対してセンサ方向に対して数えるとは、図18(d)において、縦方向に斜めの線が入っている不適切データがいくつあるかを各トライアルごとに数えることである。
(8)異常データ除去部1011は、事前に与えられた異常データ除去用の定数csensorと前記のbsensorを比較し、bsensorがcsensorよりも大きい場合、そのセンサは異常があると判断し、異常センサとして、当該センサが取得したデータを除去する(「異常センサ除去」という)。ここで、事前に与える定数csensorは、全トライアル数の5%程度が好適である。また、異常データ除去部114は、事前に与えられた異常データ除去用の定数ctrialと前記のbtrialを比較し、btrialが ctrialよりも大きい場合、そのトライアルは異常があると判断し、異常トライアルとして、当該トライアルの際に取得されたデータを除去する(「異常トライアル除去」という)。ここで、事前に与える定数ctrialは、全センサ数の5%程度が好適である。
n :電流源の番号
N :電流源の総数
l :タスクラベル番号
L :タスクラベルの種類
f :周波数帯域[Hz]
ml :タスクラベルlの付けられたトライアル番号
Ml :タスクラベルlの付けられたトライアルの総数
(1)n番目の電流源での推定電流に対して、タスクラベルl:l∈{1,2,3,4}が付けられたml番目のタスク区間の信号を抽出する。
(2)抽出した信号に対して周波数変換を行い、パワーを計算する。
(3)その中のf[Hz]帯域のパワーをP(f,n,l,ml)と定義する。
(4)P(f,n,l,ml)に対して、全トライアルの平均値Pバー(f,n,l)を求める。なお、Pバーとは、Pの上部に「−」が存在する記号である。
(5)それぞれのタスクli,ljの組み合わせ(総数4C2=6通り)に対してそれぞれの分散を考慮したt検定を行う(数式11参照)。
多重検定による選定に必要なパラメータnselectについては、今回、テストにも学習にも使用しないSubject1の9月に計測した8日分のデータを用いて検証を行い、nselect=20とし、さらにそれを全休左右半球ごとに選択することにした。
(実験結果)
(1)Subject1
(2)Subject2
(判定に寄与した電流源の分布)
(学習数と弁別性能の関係)
(結論)
11、21 脳情報出力装置
12 ロボット
111、1011 意図判別情報格納部
112、1012 第一学習データ取得部
113、1013 第二学習データ取得部
114、1014 学習特徴量群取得部
115、1015 意図判別情報蓄積部
116、1016 第一脳活動データ取得部
117、1017 第二脳活動データ取得部
118、1018 特徴量群取得部
119、1019 意図識別子取得部
120 意図識別子出力部
121 動作情報格納部
122 意図識別子受付部
123 実行部
1011 異常データ除去部
10111 異常トライアル除去手段
10112 異常センサ除去手段
1191、10191 確率算出手段
1192、10192 意図識別子取得手段
Claims (10)
- ユーザの意図を識別する情報である意図識別子と、当該意図識別子で識別される意図の元にユーザが一連の行為であるトライアルを行った際に当該ユーザの頭蓋外部から取得された脳活動のデータである第一学習データを、脳内の脳活動データに変換された第二学習データから、抽出された1以上の特徴量である学習特徴量群とを対に有する意図判別情報を、2以上格納し得る意図判別情報格納部と、
ユーザの頭蓋外部から、脳活動のデータである第一脳活動データを取得する第一脳活動データ取得部と、
前記ユーザの頭蓋外部から取得された第一脳活動データを、脳内の脳活動データに変換し、第二脳活動データを取得する第二脳活動データ取得部と、
前記第二脳活動データから、1以上の特徴量である入力特徴量群を取得する特徴量群取得部と、
前記入力特徴量群に対応する意図識別子を、前記意図判別情報格納部に格納されている2以上の意図判別情報から取得する意図識別子取得部と、
前記意図識別子取得部が取得した意図識別子を出力する意図識別子出力部とを具備し、
前記意図識別子取得部は、
前記意図判別情報格納部の2以上の意図判別情報を用いて、前記特徴量群取得部が取得した入力特徴量群が、前記2以上の意図判別情報に含まれる2以上の意図識別子の各々に対応する確率を、前記2以上の意図識別子ごとに算出する確率算出手段と、
前記確率算出手段が算出した意図識別子ごとの確率から、最も大きい確率に対応する意図識別子を取得する意図識別子取得手段とを具備する脳情報出力装置。 - 前記意図判別情報は、
2種類以上の第一学習データから取得された2種類以上の学習特徴量群を有し、
前記第一脳活動データ取得部は、
ユーザの頭蓋外部から、2種類以上の第一脳活動データを取得し、
前記第二脳活動データ取得部は、
前記2種類以上の各第一脳活動データを、脳内の脳活動データに変換し、2種類以上の第二脳活動データを取得し、
前記特徴量群取得部は、
前記2種類以上の各第二脳活動データに対して信号処理し、2種類以上の入力特徴量群を取得し、
前記確率算出手段は、
意図判別情報が有する学習特徴量群の種類ごと、および意図識別子ごとに、対応する入力特徴量群の確率を算出し、かつ、当該意図識別子に対応する学習特徴量群の種類ごとの確率を用いて、意図識別子ごとの最終的な確率を算出し、
前記意図識別子取得手段は、
前記確率算出手段が算出した意図識別子ごとの最終的な確率から、最も大きい確率に対応する意図識別子を取得する請求項1記載の脳情報出力装置。 - 一の意図の元にユーザが一連の行為であるトライアルを行った際に、1または2以上のセンサを用いて、当該センサごとに、前ユーザの頭蓋外部から脳活動を示す時系列データである第一学習データを取得する第一学習データ取得部と、
前記ユーザの頭蓋外部から取得された第一学習データを、脳内の脳活動のデータに変換し、第二学習データを取得する第二学習データ取得部と、
前記第二学習データから、1以上の特徴量である学習特徴量群を取得する学習特徴量群取得部と、
前記第二学習特徴量群と、前記一の意図を識別する意図識別子とを有する意図判別情報を、前記意図判別情報格納部に蓄積する意図判別情報蓄積部とをさらに具備する請求項1または請求項2記載の脳情報出力装置。 - 前記第一学習データ取得部が取得した第一学習データから1以上の各部分学習データを取得し、当該各部分学習データの特性値を取得し、当該特性値を用いて、各部分学習データが正常であるか異常であるかを判断し、異常であると判断した部分学習データを、学習データから除き、正常学習データを取得する異常データ除去部をさらに具備し、
前記第二学習データ取得部は、
前記正常学習データを、脳内の脳活動のデータに変換し、第二学習データを取得する請求項3記載の脳情報出力装置。 - 前記異常データ除去部は、
異常トライアル除去手段、異常センサ除去手段のいずれか1以上の手段を具備し、
前記異常トライアル除去手段は、
トライアルごとの部分学習データの特性値を取得し、当該特性値を用いて、部分学習データが正常であるか異常であるかを判断し、異常であると判断した部分学習データを、学習データから除き、正常学習データを取得し、
前記異常センサ除去手段は、
センサごとの部分学習データの特性値を取得し、当該特性値を用いて、部分学習データが正常であるか異常であるかを判断し、異常であると判断した部分学習データを、学習データから除き、正常学習データを取得する請求項4記載の脳情報出力装置。 - 前記第二脳活動データ取得部は、
前記第一脳活動データに対して、階層変分ベイズ法を用いて第二脳活動データを取得する請求項1から請求項5いずれか記載の脳情報出力装置。 - 前記第一学習データおよび前記第一脳活動データは、脳波データを含む請求項1から請求項6いずれか記載の脳情報出力装置。
- 意図識別子と当該意図識別子に対応する動作を行わせる動作モジュールとの組である動作情報を2以上格納し得る動作情報格納部と、
請求項1から請求項7いずれか記載の脳情報出力装置から出力された意図識別子を受け付ける意図識別子受付部と、
前記意図識別子受付部が受け付けた意図識別子に対応する動作モジュールを実行する実行部とを具備するロボット。 - 記憶媒体に、ユーザの意図を識別する情報である意図識別子と、当該意図識別子で識別される意図の元にユーザが一連の行為であるトライアルを行った際に当該ユーザの頭蓋外部から取得された脳活動のデータである第一学習データを、脳内の脳活動データに変換された第二学習データから、抽出された1以上の特徴量である学習特徴量群とを対に有する意図判別情報を、2以上格納しており、
ユーザの頭蓋外部から、脳活動のデータである第一脳活動データを取得する第一脳活動データ取得ステップと、
前記ユーザの頭蓋外部から取得された第一脳活動データを、脳内の脳活動データに変換し、第二脳活動データを取得する第二脳活動データ取得ステップと、
前記第二脳活動データから、1以上の特徴量である入力特徴量群を取得する特徴量群取得ステップと、
前記入力特徴量群に対応する意図識別子を、前記記憶媒体に格納されている2以上の意図判別情報から取得する意図識別子取得ステップと、
前記意図識別子取得ステップで取得された意図識別子を出力する意図識別子出力ステップとを具備し、
前記意図識別子取得ステップは、
前記記憶媒体の2以上の意図判別情報を用いて、前記特徴量群取得ステップで取得された入力特徴量群が、前記2以上の意図判別情報に含まれる2以上の意図識別子の各々に対応する確率を、前記2以上の意図識別子ごとに算出する確率算出ステップと、
前記確率算出ステップで算出された意図識別子ごとの確率から、最も大きい確率に対応する意図識別子を取得する意図識別子取得ステップとを具備する脳情報出力方法。 - 前記意図判別情報は、
2種類以上の第一学習データから取得された2種類以上の学習特徴量群を有し、
前記第一脳活動データ取得ステップにおいて、
ユーザの頭蓋外部から、2種類以上の第一脳活動データを取得し、
前記第二脳活動データ取得ステップにおいて、
前記2種類以上の各第一脳活動データを、脳内の脳活動データに変換し、2種類以上の第二脳活動データを取得し、
前記特徴量群取得ステップにおいて、
前記2種類以上の各第二脳活動データに対して信号処理し、2種類以上の入力特徴量群を取得し、
前記確率算出ステップにおいて、
意図判別情報が有する学習特徴量群の種類ごと、および意図識別子ごとに、対応する入力特徴量群の確率を算出し、かつ、当該意図識別子に対応する学習特徴量群の種類ごとの確率を用いて、意図識別子ごとの最終的な確率を算出し、
前記意図識別子取得ステップにおいて、
前記確率算出手段が算出した意図識別子ごとの最終的な確率から、最も大きい確率に対応する意図識別子を取得する請求項9記載の脳情報出力方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009041338A JP5531237B2 (ja) | 2009-02-24 | 2009-02-24 | 脳情報出力装置、ロボット、および脳情報出力方法 |
US13/202,784 US8868174B2 (en) | 2009-02-24 | 2010-02-22 | Brain information output apparatus, robot, and brain information output method |
PCT/JP2010/052631 WO2010098284A1 (ja) | 2009-02-24 | 2010-02-22 | 脳情報出力装置、ロボット、および脳情報出力方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009041338A JP5531237B2 (ja) | 2009-02-24 | 2009-02-24 | 脳情報出力装置、ロボット、および脳情報出力方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010198234A JP2010198234A (ja) | 2010-09-09 |
JP5531237B2 true JP5531237B2 (ja) | 2014-06-25 |
Family
ID=42665491
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009041338A Active JP5531237B2 (ja) | 2009-02-24 | 2009-02-24 | 脳情報出力装置、ロボット、および脳情報出力方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8868174B2 (ja) |
JP (1) | JP5531237B2 (ja) |
WO (1) | WO2010098284A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170139368A (ko) * | 2016-06-09 | 2017-12-19 | 한국항공우주산업 주식회사 | 인지과학을 적용한 항공기 제어 시스템 |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8516568B2 (en) * | 2011-06-17 | 2013-08-20 | Elliot D. Cohen | Neural network data filtering and monitoring systems and methods |
JP6008099B2 (ja) * | 2012-07-30 | 2016-10-19 | 学校法人日本大学 | 脳活動状態解析装置、脳活動状態解析方法、及び脳活動状態解析プログラム |
US9373088B2 (en) * | 2012-09-17 | 2016-06-21 | The Board Of Trustees Of The Leland Stanford Junior University | Brain machine interface utilizing a discrete action state decoder in parallel with a continuous decoder for a neural prosthetic device |
FR3001379B1 (fr) * | 2013-01-30 | 2019-06-14 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | Procede de localisation d'une activite cerebrale, notamment pour commande neuronale directe. |
KR101585150B1 (ko) * | 2014-09-25 | 2016-01-14 | 서울대학교산학협력단 | 뇌 연결성에 기반한 멀티모드 뇌-컴퓨터 인터페이스 시스템 |
ITUB20153680A1 (it) * | 2015-09-16 | 2017-03-16 | Liquidweb Srl | Sistema di controllo di tecnologie assistive e relativo metodo |
JP6755445B2 (ja) * | 2015-09-25 | 2020-09-16 | 株式会社NeU | 情報処理装置、情報処理方法、情報処理プログラム |
CN108366752B (zh) * | 2015-11-24 | 2021-11-23 | 株式会社国际电气通信基础技术研究所 | 脑活动分析装置及方法、存储介质以及生物标记物装置 |
TWI676536B (zh) * | 2016-01-22 | 2019-11-11 | 大陸商鴻富錦精密工業(武漢)有限公司 | 基於腦電訊號控制之智慧型機器人系統和方法 |
JP6199461B1 (ja) * | 2016-09-13 | 2017-09-20 | ヤフー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
AU2018309101A1 (en) | 2017-08-03 | 2020-03-12 | The University Of Melbourne | Medical device for sensing and or stimulating tissue |
CN107813307A (zh) * | 2017-09-12 | 2018-03-20 | 上海谱康电子科技有限公司 | 基于运动想象脑电信号的机械手臂控制系统 |
WO2019060298A1 (en) | 2017-09-19 | 2019-03-28 | Neuroenhancement Lab, LLC | METHOD AND APPARATUS FOR NEURO-ACTIVATION |
US11717686B2 (en) | 2017-12-04 | 2023-08-08 | Neuroenhancement Lab, LLC | Method and apparatus for neuroenhancement to facilitate learning and performance |
US11478603B2 (en) | 2017-12-31 | 2022-10-25 | Neuroenhancement Lab, LLC | Method and apparatus for neuroenhancement to enhance emotional response |
US11364361B2 (en) | 2018-04-20 | 2022-06-21 | Neuroenhancement Lab, LLC | System and method for inducing sleep by transplanting mental states |
US11285607B2 (en) * | 2018-07-13 | 2022-03-29 | Massachusetts Institute Of Technology | Systems and methods for distributed training and management of AI-powered robots using teleoperation via virtual spaces |
WO2020056418A1 (en) | 2018-09-14 | 2020-03-19 | Neuroenhancement Lab, LLC | System and method of improving sleep |
CN109567818B (zh) * | 2018-11-20 | 2021-06-01 | 苏州大学 | 基于血红蛋白信息的多种行走步态调整意图的识别方法 |
JP7107830B2 (ja) * | 2018-12-21 | 2022-07-27 | ファナック株式会社 | 学習用データ確認支援装置、機械学習装置、故障予知装置 |
CN109909977A (zh) * | 2019-03-20 | 2019-06-21 | 哈尔滨理工大学 | 一种基于脑电波的姿态自动跟随机器人 |
US11093038B2 (en) | 2019-05-14 | 2021-08-17 | Synchron Australia Pty Limited | Systems and methods for generic control using a neural signal |
US11786694B2 (en) | 2019-05-24 | 2023-10-17 | NeuroLight, Inc. | Device, method, and app for facilitating sleep |
US11553871B2 (en) * | 2019-06-04 | 2023-01-17 | Lab NINE, Inc. | System and apparatus for non-invasive measurement of transcranial electrical signals, and method of calibrating and/or using same for various applications |
EP4048371A4 (en) | 2019-10-29 | 2024-03-13 | Synchron Australia Pty Ltd | SYSTEMS AND METHODS FOR CONFIGURING A BRAIN CONTROL INTERFACE USING DATA FROM DEPLOYED SYSTEMS |
CN112690775B (zh) * | 2020-12-24 | 2022-04-29 | 华中师范大学 | 一种基于贝叶斯的儿童脑活动异常病灶区成像系统 |
WO2023008160A1 (ja) * | 2021-07-26 | 2023-02-02 | 株式会社ブリヂストン | 推定装置、推定方法、推定プログラム、及びロボットシステム |
CN114103974B (zh) * | 2021-11-01 | 2022-07-29 | 北京理工大学 | 一种面向车辆连续控制的脑机接口方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004180817A (ja) * | 2002-12-02 | 2004-07-02 | National Institute Of Advanced Industrial & Technology | 生体信号を利用した作業支援マニピュレータシステム |
US7826894B2 (en) * | 2004-03-22 | 2010-11-02 | California Institute Of Technology | Cognitive control signals for neural prosthetics |
JP2006072606A (ja) * | 2004-09-01 | 2006-03-16 | National Institute Of Information & Communication Technology | インターフェイス装置、インターフェイス方法及びその装置を用いた制御訓練装置 |
US7747318B2 (en) * | 2006-12-07 | 2010-06-29 | Neuropace, Inc. | Functional ferrule |
JP4978860B2 (ja) * | 2007-01-24 | 2012-07-18 | 株式会社国際電気通信基礎技術研究所 | 行動予測方法及び行動予測装置 |
US9402558B2 (en) * | 2007-04-05 | 2016-08-02 | New York University | System and method for pain detection and computation of a pain quantification index |
-
2009
- 2009-02-24 JP JP2009041338A patent/JP5531237B2/ja active Active
-
2010
- 2010-02-22 US US13/202,784 patent/US8868174B2/en not_active Expired - Fee Related
- 2010-02-22 WO PCT/JP2010/052631 patent/WO2010098284A1/ja active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170139368A (ko) * | 2016-06-09 | 2017-12-19 | 한국항공우주산업 주식회사 | 인지과학을 적용한 항공기 제어 시스템 |
KR101885649B1 (ko) * | 2016-06-09 | 2018-09-10 | 한국항공우주산업 주식회사 | 인지과학을 적용한 항공기 제어 시스템 |
Also Published As
Publication number | Publication date |
---|---|
WO2010098284A1 (ja) | 2010-09-02 |
US20120035765A1 (en) | 2012-02-09 |
JP2010198234A (ja) | 2010-09-09 |
US8868174B2 (en) | 2014-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5531237B2 (ja) | 脳情報出力装置、ロボット、および脳情報出力方法 | |
Tiwari et al. | Brain computer interface: A comprehensive survey | |
Zhang et al. | A survey on deep learning based brain computer interface: Recent advances and new frontiers | |
García-Martínez et al. | A review on nonlinear methods using electroencephalographic recordings for emotion recognition | |
Islam et al. | Methods for artifact detection and removal from scalp EEG: A review | |
US20110028827A1 (en) | Spatiotemporal pattern classification of brain states | |
Khalid et al. | Towards a brain computer interface using wavelet transform with averaged and time segmented adapted wavelets | |
Hasan et al. | A computationally efficient method for hybrid EEG-fNIRS BCI based on the Pearson correlation | |
AU2020103304A4 (en) | A cnn based model for disease classification using high temporal and spatial resolution images of simultaneous eeg-mri | |
Lin et al. | A high performance MEG based BCI using single trial detection of human movement intention | |
Gasparini et al. | A deep learning approach to recognize cognitive load using ppg signals | |
KR20190030611A (ko) | 뇌-컴퓨터 인터페이스 시스템 기반의 통합 신호 처리 방법 | |
Asghar et al. | Semi-skipping layered gated unit and efficient network: hybrid deep feature selection method for edge computing in EEG-based emotion classification | |
Mohammadi et al. | Cursor movement detection in brain-computer-interface systems using the K-means clustering method and LSVM | |
Tsai et al. | Development of an adaptive artifact subspace reconstruction based on Hebbian/anti-Hebbian learning networks for enhancing BCI performance | |
Hosni et al. | A graph-based nonlinear dynamic characterization of motor imagery toward an enhanced hybrid bci | |
Sutharsan et al. | Electroencephalogram signal processing with independent component analysis and cognitive stress classification using convolutional neural networks | |
Gupta et al. | Whale optimization algorithm fused with SVM to detect stress in EEG signals | |
Li et al. | Classification of motor imagery tasks in source domain | |
Jayashekar et al. | Hybrid Feature Extraction for EEG Motor Imagery Classification Using Multi-Class SVM. | |
Sanamdikar et al. | Classification of ECG Signal for Cardiac Arrhythmia Detection Using GAN Method | |
JP5256517B2 (ja) | 脳情報出力装置、ロボット、および脳情報出力方法 | |
Ghadiri | Study of Interactive Systems Based on Brain and Computer Interfaces | |
Rathee et al. | Current source density estimates improve the discriminability of scalp-level brain connectivity features related to motor-imagery tasks | |
Wang et al. | EEG Signal Processing-Driven Machine Learning for Cognitive Task Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20120221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130807 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140311 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140319 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5531237 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |