JP2020532031A - 高速視標追跡機能を有する脳−コンピュータインタフェース - Google Patents

高速視標追跡機能を有する脳−コンピュータインタフェース Download PDF

Info

Publication number
JP2020532031A
JP2020532031A JP2020532856A JP2020532856A JP2020532031A JP 2020532031 A JP2020532031 A JP 2020532031A JP 2020532856 A JP2020532856 A JP 2020532856A JP 2020532856 A JP2020532856 A JP 2020532856A JP 2020532031 A JP2020532031 A JP 2020532031A
Authority
JP
Japan
Prior art keywords
user
signal
eye
eye movement
stimulus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020532856A
Other languages
English (en)
Inventor
アルケイド,ラムセス
パッデン,デレク
ジャンツ,ジェイ
ハーメット,ジェームス
ジュニア,ジェフリー モーリス
ジュニア,ジェフリー モーリス
ペレイラ,アルナルド
Original Assignee
ニューラブル インコーポレイテッド
ニューラブル インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ニューラブル インコーポレイテッド, ニューラブル インコーポレイテッド filed Critical ニューラブル インコーポレイテッド
Publication of JP2020532031A publication Critical patent/JP2020532031A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/377Electroencephalography [EEG] using evoked responses
    • A61B5/378Visual stimuli
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/377Electroencephalography [EEG] using evoked responses
    • A61B5/38Acoustic or auditory stimuli
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/725Details of waveform analysis using specific filters therefor, e.g. Kalman or adaptive filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/12Healthy persons not otherwise provided for, e.g. subjects of a marketing survey
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Psychiatry (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Physiology (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Neurosurgery (AREA)
  • Dermatology (AREA)
  • Neurology (AREA)
  • Fuzzy Systems (AREA)
  • Acoustics & Sound (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Position Input By Displaying (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本明細書に記載する実施形態は、リアルタイムの眼球運動追跡を脳活動追跡と統合して、人間−マシン対話の高速度及び高精度を得るように戦略的に設計されるユーザインタフェースを提示し更新する、脳−コンピュータインタフェースの実装に使用するためのシステム、装置、及び方法に関する。本明細書に記載する実施形態は、リアルタイムの視標追跡及び神経信号のオンライン分析を使用してマシンのユーザ操作を仲介する、ハードウェアに依存しない脳−コンピュータインタフェースの実装にも関する。

Description

関連出願の相互参照
[0001] 本願は、参照によりその開示の全体を本明細書に援用する、2017年8月23日に出願され「高速視標追跡機能を有する脳−コンピュータインタフェース(Brain-Computer Interface with High-Speed Eye Tracking Features)」と題された米国仮特許出願第62/549,253号の優先権及び利益を主張する。
背景
[0002] 本明細書に記載する実施形態は、リアルタイムの眼球運動追跡を脳活動追跡と統合して、人間−マシン対話の高速度及び高精度を得るように戦略的に設計されるユーザインタフェースを提示し更新する、脳−コンピュータインタフェースの実装に使用するためのシステム、装置、及び方法に関する。本明細書に記載する実施形態は、リアルタイムの視標追跡及び神経活動のオンライン分析を使用してマシンのユーザ操作を仲介する、ハードウェアに依存しない脳−コンピュータインタフェースの実装にも関する。
[0003] 脳−コンピュータインタフェース(BCI)は、結線された脳と外部装置との間の直接通信路を用いて脳活動単独でコンピュータ又は外部装置を制御できるようにするハードウェア及びソフトウェア通信システムである。BCIは、脳信号を解釈することにより動作中のマシン及びアプリケーションへのアクセスを直接提供するための支援技術として主に設計されている。BCI開発の主な目的の1つは、他者との効果的なコミュニケーションが極めて困難であり得る筋萎縮性側索硬化症、脳幹卒中、又は脊髄損傷等の神経学的な神経筋疾患によって完全に麻痺し又は「固定」された重度障害者にコミュニケーション能力を与えることである。
[0004] 脳コンピュータインタフェースの一部の既知の実装形態は、Farwell及びDonchinによって設計されたもの等のスぺラを含む。このスぺラでは、アルファベットの26文字が他の幾つかの記号及びコマンドと共に、無作為に点滅する行及び列を有する6x6行列内で画面上に表示される。ユーザは画面に注意を集中し、書こうとする文字に連続的に意識を置く一方、シグネチャ信号がないかどうか脳の神経反応がモニタされる。検出されると、シグネチャ信号はシステムが所望の記号を識別することを可能にする。このFarwell-Donchinスぺラは、健常者が1分当たり約2文字の速度でスペルすることを可能にする。
[0005] しかしBCIは、マウス及びキーボード等の従来の入出力インタフェースを必要とすることなしに、コンピュータ若しくは他のデータ処理マシン及び/又はソフトウェアアプリケーションを操作することについて、身体的に可能な人さえも支援するように設計することができる。BCIは、従来の入力制御よりもコンピュータとの直感的且つ自然な対話のためのインタフェースを提供することもできる。加えてBCIは、人間及び動物の認知体系及び/又は感覚運動体系及びそれらの機能を増強すること、修復すること、並びにマップし調査することを含む他の多くの機能を提供するように開発することもできる。BCIの一部の応用は、とりわけワードプロセッサ、適応ウェブブラウザ、脳による車椅子又は神経プロテーゼの制御、及びゲームを含む。しかし、殆どの応用は専ら訓練又はデモンストレーション目的で設計されている。
概要
[0006] 眼球運動及び脳活動を追跡してユーザの注視又は注目のリアルタイムの位置決め及び所望のアクションの選択/活性化を仲介するための、ハードウェアに依存しない統合型動眼神経ハイブリッド脳コンピュータインタフェース(BCI)プラットフォームの様々な実施形態のためのシステム、装置、及び方法を本明細書に記載する。本開示は、高速度及び高精度で動作する脳コンピュータインタフェースの需要に対処するための統合型ハイブリッドBCIシステムを提示する。
図面の簡単な説明
[0007]一実施形態による、ハイブリッド脳コンピュータインタフェースシステムの概略図である。 [0008]ビデオベースの視標追跡装置の説明図である。 [0009]ビデオベースの視標追跡装置の正面図及び背面図を示す。 [0010]例示的な神経記録ヘッドセットの説明図である。 [0011]神経脳信号を記録するためのユーザの頭皮上の電極配置位置の一例の側面図(左)及び上面図(右)を示す。 [0012]垂直の破線で示す時点において提示される非標的刺激(マゼンタ)に対立するものとしての所望の標的刺激(黒)によって誘発された事象関連電位(ERP)の差、神経活動の種類を示す脳から記録された反応の一例を示す。 [0013]刺激を区別しユーザの意図に基づいて刺激を選択し又は選択解除するための、刺激ドライバ神経活動(P300信号)の一例を使用するハイブリッドBCIシステムの一例の概略図である。 [0014](a)はユーザ選択前のユーザインタフェースの一例の説明図であり、[0014](b)はユーザ選択後のユーザインタフェースの一例の説明図であり、[0015](c)はビデオベースのアイトラッカ及び神経記録ヘッドセットによって(a)及び(b)インタフェースと対話するユーザを示す。 [0016]図5Aの(c)に示すビデオベースのアイトラッカ及び脳活動をモニタする神経記録ヘッドセットによって生成され記録された信号の例を示す。 [0016]図5Aの(c)に示すビデオベースのアイトラッカ及び脳活動をモニタする神経記録ヘッドセットによって生成され記録された信号の例を示す。 [0017]被験者が自分の決定を意識的に知覚する前でさえ所望のアクションを開始し、実施するために実装可能な高速眼球運動追跡システムの動作を示す。 [0018]一実施形態による、ハイブリッド脳コンピュータインタフェース装置の概略図である。 [0019]一実施形態による、ハイブリッド脳コンピュータインタフェース装置の動作のプロセスの一例を示す。 [0020]一実施形態による、ハイブリッドBCIシステムを使用して1組の神経記録電極から経時的に記録された1組の脳信号の一例を示す。 [0021]別の実施形態による、ハイブリッドBCIシステムを使用して経時的に記録された1組の神経脳信号の一例を示す。 [0022]一実施形態による、ユーザ選択前のユーザインタフェース(左)及びユーザ選択後のユーザインタフェース(右)の一例の事例を示す。 [0023]別の実施形態による、ユーザ選択前後の別のレイアウトをたどる別のユーザインタフェースの一例の事例を示す。 [0024]移動オブジェクトの動的なタグ付けの操作を時間に関して示すユーザインタフェースの一例の幾つかの事例を示す。 [0025]ユーザの能力及びBCIシステムの種類に基づくBCIシステムの利用空間の説明図を示す。
詳細な説明
[0026] 本明細書に記載する実施形態は、リアルタイムの眼球運動追跡を脳活動追跡と統合して、人間−マシン対話の高速度及び高精度を得るように戦略的に設計されるユーザインタフェースを提示し更新する、ハイブリッド脳−コンピュータインタフェース(BCI)の実装に使用するためのシステム、装置、及び方法に関する。本明細書に記載する実施形態は、リアルタイムの視標追跡及び神経脳信号のオンライン分析を使用してマシンのユーザ操作を仲介する、ハードウェアに依存しない脳−コンピュータインタフェースの実装にも関する。
[0027] BCI技術を患者により適したものにし、一般公衆に有用であるようにし、現実世界の作業の制御において使用されるようにするために、現在の実装と比較して自然な対話のペースに適合するように情報の転送速度を改善しなければならず、誤り率を減らさなければならず、対話インタフェースの複雑さを最低限に抑えなければならない。加えて、BCIの応用はユーザの高い認知的負荷を要求し、従って現実世界へと静かな実験室環境から離れるようにユーザインタフェースを改善する必要がある。BCIの装置及び応用をより容易且つ直感的であるように構成するために、高速度及び高精度で動作して自然な直感的プロセスによるユーザ仲介アクション選択を可能にする、脳マシンインタフェースの実装における改善された装置及び技法が求められている。
ハイブリッドBCIシステム
[0028] 本明細書で説明するように、BCIは脳活動単独でコンピュータ又は外部装置を制御できるようにするハードウェア及びソフトウェア通信システムである。ハイブリッドBCIシステムは、インタフェースによる刺激の表示、インタフェース上のユーザの注目箇所を位置決めするためのハードウェア機器、脳活動を記録し処理するための装置、及びインタフェースの制御を行うための機器を含み、インタフェースの制御はユーザの環境を制御することになり得る。これらの標準機能は(1)ポインティング制御機能、(2)アクション制御機能、及び(3)ユーザインタフェース機能として特徴付けることができる。ポインティング制御機能は、制御するための少数のマニピュレータまでユーザが絞り込むことを可能にするマウスポインタ等の従来のポインティング装置と類比で説明することができる。アクション制御機能は、ユーザがアクションによって変化をもたらすことを可能にする選択装置、例えばマウスのクリック又はキーボードのストロークと類比で説明することができる。アクションは多くのもののうちの1つ、例えばとりわけ活性化又は非活性化、ユーザインタフェースの連続的な変更(例えばスクロール)又は不連続的な開始及び停止(例えば強調表示、ホバリング等)、ピンチ、ズーム、チルト、回転、スワイプを伴うユーザインタフェースの急激な変更とすることができる。ユーザインタフェースによるアクション制御の他の一部の例は仮想キーボード制御、メニューナビゲーション、オブジェクト又は項目を配置及び配置解除するアクション、オブジェクト又は項目を移動させるアクション、オブジェクトを拡大及び/又は縮小するアクション、一人称観察者又はプレーヤの移動又はナビゲーション、観察者の視点の変更、及びグラビング、ピッキング、又はホバリング等のアクションを含み得る。アクション制御のこれらの側面の幾つかを以下で開示する。ハイブリッドBCIシステムにおけるユーザインタフェース機能は、選択メニュー、ナビゲーション制御等を提供するような他の機能に加えて、ポインティング及びアクション制御機能を実装する環境を作成し維持するオペレーティングシステムと類比で説明することができる。
[0029] 本明細書に記載のハイブリッドBCIシステムの一部の実施形態では、ユーザの注目箇所を識別するためのポインティング制御機能及び方法は視標追跡装置を含み得る。一部の実施形態では、ユーザの意図を識別するためのアクション制御機能及び方法は脳内の神経信号をモニタする任意の適切な形態を含み得る。かかる形態は、例えば電気的方法又は光学的方法による脳撮像を含み得る。例えば一部の実施形態では、ハイブリッドBCIシステムは、ユーザの脳信号をBCIコマンドに変換する増幅器及びプロセッサを介して伝えられる脳活動の神経信号を記録する電極を使用することができる。一部の実施形態では、ハイブリッドBCIシステムは脳活動に基づくマシン制御を実装する洗練されたユーザインタフェースを実装することができる。以下で詳細に説明するように、ハイブリッドBCIシステムとの人間の対話の高速度及び高精度を実現するためにこれらの特徴の1つ又は複数に対する特定の適応を実装することができる。
[0030] 図1は、一実施形態によるハイブリッド脳コンピュータインタフェースシステム100の概略図である。このハイブリッド脳コンピュータインタフェースシステム100(本明細書では「ハイブリッドBCIシステム」又は「BCIシステム」又は「システム」とも呼ぶ)の一例は、ビデオベースのアイトラッカ102と、ユーザの脳の1つ又は複数の制御信号を記録するための神経記録ヘッドセット104とを含む統合型動眼神経ハイブリッドBCIシステムである。制御信号は、脳波記録(EEG)、皮質脳波記録(ECoG)、又は脳磁気図記録(MEG)等の任意の適切な手法によって記録される神経活動の任意の形式であり得る。神経活動の形式の例は、事象関連電位(ERP)、運動心像、視覚誘発電位(VEP)、脳状態依存信号等を含む。このハイブリッドBCIシステム100の一例は、脳−コンピュータインタフェース装置110、及び任意選択的に視聴覚ディスプレイ106も含む。
[0031] ハイブリッドBCIシステム100の一部の実施形態では、ビデオベースのアイトラッカ102からユーザの注目箇所を決定することができ(即ちポインティング制御機能)、神経脳活動データを収集するために神経記録ヘッドセット104を使用することができる(即ちアクション制御機能)。収集された神経及び視標追跡データは、どの刺激が提示されたのかに関するデータと共にアンサンブルとして信号を処理する脳−コンピュータインタフェース装置110に伝達することができる。組み合わせられた情報により、脳−コンピュータインタフェース装置110は、統計モデルに基づいて関連する信号特徴を検出してユーザの意図を予測することができる。この予測された意図は、例えばディスプレイ106によって提示されるユーザインタフェースによってユーザに伝達することができ、作用され得る。
ビデオベースの視標追跡−ポインティング制御機能
[0032] 一部の実施形態では、ビデオベースのアイトラッカ102は、2次元空間又は3次元空間内のユーザの眼球運動を素早くたどることにより、ユーザの視野内のどこをユーザが見ているのかを決定するために使用することができる。例えばユーザが自らの眼球運動の随意調節を有するという条件で、ビデオベースアイトレーサ102を使用して、ユーザの目がユーザの視野内のどの部分空間を「指しているのか」を決定することができる。換言すれば、ビデオベースのアイトラッカ102は、ポインティング制御機能としてユーザの眼球運動の軌跡を使用することができ、被験者の意図及び挙動に関する重要な情報を明らかにする。一部の実施形態では、ユーザが視覚空間内のどこに注目しているのか、どの刺激に注目しているのか、又はどの刺激に反応したのかの側面がBCIシステム100内で効果的に使用され得る。
[0033] 一部の実施形態では、ビデオベースのアイトラッカ102は、ユーザの目を撮像するための頭部装着型の視標追跡ビデオカメラを使用することにより、ユーザの瞳孔及び照明源の表面角膜反射(CR)を追跡することに依拠する。これらの2つの特徴間の位置差を使用して観察者の視線方向を決定することができる。ビデオベースのアイトラッカ102として使用可能な頭部装着型の視標追跡装置の一部の例を図2A及び図2Bに示し、それらは数ある商業的なベンダの中でSenseMotoric Instruments、Tobii Eye Tracking、及びPupil-labsから入手可能である。例えば図2Bの説明図は、左右のアイカメラが示されているビデオベースのアイトラッカの正面図及び背面図を示す。これらのカメラは有線接続又は無線接続によって互いに接続され得る。ビデオベースのアイトラッカは、使用の視野を捕捉する追加のシーンカメラを含むこともできる。
[0034] 一部の実施形態では、ビデオベースのアイトラッカ102は瞳孔の画像と照明源の角膜反射とを同時に記録する。ビデオベースのアイトラッカ102は、虹彩によって最適に反射され且つ人間には見えず、そのためユーザを妨げず又はユーザの気を散らさない近赤外(IR)照明源を使用することができる。強いIR反射率は、瞳孔の検出に特に有益な高コントラスト画像をもたらす。一部の実施形態では、ビデオベースのアイトラッカ102は、平行光線が遠方の照明源から放射され光学部品によってコリメートされる、コリメートされた遠距離光源を使用することができる。一部の実施形態では、ビデオベースのアイトラッカ102は目を照らすためにコリメートされていない近光源を使用することができ、これにより照明源は目から有限距離(典型的には50mm以下)に取り付けられ、光源と目との間には光線をコリメートするための光学部品はない。
[0035] 本明細書で説明するように、ビデオベースのアイトラッカ102は目から反射される光を利用し、その光はビデオカメラ又はこの用途のために特別に設計される他の任意の適切な光学センサによって検知される。次いで、検知した光を分析して反射の変化から眼球回転を抽出する。一部の実施形態では、ビデオベースのアイトラッカ102は、経時的に追跡するための特徴として角膜反射(即ち第1のプルキンエ像)及び瞳孔の中心を使用することができる。一部の実施形態では、ビデオベースのアイトラッカ102は、より敏感な手法で眼球運動を追跡するための特徴として、角膜の前方からの反射(即ち第1のプルキンエ像)及びレンズの裏側からの反射(即ち第4のプルキンエ像)を使用することができる。一部の実施形態では、ビデオベースのアイトラッカ102は、例えば網膜血管等の眼球内の特徴を撮像すること、及び眼球が回転するときのこれらの特徴の動きをたどることによって一層敏感な追跡方法を使用することができる。
[0036] 一部の実施形態では、ビデオベースのアイトラッカ102は、以下で説明するような統合型ディスプレイを含むことができる。ディスプレイ106に統合されるビデオベースのアイトラッカ102は、仮想現実空間を見るように構成されるシステムであり得る。一部の実施形態では、ディスプレイ106に統合されるビデオベースのアイトラッカ102が拡張現実空間を見るように構成され得る。
脳信号の神経記録−アクション制御機能
[0037] 任意のBCIシステムの要は、脳信号をアクション制御機能にする、制御信号として使用可能な脳信号である。モニタされる脳活動の主な種類の1つである電気生理学的活動が、ニューロン間で情報を交換する電気化学送信機によって生成される。ニューロンは、神経細胞群の中及び神経細胞群を横断して流れるイオン電流を発生させる。多種多様な電流経路は、樹状幹を介してソースからシンクに電流を伝える双極子として単純化することができる。これらの細胞内電流は一次電流として知られている。電荷の保存は、一次電流が二次電流として知られる細胞外電流によってエンクローズされることを指示する。
[0038] 本明細書で説明するように、神経記録ヘッドセット104は、脳信号を使用して脳活動を測定する記録段階によってユーザの意図に関する情報を集め、その情報をコマンドに変換可能な扱い易い電気信号に変換する。一部の実施形態では、神経記録ヘッドセット104は、時間分解能が高く、セットアップ及びメンテナンスのコストが低く、携帯性が高く、ユーザに対して非侵襲的な脳波記録(EEG)によって電気生理学的活動を記録するように構成され得る。神経記録ヘッドセット104は、異なる脳領域から脳波記録信号を取得するセンサを有する1組の電極を含む。これらのセンサは、ニューロン内の樹状突起のシナプス興奮中の電流の流れによって引き起こされる電気神経活動を測定し、二次電流の影響に極めて敏感である。神経信号は、神経記録ヘッドセット104内に適切に配置され、ユーザの頭皮上に配置される電極によって記録される。神経記録ヘッドセット104の一実施形態の説明図の一例を図3Aに示し、同様の神経記録ヘッドセットは数ある商業的なベンダの中でBiosemi、Wearable Sensing、及びG.Tecから入手可能である。
[0039] 一部の実施形態では、神経記録ヘッドセット104は電極、増幅器、A/D変換器、及び記録装置を含むことができる。一部の実施形態では、神経記録ヘッドセット104上の電極が頭皮から信号を取得することができ、増幅器がアナログ信号を強めて神経信号の振幅を大きくすることができる。一部の実施形態では、神経記録ヘッドセット104内に配置される1つ又は複数の電極が増幅器、A/D変換器、及び各電極からの信号を記憶するための1つ又は複数の記録装置に直接接続され得る。一部の実施形態では、これらの構成要素が神経記録ヘッドセット104内に収容され得る。一部の実施形態では、神経記録ヘッドセット104内で即時信号増幅しか行うことができず、A/D変換及び記録等の他のプロセスは信号をB−Cインテグレーティング装置110に転送した後で実行することができる。
[0040] 一部の実施形態では、神経記録ヘッドセット104上の電極は、一般に採用されておりアメリカ脳波学会(American Electroencephalographic Society)によって標準化されているInternational 10-20システムに基づいて頭皮上に配置されるように構成され得る。図3Bは、このシステムによる電極の配置の説明図の一例を示す。この10-20システムは、電極の位置を定めるために頭部上の2つの基準点を使用する。これらの基準点の1つは、目と同じレベルで鼻の上部に位置する鼻根点である。もう一方の基準点は、頭蓋骨の基部の骨の塊に見られる外後頭隆起点である。横断面及び正中面がこれらの2つの点から頭蓋骨を分ける。電極位置は、これらの面を10%及び20%の間隔で印付けすることによって決定される。各位置における文字はAが耳垂、Cが中央領域、Pgが鼻咽頭、Pが頭頂部、Fが前頭部、Fpが前頭極、Oが後頭部を表すように特定の脳領域に対応する。図3Cは、神経記録ヘッドセット104を使用して記録された、刺激駆動「神経活動」と一般に呼ばれる刺激後の1組の脳反応の一例を示す。神経信号は、活性電極(信号電極とも呼ばれる)と基準電極との間の電位差として経時的に測定される。一部の実施形態では、接地電極として知られる第3の電極を使用して活性電極と基準電極との間の差動電圧を測定することができる。一部の実施形態では、神経記録ヘッドセット104が1つ又は複数の活性電極と、1つ又は複数の基準電極と、1つの接地電極とを含むことができる。一部の実施形態では、神経記録ヘッドセット104が、少数の7個の活性電極を含むことができる。一部の実施形態では、神経記録ヘッドセットが最大128個又は256個の活性電極を含むことができる。電極は塩化銀(AgCl)又は他の任意の適切な材料で作ることができる。電極は、正確な信号を記録するために電極−頭皮の接触インピーダンスを適切に調整することができるように構成され得る。電極−組織の界面は抵抗性であり得るだけでなく容量性の場合があり、従って低域通過フィルタとして振る舞う。インピーダンスは、界面層、電極表面積、及び温度等の幾つかの要因に依存する。
[0041] ユーザの頭皮を横断して非侵襲的に記録される神経信号は、頭皮、頭蓋骨、及び他の多くの層を交差しなければならず、かかる交差は神経信号を弱くし、取得しにくくする場合がある。神経信号は、脳内で又は頭皮の外部で発生する背景雑音の影響を受けることもあり、かかる雑音は記録済みの信号から有意味の情報を抽出する能力に影響を及ぼし得る。神経記録ヘッドセット104を含むシステム100の実施形態は、神経信号の取得を改善するために幾つかの適応を組み込むことができる。例えばゲル(即ち導電性ゲル)を使用して皮膚と各電極との間に導電経路を作り出し、インピーダンスを減少させることができる。一部の実施形態では、神経記録ヘッドセット104がゲルの使用を必要としない「ドライ」電極を含むことができ、かかるドライ電極はチタン及びステンレス鋼等の他の材料で作られ得る。一部の実施形態では、神経記録ヘッドセット104が、非常に高い電極/皮膚界面インピーダンスに対応するための前置増幅回路を有するドライ活性電極を含み得る。一部の実施形態では、神経記録ヘッドセット104が、能動回路を一切有さないが、超高入力インピーダンスで構成される神経記録システムにリンクされ得るドライ受動電極を含むことができる。
[0042] 電気的な生体信号の振幅は、典型的にはマイクロボルトのオーダである。その結果、信号は電子雑音に非常に敏感である。一部の実施形態では、BCIシステム100が、とりわけ電磁干渉遮蔽又は同相信号の低減等の適応により雑音の影響を低減するように設計され得る。
ユーザインタフェースの表示及び提示
[0043] 本明細書で説明するように、ハイブリッドBCIシステム100内のユーザインタフェースは、ユーザ(例えばユーザの脳、目等)とBCインタフェース装置110との間の通信のリンクとして機能し、ユーザがポインティング制御機能によって特定の刺激に注目しそれを指示し、アクション制御機能を使用して特定の刺激を選択し又は選択解除することを可能にする。戦略的に設計されたユーザインタフェースは任意の様式によって、最も一般的には視覚モードによってユーザに刺激を提示するプロセスを含む。例えばユーザインタフェースは、視覚刺激、聴覚刺激、触覚刺激、又は前庭刺激をユーザに提示するように構成され得る。一部の実施形態では、図1に示すディスプレイ106等のディスプレイ上に視覚刺激を提示するユーザインタフェースをレンダリングすることができる。
[0044] 一部の実施形態では、ディスプレイ106は、ハイブリッドBCIシステム100の残りの部分と接続されデータ通信することができる別個の独立型視聴覚ディスプレイユニットとすることができる。つまりオーディオシステム(例えばスピーカ又はヘッドフォン)を備える独立型ディスプレイ(例えば液晶ディスプレイ)は、ハイブリッドBCIシステム100の他の構成要素、例えばBCインタフェース装置110、ビデオベースのアイトラッカ102、及び神経記録ヘッドセット104のうちの1つ又は複数と双方向通信することができる。一部の実施形態では、ディスプレイ106がアイグラス領域の一部であるようにビデオベースのアイトラッカ102に統合され得る。統合されるビデオベースのアイトラッカ102及びディスプレイ106は、ディスプレイ106上に提示されるユーザインタフェース形式で仮想現実空間を見るように構成され得る。一部の実施形態では、統合されるビデオベースのアイトラッカ102及びディスプレイ106は、ディスプレイ106が半透明のアイグラス領域上にあり、ユーザが拡張現実空間を見ることを可能にするように構成することができる。つまりユーザは、ユーザが対話可能なユーザインタフェースをユーザに提示する統合型ディスプレイ106でもある半透明のアイグラス領域によって現実世界を見ることができる。
脳−コンピュータインタフェース装置
[0045] 一部の実施形態では、BCインタフェース装置110が3つの主要な機能を達成するように構成され得る。第1に、BCインタフェース装置110は、戦略的に設計されたユーザインタフェースを生成するように構成することができる。例えば、戦略的に設計されたユーザインタフェースは訓練セッション用又は試験セッション用であり得る。一部の実施形態では、ユーザインタフェースは仮想現実インタフェース及び/又は拡張現実インタフェースとして設計され得る。一部の実施形態では、ユーザインタフェースは例えば特定のユーザの履歴、反応時間、ユーザ選択等の特定のニーズについて調整することができる。第2に、ユーザインタフェースの設計及び生成に加えて、BCインタフェース装置110は(例えばビデオベースのアイトラッカ102からの)ポインティング制御信号及び(例えば神経記録ヘッドセット104からの)アクション制御信号を受信し、それらの信号をアンサンブルとして処理してユーザの意図を決定するように構成することができる。最後にBCインタフェース装置110は、(1)神経信号から有意味の特徴を検出すること、及び(2)ユーザの意図に応じて指示されている刺激の変更を実施することにより、ポインティング制御機能及びアクション制御機能を実装するように構成することができる。一部の実施形態では、BCインタフェース装置110は、例えば視覚的な様式以外の様式で機能する周辺センサ及びアクチュエータ等、ハイブリッドBCIシステム100の一部であり得る他の周辺装置に接続することもできる。かかる周辺センサは、オーディオマイクロホン、触覚センサ、加速度計、角度計等を含むことができ、周辺アクチュエータはオーディオスピーカ、触覚刺激プロバイダ等を含むことができる。
[0046] 一部の実施形態では、BCインタフェース装置110は、1つ又は複数のデータ通信ポートを介してビデオベースのアイトラッカ102、神経記録ヘッドセット104、及び任意選択的な視聴覚ディスプレイ106との間で信号を送受信する入出力ユニット140を含むことができる。信号の転送は有線接続によって、又はBluetooth等の任意の適切な通信チャネルによって無線で行うこともできる。入出力ユニット140の機能は、信号の取得、信号の前処理、及び/又は信号の増強等の幾つかの手続きを含むことができる。取得及び/又は前処理された信号は、BCインタフェース装置110内のプロセッサ120に送ることができる。一部の実施形態では、プロセッサ120及びその下位要素(不図示)は、入力データを処理し、メモリ160との間でデータをやり取りし、ディスプレイ106上に又はビデオベースのアイトラッカ102に統合されたディスプレイ上にレンダリング可能なユーザインタフェースを構築し維持する機能を実行するように構成され得る。一部の実施形態では、プロセッサ120及びその下位要素は、脳信号のユーザ固有の解釈を可能にするのに必要な機能を実行し、外部装置に中継されるように入出力ユニット140への出力信号をパッケージ化するように構成され得る。プロセッサ120及びその下位要素の他の機能は、特徴抽出、分類、及び制御インタフェースの操作等の幾つかの手続きを含むことができる。
ハイブリッドBCIシステムにおける制御信号
[0047] 本明細書で説明するように、ハイブリッドBCIシステム100の目的は、脳活動をモニタし、アクション制御機能として使用可能な制御信号を見つけることによってユーザの意図を解釈することである。ユーザの意図の形成は、認知的作業として表すことができる。図1に示す統合型ハイブリッドBCIシステム100は、ユーザによって行われる認知的作業によって同時に誘発され又はかかる認知的作業に関係する幾つかのシグネチャ脳信号のうちの1つを使用することができる。これらの脳信号の一部は、人がそれらを自在に変調できるようになり得るやり方で復号することができる。制御信号と見なされるこれらの信号を使用することは、ハイブリッドBCIシステム100がユーザの意図を解釈することを可能にし得る。従ってハイブリッドBCIシステム100は、脳からの制御信号を記録及び使用し、脳とコンピュータとの間のインタフェースを制御するアクション制御機能としてそれらを使用することができる。任意の適切な神経活動が、アクション制御機能を実装するために使用される制御信号であり得る。時間に関する神経活動の一部の例は、事象関連電位(ERP)、誘発電位(EP、例えば視覚誘発電位(VEP)、聴覚誘発電位、感覚誘発電位、運動誘発電位)、運動心像信号、緩徐皮質電位、脳状態依存信号、及び様々な認知的作業又は感覚運動作業の基礎を成す他の未発見のシグネチャ活動電位を含む。
[0048] 神経活動の形式の一例として、事象関連電位即ちERPは、時間的に相関する事象又は刺激提示に関係するシグネチャ神経活動であり得る。ERPは、その検出及び識別を助ける独特な形状及び特徴(トリガ刺激から約300msでピークに達することが知られているP300信号等)を有することができる。ERPは様々な脳領域にわたって程度及び形状に違いがある場合もあり、ERPが脳領域間をどのようにマップするのかは特定の脳機能及び/又はユーザ意図を示し得る。神経記録ヘッドセットから取得される神経活動データは特定のERP信号について分析することができ、適切に検出され分類されると、BCI装置110はユーザインタフェースの所望の部分上に検出済みのERPに関連する任意の特定のアクションを実装することができる。
[0049] 制御信号の別の例は、随意運動又は不随意運動の基礎を成す精神的な認知プロセスをユーザが経験することに関連する神経活動信号である運動心像信号の形式であり得る。つまり運動心像信号は、ユーザがアクションを想像し及び/又はアクションを行う間、様々な脳領域から記録され、BCIシステム100によって分析され得る脳信号である。ユーザが身体の動き又はジェスチャを行うことが期待される実施形態では、BCIシステムは訓練セッション中に高精細度でジェスチャを認識するのを助けるために、角度計、捻転計、加速度計等のBCI装置110に結合される1組の周辺センサによって収集される情報を使用することもできる。他の一部の実施形態では、運動心像信号を誘発する1組の動きを想像すれば十分であり得るので、(例えばユーザの1組の動きとその動きによって誘発される1組の運動心像信号との間の関連性をBCIシステムが学習することが認められる訓練セッションの後)身体的な動きをユーザが行うことが要求されない場合がある。
[0050] 制御信号の更に別の例は、脳状態信号又は脳状態依存信号の形式にあり得る。例えばBCIシステムを使用して、ユーザの脳の特定の注意状態又は知覚状態に関連するEEG信号のパターン又は頭皮トポグラフィを検出することができる。BCIシステムによって使用可能な神経活動は周波数領域とすることもできる。数ある中でも一部の例は、感覚運動律動、事象関連スペクトル摂動(ERSP)、デルタ、シータ、アルファ、ベータ、ガンマ、又はミュー律動等の特定の信号周波数帯域を含む。一例であるP300誘発電位を以下で説明する。
P300信号
[0051] P300誘発電位は、低頻度の聴覚刺激、視覚刺激、又は体性感覚刺激による神経信号における正のピークである。P300信号は、刺激文脈並びに注意及び覚醒レベルの処理に依存する「内因性」脳信号である。何らかの特定の理論に束縛されることを意図するものではないが、P300は、適切な反応を行うために環境のメンタルモデルを変更するのに必要なメカニズムの神経シグネチャだと広く考えられている。従ってP300信号は、注意及びワーキングメモリ等の認知プロセスの重要なシグネチャである。有利には、P300に基づくBCIの使用は訓練を必要としない。
[0052] 内因性のP300反応は、統計的に異常な刺激又は幾つかの頻繁な刺激のうちのオドボール刺激として知られている刺激に対応してから約300ms(900msまで)で誘発される。P300信号は、幾つかの脳領域にわたって位置することができ、幾つかの脳プロセスを示し得る。視覚標的を用いて制御された作業を行う被験者に関連する脳活動の記録は、特定の刺激に関連するこれらの一貫したシグネチャ信号の発生を示している。標的に関係する反応は脳の頭頂葉皮質及び帯状束領域において発生することができ、新奇性に関係する活性化は下頭頂葉及び前頭前野において主に生じ得る。刺激の様式に固有の寄与は、視覚的な様式では下側頭皮質及び上頭頂皮質から生じ、聴覚的な様式では上側頭皮質から生じる。
[0053] この大きな(>10μVの)陽性波は、次の刺激の性質について確信がないとき参加者に生じ得る。P300は、一連の頻繁な無関係の「非標的」又は「標準」刺激の中で不定期の関連(「標的」)刺激を検出しなければならない「オドボール」パラダイムに一般に関連する。特定の刺激を他の刺激と区別する特定の刺激の関連性を明らかにするために、及びその刺激に注目したときにユーザの意図を明らかにするために、ハイブリッドBCIシステム100はP300信号等の任意の神経活動を使用することができる。
[0054] システム100の一例の神経記録ヘッドセット104の一例を使用して記録された、別の非標的刺激が提示された場合の特徴的信号の欠如(マゼンタ)と比較した、特定の標的刺激によって誘発されたP300信号(黒線)の一例を図3Cに示す。システム100のユーザインタフェースの一例によって提示されるオドボールパラダイムは、刺激の様式(視覚、聴覚、体性感覚)又は反応の様式(ボタンの押下、カウント)に関係なく、標準刺激と比較し、標的に対する頭頂中心部頭皮の分布(parietocentral scalp distribution)と共にP300反応を確実にもたらすことができる。P300反応は、この成分の内因性の性質を際立たせる、一連の規則的な刺激が刺激欠落によって中断されるときにも観測され得る。
[0055] P300の振幅は、標的刺激のより低い確率及びより高い識別性と共に大きくなり得る。標的刺激の開始に対するP300信号の潜時は、標的刺激を標準刺激と区別するのがより困難なとき増加し得るが、他の理由で反応時間が長くなるときは増加しない可能性がある。このようにP300の潜時は、反応の選択及び実行と刺激評価の精神時間測定を区別するための魅力的なツールである。P300信号の発生及び特定の刺激とのその関連性は、P300誘発刺激を非誘発刺激に優先して選択するためのアクション制御機能としてシステム100によって利用され得る。
[0056] 図4Aは、一実施形態による、ハイブリッドBCIシステム100の動作中に神経活動がアクション制御機能としてどのように使用され得るのかの一事例の流れ図を示す。一部の実施形態では、P300信号は、第1の刺激を第2の刺激と(変化又は差異として)区別することによってユーザの意図を決定し、ユーザの意図に作用して或る刺激を別の刺激に優先して選択するために使用される神経活動であり得る。記録された反応内のP300信号の有無は、選択を行うために使用することができる。
[0057] 一部の実施形態では、ハイブリッドBCIシステム100は、ユーザインタフェースによってディスプレイ106上の様々な刺激の提示を操作し、刺激提示後の幾つかの脳領域にわたる記録済みの脳信号に基づいてユーザの意図を決定するために使用することができる。神経活動は様々な脳領域にわたって形状及び程度に違いがあり得る。例えば頭頂中心部のP300又はP3bは、注意が払われる作業関連逸脱刺激、作業に無関係だが、前頭骨中心部の頭皮トポグラフィを有する僅かに早い陽性波を標的が誘発するよりも顕著な逸脱刺激によって誘発される。この新奇P300又はP3a成分は、一連の反復される標準事象及び標的事象内に独特且つ極めて顕著な(「新奇」)刺激を挿入することによって誘発され得る(例えば一連の単純な幾何学的図形内の視覚的なフラクタル)。しかし同様のP3a成分は、困難な標的/標準区別を使用するパラダイムにおいて、極めて相違した繰り返しのディストラクタによっても誘発され得る。
VEP信号
[0058] 視覚誘発電位(VEP)信号は、視覚刺激を受けた後に視覚皮質において生じる脳活動変調である。これらの変調は、刺激が中心視野に近づくときのVEPの大きな振幅により検出が比較的容易である。本明細書で開示するハイブリッドBCIシステム100では、ポインティング制御機能を可能にするための統合型の手法を採用するためにVEPを視標追跡入力と組み合わせて使用することができる。
[0059] VEPは、一過性VEP(TVEP)及び定常状態VEP(SSVEP)として分類することができる。TVEPは視覚刺激の周波数が6Hz未満であるとき発生するのに対し、SSVEPはそれよりも高い周波数の刺激に反応して発生する。TVEPは視野内の任意の変化、例えば点滅光、オン若しくはオフにされるパターン、又はそのコントラストが急に反転されるパターンによって誘発され得る。TVEPは提示される刺激と共に変化し、BCIシステムでは殆ど使用されない。
[0060] BCIシステムでより一般的に使用されるSSVEPは、6Hzを超える周波数で変化する視覚刺激によって誘発される。刺激が点滅である場合、SSVEPは正弦波状の波形を示し、その基本周波数は刺激の点滅周波数と同じである。刺激がパターンである場合、SSVEPはリバーサルレート(reversal rate)及びその高調波で発生する。TVEPとは対照的に、SSVEPの構成離散周波数成分は長期間にわたって振幅及び位相の点で厳密に一定のままである。SSVEPは、瞬き及び眼球運動によって生成されるアーティファクト及び筋電図の雑音混入の影響をTVEPよりも受けない。
ハイブリッドBCIシステム:統合型の手法
[0061] 本明細書に記載の通り、ポインティング制御機能を使用可能にし、アクション制御機能を使用可能にするための制御信号として神経活動(例えばERP、又は感覚運動信号、運動心像信号、脳状態信号等)を使用できるようにするために、ビデオベースの視標追跡をVEP若しくはERP形式の神経活動又は他の形式の神経活動と組み合わせて使用することができる。BCインタフェース装置110は、統合信号をアンサンブルとして処理するように構成することができる。一部の実施形態では、ユーザの注視点を特定するための統合型のハイブリッド手法を得るために、ハイブリッドBCIシステム100は、ビデオベースのアイトラッカ102からの視標追跡信号に加えて神経記録ヘッドセット104からのSSVEP信号を使用することができる。つまり一部の実施形態では、ビデオベースのアイトラッカ102を使用し、眼筋の動きを伝える動眼データによって任意の適切な形式の眼球運動情報、例えば衝動性、中心固視、及び/又は瞳孔拡張情報、並びに中心固視情報を検出することができる。衝動性眼球位置に関する情報は神経記録ヘッドセット104から取得される神経活動、例えば視覚反応によって誘発されるERPから間接的に得ることもできる。例えばハイブリッドBCIシステム100は、因果関係を形成するためにERPの発生を時間及び空間における特定の刺激の提示と相関させるように構成され得る。従ってビデオベースのアイトラッカ102からの動眼データは、視覚誘発神経活動からのデータ及びディスプレイによって与えられるユーザインタフェース内の刺激の戦略的な提示と組み合わせることができる。
[0062] 眼球運動を追跡するための統合型のハイブリッド手法は、注視を決定するために提供される情報内でビデオベースのアイトラッカ102からの信号と視覚誘発神経活動とが互いを補完しながら、ポインティング制御機能としてユーザが自身の視線方向の随意運動によって標的を素早く選択することを可能にする。ユーザは標的への注意を視覚的に固定し、BCインタフェース装置110は、神経活動の特徴分析及びビデオベースのアイトラッカ信号の特徴分析によって標的を識別することができる。特にハイブリッドBCIシステム100では、ビデオベースのアイトラッカ102及び神経記録ヘッドセット104からの信号が、信号源ごとに適切な重み付けを伴ってBCインタフェース装置110によってアンサンブルとして分析される。
[0063] 例えばハイブリッドBCIシステム100は、神経記録ヘッドセット104によって記録される、ユーザによって望まれ得る特定の刺激によって誘発される視覚誘発神経活動を利用することができる。ビジュアルディスプレイ(例えばディスプレイ106)上に提示されるユーザインタフェースは、記号又はコマンドの行列を特定の配置で含むことができる。例えば記号は行及び列内に配置することができ、この行列の行又は列は神経信号をモニタしながら無作為に点滅させることができる。ユーザが所望の記号を注視すると、所望の記号を含む行又は列が点滅するときだけ神経活動を誘発され得る。ハイブリッドBCIシステム100は、三角測量によって測量しユーザにとって望ましい標的記号を素早く特定し決定するために、ビデオベースのアイトラッカ102からのデータ(即ち眼球運動データ)及び神経記録ヘッドセット104からのデータ(即ち刺激提示データ)を使用することができる。
[0064] ハイブリッドBCIシステム100は、所望の標的刺激を決定するためにアンサンブル処理技法を使用することができる。アンサンブル処理技法は、眼球位置、刺激提示、視覚反応に関連する神経活動及び脳信号を含む、利用可能な1つ又は複数の情報源からの信号を適切に重み付けすることによって同時に処理することができる。所望の標的記号を特定し決定すると、ハイブリッドBCIシステム100は記録済みの神経活動(例えばP300信号)を使用してアクション制御機能を実装することができる。
[0065] 例えばハイブリッドBCIシステム100の他の一部の実施形態では、1つ又は複数のモードの下で動作し、アクション制御機能は、神経活動が誘発される時点における眼球位置の位置にかかわらず、その時点における刺激提示にのみに基づいて刺激を選択するように実装され得る。このモードでは、アンサンブル処理中に刺激提示情報を優先するように信号の重み付けを歪めることができる。
[0066] 或いは一部の実施形態では、アクション制御機能が1つ又は複数のモードで実施されてもよく、ハイブリッドBCIシステムは神経活動が検出される時点において(適切なユーザ反応時間及び反応遅延を考慮して)ユーザが注視している可能性がある任意の特徴を選択する。従って、どの刺激が神経活動を誘発させた可能性があるのかにかかわらず、神経活動が検出されるときにユーザの注視が通過する任意の記号又は刺激が選択される。この機能は、アンサンブル処理中にどの刺激を選択するのかを決定するために、眼球位置信号を優先するように重み付けを変えることによって実装され得る。ハイブリッドBCIシステム100の実施形態は、上記で提示した両方のシナリオ、並びに使用される様々な信号、例えば眼球位置信号、刺激提示情報(刺激の特性、提示の時空間的側面、提示の順序等を含む)及び記録される神経活動に与えられる重み付けを適切に変更することによってそれらのモードの例の間で同じく動作し得る他の中間モードが可能な動作モードを含み得る。ハイブリッドBCIシステム100は、ユーザの目の生体モデル、特定の刺激によって生成される特定の神経活動の過去の情報又はリアルタイムで集められる)累積情報に基づく尤度推定を含む他の情報源を使用することもできる。
[0067] 一部の実施形態では、ユーザの選択を複数回サンプリングするために、配置された記号を異なる組み合わせで数回点滅させることができる。それぞれの組み合わせからの信号を平均して、正しい記号を検出する精度を改善することができる。視覚的記号は聴覚刺激又は触覚刺激等の他の様式の刺激を伴い得る。
[0068] BCIシステムでは概して試行の反復が面倒な場合があり、P300等の神経活動信号を用いた選択のプロセスを遅くすることがある。しかし、反復を減らすことは選択の精度を下げるリスクをおかす可能性がある。本明細書に記載のハイブリッドBCIシステム100では、以下で説明するような洗練された分類器を用いることにより、反復試行の数を少なく維持しながら神経活動に基づく選択の精度を改善することができる。刺激提示の特性(例えば視覚的記号の表示)を最適化することにより、及び刺激の適切な特性(例えば記号の寸法又は色、その配置等)を選択し変更することにより、視覚誘発神経活動の検出精度及び全般的なユーザエクスペリエンスを改善することもできる。エクスペリエンスは、挙動を予測するためにユーザからの特定のフィードバックを使用するようにユーザインタフェースを構成することによって改善することもできる。
[0069] 神経記録ヘッドセット104からの神経活動に加えてビデオベースのアイトラッカ102を使用する利点の1つは、ロバストな信号取得を維持しながら眼球運動を非常に迅速に分析できることである。洗練された分析ルーチンを実施することにより、ユーザの注視位置及び注目位置をリアルタイムで処理することができる。更にビデオベースのアイトラッカ102は、神経記録ヘッドセット104によって記録される神経活動と同じ雑音源の影響を受けない可能性がある。本明細書に記載の統合型の手法において神経活動並びにビデオベースのアイトラッカ信号の両方を使用して眼球運動を処理することは、望ましい高速且つ高精度のインタフェースに適したよりロバストな信号を提供することができる。この構成では、一方のチャネルが他方のチャネルの弱点を補償することができる。更に、両方のデータセットをアンサンブルとして処理する手法は、ユーザの履歴及びナビゲートされるインタフェースの特定の詳細等の他のパラメータに従って個々の信号に適切に重み付けすることを可能にする。
[0070] 一部の実施形態では、動眼反応を使用して刺激提示の順序を変更することができる。視覚誘発神経活動は、高精度の眼球運動検出を有しながら刺激の反復的な点滅を必要とする。そのような点滅はユーザエクスペリエンスに不快な影響を及ぼす可能性がある。これを回避するために、ハイブリッドBCIシステム100は、例えば動眼情報からユーザの注目の象限を推定し、ディスプレイのその象限に点滅させる必要がある視覚刺激の数を減らし又は制限することができる。従ってディスプレイの小区分の点滅はサッカードにリンクすることができ、その位置へのサッカード後にのみ点滅をトリガすることができる。
ハイブリッドBCIシステムとのユーザ対話
[0071] 図5A〜図5Dは、一実施形態による、ハイブリッドBCIシステム100とのユーザの対話を示す。この例ではハイブリッドBCIシステム100が2段階プロセスで単語をスペルするために使用されており、図5Aの(a)ではディスプレイ106が字(例えばキーボード上で一般に見つかる文字、数字、及び記号)の幾つかのサブグループを提示する。図5Aの(c)に示すように、ユーザはビデオベースのアイトラッカ102及び神経記録ヘッドセット104を着用する。ユーザが所望の文字を含むサブグループ(例えば図5Aの(a)の中の強調表示した円によって示すサブグループ)に注視を集中させると、ディスプレイ106内で提示されるユーザインタフェースは、注目されたサブグループが拡大されている図5Aの(b)に示すユーザインタフェースに変わる。ユーザは、そのサブグループ内の所望の特定の文字に自分の注視を集中させることによって文字を選択するアクションを行うことができる。次いで、単語又は文を形成する際に使用される文字の選択を行うために記録される神経活動を使用することによってアクション制御機能が実施される。
[0072] 図5Aの(a)及び(b)に関して上記で説明したポインティング制御機能は、図5Aの(c)に示すビデオベースのアイトラッカ102を用いて実施される。ビデオベースのアイトラッカ102は、ユーザが何処に自分の注視を集中させているのかを検出し、例えば図5Bに示すような信号を出力するように構成される。アクション制御機能(即ち活性化)は、図5Aの(c)に示す神経記録ヘッドセット104を用いて実装される。神経記録ヘッドセット104は、ユーザの脳からの神経信号を記録し、例えば図5Cに示すような信号を出力するように構成される。次いでプロセッサ(不図示)が、視標追跡信号(図5B)及び神経信号(図5C)から有意味の特徴をアンサンブルとして抽出し、教師なし及び/又は半教師付きのやり方で又は各々のユーザとの厳しい訓練によって構築される事前モデルに基づいて信号を分類することによってそれらを分析することができる。分析されるデータは、ユーザの注目箇所及び/又は注目が予測される記号の選択若しくは活性化等のユーザ挙動を予測するために使用され得る。
[0073] 図5Dは、ビデオベースの視標追跡をたどる時間に関する事象の流れの一例を示す。一部の実施形態では、図5Dの例に示すように、ユーザによる自己運動の意識的知覚の前でさえ、ハイブリッドBCIシステムによって衝動性眼球運動を検出することができる。つまり眼球運動は、ユーザの意識的な決断の直後に更にはその前に発生するときオンラインで検出され得る。例えばユーザは、図5Aの(a)に示す或る文字のグループに注目することができ、別のグループへの眼球運動を行い始めることができる。自分自身の動きを意識的に認識する前にさえ、本明細書で開示するハイブリッドBCIシステムは眼球運動を検出し使用してユーザインタフェースを適切であるように適応させることができ、この事例では適応は次の文字のグループを拡大することである。
ハイブリッドBCIシステムの一例
[0074] 図6は、一実施形態によるハイブリッドBCIシステム600を示す。一部の実施形態では、BCIシステム600は、図1に関して上記で説明したハイブリッドBCIシステム100の対応する部分と構造及び/又は機能の点で同様であり得る。例えばBCIシステム600は、ハイブリッドBCIシステム100のビデオベースのアイトラッカ106、神経記録ヘッドセット104、任意選択的なディスプレイ106、及び脳−コンピュータインタフェース装置110と同じ又は同様であり得るビデオベースのアイトラッカ606、神経記録ヘッドセット604、任意選択的なディスプレイ606、及び脳−コンピュータインタフェース装置610を含む。従って、そのような同様の部分及び/又は側面についてはここで更に詳細に説明することはない。
[0075] 一部の実施形態では、脳−コンピュータインタフェース装置610のプロセッサ620は、入出力ユニット640を介して視標追跡及び神経信号データを受信し、互いに同期するように信号データをタイムスタンプする同期事象ロガー622を含むことができる。一部の実施形態では、同期事象ロガー622は高速眼球運動分類を実行するように構成され得る。
[0076] 注視信号は、衝動性(短い持続時間)及び中心固視(長い持続時間)の期間に分解することができる。現在の標準の閾値に基づくサッカード検出アルゴリズムに固有の時間的遅延を克服できる場合、これらの異なる注視の成分をより上手く利用することができる。加えて、ビデオベースのアイトラッカは、とりわけ瞬き及び目に対するカメラの動きに関係する非生理学的アーティファクトに関連し得る。数ある中でもこれらの制限を克服するために、一部の実施形態では、同期事象ロガー622はカスタム機械学習アルゴリズムを有する確率的フィルタシステムを組み込んで、アイトラッカカメラのサンプリングレート要件を最小化しながら高速眼球運動検出を可能にすることができる。具体的には同期事象ロガー622は、明確な訓練を必要とせず、運動開始の2マイクロ秒以内にリアルタイムでサッカードを検出することができる機械学習分類器と組み合わせられる無遅延フィルタを実装することができる。
[0077] 典型的には、現在利用可能なBCIによって実装される時系列にわたる任意の平滑化関数(例えばバターワースフィルタ、移動平均、フィルタ)は実際の測定値と比較して平滑化された値に遅延を生ぜしめ、高速リアルタイム注視分類システムを妨げる。一部の実施形態では、本明細書に記載の脳−コンピュータインタフェース装置610が、注視運動学及びビデオベースのアイトラッカの技術的パラメータに基づく状態及び測定モデルと共に、ダイナミカルシステムとして注視を推定する非線形生成モデルを使用することができる。一部の実施形態では、雑音の多い注視データの隠れ状態を推定し基礎を成すシステムモデルを概算するために二重カルマンフィルタに基づく二重推定を使用することができる。かかる実装形態は、時間的遅延を生ぜしめることなしに注視データのフィルタリングを可能にし得る。加えて、カメラのサンプリングレートが下げられる場合又は一過性アーティファクトが生じる場合、理論的な注視運動学モデルを使用して欠落した注視データを推定することができる。同時にこれは、ユーザの明示的知識なしに自動的に訓練され、眼球運動を運動後ではなく運動中にリアルタイムで検出する機械学習分類システムをもたらす。
[0078] 一部の実施形態では、同期事象ロガー622は、統合型の手法の例の中で説明したように異なる生理学的信号を使用して注意のアンサンブル推定を実施するように構成することができる。一部の実施形態では、同期事象ロガー622は選択精度を上げるために(1)ベイズ線形判別システム、(2)最新式の前処理、(3)空間フィルタリング、(4)バギングアンサンブル分類器アルゴリズム、及び(5)実験的作業中にプログラムルーチンと共に分類アルゴリズムからの情報を組み込む高次のオラクルアルゴリズムを使用する分析パイプラインを実装するように構成することができる。脳−コンピュータインタフェース装置610は、パイプライン内の分離可能成分の並列化及び非同期処理を使用して消費者レベルのパーソナルコンピュータ上での性能を保証するように構成することもできる。
[0079] 一部の実施形態では、同期事象ロガー622は、本明細書に記載の通りユーザの意図を検出するために、収集されたアンサンブル内の動眼神経データのリアルタイム処理について構成され得る。例えば、提示される各視覚刺激は神経記録ヘッドセット604によって捕捉されるシグネチャ神経活動(例えばP300信号)を誘発し得る。本明細書に記載の通り、神経活動はユーザの刺激に対する注意及び行動する意図を示す制御信号として働くことができ、視覚刺激又はタグごとの神経活動分類スコアに従って特定の視覚刺激又はタグにおける明白な注意の確率を推定することができる。網膜内の高忠実度の中心窩領域の受容野に応じて、注視固定を中心とした視覚空間内の角度(degrees)に基づく空間的不確実性並びに明白な注意を反映する刺激に関連する信号の減衰があり得る。神経活動スコアの定量化及び信号の減衰は、異なる生理学的信号を組み合わせる機械学習の課題並びに時間の経過に伴う神経活動信号の潜時における時間的ドリフトを解決する、リアルタイム且つ正確な動眼神経記録に基づくユーザ意図分類に使用することができる。更にかかる定量化及び信号の減衰は、個々の視覚刺激及び注視位置信号が複数のオブジェクトについて明白な注意の確率を更新することができるように信号情報を最大化する。
[0080] 一部の実施形態では、プロセッサ620が、ユーザインタフェースによってレンダリングされる訓練環境を提示するように構成されるトレーナ624を含み得る。訓練環境は、1組の所定の制御された刺激をユーザに提示し、結果として起きる眼球運動及び/又は脳活動を記録するように構成され得る。この1組の制御された刺激並びに制御された刺激のそれぞれに対応する誘発された眼球活動及び脳活動はメモリ660内に記憶され、個々のユーザに合わせて作られる統計モデルを構築するための訓練データとしてモデルビルダ626によって使用され得る。モデルビルダ626は、次元縮退法、特徴抽出法、機械学習ツール等の1つ又は複数の統計ツールを使用して分類器等を構築することができる。モデルはトレーナ624によって提供される訓練データを用いて構築し、試験し、クロス確認することができ、次いでその特定のユーザからの新たなデータと共に使用してユーザインタフェースとの対話の高精度及び高速度を実現することができる。
[0081] 一部の実施形態では、プロセッサ620が予測器628を含むことができ、予測器628は特定のユーザから新たなデータを受信し、モデルビルダ626からの結果に基づいてそのデータを分類し、最大尤度推定、最大事後推定等の統計ツールを使用してユーザ挙動の予測を生成することができる。一部の実施形態では、プロセッサ620が、視標追跡及び脳信号データ並びにプロセッサ620の他の下位要素(例えばトレーナ624、モデルビルダ626、及び予測器628)からのデータを受信するアーキテクチャデベロッパ632も含むことができる。アーキテクチャデベロッパ632はリアルタイムの使用を意図するものではないが、潜在的なBCIアルゴリズム検出アーキテクチャの試作モデルを作ることに向けてロバストな統計分析をオフラインで行うためのものであり得る。
ハイブリッドBCIシステムの使用及び実装
[0082] 図7は、一実施形態による、統合型ハイブリッド脳コンピュータインタフェース装置の動作のプロセス700の一例を示す。一部の実施形態では、プロセス700は、或る時点において神経記録ヘッドセット及びアイトラッカ(及び他の周辺センサ及び/又はアクチュエータ)に関連する特定のユーザについてデータの取得及び前処理を開始する最初のステップ701を含む。この開始及び信号取得は、例えば同期事象ロガー622によって実行され得る。プロセス700は、上記のトレーナ624等のトレーナによって実施される訓練環境を適用するステップ703も含む。訓練環境の提示は、ステップ705で表示される1組の予めプログラムされ制御された刺激を含むことができ、結果として起きる眼球運動及び脳活動をステップ707で記録することができる。変更されるが制御された刺激の提示並びに対応する眼球運動及び脳データの収集は、一連の刺激についてステップ719によって示すように繰り返すことができる。データはモデルビルダ(例えばモデルビルダ626)に供給することができ、モデルは訓練セット内の新たな刺激の各組を用いて更新され得る。その後プロセス700は、1つ又は複数の新奇刺激を含むが、システムが訓練された事前プログラム刺激の1つ又は複数に関連し得る新たな環境を提示することを含み得る。モデルビルダ626によって構築される統計モデルを使用し、予測器628は任意の適切な統計ツールを使用して、ステップ713で注目箇所を決定すること等のユーザ挙動の予測を生成し、ステップ715で脳データからユーザの(即ち表示された特定の記号を選択し又は活性化する)意図を推定することができる。この予測に基づき、プロセス700はユーザインタフェース内のユーザの意図を実現するステップ717を含む。例えばステップ717は、スぺラ内の文字を選択すること、又はゲーム内のキャラクタを選択すること、又は拡張現実システム内で操作可能なTVシステムに関連するオン機能を選択することを含み得る。
ハイブリッドBCIシステムの適応
動作モード
[0083] 本明細書に記載のハイブリッドBCIシステム100及び/又は600並びに他の実施形態は、VEP、聴覚誘発電位(AEP)、又はP300信号等の外部刺激によって誘発される脳活動を使用する外因性BCIシステムとして構成することができる。外因性システムは広範な訓練を必要とせず、それは神経活動からのその制御信号を容易且つ迅速に設定できるからである。とりわけ信号制御はより少ない神経記録チャネルを用いて実現することができ、最大60ビット/分の速い情報転送速度を実現することができる。
[0084] 一部の実施形態では、ハイブリッドBCIシステム100、600は、外部刺激なしに脳律動及び脳電位の自己調整に基づく内因性BCIシステムとして動作するように適応され得る。例えばニューロフィードバック訓練により、ユーザは感覚運動律動における変調等、BCIによって復号され得る特定の脳パターンを生成することを学習する。内因性BCIの1つの利点は、ユーザが自由にBCIを操作し、2次元空間内の任意の点へのカーソル等のポインティング制御機能の動きに変わる随意運動を行い又は想像できることである。ユーザインタフェースの操作上の制御を得るために手のジェスチャ等の他の特徴もキューと共に訓練し、キューとして使用することができ、提示されている選択肢にユーザが制限されることに対する任意の制約を軽減することができる。
[0085] 一部の実施形態では、ハイブリッドBCIシステム100、600は同期(キューペース:cue-paced)モード又は非同期(自己ペース:self-paced)モードで使用することができる。BCIの同期モードは、特定の刺激によって引き起こされる脳活動の既定の時間窓に注目するより単純な設計のものとすることができる。同期モードでは、ハイブリッドBCIシステム100、600は既定の時間窓の間の脳信号だけ分析することができ、窓の外側の如何なる脳信号も無視することができる。従ってユーザは、ハイブリッドBCIシステム100、600によって決定される特定の期間中にしかコマンドを送ることが認められない。同期モードの1つの利点は、精神活動の開始が事前に分かっており、特定のキューに関連することである。ユーザは瞬き及び他の眼球運動又は身体運動を何気なく行うこともあり、それらはアーティファクトを生じさせることがある。指定の時間窓の外側の脳信号は分析されないので、判断を誤らせるようなこれらのアーティファクトの効果が回避される。
[0086] 一部の実施形態では、ハイブリッドBCIシステム100、600が非同期モードで動作することができ、非同期モードはユーザが行動するときに関係なく脳信号を継続的に分析する。より複雑であり、従って計算上の要求が一層大きいが、非同期モードはユーザが如何なる外部キューも待つ必要がないので人間−マシン対話のより自然なモードを提供することができる。加えて、ユーザは自らのアクションの通常の過程中にハイブリッドBCIシステム100、600と対話するので、より豊富なデータが収集される。
高速信号検出及び分類の実装
[0087] 本明細書に記載の動眼神経統合型ハイブリッドBCIシステムは、ビデオベースのアイトラッカ102からの信号等の動眼信号、並びに選択及び活性化信号としてのVEPを含む神経信号それぞれの強みを知的且つ柔軟に活用する。このシステムの1つの重要な構成要素は眼球運動の高速分類である。同期事象ロガー622の動作に関して上記で説明したように、ハイブリッドBCIシステム600は遅延のないやり方でサッカード検出を行うように構成され得る。例えばハイブリッドBCIシステム600は、注視運動学及びビデオベースのアイトラッカの技術的パラメータに基づく状態及び測定モデルと共に、ダイナミカルシステムとして注視を推定する非線形生成モデルを使用して注視データをゼロ遅延でフィルタすることができる。雑音の多い注視データの隠れ状態を推定し基礎を成すシステムモデルを概算するために二重カルマンフィルタに基づく二重推定を使用することができる。従って、時間的遅延を生ぜしめることなしに注視データのフィルタリングを実現することができる。加えて、カメラのサンプリングレートが下げられる場合又は一過性アーティファクトが生じる場合、理論的な注視運動学モデルが欠落した注視データを推定することができる。ハイブリッドBCIシステム600は、明確な訓練セッションなしに自動的に訓練され、眼球運動のリアルタイム検出を可能にする機械学習分類システムを含むこともできる。
[0088] 一部の実施形態では、無遅延のサッカード検出は、眼球運動が進行中でありながらサッカードの開始を検出する能力になり得る。例えば図5Dに示すように、検出潜時(サッカード開始の約2ms後)は、視覚的シーンの変化の人間による知覚(約50〜150ms)よりも短い場合がある。従って、ハイブリッドBCIシステム100及び/又は600は、視覚情報の変化をユーザが認識する前に、ユーザが何処を見るのかの予測としてサッカード開始ベクトルを使用し、それに応じてユーザ環境を更新することができる。例えばプログラム又はゲーム中に、ユーザはゲームを一時停止することを思い立つ場合がある。ユーザの目が一時停止メニュー項目に向けて方向を変え始めるときサッカード開始ベクトルを使用して、ユーザが注視を変えて一時停止メニュー項目に注目する前に一時停止する意図を予測し、一時停止メニューを選択することができる。一部の実施形態では、検出潜時は約1.00ms、2.00ms、3.00ms、5.00ms、10.00ms、又は15.00ms(又はその間の任意の期間)であり得る。
アーティファクトの処置
[0089] アーティファクトとは脳活動を不純にする不所望の信号であり、大部分が非脳起源である。神経学的現象の形状が影響を受けるので、アーティファクトはBCIベースシステムの性能を低下させる可能性がある。アーティファクトは、起源が生理学的若しくは非生理学的、又は技術的アーティファクトであり得る。
[0090] 生理学的アーティファクトは、通常は筋肉活動、眼球活動、及び心臓活動に起因する。脳信号における大きな乱れは、患者が会話し、咀嚼し、又は嚥下しているときに生じる筋収縮によって引き起こされる電気的活動から生じ得る。他のアーティファクトは、瞬き及び他の眼球運動によって引き起こされ得る。瞬きは、低周波数パターンを生成する眼球運動とは対照的に、脳信号上の概して高振幅のパターンを作る。心臓活動に関連するアーティファクトは、脳活動内に律動信号を生ぜしめる。技術的アーティファクトは、主に電力線雑音又は電極インピーダンスの変化によるものであり、適切なフィルタリング又は遮蔽によって通常は回避することができる。生理学的アーティファクトの回避は困難であり、阻止手法はアーティファクトによって不純にされたエポックを破棄することを提案する。アーティファクトの振幅が小さ過ぎる場合は自動阻止が失敗し得る。加えて阻止方法は、アーティファクトによって不純にされた信号を廃棄するとき、ユーザが装置の制御を失う対話の部分を引き起こす。サンプルを阻止する代わりに、アーティファクト除去手法は、神経学的現象をそのまま維持しながらアーティファクトを識別し除去しようと試みる。神経におけるアーティファクトを除去するための一般的な方法は、線形フィルタリング、線形結合及び回帰、BSS及びPCAである。脳信号の記録からアーティファクトを除去する代わりに、システム100及び/又は600は使用可能な通信路を提供するためにアーティファクトを処理することができる。
[0091] 一部の実施形態では、ハイブリッドBCIシステム100、600は、ユーザエクスペリエンスに資するようにアーティファクトから利益を得ることができる。例えばシステム100、600は、瞬目、歯を食いしばること、及び他の心臓に関係する変化等のアーティファクト運動を検出するように構成され得る。これらのアーティファクトを検出し分類することは、無雑音の応用のために元の神経信号を使用する余地を与える。一部の実施形態では、動眼神経データ内の検出されたアーティファクトは、ユーザの挙動におけるそれらのアーティファクトの既知の因果関係を理由に活用することもできる。例えば瞬目、歯を食いしばること、及び顔の表情等のアーティファクトは、以下で開示するようにアクション制御機能を実装するための制御信号として使用することができる。
[0092] 非同期モードで動作するハイブリッドBCIシステム100、600の実施形態は、クラスタリングモデルと共にワーム訓練セット(warm training set)を組み込む教師なし分類システムと、n次元特徴空間内のユークリッド距離の検査とを使用することができる。によって実行され得るアーティファクト識別手法はデータのスライディングウィンドウを使用し、スライディングウィンドウでは特徴が計算され、n次元空間上のクラスタリングモデルに基づいて分類される。経時的に記述されたアーティファクトの強度を使用して、任意の適切なクラスタベースの技法、例えば各クラスタ重心までのデータ点のユークリッド距離に基づく分類法によって分類することができる。
[0093] 従来のBCIシステムはデータを記録し、設定された時間間隔において記録済みの信号を抽出し処理してユーザの意図及びユーザの状態を決定する。一部の実施形態では、本明細書に記載のハイブリッドBCIシステム100及び/又は600は、「事象」の存在を確認するために記録済みのデータを各入力サンプルと共に処理し、「事象」の存在又は欠如を使用してプログラムによる連鎖反応をトリガするように構成され得る。これは、特定の挙動を予期して処理パイプラインを変更し又はユーザの環境を何らかのやり方で修正する、データの更なる分析であり得る。このプロセスは、(任意の装置源からの)各入力サンプルに対する処理パイプラインを分離し、そのデータを分類器に通してそのデータの種類を決定することによりマルチスレッド環境で処理することができる。
[0094] 事象は、瞬目、事象の電位、動きのアーティファクト、過度な信号雑音、及び観察された活動の急激な低下を含む。分析段階に続いて、インタフェースは分類可能な事象が生じたかどうかを判定することができ、かかる事象が生じている場合、特定の一連の事象をトリガすることができる。記録済みの活動のエポックの一例を図8Aに示す。例えば瞬目が観察されると、トリガは次の5ミリ秒間にわたって到来する目のデータを無視するようにシステムに命令することができる。事象の電位が観察される場合、トリガは環境変化と事象の突然の存在との間の相関を識別し、どの特定の変化がユーザの脳活動に影響を及ぼしたのかを識別するようにシステムに命令することができる。かかる事象の例は、図8Aの緑色及び赤色のバーによって強調表示されている。
[0095] BCI実装への過去の手法は、事象後の固定された時間遅延(即ち50ms)を利用する。固定された時間遅延が経過した後、ユーザ環境が変更され、その期間に関するデータが分析される。対照的に、一部の実施形態によるシステム100及び/又は600は、特定の時間遅延又は期間を使用しない代わりに、入力データを連続的に分析する手法を実装することができる。システムが(実験者によって定められる)特定の種類の事象を識別し分類すると、抽出済みの適切なデータを追加の情報について分析することができる。例えば図8Bに示すような事象が検出される場合、その検出は一連のプロセスをトリガすることができる。従って、脳活動は制御信号として働くことができ、特定の特徴を検出することは追加の事象、アクション、及び/又は結果のためのアクチュエータになり得る。この手法は、例えばユーザが古い住所を新しい住所で置換するために自分の郵送宛先及び電話帳を定期的に更新し得るポーリングモデルと対照的に、即座のアクションを直接トリガするマウスのクリック又はボタンの押下等のアクションを行うことと類似性を示し得る。
ユーザインタフェースの適応
[0096] 本明細書に記載の通り、ハイブリッドBCIシステム100、600におけるユーザインタフェースは視聴覚ディスプレイ(例えば図1のディスプレイ106)によって提示することができる。ユーザインタフェースは、ユーザがポインティング制御機能によって特定の刺激に注目しそれを指示し、アクション制御機能を使用して特定の刺激を選択し又は選択解除することを可能にする。これを行うために、ユーザインタフェースはユーザが行うことができる利用可能な選択肢のグループである選択セットを含む。選択セットの例は、制御ディスプレイ上に戦略的に配置される英数字行列上の文字/数字、又は方向矢印、又は明確な形をしたアイコン若しくは標的のグループを含むことができる。選択方法は、ユーザからのコマンドがBCIによって直接的に又は間接的にどのように解釈されるのかを記述する。直接選択はユーザが選択セットから任意の項目を直接選択できるようにするのに対し、間接選択はユーザが選択を行うことができる前に中間ステップを必要とする。
[0097] 図9Aは、記号(文字又は数字)を含むユーザインタフェースのレイアウトの2つの例を示す。一方の例では、記号の全てを一度にまとめて提示し点滅させる。第2の例では、1つの記号(X)だけを点滅グループ内で示す一方、他の記号はアスタリスク形式で隠されている。一部の実施形態では、この第2のレイアウトは、神経活動に基づくBCI分類精度を下げることが知られている知覚上の問題を減らしながら処理時間を改善することができる。このレイアウトはユーザインタフェース戦略の変更を示すためにも使用することができ、例えばこのレイアウトは以下で更に説明する「保持−解除モード」に入ることを示し得る。
[0098] ユーザインタフェースは、ユーザとBCIとの間のインタフェースの特性を示すように構成され得る。ユーザインタフェースは(1)空間、(2)感覚、及び(3)活性化/非活性化という3種類の特性を含むことができる。空間特性は、アイコン又は標的の寸法、数、及び形状を含む。感覚特性は、聴覚、視覚、又は体性感覚のどれでも、ユーザに提供される刺激及びフィードバックを含む。活性化/非活性化は、人間/技術の対話の質を含む。
[0099] 対話の質は、労力(BCIの使用がどれ位困難か)、変位(応答するのにどれ位の動きが必要か)、柔軟性(BCIを使用することができる方法の数)、耐久性(BCIのハードウェアがどれ位信頼できるのか)、メンテナンス性(BCIをどれ位容易に修復できるのか)、及び活性化又は解除の方法(選択を行う/活性化する又は止める/非活性化する能力、及びその選択がどのように行われるのか)によって特徴付けることができる。活性化及び非活性化は異なる機能を有することができ、アクション制御入力として活性化だけを使用することはトリガ又は瞬間的なスイッチとして考えることができる。この場合、活性化だけが効果をもたらし、活性化が保持される持続時間が結果を変えることはない。活性化及び非活性化の両方を使用することはより複雑な制御機能を可能にし、制御入力がボタンとして機能し得る。例えばテレビのリモコン上で音量キーの1つを活性化して保持し、音量を上げ続けることができる。この場合、選択を保持することは継続的変化を引き起こすのに対し、選択を解除することは現状を維持する。
神経活動に基づく保持−解除モデル
[0100] 本明細書に記載の通り、BCIシステム100、600はそのユーザインタフェースの一部として神経活動に基づくBCI機能を組み込むことができ、かかるBCI機能では、神経活動に基づくBCIにおける標的の最初の活性化及び非活性化(保持−解除)を別々に制御することができる。かかる制御は、間接的な選択を必要とする応用又は状態間の素早い変更を必要とする応用でハイブリッドBCIシステム100、600を使用することを可能にし得る。更に、かかる制御は選択を保持すること又は解除標的に注意を切り替えることによって被選択標的の承認−取消を可能にし得る。
[0101] 潜在的な現実世界の応用では、BCIディスプレイ上の標的は様々な活性化/非活性化特性を有することができる。現実世界での応用のためのハイブリッドBCIユーザインタフェースレイアウトの一例を図8Bに示す。一部の項目は、微調整、例えば図8B内のレイアウトの項目B1に示す車椅子をリクライニングさせること、温度を変更すること(項目A3及びB3)、又はテレビの音量を上げること(項目C2及びD2)を可能にするために保持−解除対応とすることができる。ドアの解錠/施錠(項目D1及びE1)等の安全にとって極めて重要な項目は、活性化前に短い保持期間を必要とする保持−解除の承認−取消ステップを必要とすることができる。残りの項目は、照明をオンにすること又はテレビチャンネルを変えること(C1、A2、及びB2)等の従来の個別の神経活動に基づくアクションを行う。保持−解除応答を有する標的をユーザが(調節又は承認のために)選択すると画面は保持−解除モード(図9Bの右パネル)に変わり、この画面では前に選択された標的及び解除標的だけが活性状態にあり、BCI行列上の残りの標的は選択することができない。所望の標的をBCIが正しく識別した場合、ユーザは被選択標的を保持し、BCIはユーザがそのアクション(車椅子のリライニング又はテレビの音量の変更)の停止を望むまで、又は選択を確認する(それにより安全にとって極めて重要なアクションを不注意に活性化することを防ぐ)ための指定の持続時間にわたってそのアクションを行う。従って保持−解除機能は、既存の支援技術で利用可能な複数の制御モードを反映するように神経活動に基づくBCIの有用性を拡張する。
[0102] 保持プロセスの間、BCIによって要求される唯一の情報は、ユーザが自分の選択を変更する(例えば音量の上げ下げ又は車椅子のリクライニングを停止する)ときである。解放決定の2進の性質は、BCIが複数の点滅シーケンス後の代わりに非常に少ない点滅から決定を下すことを可能にする。BCIのユーザにとって、これは従来の神経活動に基づくBCI手法を使用するよりも速い応答時間及び連続した制御につながる。
神経活動に基づく誘発刺激のマッピング
[0103] (ユーザの環境に加えられる変更に反応してユーザの脳活動がどのように変化するのかを観察する)従来のBCIシステムは、取得される全てのデータを一度に分析する前にユーザが有する可能性がある全ての有り得る挙動を誘発し、そこからユーザの意図を明らかにしようと概して試みる。一部の実施形態では、本明細書に記載のハイブリッドBCIシステム100及び/又は600は、変更が加えられる度にユーザの脳活動を分析することができ、とりわけ環境に加えられる次の変更を知らせるためにこの分析段階から得られる情報を使用する。例えばユーザが10の可能なアクションを有する場合、環境に10の変更を加えてどの変更が(プログラムによって定められる)最も理想的な反応を誘発するのかを観察することができる。或いは、ハイブリッドBCIシステム100及び/又は600において、同じユーザが同じ10の選択肢を有する場合、加えられる次の変更を知らせるために第1の変更から得られる情報を使用し、特定のアクションを先制して排除し、それにより意図からアクションに移るのにかかる持続時間を短縮することができる。従って、各変更が1つだけの潜在的なユーザの意図よりも多くを知らせるので、環境に加えられる各変更にユーザの脳がどのように反応するのかについての知識は完全には必要とされない。このことは記録すべき情報量を減らし、代わりにユーザの意図を識別するのにどの情報が必要になるのかを知的に決定し、その情報を迅速に取得し、意図されたアクションの作成に進む。
[0104] 一部の実施形態では、ハイブリッドBCIシステム100及び/又は600は、取得済みの神経信号から特徴抽出を行い神経活動に基づくシステムを用いて情報伝送速度を改善するために、誤り訂正コードを実装することもできる。加えてハイブリッドBCIシステムは、適切な背景に標的をスーパーインポーズすることによって又は運動に基づく代替的な刺激の種類を使用することによって、神経活動に基づくそれら、BCIシステムにおける主な雑音源の1つである不応性効果を低減するための新規の手法を利用することができる。
動的刺激の検出及びタグ付け
[0105] 一部の実施形態では、ハイブリッドBCIシステム100及び/又は600は、そのユーザインタフェース内で提示される拡張現実又は仮想現実において動的刺激を組み込み又は既存の動的刺激にタグ付けすることができる。つまりハイブリッドBCIシステム100、600は移動刺激を識別し、その刺激の動きを時間に関して追跡するためにその刺激に動的にタグ付けすることができる。かかる動的な識別及びタグ付けの実装形態の一例を図9に示す。
[0106] ハイブリッドBCIシステム100、600は、移動オブジェクトの存在を検出し、移動オブジェクト上に選択タグを配置することができる。タグは追跡タイムライン上で点滅し、オブジェクトとのコロケーションを維持することができる。ユーザは、BCI選択を使用してそのオブジェクトに対するアクションをトリガすることができる。或いはハイブリッドBCIシステム100、600は、主に追跡の開始又は終了に関係することができる。神経活動が誘発されたかどうかを確認するために、追跡の開始又は終了付近の神経データの時間窓を調べることができる。これは新たなオブジェクトがユーザにとって関心があり得るものであり、何らかのアクションをトリガし得ることを示す。一部の実施形態では、オブジェクトの最初の動きによってサッカードがトリガされたかどうかを確認するために視標追跡情報を使用して、アクションをトリガする前に興味対象としてのオブジェクトの仮定を更に強化することができる。かかるアクションは、他の任意のものに加えて上記で説明した動的なタグの配置であり得る。
特徴抽出及びモデル構築
[0107] 様々な思考活動(認知的作業)が脳信号の異なるパターンをもたらす。一部の実施形態では、ハイブリッドBCIシステム600(及び/又は100)は、各信号パターンをその特徴に従ってクラスに分類するパターン認識システムを含むことができる。パターン認識システムは、特定のクラスに対する類似性並びに残りのクラスとの違いを反映する脳信号からの幾つかの特徴を抽出する。信号の異なる種類を区別するのに必要な弁別的情報を含む信号の特性から特徴を測定し又は導出することができる。上記で説明したように、のモデルビルダ626は、特定のハードウェア周辺機器等に結合される特定のユーザインタフェースの下、特定のユーザに対応するデータから抽出される特徴の統計モデルを構築するために多数の統計ツールを使用することができる。
[0108] 脳信号内の対象となる情報は典型的には高雑音環境で隠され、脳信号は同時に存在する多数の情報源を含む。対象となり得る信号は、様々な脳作業に起因する複数の信号によって時間及び空間の点で重複する場合がある。そのため多くの事例において、所望の帯域パワーを抽出するために帯域通過フィルタ等の単純な方法を使用するだけでは不十分である。
[0109] 脳信号は複数のチャネルによって測定することもできる。測定したチャネルによって与えられる全ての情報が、対象となる基礎現象を理解することに全般的に関連するとは限らない。主成分分析又は独立成分分析等の次元縮退技法を適用して元のデータの次元を減らし、無関係且つ冗長な情報を除去することができる。これにより計算コストを低減することができる。
[0110] 脳信号は本質的に非定常でもあり、従って一部の実施形態では特定の特徴が生じるときに関する時間情報を得ることが望ましい場合がある。信号を短いセグメントに分割する一部の手法を使用することができ、各セグメントからパラメータを推定することができる。高速フーリエ変換(FFT)、ウェーブレット変換、又は適応自己回帰成分等の方法を含む1つ又は複数のデータ変換を行うことができ、又は定常部分空間分析(SSA)等の技法を実行して脳信号の非定常時間変化を明らかにすることができる。SSAは、多変量時系列を定常成分及び非定常成分に分解する。単一の特徴ベクトルに連結される前に、複数の特徴が幾つかのチャネルから及び幾つかの時間セグメントから抽出され得る。
信号の分類及び予測
[0111] ハイブリッドBCIシステム100、600における分類ステップの狙いは、特徴ステップによって与えられる脳活動を特徴付ける特徴ベクトルに基づいてユーザの意図を認識することである。分類アルゴリズムは、オフラインセッション、オンラインセッション、又は両方の種類のセッションによって開発することができる。オフラインセッションは、適応又は閉ループシステムから収集されるBCI競合データセット等のデータセットの検査を含む。全セッションにわたる観察からデータの統計を推定することができ、長期間の計算を実行することができる。この結果は、アルゴリズムを微調整するために分析者によって検討され得る。ハイブリッドBCIシステムの一部の実施形態では、現実世界を評価する因果的なやり方でデータをオンライン処理することができる。使用される分析アルゴリズムは、例えばユーザのモチベーション又は関与が変化することを受けてユーザプロファイルが経時変化し得る環境内で試験することができる。
[0112] 分類アルゴリズムは、ラベル付きデータセットを使用する教師付き学習により、ユーザによって較正され得る。しかし、脳信号並びに眼球運動信号は、その際立った特性の経時変化を伴って本質的に非定常であり得る。例えば較正セッション中に実験サンプル内で観察されるパターンは、オンラインセッション中に記録されるパターンと異なり得る。或いはユーザの漸進的なメンタルトレーニング、又は集中力、注意力、若しくはモチベーションの変化さえも脳信号に影響を及ぼす可能性がある。一部の実施形態では、本明細書に記載のハイブリッドBCIシステム600(及び/又は100)が、際立った特徴の変化に適応し得る適応アルゴリズムを使用することができる。
[0113] 一部の実施形態では、ハイブリッドBCIシステム100、600は、信号を検出し分類するための半教師付き学習アルゴリズムを使用することができる。小さいラベル付きデータセットを使用して半教師付き学習分類器を最初に訓練することができ、その後オンライン試験データを用いて分類器を更新することができる。この手法は、オンラインセッション中に分類器を連続的に更新することによって必要とされる訓練時間を短縮することができる。
[0114] 一部の実施形態では、ハイブリッドBCIシステム100、600は、教師なし学習又は強化学習又はそれらの方法の組み合わせを使用して、脳信号及び/又は眼球運動信号を検出し分類することができる。教師なしの方法を使用して、ラベルなしデータ内の隠れた構造を見つけてそれらを分類することができる。ハイブリッドBCI装置の一部の実施形態は、ユーザ及びマシンの相互適応学習又は共変量シフト適応のための技法に依存する教師なしの方法を使用することができる。一部の実施形態は、被験者が誤った決定に気付いたときに誘発される神経信号を区別することに基づく強化学習法を使用することができる。これらのフィードバック信号は、その誤りが将来繰り返されるのを防ぐための学習信号として使用され得る。
結論
[0115] 要約すると、ユーザによってリアルタイムで操作可能な統合型ハイブリッド脳コンピュータインタフェースの実装に使用するためのシステム及び方法を本明細書に記載した。開示したシステムは、ポインティング制御機能を実装するための眼球運動追跡システム、及びアクション制御機能を実装するための脳活動追跡システムを含む。高速且つ正確な操作を可能にするように戦略的に設計されるユーザインタフェースの提示により、両方の機能が実装される。加えて、開示したシステム及び方法は、任意の適切なプラットフォーム上にリアルタイムハイブリッドBCIを実装して仮想環境、拡張環境、又は実環境のユーザ操作を仲介するために、ハードウェアに依存しないように構成される。図11は本発明のハイブリッドBCIシステム及び方法の使用空間の説明図を示す。
[0116] 様々な実施形態を上記で説明してきたが、それらは限定ではなく例として示してきたに過ぎないことを理解すべきである。上記の方法は、特定の事象が特定の順序で発生することを示すが、特定の事象の順序は修正され得る。加えて、事象のうちの特定のものは、可能であれば並列プロセスによって同時に実行することができ、更には上記で説明したように逐次的に実行することができる。
[0117] 上記で説明した概略図及び/又は実施形態は特定の構成要素が特定の向き又は位置に配置されることを示すが、構成要素の配置は修正され得る。実施形態を個々に図示し説明してきたが、形式及び詳細の点で様々な変更を加えることができることが理解されよう。相互排他的な組み合わせを除く任意の組み合わせで本明細書に記載の機器及び/又は方法の任意の部分を組み合わせることができる。本明細書に記載の実施形態は、記載した様々な実施形態の機能、構成要素、及び/又は特徴の様々な組み合わせ及び/又はサブコンビネーションを含むことができる。

Claims (22)

  1. ユーザに対話型環境を提示するように構成されるディスプレイと、
    前記ユーザによって生成される眼球運動信号を記録するように構成されるアイトラッカと、
    前記ユーザによって生成される神経信号を記録するように構成される神経記録装置と、
    前記ディスプレイ、前記アイトラッカ、及び前記神経記録装置に動作可能に結合されるインタフェース装置であって、
    メモリ、及び
    前記メモリに動作可能に結合され、
    前記アイトラッカから前記眼球運動信号を受信し、前記神経記録装置から前記神経信号を受信すること、
    前記対話型環境によって前記ユーザに刺激を生成し提示すること、
    前記眼球運動信号及び前記神経信号を処理して、前記眼球運動信号及び前記神経信号の少なくとも1つに基づいて前記ユーザの注目箇所を決定すること、
    前記神経記録装置から受信される前記神経信号を処理して、前記ユーザが意図するアクションを決定すること、及び
    前記ユーザが意図する前記アクションを実施し、前記対話型ユーザインタフェースの前記提示を更新すること
    を行うように構成されるプロセッサ
    を含む、インタフェース装置と
    を含む、機器。
  2. 前記アイトラッカがビデオベースのアイトラッカであり、
    前記神経信号が、視覚誘発電位、運動心像信号、事象関連電位(ERP)、及び脳状態依存信号を含む脳波記録(EEG)信号を含み、
    前記プロセッサが前記眼球運動信号と前記EEG信号とを統合して前記ユーザの前記注目箇所を決定するように更に構成される、
    請求項1に記載の機器。
  3. 前記神経信号が、視覚誘発電位、聴覚誘発電位、運動心像信号、事象関連電位(ERP)、及び脳状態依存信号の少なくとも1つを含む脳波記録(EEG)信号を含む、
    請求項1に記載の機器。
  4. 前記刺激が、視覚刺激、聴覚刺激、及び触覚刺激の少なくとも1つを含む、請求項1に記載の機器。
  5. 前記プロセッサが前記ディスプレイの1組の部分を画定し、前記ユーザの前記注目箇所を前記決定することに基づき、前記ディスプレイの前記1組の部分の1つの部分の中で前記刺激を繰り返し提示するように更に構成される、請求項1に記載の機器。
  6. 前記プロセッサが、前記眼球運動信号及び前記神経信号の前記少なくとも1つを処理して前記ユーザの前記注目箇所を決定するために、無遅延フィルタ及び分類器を実装するように更に構成される、請求項1に記載の機器。
  7. 前記プロセッサが、前記眼球運動信号及び前記神経信号の前記少なくとも1つを処理して前記ユーザの前記注目箇所を決定するために、二重カルマンフィルタ及び分類器を実装するように更に構成される、請求項1に記載の機器。
  8. 前記プロセッサが、
    シミュレートされたユーザの1組の眼球運動の運動学モデルを生成すること、
    前記眼球運動信号内の1組の欠落データ点を識別すること、
    前記運動学モデルに基づき、前記眼球運動信号内の前記1組の欠落データ点を置換するための1組の置換データ点を計算すること、及び
    前記1組の欠落データ点を置換し更新済みの眼球運動信号を生成するために前記1組の置換データ点を組み込むこと
    を行うように更に構成される、請求項1に記載の機器。
  9. プロセッサによって実行される命令を表すコードを記憶する非一時的プロセッサ可読媒体であって、前記命令は
    1組のアクションを行うためにユーザによって操作され得る対話型ユーザ環境を生成すること、
    前記対話型ユーザ環境によって前記ユーザに提示可能な1組の刺激を定めること、
    前記1組の刺激からの少なくとも1つの刺激を前記ユーザに提示すること、
    前記ユーザの挙動に関係する入力をアイトラッカ及び神経記録装置から受信すること、
    前記受信される入力及び前記提示される刺激に基づき、前記ユーザが意図するアクションを決定すること、及び
    前記対話型ユーザ環境によって前記アクションを実施すること
    を前記プロセッサに行わせるためのコードを含む、非一時的プロセッサ可読媒体。
  10. 入力を受信するための前記コードが、
    前記アイトラッカから受信される前記入力から、前記ユーザによって生成される眼球運動信号を抽出すること、
    前記神経記録装置から受信される前記入力から、前記ユーザによって生成される神経信号を抽出することであって、前記神経信号は脳波記録(EEG)信号を含み、前記EEG信号は視覚誘発電位、運動心像信号、事象関連電位(ERP)、及び脳状態依存信号を含む、抽出すること、及び
    統合型の手法を使用して前記眼球運動信号及び前記EEG信号を処理して前記ユーザの注目箇所を決定すること
    を前記プロセッサに行わせるためのコードを含む、請求項9に記載の非一時的プロセッサ可読媒体。
  11. 入力を受信するための前記コードが、
    前記神経記録装置から受信される前記入力から、前記ユーザによって生成される脳波記録(EEG)信号を抽出することであって、前記EEG信号は視覚誘発電位、聴覚誘発電位、運動心像信号、事象関連電位(ERP)、及び脳状態依存信号の少なくとも1つを含む、抽出すること、及び
    前記EEG信号を処理して前記ユーザの注目箇所を決定すること
    を前記プロセッサに行わせるためのコードを含む、請求項9に記載の非一時的プロセッサ可読媒体。
  12. 前記ユーザが意図する前記アクションを決定することを前記プロセッサに行わせるための前記コードが、
    前記1組の刺激からの前記提示される刺激に関係する情報を抽出すること、
    前記アイトラッカから受信される前記入力、前記神経記録装置から受信される前記入力、及び前記提示される刺激に関係する前記情報のそれぞれに1組の重みを定め適用し、前記アイトラッカから受信される前記入力、前記神経記録装置から受信される前記入力、及び前記提示される刺激に関係する前記情報のそれぞれの加重表現を生成すること、
    前記加重表現を組み合わせてアンサンブル表現を形成すること、及び
    前記アンサンブル表現を処理して前記ユーザが意図する前記アクションの予測を生成すること
    を前記プロセッサに行わせるためのコードを含む、請求項9に記載の非一時的プロセッサ可読媒体。
  13. 前記ユーザが意図する前記アクションを決定することを前記プロセッサに行わせるための前記コードが、
    前記アイトラッカから受信される前記入力から眼球運動信号を抽出すること、
    前記眼球運動信号に基づいて前記ユーザの注目箇所を決定するために、無遅延フィルタ及び分類器を実装すること
    を前記プロセッサに行わせるためのコードを含む、請求項9に記載の非一時的プロセッサ可読媒体。
  14. 入力を受信するための前記コードが、
    前記アイトラッカから受信される前記入力から眼球運動信号を抽出すること、
    前記眼球運動信号内の1組の欠落データ点を識別すること、
    シミュレートされたユーザの眼球運動に関する運動学モデルを生成すること、
    前記運動学モデルに基づき、前記眼球運動信号内の前記1組の欠落データ点を置換するための1組の置換データ点を推定すること、及び
    前記1組の欠落データ点を置換して更新済みの眼球運動信号を生成するために前記1組の置換データ点を組み込むこと
    を前記プロセッサに行わせるためのコードを含む、請求項9に記載の非一時的プロセッサ可読媒体。
  15. 入力を受信するための前記コードが、
    前記アイトラッカから受信される前記入力から眼球運動信号を抽出すること、
    前記眼球運動信号内のアーティファクトデータ点を識別すること、
    シミュレートされたユーザの眼球運動に関する運動学モデルを生成すること、
    前記運動学モデルに基づき、前記眼球運動信号内の前記アーティファクトデータ点を置換するための1組の置換データ点を推定すること、及び
    前記アーティファクトデータ点を置換して更新済みの眼球運動信号を生成するために前記1組の置換データ点を組み込むこと
    を前記プロセッサに行わせるためのコードを含む、請求項9に記載の非一時的プロセッサ可読媒体。
  16. 対話型ユーザインタフェースによって刺激をユーザに提示すること、
    前記ユーザの挙動に関連する入力をアイトラッカ及び神経記録装置から受信すること、
    前記提示される刺激に関係する情報を受信すること、
    前記ユーザの挙動に関連する前記入力及び前記提示される刺激に関係する前記情報を含む1組のアンサンブルデータを生成すること、
    前記1組のアンサンブルデータを処理して前記ユーザが意図するアクションを決定すること、及び
    前記対話型ユーザインタフェースによって前記アクションを実施すること
    を含む、方法。
  17. 前記提示される刺激が動的な視覚刺激を含み、
    前記動的な視覚刺激の動きを検出すること、
    前記動的な視覚刺激の前記動きを追跡すること、及び
    前記動的な視覚刺激にタグ付けすること
    を更に含む、請求項16に記載の方法。
  18. 前記アイトラッカから受信される前記入力から眼球運動信号を抽出すること、
    前記神経記録装置から受信される前記入力から神経信号を抽出することであって、前記神経信号は脳波記録(EEG)信号を含み、前記EEG信号は視覚誘発電位、運動心像信号、事象関連電位(ERP)、及び脳状態依存信号を含む、抽出すること、及び
    前記眼球運動信号と前記EEG信号とを統合して前記ユーザの注目箇所を決定すること
    を更に含む、請求項16に記載の方法。
  19. 前記アイトラッカから受信される前記入力から眼球運動信号を抽出すること、及び
    前記ユーザの注目箇所を決定するために、前記眼球運動信号に基づいて、組み合わせられる無遅延フィルタ及び分類器を実装すること
    を更に含む、請求項16に記載の方法。
  20. 前記アイトラッカから受信される前記入力から眼球運動信号を抽出すること、
    前記眼球運動信号内の1組の欠落データ点を識別すること、
    シミュレートされたユーザの眼球運動を予測するための運動学モデルを生成すること、
    前記運動学モデルによる前記シミュレートされたユーザの前記予測された眼球運動に基づき、前記眼球運動信号内の前記1組の欠落データ点を置換するための1組の置換データ点を推定すること、及び
    前記1組の欠落データ点を置換し更新済みの眼球運動信号を生成するために前記1組の置換データ点を組み込むこと
    を更に含む、請求項16に記載の方法。
  21. 1組のアンサンブルデータを前記生成することが、
    前記アイトラッカから受信される前記入力から眼球運動信号を抽出すること、
    前記神経記録装置から受信される前記入力から神経信号を抽出すること、
    前記眼球運動信号、前記神経信号、及び前記提示される刺激に関係する前記情報のそれぞれに1組の重みを定め適用し、前記眼球運動信号、前記神経信号、及び前記刺激に関係する前記情報の加重表現を生成すること、及び
    前記眼球運動信号、前記神経信号、及び前記刺激に関係する前記情報の前記加重表現を組み合わせて前記1組のアンサンブルデータを形成すること
    を含む、請求項16に記載の方法。
  22. 前記アイトラッカから受信される前記入力から眼球運動信号を抽出すること、
    前記アイトラッカから受信される前記入力から前記アイトラッカの技術的パラメータを抽出すること、
    前記アイトラッカの前記技術的パラメータに基づき、前記ユーザの眼球運動を予測するための非線形生成運動学モデルを生成すること、
    前記アイトラッカから受信される前記眼球運動信号及び前記非線形生成運動学モデルによって予測される前記眼球運動信号に基づき、更新済みの眼球運動信号を計算すること、及び
    前記更新済みの眼球運動信号に関連する前記ユーザの注目箇所を決定すること
    を更に含む、請求項16に記載の方法。
JP2020532856A 2017-08-23 2018-08-22 高速視標追跡機能を有する脳−コンピュータインタフェース Pending JP2020532031A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762549253P 2017-08-23 2017-08-23
US62/549,253 2017-08-23
PCT/US2018/047598 WO2019040665A1 (en) 2017-08-23 2018-08-22 BRAIN-COMPUTER INTERFACE PROVIDED WITH HIGH-SPEED OCULAR FOLLOWING CHARACTERISTICS

Publications (1)

Publication Number Publication Date
JP2020532031A true JP2020532031A (ja) 2020-11-05

Family

ID=65439242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020532856A Pending JP2020532031A (ja) 2017-08-23 2018-08-22 高速視標追跡機能を有する脳−コンピュータインタフェース

Country Status (6)

Country Link
US (2) US11269414B2 (ja)
EP (1) EP3672478A4 (ja)
JP (1) JP2020532031A (ja)
KR (1) KR20200101906A (ja)
CN (1) CN111629653B (ja)
WO (1) WO2019040665A1 (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ITUB20153680A1 (it) * 2015-09-16 2017-03-16 Liquidweb Srl Sistema di controllo di tecnologie assistive e relativo metodo
EP3672478A4 (en) 2017-08-23 2021-05-19 Neurable Inc. BRAIN COMPUTER INTERFACE WITH HIGH SPEED EYE TRACKING
JP7496776B2 (ja) 2017-11-13 2024-06-07 ニューラブル インコーポレイテッド 高速、正確及び直観的なユーザ対話のための適合を有する脳-コンピュータインターフェース
KR20200108888A (ko) 2018-01-18 2020-09-21 뉴레이블 인크. 고속, 정확, 및 직관적 사용자 상호작용들을 위한 적응들을 갖는 뇌-컴퓨터 인터페이스
JP7107725B2 (ja) * 2018-04-10 2022-07-27 浜松ホトニクス株式会社 眼球運動特徴量算出システム、眼球運動特徴量算出方法及び眼球運動特徴量算出プログラム
US11331538B2 (en) * 2018-08-07 2022-05-17 Interactive Strength, Inc. Interactive exercise machine data architecture
US10664050B2 (en) 2018-09-21 2020-05-26 Neurable Inc. Human-computer interface using high-speed and accurate tracking of user interactions
US20200265270A1 (en) * 2019-02-20 2020-08-20 Caseware International Inc. Mutual neighbors
CN110442232A (zh) * 2019-06-18 2019-11-12 中国人民解放军军事科学院国防科技创新研究院 联合眼动和脑机接口的可穿戴式增强现实机器人控制系统
US20220276707A1 (en) * 2019-07-31 2022-09-01 Nextmind Sas Brain-computer interface
SE2050318A1 (en) * 2020-03-23 2021-09-24 Croseir Ab A system
CN112085052A (zh) * 2020-07-28 2020-12-15 中国科学院深圳先进技术研究院 运动想象分类模型的训练方法、运动想象方法及相关设备
US11468288B2 (en) 2020-07-28 2022-10-11 Oken Technologies, Inc. Method of and system for evaluating consumption of visual information displayed to a user by analyzing user's eye tracking and bioresponse data
US11157081B1 (en) 2020-07-28 2021-10-26 Shenzhen Yunyinggu Technology Co., Ltd. Apparatus and method for user interfacing in display glasses
US11567574B2 (en) 2020-09-22 2023-01-31 Optum Technology, Inc. Guided interaction with a query assistant software using brainwave data
CN112381124B (zh) * 2020-10-30 2023-11-14 华南理工大学 一种基于动态逆学习网络的提高脑机接口性能的方法
US11609633B2 (en) * 2020-12-15 2023-03-21 Neurable, Inc. Monitoring of biometric data to determine mental states and input commands
US20220211316A1 (en) * 2021-01-04 2022-07-07 Larry Lior Turetsky Using Reorganization and Plasticity to Accelerate Injury Recovery (URePAIR)
CN112764544B (zh) * 2021-01-28 2022-04-22 中国人民解放军国防科技大学 一种结合眼动仪与异步运动想象技术实现虚拟鼠标的方法
WO2022162469A1 (en) * 2021-01-29 2022-08-04 Xr Health Il Ltd Systems and methods for assessing partial impulsivity in virtual or augmented reality
SI26152A (sl) 2021-02-04 2022-08-31 Likar Borut Postopek obvladovanja dvosmerne interakcije pri uporabi avdio-video komunikacijskih platform z uporabo digitalnih kanalov
TWI778521B (zh) * 2021-02-18 2022-09-21 龍華科技大學 智慧腦機介面裝置
CN112990074B (zh) * 2021-03-31 2023-04-07 北京理工大学 基于vr的多场景自主式控制的混合脑机接口在线系统
US20240197556A1 (en) * 2021-04-11 2024-06-20 Vikas Khurana Systems, devices and methods for enacting cyclical positive and negative pressure
CN114527867A (zh) * 2021-11-18 2022-05-24 中国航空工业集团公司沈阳飞机设计研究所 一种融合眼位信息的无人机脑机辅助控制方法及设备
WO2023107176A1 (en) * 2021-12-07 2023-06-15 University Of Pittsburgh - Of The Commonwealth System Of Higher Education Systems and methods for brain-computer interface and calibrating the same
CN115067971B (zh) * 2022-05-18 2023-12-19 上海暖禾脑科学技术有限公司 基于脑电信号反馈控制虚拟对象的神经反馈系统
CN116382465B (zh) * 2023-02-17 2024-02-13 中国科学院自动化研究所 光学脑机接口系统和方法
CN116982932A (zh) * 2023-06-21 2023-11-03 首都医科大学附属北京天坛医院 一种基于眼动双任务的脑疾病预测设备、系统及可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009093435A1 (ja) * 2008-01-25 2009-07-30 Panasonic Corporation 脳波インタフェースシステム、脳波インタフェース装置、方法およびコンピュータプログラム
US20100100001A1 (en) * 2007-12-27 2010-04-22 Teledyne Scientific & Imaging, Llc Fixation-locked measurement of brain responses to stimuli
JP2012221498A (ja) * 2011-04-08 2012-11-12 Sony Computer Entertainment Inc ユーザーの視線、及びジェスチャによるフィードバック提供システム、及び方法
US20140347265A1 (en) * 2013-03-15 2014-11-27 Interaxon Inc. Wearable computing apparatus and method
US20160198091A1 (en) * 2013-09-03 2016-07-07 Seeing Machines Limited Low power eye tracking system and method
WO2017104869A1 (ko) * 2015-12-17 2017-06-22 주식회사 룩시드랩스 아이 브레인 인터페이스(ebi) 장치 및 그 제어 방법

Family Cites Families (189)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4013068A (en) 1974-10-15 1977-03-22 Settle Wayne L Electroencephalographic activated control system
US4158196A (en) 1977-04-11 1979-06-12 Crawford George E Jr Man-machine interface system
US4595990A (en) 1980-12-31 1986-06-17 International Business Machines Corporation Eye controlled information transfer
US5137027A (en) 1987-05-01 1992-08-11 Rosenfeld Joel P Method for the analysis and utilization of P300 brain waves
US5269325A (en) 1989-05-26 1993-12-14 Biomagnetic Technologies, Inc. Analysis of biological signals using data from arrays of sensors
US5342410A (en) 1990-10-05 1994-08-30 Eric Braverman Apparatus and method for increasing the amplitude of P300 waves in the human brain
US5213338A (en) 1991-09-30 1993-05-25 Brotz Gregory R Brain wave-directed amusement device
US5339826A (en) 1991-12-09 1994-08-23 Westinghouse Electric Corp. Method for training material evaluation with method of EEG spectral estimation
US5692517A (en) 1993-01-06 1997-12-02 Junker; Andrew Brain-body actuated system
US5363858A (en) 1993-02-11 1994-11-15 Francis Luca Conte Method and apparatus for multifaceted electroencephalographic response analysis (MERA)
US5325862A (en) 1993-03-26 1994-07-05 The United States Of America As Represented By The Secretary Of The Navy Method and/or system for personal identification and impairment assessment from brain activity patterns
JP2899194B2 (ja) 1993-06-30 1999-06-02 キヤノン株式会社 意思伝達支援装置及び意思伝達支援方法
US5638826A (en) 1995-06-01 1997-06-17 Health Research, Inc. Communication method and system using brain waves for multidimensional control
US5742286A (en) 1995-11-20 1998-04-21 International Business Machines Corporation Graphical user interface system and method for multiple simultaneous targets
US5899867A (en) 1996-10-11 1999-05-04 Collura; Thomas F. System for self-administration of electroencephalographic (EEG) neurofeedback training
US5931908A (en) 1996-12-23 1999-08-03 The Walt Disney Corporation Visual object present within live programming as an actionable event for user selection of alternate programming wherein the actionable event is selected by human operator at a head end for distributed data and programming
JPH10260773A (ja) 1997-03-19 1998-09-29 Nippon Telegr & Teleph Corp <Ntt> 情報入力方法及びその装置
JPH1165794A (ja) 1997-08-25 1999-03-09 Yoshimichi Yonezawa 誘発脳波を用いた入力装置
US5983129A (en) 1998-02-19 1999-11-09 Cowan; Jonathan D. Method for determining an individual's intensity of focused attention and integrating same into computer program
US7084884B1 (en) 1998-11-03 2006-08-01 Immersion Corporation Graphical object interactions
US6090051A (en) 1999-03-03 2000-07-18 Marshall; Sandra P. Method and apparatus for eye tracking and monitoring pupil dilation to evaluate cognitive activity
GB2348520B (en) 1999-03-31 2003-11-12 Ibm Assisting user selection of graphical user interface elements
US6380937B1 (en) 1999-11-03 2002-04-30 International Business Machines Corporation Method and system for dynamically representing cluster analysis results
US6626433B2 (en) 2000-02-22 2003-09-30 Joseph Scibetta Card game
US20020065851A1 (en) 2000-06-02 2002-05-30 Watson Emerson C. System and method for creating a website
JP2002236957A (ja) 2001-02-09 2002-08-23 Victor Co Of Japan Ltd 電子投票装置、電子投票システム
EP1392161A4 (en) 2001-05-04 2008-02-20 Univ Virginia PROCESS, DEVICE AND COMPUTER PROGRAM PRODUCT FOR ASSESSING ATTENTION DEFICITS
JP2003114820A (ja) 2001-07-31 2003-04-18 Sanyo Electric Co Ltd 電子アルバム装置
JP2003058298A (ja) 2001-08-20 2003-02-28 Fuji Xerox Co Ltd 情報分類装置、情報分類方法、情報分類プログラム及びコンピュータ読み取り可能な記録媒体
US7209788B2 (en) 2001-10-29 2007-04-24 Duke University Closed loop brain machine interface
US7080303B2 (en) 2001-11-13 2006-07-18 Prometric, A Division Of Thomson Learning, Inc. Method and system for computer based testing using plugins to expand functionality of a test driver
US6712468B1 (en) 2001-12-12 2004-03-30 Gregory T. Edwards Techniques for facilitating use of eye tracking data
US20040076930A1 (en) 2002-02-22 2004-04-22 Steinberg Linda S. Partal assessment design system for educational testing
US20030195798A1 (en) 2002-04-11 2003-10-16 John Goci Voter interface for electronic voting system
AU2003228850A1 (en) 2002-05-03 2003-11-17 Sarnoff Corporation Single trial detection in encephalography
US6917370B2 (en) 2002-05-13 2005-07-12 Charles Benton Interacting augmented reality and virtual reality
US6847844B2 (en) 2002-06-06 2005-01-25 University Of Pittsburgh Of The Commonwealth System Of Higher Education Method of data communication with implanted device and associated apparatus
US20040092809A1 (en) 2002-07-26 2004-05-13 Neurion Inc. Methods for measurement and analysis of brain activity
US20040044295A1 (en) 2002-08-19 2004-03-04 Orthosoft Inc. Graphical user interface for computer-assisted surgery
US7766743B2 (en) 2002-08-29 2010-08-03 Douglas Schoellkopf Jebb Methods and apparatus for evaluating a user's affinity for a property
US7347818B2 (en) 2003-02-24 2008-03-25 Neurotrax Corporation Standardized medical cognitive assessment tool
US8292433B2 (en) 2003-03-21 2012-10-23 Queen's University At Kingston Method and apparatus for communication between humans and devices
US8260428B2 (en) 2003-05-01 2012-09-04 California Institute Of Technology Method and system for training a visual prosthesis
US7546158B2 (en) 2003-06-05 2009-06-09 The Regents Of The University Of California Communication methods based on brain computer interfaces
US20040249302A1 (en) 2003-06-09 2004-12-09 Cyberkinetics, Inc. Methods and systems for processing of brain signals
US20050046698A1 (en) 2003-09-02 2005-03-03 Knight Andrew Frederick System and method for producing a selectable view of an object space
US20050085744A1 (en) 2003-10-20 2005-04-21 Stmicroelectronics S.R.I. Man-machine interfaces system and method, for instance applications in the area of rehabilitation
US7120486B2 (en) 2003-12-12 2006-10-10 Washington University Brain computer interface
EP1720447A4 (en) 2004-02-13 2009-10-28 Georgia Tech Res Inst CONTROL WITH DISPLAY FOR SEARCH OF COMMOTIONS AND LIGHT BRAIN INJURY LESIONS
US20050191609A1 (en) 2004-02-14 2005-09-01 Adaptigroup Llc Method and system for improving performance on standardized examinations
US7379562B2 (en) 2004-03-31 2008-05-27 Microsoft Corporation Determining connectedness and offset of 3D objects relative to an interactive surface
EP1743268A4 (en) 2004-03-31 2007-09-19 Neptec Design Group Ltd SYSTEMS FOR MEDICAL PATIENT MONITORING AND DATA INPUT, METHOD AND USER INTERFACES
US20090099623A1 (en) 2004-09-13 2009-04-16 Neuronix Ltd. Systems and methods for treatment of medical conditions related to the central nervous system and for enhancing cognitive functions
WO2006051709A1 (ja) 2004-11-10 2006-05-18 Matsushita Electric Industrial Co., Ltd. 誤操作検出装置およびこれを有する機器、誤操作検出方法、並びに機器評価方法
TW200727867A (en) 2005-09-12 2007-08-01 Emotiv Systems Pty Ltd Detection of and interaction using mental states
US20070060830A1 (en) 2005-09-12 2007-03-15 Le Tan Thi T Method and system for detecting and classifying facial muscle movements
US7865235B2 (en) 2005-09-12 2011-01-04 Tan Thi Thai Le Method and system for detecting and classifying the mental state of a subject
US7513775B2 (en) 2005-10-05 2009-04-07 Exam Innovations, Inc. Presenting answer options to multiple-choice questions during administration of a computerized test
US20070086773A1 (en) 2005-10-14 2007-04-19 Fredrik Ramsten Method for creating and operating a user interface
WO2007050029A2 (en) 2005-10-28 2007-05-03 Tobii Technology Ab Eye tracker with visual feedback
EP1960985A1 (en) 2005-12-15 2008-08-27 Posit Science Corporation Cognitive training using visual stimuli
WO2007086222A1 (ja) 2006-01-24 2007-08-02 Honda Motor Co., Ltd. 注意領域を推定するシステムおよび方法
US7580742B2 (en) 2006-02-07 2009-08-25 Microsoft Corporation Using electroencephalograph signals for task classification and activity recognition
US8029138B2 (en) * 2006-07-25 2011-10-04 Novavision, Inc. Dynamic peripheral stimuli for visual field testing and therapy
WO2008030542A2 (en) 2006-09-07 2008-03-13 The Procter & Gamble Company Methods for measuring emotive response and selection preference
CN1927551A (zh) 2006-09-30 2007-03-14 电子科技大学 一种视导脑声控的残障辅助机器人
US20080218472A1 (en) 2007-03-05 2008-09-11 Emotiv Systems Pty., Ltd. Interface to convert mental states and facial expressions to application input
JP5132182B2 (ja) 2007-04-25 2013-01-30 キヤノン株式会社 医療用検査システムおよびその処理方法、プログラム、記憶媒体
US20090082692A1 (en) 2007-09-25 2009-03-26 Hale Kelly S System And Method For The Real-Time Evaluation Of Time-Locked Physiological Measures
US7556377B2 (en) 2007-09-28 2009-07-07 International Business Machines Corporation System and method of detecting eye fixations using adaptive thresholds
US8369939B2 (en) 2007-10-29 2013-02-05 Panasonic Corporation Activation apparatus, method, and computer program for brainwave interface system
US20100298649A1 (en) 2007-11-02 2010-11-25 Siegbert Warkentin System and methods for assessment of the aging brain and its brain disease induced brain dysfunctions by speech analysis
WO2009086088A1 (en) * 2007-12-21 2009-07-09 Honda Motor Co., Ltd. Controlled human pose estimation from depth image streams
US8244475B2 (en) 2007-12-27 2012-08-14 Teledyne Scientific & Imaging, Llc Coupling human neural response with computer pattern analysis for single-event detection of significant brain responses for task-relevant stimuli
AU2009204001A1 (en) 2008-01-11 2009-07-16 Oregon Health & Science University Rapid serial presentation communication systems and methods
CN101502418B (zh) 2008-02-05 2011-05-04 周常安 耳戴式脑电检测装置
WO2009139119A1 (ja) 2008-05-15 2009-11-19 パナソニック株式会社 脳波信号の識別方法を調整する装置、方法およびプログラム
RU2495476C2 (ru) 2008-06-20 2013-10-10 Инвенсис Системз, Инк. Системы и способы для иммерсивного взаимодействия с действительными и/или имитируемыми техническими средствами для управления технологическим процессом, контроля состояния окружающей среды и производственного контроля
US8751011B2 (en) 2008-07-11 2014-06-10 Medtronic, Inc. Defining therapy parameter values for posture states
JP4465414B2 (ja) 2008-07-11 2010-05-19 パナソニック株式会社 脳波を用いた機器の制御方法および脳波インタフェースシステム
CN101339455B (zh) 2008-08-07 2010-09-29 北京师范大学 基于人脸识别特异性波n170成分的脑机接口系统
US8933957B2 (en) 2008-08-18 2015-01-13 The Boeing Company Methods and systems for emphasizing selected aviation chart information
US20100145215A1 (en) 2008-12-09 2010-06-10 Neurofocus, Inc. Brain pattern analyzer using neuro-response data
US20100223549A1 (en) 2009-02-27 2010-09-02 Greg Edwards System and method for controlling entertainment devices using a display
US8155736B2 (en) 2009-03-16 2012-04-10 Neurosky, Inc. EEG control of devices using sensory evoked potentials
JP5243318B2 (ja) 2009-03-19 2013-07-24 株式会社野村総合研究所 コンテンツ配信システム、コンテンツ配信方法及びコンピュータプログラム
CA2697566A1 (en) 2009-03-20 2010-09-20 Jon Erik Ween Cognitive assessment tool and method
CN101515199B (zh) * 2009-03-24 2011-01-05 北京理工大学 一种基于视线跟踪和p300脑电电位的字符输入装置
EP2442714A1 (en) 2009-06-15 2012-04-25 Brain Computer Interface LLC A brain-computer interface test battery for the physiological assessment of nervous system health
WO2011050414A1 (en) 2009-10-30 2011-05-05 Richard John Cale Environmental control method and system
AU2009251137B2 (en) 2009-12-23 2013-04-11 Canon Kabushiki Kaisha Method for Arranging Images in electronic documents on small devices
KR20110072730A (ko) 2009-12-23 2011-06-29 한국과학기술원 적응형 뇌-컴퓨터 인터페이스 장치
US8758018B2 (en) * 2009-12-31 2014-06-24 Teledyne Scientific & Imaging, Llc EEG-based acceleration of second language learning
US9507418B2 (en) 2010-01-21 2016-11-29 Tobii Ab Eye tracker based contextual action
JP4856791B2 (ja) 2010-02-25 2012-01-18 パナソニック株式会社 脳波インタフェースシステム、脳波インタフェース提供装置、脳波インタフェースの実行方法、および、プログラム
US9361130B2 (en) 2010-05-03 2016-06-07 Apple Inc. Systems, methods, and computer program products providing an integrated user interface for reading content
WO2011140303A1 (en) 2010-05-05 2011-11-10 University Of Maryland, College Park Time domain-based methods for noninvasive brain-machine interfaces
US9183560B2 (en) 2010-05-28 2015-11-10 Daniel H. Abelow Reality alternate
US20110301486A1 (en) 2010-06-03 2011-12-08 Cordial Medical Europe Measurement of auditory evoked responses
US8750857B2 (en) 2010-06-04 2014-06-10 Qualcomm Incorporated Method and apparatus for wireless distributed computing
US8593375B2 (en) 2010-07-23 2013-11-26 Gregory A Maltz Eye gaze user interface and method
EP2598972A1 (en) 2010-07-30 2013-06-05 Katholieke Universiteit Leuven Brain-computer interfaces and use thereof
US20120034583A1 (en) 2010-08-04 2012-02-09 Vetprep.Com, Inc. Veterinary exam preparation on mobile devices
US8463721B2 (en) 2010-08-05 2013-06-11 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for recognizing events
KR101023249B1 (ko) 2010-08-13 2011-03-21 동국대학교 산학협력단 뇌파를 이용한 인지 훈련 응용 프로그램 생성 장치, 방법 및 그 기록 매체
US10043351B2 (en) 2010-08-23 2018-08-07 Ncr Corporation Self-service terminal
JP5544620B2 (ja) 2010-09-01 2014-07-09 独立行政法人産業技術総合研究所 意思伝達支援装置及び方法
DK2643782T3 (da) 2010-11-24 2020-11-09 Digital Artefacts Llc Systemer og fremgangsmåder til bedømmelse af kognitiv funktion
CN102098639B (zh) 2010-12-28 2013-09-11 中国人民解放军第三军医大学野战外科研究所 脑机接口短消息发送控制装置及发送控制方法
US20140043229A1 (en) 2011-04-07 2014-02-13 Nec Casio Mobile Communications, Ltd. Input device, input method, and computer program
CA2835120C (en) 2011-05-06 2019-05-28 Magic Leap, Inc. Massive simultaneous remote digital presence world
WO2012154938A1 (en) 2011-05-10 2012-11-15 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
JP5816917B2 (ja) 2011-05-13 2015-11-18 本田技研工業株式会社 脳活動計測装置、脳活動計測方法、及び脳活動推定装置
JP5711056B2 (ja) 2011-06-21 2015-04-30 アイシン精機株式会社 脳波インターフェースシステム
CA2842027A1 (en) 2011-07-16 2013-01-24 Adam J. Simon Systems and methods for the physiological assessment of brain health and the remote quality control of eeg systems
US9323325B2 (en) 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US20150212695A1 (en) 2011-10-05 2015-07-30 Google Inc. Suggested action feedback
US8878785B1 (en) 2011-10-05 2014-11-04 Google Inc. Intent determination using geometric shape input
CA2853709C (en) 2011-10-27 2020-09-01 Tandemlaunch Technologies Inc. System and method for calibrating eye gaze data
US10013053B2 (en) 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
JP5873362B2 (ja) 2012-03-13 2016-03-01 日本放送協会 視線誤差補正装置、そのプログラム及びその方法
FR2989482B1 (fr) 2012-04-12 2022-12-23 Marc Massonneau Procede de determination de la direction du regard d'un utilisateur.
CN103421859B (zh) 2012-05-14 2016-08-31 中原工学院 用无纺布型填料的液态淋浇发酵塔生产细菌纤维素的方法
JP2013244116A (ja) * 2012-05-24 2013-12-09 Panasonic Corp 注意状態推定装置及び注意状態推定方法
US9152226B2 (en) 2012-06-15 2015-10-06 Qualcomm Incorporated Input method designed for augmented reality goggles
US9824604B2 (en) 2012-09-04 2017-11-21 Conduent Business Services, Llc Creating assessment model for educational assessment system
EP3865056A1 (en) 2012-09-14 2021-08-18 InteraXon Inc. Systems and methods for collecting, analyzing, and sharing bio-signal and non-bio-signal data
US9176581B2 (en) 2012-09-28 2015-11-03 Intel Corporation System and method for inferring user intent based on eye movement during observation of a display screen
US9743002B2 (en) 2012-11-19 2017-08-22 Magna Electronics Inc. Vehicle vision system with enhanced display functions
WO2014085910A1 (en) 2012-12-04 2014-06-12 Interaxon Inc. System and method for enhancing content using brain-state data
US9629976B1 (en) 2012-12-21 2017-04-25 George Acton Methods for independent entrainment of visual field zones
CN103092340B (zh) 2012-12-26 2016-03-02 北京大学 一种脑-机接口视觉刺激方法及信号识别方法
WO2014116826A1 (en) * 2013-01-24 2014-07-31 The Trustees Of Columbia University In The City Of New York Mobile, neurally-assisted personal assistant
US10231614B2 (en) 2014-07-08 2019-03-19 Wesley W. O. Krueger Systems and methods for using virtual reality, augmented reality, and/or a synthetic 3-dimensional information for the measurement of human ocular performance
US20140228701A1 (en) 2013-02-11 2014-08-14 University Of Washington Through Its Center For Commercialization Brain-Computer Interface Anonymizer
US10133342B2 (en) 2013-02-14 2018-11-20 Qualcomm Incorporated Human-body-gesture-based region and volume selection for HMD
ES2731560T3 (es) 2013-03-01 2019-11-15 Tobii Ab Interacción de mirada con deformación retardada
US9301675B2 (en) * 2013-03-15 2016-04-05 Neuro Kinetics, Inc Method and apparatus for validating testing procedures in objective ophthalmic eye testing for eye evaluation applications requiring subject compliance with eye fixation to a visual target
US20160103487A1 (en) 2013-03-15 2016-04-14 Glen J. Anderson Brain computer interface (bci) system based on gathered temporal and spatial patterns of biophysical signals
CN115981000A (zh) 2013-03-15 2023-04-18 感知技术有限公司 增强光学和感知数字护目镜
US9532748B2 (en) 2013-04-22 2017-01-03 Personal Neuro Devices Inc. Methods and devices for brain activity monitoring supporting mental state development and training
EP2813175A3 (en) 2013-06-14 2015-04-01 Oticon A/s A hearing assistance device with brain-computer interface
US9329682B2 (en) 2013-06-18 2016-05-03 Microsoft Technology Licensing, Llc Multi-step virtual object selection
US10137363B2 (en) 2013-06-20 2018-11-27 Uday Parshionikar Gesture based user interfaces, apparatuses and control systems
US10558272B2 (en) 2013-06-20 2020-02-11 Uday Parshionikar Gesture control via eye tracking, head tracking, facial expressions and other user actions
US9389685B1 (en) 2013-07-08 2016-07-12 University Of South Florida Vision based brain-computer interface systems for performing activities of daily living
WO2015044851A2 (en) 2013-09-25 2015-04-02 Mindmaze Sa Physiological parameter measurement and feedback system
WO2015063765A1 (en) 2013-10-29 2015-05-07 Milbat - Giving Quality To Life Walker-assist device
KR101554412B1 (ko) 2014-01-07 2015-09-18 한국과학기술원 시선 추적 및 뇌파 측정을 이용하여 사용자가 주시하는 물체에 대한 사용자의 의도를 추출하는 웨어러블 디바이스
KR101579364B1 (ko) 2014-01-16 2015-12-21 서울대학교산학협력단 뇌파 모니터링 및 뇌 컴퓨터 인터페이스를 위한 뇌전도 전극과 취득 시스템을 내장한 무선 이어훅 이어셋
US9552060B2 (en) 2014-01-28 2017-01-24 Microsoft Technology Licensing, Llc Radial selection by vestibulo-ocular reflex fixation
CN103793058B (zh) 2014-02-13 2016-09-28 山西大学 一种主动式脑机交互系统运动想象任务分类方法及装置
CN103955269A (zh) * 2014-04-09 2014-07-30 天津大学 一种基于虚拟现实环境的智能眼镜脑-机接口方法
JP2017526078A (ja) 2014-05-09 2017-09-07 グーグル インコーポレイテッド 実在および仮想のオブジェクトと対話するための生体力学ベースの眼球信号のためのシステムおよび方法
US11266342B2 (en) * 2014-05-30 2022-03-08 The Regents Of The University Of Michigan Brain-computer interface for facilitating direct selection of multiple-choice answers and the identification of state changes
CA2960148C (en) 2014-09-04 2022-10-04 University Health Network Method and system for brain activity signal-based treatment and/or control of user devices
US10120413B2 (en) 2014-09-11 2018-11-06 Interaxon Inc. System and method for enhanced training using a virtual reality environment and bio-signal data
US20170139556A1 (en) 2014-10-01 2017-05-18 Quantum Interface, Llc Apparatuses, systems, and methods for vehicle interfaces
US9946339B2 (en) 2014-10-08 2018-04-17 Microsoft Technology Licensing, Llc Gaze tracking through eyewear
US10810896B2 (en) * 2014-10-24 2020-10-20 Telefonaktiebolaget Lm Ericsson (Publ) Customization of help information based on EEG data
US9936195B2 (en) 2014-11-06 2018-04-03 Intel Corporation Calibration for eye tracking systems
US10884488B2 (en) 2014-11-24 2021-01-05 Samsung Electronics Co., Ltd Electronic device and method for controlling display
KR102326489B1 (ko) 2014-11-24 2021-11-16 삼성전자주식회사 디스플레이를 제어하는 전자 장치 및 방법
US20160187976A1 (en) 2014-12-29 2016-06-30 Immersion Corporation Systems and methods for generating haptic effects based on eye tracking
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
JP6295995B2 (ja) 2015-04-28 2018-03-20 京セラドキュメントソリューションズ株式会社 情報処理装置、画像処理装置へのジョブ指示方法
CN104837088A (zh) 2015-05-29 2015-08-12 成都腾悦科技有限公司 一种基于NFC的脑电α波信号感应蓝牙耳机
IL239191A0 (en) 2015-06-03 2015-11-30 Amir B Geva Image sorting system
US20190246982A1 (en) 2015-08-05 2019-08-15 Emotiv Inc. Method and system for collecting and processing bioelectrical signals
WO2017031089A1 (en) 2015-08-15 2017-02-23 Eyefluence, Inc. Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
US10491711B2 (en) 2015-09-10 2019-11-26 EEVO, Inc. Adaptive streaming of virtual reality data
JP6684559B2 (ja) 2015-09-16 2020-04-22 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
ITUB20153680A1 (it) 2015-09-16 2017-03-16 Liquidweb Srl Sistema di controllo di tecnologie assistive e relativo metodo
WO2017079333A1 (en) 2015-11-04 2017-05-11 Magic Leap, Inc. Light field display metrology
KR101723841B1 (ko) 2015-12-17 2017-04-18 주식회사 룩시드랩스 아이 브레인 인터페이스(ebi) 장치 및 그 제어 방법
WO2017177188A1 (en) 2016-04-08 2017-10-12 Vizzario, Inc. Methods and systems for obtaining, aggregating, and analyzing vision data to assess a person's vision performance
US10522106B2 (en) 2016-05-05 2019-12-31 Ostendo Technologies, Inc. Methods and apparatus for active transparency modulation
US20170322679A1 (en) 2016-05-09 2017-11-09 John C. Gordon Modifying a User Interface Based Upon a User's Brain Activity and Gaze
US20180039329A1 (en) 2016-08-04 2018-02-08 David M. Tumey Brain actuated control utilizing visually evoked potentials
WO2018064627A1 (en) 2016-09-30 2018-04-05 Sony Interactive Entertainment Inc. Wireless head mounted display with differential rendering and sound localization
RU2627075C1 (ru) * 2016-10-28 2017-08-03 Ассоциация "Некоммерческое партнерство "Центр развития делового и культурного сотрудничества "Эксперт" Нейрокомпьютерная система для выбора команд на основе регистрации мозговой активности
US20210113129A1 (en) 2016-12-01 2021-04-22 Sin-Ger Huang A system for determining emotional or psychological states
WO2018127782A1 (en) 2017-01-03 2018-07-12 Xing Zhou Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
US20210141453A1 (en) 2017-02-23 2021-05-13 Charles Robert Miller, III Wearable user mental and contextual sensing device and system
EP3672478A4 (en) 2017-08-23 2021-05-19 Neurable Inc. BRAIN COMPUTER INTERFACE WITH HIGH SPEED EYE TRACKING
JP7496776B2 (ja) 2017-11-13 2024-06-07 ニューラブル インコーポレイテッド 高速、正確及び直観的なユーザ対話のための適合を有する脳-コンピュータインターフェース
KR20200108888A (ko) 2018-01-18 2020-09-21 뉴레이블 인크. 고속, 정확, 및 직관적 사용자 상호작용들을 위한 적응들을 갖는 뇌-컴퓨터 인터페이스
US20190286234A1 (en) 2018-03-19 2019-09-19 MindMaze Holdiing SA System and method for synchronized neural marketing in a virtual environment
US10664050B2 (en) 2018-09-21 2020-05-26 Neurable Inc. Human-computer interface using high-speed and accurate tracking of user interactions

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100100001A1 (en) * 2007-12-27 2010-04-22 Teledyne Scientific & Imaging, Llc Fixation-locked measurement of brain responses to stimuli
WO2009093435A1 (ja) * 2008-01-25 2009-07-30 Panasonic Corporation 脳波インタフェースシステム、脳波インタフェース装置、方法およびコンピュータプログラム
JP2012221498A (ja) * 2011-04-08 2012-11-12 Sony Computer Entertainment Inc ユーザーの視線、及びジェスチャによるフィードバック提供システム、及び方法
US20140347265A1 (en) * 2013-03-15 2014-11-27 Interaxon Inc. Wearable computing apparatus and method
US20160198091A1 (en) * 2013-09-03 2016-07-07 Seeing Machines Limited Low power eye tracking system and method
WO2017104869A1 (ko) * 2015-12-17 2017-06-22 주식회사 룩시드랩스 아이 브레인 인터페이스(ebi) 장치 및 그 제어 방법

Also Published As

Publication number Publication date
CN111629653A (zh) 2020-09-04
CN111629653B (zh) 2024-06-21
US11972049B2 (en) 2024-04-30
US20200192478A1 (en) 2020-06-18
US20220404910A1 (en) 2022-12-22
EP3672478A1 (en) 2020-07-01
KR20200101906A (ko) 2020-08-28
US11269414B2 (en) 2022-03-08
WO2019040665A1 (en) 2019-02-28
EP3672478A4 (en) 2021-05-19

Similar Documents

Publication Publication Date Title
US11972049B2 (en) Brain-computer interface with high-speed eye tracking features
US12001602B2 (en) Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions
US20200337653A1 (en) Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions
Lotte et al. Electroencephalography (EEG)-based brain-computer interfaces
Schmidt et al. Online detection of error-related potentials boosts the performance of mental typewriters
CA3020390A1 (en) Methods and systems for obtaining, aggregating, and analyzing vision data to assess a person&#39;s vision performance
Hosni et al. EEG-EOG based virtual keyboard: Toward hybrid brain computer interface
Rajyalakshmi et al. Exploration of recent advances in the field of brain computer interfaces
Das et al. A Review on Algorithms for EEG-Based BCIs
Tayade et al. An Empirical Evaluation of Brain Computer Interface Models from a Pragmatic Perspective
Müller-Putz et al. Electroencephalography and brain–computer interfaces
Andreeßen Towards real-world applicability of neuroadaptive technologies: investigating subject-independence, task-independence and versatility of passive brain-computer interfaces
CN111712192B (zh) 具有对于高速、准确和直观的用户交互的适配的大脑-计算机接口
Laport Lopez Novel developments of brain-computer interfaces for smart home control
Chatzilari et al. Multimodal BCIs–the hands-free Tetris paradigm
Vasiljevas Human-assistive interface model of physiological computing systems
Devi The Fusion of Human-Computer Interaction and Artificial Intelligence Leads to the Emergence of Brain Computer Interaction
Hanna Wearable Hybrid Brain Computer Interface as a Pathway for Environmental Control
Maruthachalam Analysis of artifacts in EEG signals for building BCIs
Chandra et al. Effective Brain Controlled Interface for Wheelchair: An Organized Review
Wang et al. The status of research into intention recognition
Sahu et al. Feature extraction and analysis of overt and covert EEG signals with speller devices
Bonci et al. An Introductory Tutorial on Brain–Computer Interfaces and Their Applications. Electronics 2021, 10, 560
Anil Towards Tactile P300 and Steady State Visual Evoked Potential (SSVEP) Brain Computer Interface Paradigms for Communication Applications
Ma Research on Human-Machine Interfaces of Vigilance Estimation and Robot Control based on Biomedical Signals

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230724

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240123

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240621